• 0
elmoyer

Ayuda GNU/Linux
Vosotros como descargáis html?

Pregunta

Hola compañeros, 

 

estoy buscando un par de manuales de programación, para variar, y he encontrado una pagina que me esta gustando bastante así que ademas de plantear mi duda os la recomiendo xD. La pagina es: http://librosweb.es/

 

Y mi duda es la siguiente, en la sección de libros hay alguno que otro que me interesa y son de acceso libre pero no hay un enlace directo para su descarga. Al ir al libro deseado aparece un indice que llevan a html (http://librosweb.es/libro/xhtml/). Así que mi duda es, conocéis algún método que sea mas o menos rápido para descargar todos los html, a ser posible a la vez y que no tenga que ir archivo por archivo? xD

 

Gracias!

Editado por elmoyer
Fransis, Rohlling, haihaya y 1 otro le gusta esto

Compartir este post


Enlace al post
Compartir en otros sitios

11 respuestas a esta pregunta

  • 0

con el comando wget sería así : wget -r http://blog.desdelinux.net/ esto es antiguo yo lo use en su tiempo y funcionó muy bien. Por ejemplo wget - r www.debian.org imagina lo que te descarga, en teoría te descarga toda la web en cuestión

haihaya, elmoyer, Jaska y 5 otros le gusta esto

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

http://www.httrack.com/

 

Hay uno que se llama htmlget que es en java pero no lo encuentro.

 

LO busco pero no lo encuentro pero si un video -

 

http://youtu.be/cPN-o64aBog ese es html getter

Editado por portaro

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Saludos.

Yo cree un script en bash para hacer copias de seguridad del hosting o server, que para el caso es lo mismo, de los directorios que tu quieras, y que los comprime automáticamente.

 

Como utiliza ftp y wget, te pide usuario y contraseña de ftp, pero como esos sitios serán públicos bastará con poner anonymus :S

 

Si quieres mas información o bajártelo

http://haciendoweb.com/showthread.php?tid=57&pid=96#pid96

 

Saludos

elmoyer, Rohlling, portaro y 5 otros le gusta esto

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Yo por mi parte encontre el programa en mi disco y lo subi a mega por si hace falta -

 

https://mega.co.nz/#!SVlDCLwA!HvjxodPudLy6-ppx3M7JONt5j-wxNSNSbbtpMZCutac

 

edito por si necesitais - para usarlo lo bajais, y abrid un terminal despues escribis

 

$ java -jar /path/donde/esta/el/archivo.jar

 

despues poner los url y a descargar, este paquete estaba en ubuntu 12.04 - software-center en el nuevo 14.04 no esta asi que lo ponemos por aqui.

Editado por portaro
pacoeloyo, elmoyer, Fransis y 3 otros le gusta esto

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Saludos.

Yo cree un script en bash para hacer copias de seguridad del hosting o server, que para el caso es lo mismo, de los directorios que tu quieras, y que los comprime automáticamente.

 

Como utiliza ftp y wget, te pide usuario y contraseña de ftp, pero como esos sitios serán públicos bastará con poner anonymus :S

 

Si quieres mas información o bajártelo

http://haciendoweb.com/showthread.php?tid=57&pid=96#pid96

 

Saludos

Saludos, chujalt...

Me gustaría echarle un par de ojos a ese script, pero... me distraigo con el porno :Cool2:

No tendrás ese script por ahí, no?

Te lo agradezco desde YA!

Rohlling y pacoeloyo le gusta esto

Compartir este post


Enlace al post
Compartir en otros sitios

Registra una cuenta o conéctate para comentar

Debes ser un miembro de la comunidad para dejar un comentario

Crear una cuenta

Regístrate en nuestra comunidad. ¡Es fácil!


Registrar una cuenta nueva

Iniciar Sesión

¿Ya tienes cuenta? Conéctate aquí.


Iniciar Sesión