Jump to content
  • 0

Vosotros como descargáis html?


elmoyer
 Share

Question

Hola compañeros, 

 

estoy buscando un par de manuales de programación, para variar, y he encontrado una pagina que me esta gustando bastante así que ademas de plantear mi duda os la recomiendo xD. La pagina es: http://librosweb.es/

 

Y mi duda es la siguiente, en la sección de libros hay alguno que otro que me interesa y son de acceso libre pero no hay un enlace directo para su descarga. Al ir al libro deseado aparece un indice que llevan a html (http://librosweb.es/libro/xhtml/). Así que mi duda es, conocéis algún método que sea mas o menos rápido para descargar todos los html, a ser posible a la vez y que no tenga que ir archivo por archivo? xD

 

Gracias!

Edited by elmoyer
Link to comment
Share on other sites

11 answers to this question

Recommended Posts

  • 0

con el comando wget sería así : wget -r http://blog.desdelinux.net/ esto es antiguo yo lo use en su tiempo y funcionó muy bien. Por ejemplo wget - r www.debian.org imagina lo que te descarga, en teoría te descarga toda la web en cuestión

Link to comment
Share on other sites

  • 0

http://www.httrack.com/

 

Hay uno que se llama htmlget que es en java pero no lo encuentro.

 

LO busco pero no lo encuentro pero si un video -

 

http://youtu.be/cPN-o64aBog ese es html getter

Edited by portaro
Link to comment
Share on other sites

  • 0

Eso es lo que estaba buscando @@pacoeloyo lo único que al hacerlo recursivo  me descarga toda la pagina xD y si quito la recursividad solo me descarga el index :S 

Pero así tengo lectura para un tiempo :D :D

Link to comment
Share on other sites

  • 0

Saludos.

Yo cree un script en bash para hacer copias de seguridad del hosting o server, que para el caso es lo mismo, de los directorios que tu quieras, y que los comprime automáticamente.

 

Como utiliza ftp y wget, te pide usuario y contraseña de ftp, pero como esos sitios serán públicos bastará con poner anonymus :S

 

Si quieres mas información o bajártelo

http://haciendoweb.com/showthread.php?tid=57&pid=96#pid96

 

Saludos

Link to comment
Share on other sites

  • 0

Yo por mi parte encontre el programa en mi disco y lo subi a mega por si hace falta -

 

https://mega.co.nz/#!SVlDCLwA!HvjxodPudLy6-ppx3M7JONt5j-wxNSNSbbtpMZCutac

 

edito por si necesitais - para usarlo lo bajais, y abrid un terminal despues escribis

 

$ java -jar /path/donde/esta/el/archivo.jar

 

despues poner los url y a descargar, este paquete estaba en ubuntu 12.04 - software-center en el nuevo 14.04 no esta asi que lo ponemos por aqui.

Edited by portaro
Link to comment
Share on other sites

  • 0

Cuanto apoyo por parte de los compañeros! :D así da gusto :) :) :)

Normal que vayamos teniendo cada vez mas usuarios, si ven estos temas y dicen "me van a ayudar si o si" xD

Gracias!

Link to comment
Share on other sites

  • 0

Saludos.

Yo cree un script en bash para hacer copias de seguridad del hosting o server, que para el caso es lo mismo, de los directorios que tu quieras, y que los comprime automáticamente.

 

Como utiliza ftp y wget, te pide usuario y contraseña de ftp, pero como esos sitios serán públicos bastará con poner anonymus :S

 

Si quieres mas información o bajártelo

http://haciendoweb.com/showthread.php?tid=57&pid=96#pid96

 

Saludos

Saludos, chujalt...

Me gustaría echarle un par de ojos a ese script, pero... me distraigo con el porno :Cool2:

No tendrás ese script por ahí, no?

Te lo agradezco desde YA!

Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
 Share

×
×
  • Create New...