Saltar al contenido

Gnu/Linux Vagos usa cookies. Lea nuestra Política de privacidad para más información.    Acepto el uso de cookies

Foto
Ayuda GNU/Linux

Vosotros como descargáis html?

Ayuda GNU/Linux Ayuda Mascotas

Solución pacoeloyo , 22 February 2015 - 01:38

con el comando wget sería así : wget -r http://blog.desdelinux.net/ esto es antiguo yo lo use en su tiempo y funcionó muy bien. Por ejemplo wget - r www.debian.org imagina lo que te descarga, en teoría te descarga toda la web en cuestión Ir al mensaje


  • Por favor, loguéate para poder responder
11 respuestas a este tema

#1 DESCONECTADO   elmoyer

elmoyer

    Gurú

  • Registrado: 23/08/2014
  • Mensajes: 599
  • Galletas: 2282

Género:






Lugar:/root/

Intereses:música, lingüística y tecnología.

Escrito 21 February 2015 - 23:10

Hola compañeros, 

 

estoy buscando un par de manuales de programación, para variar, y he encontrado una pagina que me esta gustando bastante así que ademas de plantear mi duda os la recomiendo xD. La pagina es: http://librosweb.es/

 

Y mi duda es la siguiente, en la sección de libros hay alguno que otro que me interesa y son de acceso libre pero no hay un enlace directo para su descarga. Al ir al libro deseado aparece un indice que llevan a html (http://librosweb.es/libro/xhtml/). Así que mi duda es, conocéis algún método que sea mas o menos rápido para descargar todos los html, a ser posible a la vez y que no tenga que ir archivo por archivo? xD

 

Gracias!


Editado por elmoyer, 21 February 2015 - 23:10 .

  • Jaska, Fransis, Rohlling y 1 otro le gusta esto

#2 DESCONECTADO   portaro

portaro

    Gran Pingüino

  • Registrado: 20/07/2012
  • Mensajes: 2140
  • Galletas: 8190

Género:









Lugar:Chaves - Portugal

Intereses:Antropologia & Humanidades.
Gambas.
GNU/Linux.
Programación Básica.

Escrito 21 February 2015 - 23:25

http://www.httrack.com/

 

Hay uno que se llama htmlget que es en java pero no lo encuentro.

 

LO busco pero no lo encuentro pero si un video -

 

ese es html getter


Editado por portaro, 21 February 2015 - 23:53 .

  • Shiba87, pacoeloyo, Fransis y 4 mas les gusta esto

#3 ONLINE   pacoeloyo

pacoeloyo

    Dios pingüino

  • Registrado: 20/07/2012
  • Mensajes: 2624
  • Galletas: 10669

Género:









Lugar:costa granadina

Intereses:Mi hija, y seguir avanzando en la vida

Escrito 22 February 2015 - 01:38   Solución

con el comando wget sería así : wget -r http://blog.desdelinux.net/ esto es antiguo yo lo use en su tiempo y funcionó muy bien. Por ejemplo wget - r www.debian.org imagina lo que te descarga, en teoría te descarga toda la web en cuestión
  • Shiba87, Jaska, Fransis y 5 mas les gusta esto

Me rompes el alma con tu fragilidad y tu tristeza. No se qué clase de alimaña te pudo infringir tanto dolor. Me duele en las entrañas tu pena. Pero te juro que tienes mi mano para agarrarte. Que tienes dentro de ti la fuerza que no encuentras. Que aunque el mundo te abandone, siempre contarás con mi ayuda, y que, aunque hayas llegado a creer a los que decían que no vales nada, tú, como cada persona de este mundo,

tiene el valor de un universo entero.

Levánta la cabeza. Sonríe. Se feliz.

Gnu/Linux x86_64 kernel 3.13.0-100 Almuñequero-Sexitano Granadino

Somos linuxeros y estamos orgullosos de serlo!

Cada uno en su sitio, pero unidos por una misma causa


#4 DESCONECTADO   elmoyer

elmoyer

    Gurú

  • Registrado: 23/08/2014
  • Mensajes: 599
  • Galletas: 2282

Género:






Lugar:/root/

Intereses:música, lingüística y tecnología.

Escrito 22 February 2015 - 10:31

Eso es lo que estaba buscando @pacoeloyo lo único que al hacerlo recursivo  me descarga toda la pagina xD y si quito la recursividad solo me descarga el index :S 

Pero así tengo lectura para un tiempo :D :D


  • Jaska, pacoeloyo, Fransis y 2 mas les gusta esto

#5 DESCONECTADO   mijailbellum

mijailbellum

    Linuxero

  • Registrado: 25/08/2014
  • Mensajes: 325
  • Galletas: 1257

Género:





Escrito 22 February 2015 - 10:54

Con wget --help puedes ver las opciones disponibles, puedes marcar el limite de la recursividad con -l y demás, estúdialo un poco a ver si consigues hacerlo más eficientemente.


  • Shiba87, pacoeloyo, Fransis y 3 mas les gusta esto

"Si quieres entender el universo, piensa en energía, frecuencia y vibración."

Nikola Tesla


#6 DESCONECTADO   chujalt

chujalt

    Miembro

  • Registrado: 01/07/2013
  • Mensajes: 104
  • Galletas: 362

Género:







Lugar:Alicante

Escrito 22 February 2015 - 13:25

Saludos.
Yo cree un script en bash para hacer copias de seguridad del hosting o server, que para el caso es lo mismo, de los directorios que tu quieras, y que los comprime automáticamente.

Como utiliza ftp y wget, te pide usuario y contraseña de ftp, pero como esos sitios serán públicos bastará con poner anonymus :S

Si quieres mas información o bajártelo
http://haciendoweb.c...57&pid=96#pid96

Saludos
  • Shiba87, pacoeloyo, portaro y 5 mas les gusta esto

ERES GRANDE CHUCK
chuck.gif

 

http://chujalt.com


#7 DESCONECTADO   portaro

portaro

    Gran Pingüino

  • Registrado: 20/07/2012
  • Mensajes: 2140
  • Galletas: 8190

Género:









Lugar:Chaves - Portugal

Intereses:Antropologia & Humanidades.
Gambas.
GNU/Linux.
Programación Básica.

Escrito 23 February 2015 - 00:52

Yo por mi parte encontre el programa en mi disco y lo subi a mega por si hace falta -

 

https://mega.co.nz/#...NSNSbbtpMZCutac

 

edito por si necesitais - para usarlo lo bajais, y abrid un terminal despues escribis

 

$ java -jar /path/donde/esta/el/archivo.jar

 

despues poner los url y a descargar, este paquete estaba en ubuntu 12.04 - software-center en el nuevo 14.04 no esta asi que lo ponemos por aqui.


Editado por portaro, 23 February 2015 - 22:25 .

  • pacoeloyo, Fransis, Rohlling y 3 mas les gusta esto

#8 DESCONECTADO   elmoyer

elmoyer

    Gurú

  • Registrado: 23/08/2014
  • Mensajes: 599
  • Galletas: 2282

Género:






Lugar:/root/

Intereses:música, lingüística y tecnología.

Escrito 23 February 2015 - 15:11

Cuanto apoyo por parte de los compañeros! :D así da gusto :) :) :)

Normal que vayamos teniendo cada vez mas usuarios, si ven estos temas y dicen "me van a ayudar si o si" xD

Gracias!


  • Shiba87, pacoeloyo, portaro y 5 mas les gusta esto

#9 DESCONECTADO   Rohlling

Rohlling

    Gran Pingüino

  • Registrado: 19/11/2013
  • Mensajes: 1681
  • Galletas: 6058

Género:










Lugar:/home/rohlling

Intereses:tecnología y música

Escrito 28 September 2015 - 13:57

Creo que encontré algunos para descargar en otro sitio.


  • pacoeloyo, Fransis y elmoyer les gusta esto

Los experimentos: en casa y con gaseosa.


#10 DESCONECTADO   erremartin

erremartin

    Recién llegado

  • Registrado: 29/12/2016
  • Mensajes: 7
  • Galletas: 21

Género:





Escrito 01 January 2017 - 14:35

Saludos.
Yo cree un script en bash para hacer copias de seguridad del hosting o server, que para el caso es lo mismo, de los directorios que tu quieras, y que los comprime automáticamente.

Como utiliza ftp y wget, te pide usuario y contraseña de ftp, pero como esos sitios serán públicos bastará con poner anonymus :S

Si quieres mas información o bajártelo
http://haciendoweb.c...57&pid=96#pid96

Saludos

Saludos, chujalt...

Me gustaría echarle un par de ojos a ese script, pero... me distraigo con el porno :Cool2:

No tendrás ese script por ahí, no?

Te lo agradezco desde YA!


  • pacoeloyo y Rohlling les gusta esto

#11 DESCONECTADO   chujalt

chujalt

    Miembro

  • Registrado: 01/07/2013
  • Mensajes: 104
  • Galletas: 362

Género:







Lugar:Alicante

Escrito 01 January 2017 - 20:36

Saludos erremartin....

 

Te lo puedes bajar de aquí: http://chujalt.com/2...rios-en-hosting

 

Espero que te sirva.


  • pacoeloyo, Rohlling y erremartin les gusta esto

ERES GRANDE CHUCK
chuck.gif

 

http://chujalt.com


#12 DESCONECTADO   erremartin

erremartin

    Recién llegado

  • Registrado: 29/12/2016
  • Mensajes: 7
  • Galletas: 21

Género:





Escrito 01 January 2017 - 21:31

muchas gracias!

Te mereces un par de galletas!


  • pacoeloyo y Rohlling les gusta esto





También etiquetado con una o más de estas palabras: Ayuda GNU/Linux, Ayuda Mascotas