Ir a contenido


Foto
- - - - -

Gestor De Descarga Para Megaupload


  • Please log in to reply
5 replies to this topic

#1 Franciskop

Franciskop

    Member

  • Hentais
  • Pip
  • 212 Mensajes:

Escrito 02 February 2007 - 02:21 PM

Antes de nada aclarar que no busco trucos milagrosos para descargar gratis de megaupload ni nada de eso. Tengo una cuenta premium y quiero sacarle todo el jugo desde linux.

Lo que pasa es lo siguiente, con los gestores normales (kget, d4x,...) puedo encolar las descargas pero la velocidad de descarga es penosa, y no es cosa del servidor porque si lo descargo con el navegador va al máximo.

He visto que para windows tienen su propio gestor, y existen programillas bastante majos, pero para linux no he encontrado nada.

Bueno, gracias y a ver si me podeis echar una mano. ;)

Este tema ha sido editado por Franciskop: 02 February 2007 - 02:25 PM


#2 Maeghith

Maeghith

    Zidane

  • FL Vintage
  • 4997 Mensajes:

Escrito 03 February 2007 - 02:02 PM

prueba curl

curl -O http://direccion.cosa/archivo1 http://dirección.cosa/archivo2

poniendo urls de una en una

o bien

curl -O http://direccion.cosa/archivo[0-n]

si las urls siguen un patrón sencillo con números
Imagen enviada
||-- navega sin temor --||-- /dev/soma --||-- flickr --||-- last.fm --||-- twitter --||
A foreign substance is introduced into our precious bodily fluids without the
knowledge of the individual, and certainly without any choice.

#3 Petrus

Petrus

    Super Advanced Member

  • Validating
  • PipPipPip
  • 1373 Mensajes:

Escrito 06 February 2007 - 02:35 PM

Malditas expresiones regulares :( ... como se podrían descargar todos los ficheros de una URL? poner simplemente * no funciona

#4 Maeghith

Maeghith

    Zidane

  • FL Vintage
  • 4997 Mensajes:

Escrito 07 February 2007 - 01:01 AM

curl no usa expresiones regulares, tiene un sistema propio de variantes (bastante más limitado que las RegEx por lo que he podido comprobar)

Resumiendolo: usa los [ y ] para delimitar rangos numéricos (admite relleno con ceros por delante), y { y } para proporcionar alternativas. No se pueden anidar, y si los nombres de los archivos incluyen esos símbolos, entonces no puedes usarlos por que se hace la picha un lío (hay un modificador para ello, lo explica el man).

Si las URL's son más complejas te toca hacer un script en lo que sepas (bash, perl, python, etc...).
Imagen enviada
||-- navega sin temor --||-- /dev/soma --||-- flickr --||-- last.fm --||-- twitter --||
A foreign substance is introduced into our precious bodily fluids without the
knowledge of the individual, and certainly without any choice.

#5 Takamura

Takamura

    Señor del Japón

  • FL Fansub
  • 2706 Mensajes:

Escrito 07 February 2007 - 02:57 PM

Malditas expresiones regulares :( ... como se podrían descargar todos los ficheros de una URL? poner simplemente * no funciona


Prueba con httrack o webhttrack.
El nacionalismo es la religión de los engreídos.

#6 Petrus

Petrus

    Super Advanced Member

  • Validating
  • PipPipPip
  • 1373 Mensajes:

Escrito 07 February 2007 - 07:31 PM

Un script majete ^_^ que extrae las URLs de un fichero HTML, ideal para pasarle la salida a wget:

http://sed.sourcefor...s/list_urls.sed




1 usuarios están leyendo este tema

0 miembros, 1 invitados, 0 usuarios anónimos