Ho bisogno di scaricare un sito FTP (un codice sorgente di un sito web in realtà) contenente una quantità molto elevata di file relativamente piccoli (il download con FileZilla ha richiesto più di un giorno, ma credo che potrebbe essere scaricato molto più velocemente se si scaricassero molti file su una volta). Sfortunatamente non c'è accesso SSH al sito e non c'è modo di archiviare i file sul lato server.
Quindi almeno la domanda è come scaricare un intero sito FTP in una cartella utilizzando gli strumenti della riga di comando. Sarebbe meglio se il download potesse essere parallelizzato scaricando molti file contemporaneamente anziché uno per uno.
Risposta accettata:
Prova quanto segue:
wget -r ftp://username:[email protected]
questo andrà a 5 livelli di profondità; per aumentare, aggiungi il -l
opzione
Ad alcuni server non piace questo comportamento e rischi di essere inserito nella lista nera a causa del carico sul server. Per evitare ciò, usa -w
opzione per attendere un determinato numero di secondi.
Maggiori informazioni (così come avvertenze) possono essere trovate qui:
http://www.gnu.org/software/wget/manual/wget.html#Recursive-Download
http://linuxreviews.org/quicktips/wget/
--user
e --password
gli argomenti sono utili per nomi utente/password con caratteri speciali.