GNU/Linux >> Linux Esercitazione >  >> Linux

Perché "wget ​​-r -e Robots=off Http://ccachicago.org" non agisce in modo ricorsivo?

Sto cercando di scaricare in modo ricorsivo http://ccachicago.org , e sto ottenendo esattamente un file, la radice index.html , scaricato.

Ho esaminato Scarica in modo ricorsivo con wget e ho iniziato a utilizzare il -e robots=off consigliato , ma si comporta sempre allo stesso modo.

Come, con wget o qualche altro strumento, posso scaricare una copia del sito?

Risposta accettata:

stai chiedendo wget per fare un ricorsivo download di http://ccachicago.org , ma questo URL non fornisce alcun contenuto diretto. invece è solo un reindirizzamento a http://www.ccachicago.org (che non hai detto a wget per recuperare ricorsivamente)..

se dici a wget per scaricare l'URL corretto funzionerà:

wget -r -e robots=off http://www....

Linux
  1. Perché /bin/sh punta a /bin/dash e non a /bin/bash??

  2. Quando dovrei usare /dev/shm/ e quando dovrei usare /tmp/?

  3. Perché mettere cose diverse da /home in una partizione separata?

  4. echo o print /dev/stdin /dev/stdout /dev/stderr

  5. Perché le directory /home, /usr, /var, ecc. hanno tutte lo stesso numero di inode (2)?

Installa i binari in /bin, /sbin, /usr/bin e /usr/sbin, interazioni con --prefix e DESTDIR

Le directory http statiche non vengono servite

Django static_root in /var/www/... - nessuna autorizzazione a collectstatic

Come scoprire da quale cartella è in esecuzione un processo?

unix:///var/run/supervisor.sock nessun file di questo tipo

I siti web dovrebbero vivere in /var/ o /usr/ in base all'utilizzo consigliato?