Puoi usare wget
comando per scaricare la pagina e leggerla in una variabile come:
content=$(wget google.com -q -O -)
echo $content
Usiamo il -O
opzione di wget
che ci permette di specificare il nome del file in cui wget
scarica il contenuto della pagina. Specifichiamo -
per ottenere il dump sullo standard output e raccoglierlo nella variabile content
. Puoi aggiungere il -q
opzione tranquilla per disattivare l'output di wget.
Puoi usare il comando curl per questo così come:
content=$(curl -L google.com)
echo $content
Dobbiamo usare il -L
opzione poiché la pagina che stiamo richiedendo potrebbe essere stata spostata. In tal caso, dobbiamo ottenere la pagina dalla nuova posizione. L'-L
o --location
option ci aiuta in questo.
Ci sono molti modi per ottenere una pagina dalla riga di comando... ma dipende anche se vuoi il codice sorgente o la pagina stessa:
Se hai bisogno del codice sorgente:
con arricciatura:
curl $url
con wget:
wget -O - $url
ma se vuoi ottenere ciò che puoi vedere con un browser, lynx può essere utile:
lynx -dump $url
Penso che tu possa trovare così tante soluzioni per questo piccolo problema, forse dovresti leggere tutte le pagine man per quei comandi. E non dimenticare di sostituire $url
dal tuo URL :)
Buona fortuna :)