GNU/Linux >> Linux Esercitazione >  >> Linux

Automatizzare le richieste Web utilizzando Curl?

Ho dei sistemi “corporativi” che devo usare al lavoro. Alcuni di loro sono terribili, con cornici, pop-up e simili.

Stavo pensando di automatizzare alcune cose usando curl o qualcosa del genere. Ho bisogno di accedere, fare clic sui collegamenti ipertestuali, impostare alcuni dati e pubblicare alcuni post.

È possibile utilizzare il curl? O starò meglio usando qualcosa come il selenio?

Risposta accettata:

Sì, è completamente possibile con curl. La cosa più importante sarà salvare e ricaricare i cookie tra gli usi di curl con --cookie-jar . Puoi anche inviare i dati del modulo secondo necessità. Di solito utilizzo un componente aggiuntivo di Firefox chiamato Live HTTP Headers per acquisire ciò che accade quando navigo in un sito Web. Registrerà tutte le intestazioni, ma anche i post dei moduli, il che è molto utile quando si cerca di capire cosa fare con curl. Ho scritto script bash automatizzando varie invocazioni curl e utilizzando pipe e file temporanei (per gentile concessione di mktemp ) per eseguire alcune elaborazioni limitate sulla pagina Web, ma se devo eseguire molte elaborazioni della pagina Web di solito passo a Perl con LibWWW.


Linux
  1. Controllo dello stato di salute della pagina Web utilizzando Curl?

  2. wget vs curl:come scaricare file usando wget e curl

  3. Come faccio a scaricare un tarball da GitHub usando cURL?

  4. automatizzare la sessione telnet utilizzando gli script bash

  5. Esecuzione di un'app Qt sul Web

Utilizzo di Curl per effettuare richieste API REST

Come condividere il tuo terminale sul Web utilizzando Streamhut

Gestisci macchine virtuali KVM utilizzando la console Web Cockpit

Utilizzo del certificato client nel comando Curl

RabbitMQ - Ottieni messaggi da una coda usando curl

rsync usando regex per includere solo alcuni file