Questo articolo per la CLI del catalogo NGC che spiega come utilizzare la CLI.
Introduzione
La CLI del catalogo NVIDIA® GPU Cloud (NGC) è un'interfaccia a riga di comando per la gestione dei contenuti all'interno del registro NGC. La CLI opera all'interno di una shell e ti consente di utilizzare gli script per automatizzare i comandi. Con NGC Catalog CLI puoi
- Visualizza un elenco di immagini di container Docker con accelerazione GPU, modelli di deep learning pre-addestrati e script per la creazione di modelli di deep learning.
- Scarica modelli e script di modelli.
- Nota: Attualmente, la CLI del catalogo NGC non offre la possibilità di scaricare le immagini del contenitore. Per scaricare le immagini del contenitore, utilizza il comando pull della finestra mobile dalla riga di comando della finestra mobile.
Questo documento fornisce un'introduzione all'utilizzo della CLI del catalogo NGC. Per un elenco completo di comandi e opzioni, usa -h opzione come spiegato in Utilizzo dell'interfaccia a riga di comando di NGC .
Nota :Attualmente CLI NGC funziona solo con Ubuntu-18 per altri sistemi operativi, fare riferimento alla nostra documentazione GUI NGC:https://www.e2enetworks.com/help/knowledge-base/get-started-with-nvidia-docker-and-ngc-container-registry/#how-to-access -ngc-catalogo-software
Per scaricare contenuti all'interno del registro NGC
Il contenuto all'interno del registro NGC è bloccato o sbloccato. Il contenuto sbloccato è disponibile gratuitamente per il download da parte degli utenti ospiti. Per scaricare contenuti bloccati devi registrarti per un account utente della community NGC.
Utenti ospiti
Gli utenti guest possono accedere al sito Web di NGC senza dover effettuare l'accesso. Dal sito Web, gli utenti guest possono scaricare la CLI del catalogo NGC e iniziare a utilizzarla per visualizzare i contenuti e scaricare i contenuti sbloccati.
Utenti della comunità
Per essere un utente della comunità e scaricare contenuto NGC bloccato, devi registrarti per un account NGC, accedere al sito Web NGC con il tuo account e quindi generare una chiave API. Per istruzioni, consulta la Guida introduttiva a NVIDIA GPU Cloud.
Utilizzo della CLI del catalogo NGC
Per eseguire un comando CLI NGC, immettere "ngc" seguito dalle opzioni appropriate.
Per vedere una descrizione delle opzioni disponibili e delle descrizioni dei comandi, usa l'opzione -h dopo qualsiasi comando o opzione.
Esempio 1 :per visualizzare un elenco di tutte le opzioni disponibili per ngc, invio
root@localhost:~# ngc -h usage: ngc [--debug] [--format_type] [-h] [-v] {config,diag,registry} … NVIDIA NGC Catalog CLI optional arguments: -h, --help show this help message and exit -v, --version show the CLI version and exit. --debug Enables debug mode. --format_type Change output format type. Options: ascii, csv, json. ngc: {config,diag,registry} config Configuration Commands diag Diagnostic commands registry Registry Commands
Esempio 2: Per visualizzare una descrizione dell'immagine del registro comando e opzioni, inserisci
root@localhost:~# ngc registry image -h usage: ngc registry image [--debug] [--format_type] [-h] {info,list} … Container Image Registry Commands optional arguments: -h, --help show this help message and exit --debug Enables debug mode. --format_type Change output format type. Options: ascii, csv, json. image: {info,list} info Display information about an image repository or tagged image. list Lists container images accessible by the user
Esempio 3 :per visualizzare una descrizione delle informazioni sull'immagine del registro comando e opzioni, inserisci
root@localhost:~# ngc registry image info -h usage: ngc registry image info [--debug] [--details] [--format_type] [--history] [--layers] [-h] [:] Display information about an image repository or tagged image. positional arguments: [:] Name of the image repository or tagged image, [:] optional arguments: -h, --help show this help message and exit --debug Enables debug mode. --details Show the details of an image repository --format_type Change output format type. Options: ascii, csv, json. --history Show the history of a tagged image --layers Show the layers of a tagged image
Preparazione al download di contenuti bloccati
Se prevedi di scaricare contenuti bloccati, assicurati di aver registrato un account NGC e aver generato una chiave API , quindi emetti quanto segue e inserisci la tua chiave API al prompt.
root@localhost:~# ngc config set Enter API key [no-apikey]. Choices: [, 'no-apikey']:<your-api-key>
Accesso al Container Registry
L'immagine del registro ngc i comandi ti consentono di accedere a immagini del contenitore con accelerazione GPU pronte per l'uso dal registro.
Visualizzazione delle informazioni sull'immagine del contenitore
Sono disponibili diversi comandi per visualizzare le informazioni sulle immagini del contenitore disponibili.
Per elencare le immagini del contenitore:
root@localhost:~# ngc registry image list
Esempio di output
| TensorFlow | nvidia/tensorflow | 19.10-py3 | 3.39 GB | Oct 28, 2019 | unlocked | | TensorRT | nvidia/tensorrt | 19.10-py3 | 2.22 GB | Oct 28, 2019 | unlocked | | TensorRT Inference | nvidia/tensorrtserver | 19.10-py3 | 2.76 GB | Oct 28, 2019 | unlocked | | Server | | | | | | | Theano | nvidia/theano | 18.08 | 1.49 GB | Oct 18, 2019 | unlocked | | Transfer Learning | nvidia/tlt- | v1.0_py2 | 3.99 GB | Oct 21, 2019 | unlocked | | Toolkit for Video | streamanalytics | | | | | | Streaming Analytics | | | | | | | Torch | nvidia/torch | 18.08-py2 | 1.24 GB | Oct 18, 2019 | unlocked | | DeepStream - | nvidia/video- | latest | 2.52 GB | Oct 20, 2019 | unlocked | | Intelligent Video | analytics-demo | | | | | | Analytics Demo | | | | | | | Chainer | partners/chainer | 4.0.0b1 | 963.75 MB | Oct 18, 2019 | locked | | Deep Cognition Studio | partners/deep- | cuda9-2.5.1 | 2.05 GB | Oct 18, 2019 | locked | | | learning-studio | | | | | | DeepVision - | partners/deepvision/ad | onpremise-1.0.1 | 240.24 MB | Oct 21, 2019 | locked | | admin.console | min.console | | | | | | DeepVision - | partners/deepvision/ad | onpremise-1.0.1 | 753.95 KB | Oct 21, 2019 | locked | | admin.console.data | min.console.data | | | | | | DeepVision - | partners/deepvision/vf | onpremise-2.0.0 | 3.29 GB | Oct 21, 2019 | locked | | Demographics | .demographics | | | | |
Per visualizzare informazioni dettagliate su un'immagine specifica, specifica l'immagine e il tag.
Esempio :
root@localhost:~# ngc registry image info nvidia/tensorflow:19.10-py3 Image Information Name: nvidia/tensorflow:19.10-py3 Architecture: amd64 Schema Version: 1
Accesso al Model Registry
Il modello di registro ngc i comandi ti consentono di accedere a modelli di deep learning pronti per l'uso dal registro.
Visualizzazione delle informazioni sul modello
Sono disponibili diversi comandi per visualizzare le informazioni sui modelli disponibili.
Per visualizzare un elenco di modelli forniti da NVIDIA:
Esempio di output
+-----------------+-----------------+----------------+-----------------+--------------+-----------+---------------+------------+ | Name | Repository | Latest Version | Application | Framework | Precision | Last Modified | Permission | +-----------------+-----------------+----------------+-----------------+--------------+-----------+---------------+------------+ | BERT-Large | nvidia/bert_for | 1 | Language | TensorFlow | FP16 | Oct 18, 2019 | unlocked | | (pre-training) | tensorflow | | Modelling | | | | | | for TensorFlow | | | | | | | | | BERT-Large(pre- | nvidia/bert_tf | 1 | Language | Tensorflow | FP16 | Oct 19, 2019 | unlocked | | training using | pretraining_lam | | Modelling | | | | | | LAMB optimizer) | b_16n | | | | | | | | for TensorFlow | | | | | | | | | BERT-Base(fine- | nvidia/bert_tf_ | 2 | Language | Tensorflow | FP16 | Oct 18, 2019 | unlocked | | tuning) - SQuAD | v1_1_base_fp16_ | | Modelling | | | | | | 1.1, seqLen=128 | 128 | | | | | | | | BERT-Base(fine- | nvidia/bert_tf_ | 2 | Language | Tensorflow | FP16 | Oct 18, 2019 | unlocked | | tuning) - SQuAD | v1_1_base_fp16_ | | Modelling | | | | |
Per visualizzare tutte le versioni di un modello, utilizza il carattere jolly *.
root@localhost:~# ngc registry model list nvidia/bert_for_tensorflow:*
+---------+----------+---------+------------+-----------+-----------+-----------+--------+--------------+--------------+
| Version | Accuracy | Epochs | Batch Size | GPU Model | Memory | File Size | Owner | Status | Created Date |
| | | | | | Footprint | | | | |
+---------+----------+---------+------------+-----------+-----------+-----------+--------+--------------+--------------+
| 1 | | 1000000 | 256 | V100 | 4011 | 3.77 GB | NVIDIA | UPLOAD_COMPL | Jun 13, 2019 |
| | | | | | | | | ETE | |
+---------+----------+---------+------------+-----------+-----------+-----------+--------+--------------+--------------+
Per visualizzare informazioni dettagliate su un modello, puoi specificare
il modello
root@localhost:~# ngc registry model info nvidia/bert_for_tensorflow Model Information Name: bert_for_tensorflow Application: Language Modelling Framework: TensorFlow Model Format: TF ckpt Precision: FP16 Description: # BERT Large(pre-training) for TensorFlow
o la versione del modello.
root@localhost:~# ngc registry model info nvidia/bert_for_tensorflow:1 Model Version Information Id: 1 Batch Size: 256 Memory Footprint: 4011 Number Of Epochs: 1000000 Accuracy Reached: GPU Model: V100 Owner Name: NVIDIA Created Date: 2019-06-13T22:50:06.405Z Description: Pretrained weights for the BERT (pre-training) model. Status: UPLOAD_COMPLETE Total File Count: 3 Total Size: 3.77 GB
Download di un modello
Per scaricare un modello dal registro al disco locale, specifica il nome del modello e la versione.
root@localhost:~# ngc registry model download-version nvidia/<model-name:version>
Esempio :Download di un modello nella directory corrente.
root@localhost:~# ngc registry model download-version nvidia/bert_for_tensorflow:1 Downloaded 3.46 GB in 6m 22s, Download speed: 9.26 MB/s Transfer id: bert_for_tensorflow_v1 Download status: Completed. Downloaded local path: /root/bert_for_tensorflow_v1 Total files downloaded: 3 Total downloaded size: 3.46 GB Started at: 2019-10-30 18:14:23.667980 Completed at: 2019-10-30 18:20:46.313870 Duration taken: 6m 22s seconds
Il modello viene scaricato in una cartella che corrisponde al nome del modello nella directory corrente. Puoi specificare un altro percorso utilizzando -d . opzione.
root@localhost:~# ngc registry model download-version nvidia/bert_for_tensorflow:1 -d ./models
Visualizzazione delle informazioni sullo script del modello
Esistono diversi comandi per visualizzare le informazioni sugli script modello disponibili.
Per visualizzare un elenco di script modello forniti da NVIDIA:
root@localhost:~# ngc registry model-script list +-----------------+-----------------+----------------+-----------------+------------+-----------+---------------+------------+ | Name | Registry | Latest Version | Application | Framework | Precision | Last Modified | Permission | +-----------------+-----------------+----------------+-----------------+------------+-----------+---------------+------------+ | BERT for | nvidia/bert_for | 3 | NLP | PyTorch | FPBOTH | Oct 19, 2019 | unlocked | | PyTorch | _pytorch | | | | | | | | BERT for | nvidia/bert_for | 4 | NLP | TensorFlow | FPBOTH | Oct 21, 2019 | unlocked | | TensorFlow | _tensorflow | | | | | | | | Clara Deploy | nvidia/clara_de | 4 | SEGMENTATION | TensorFlow | FPBOTH | Oct 21, 2019 | unlocked | | SDK | ploy_sdk | | | | | | | | Clara AI | nvidia/clara_tr | 1 | KUBEFLOW_PIPELI | TensorFlow | FP32 | Oct 19, 2019 | locked | | Medical Imaging | ain | | NE | | | | |
Per visualizzare informazioni dettagliate su uno script modello, puoi specificare
il copione del modello
root@localhost:~# ngc registry model-script info nvidia/bert_for_pytorch model-script Information Name: bert_for_pytorch Application: NLP Training Framework: PyTorch Model Format: PyTorch PTH Precision: FP16, FP32
o la versione con script del modello.
root@localhost:~# ngc registry model-script info nvidia/bert_for_pytorch:3 model_script Version Information Id: 3 Batch Size: 0 Memory Footprint: 0 Number Of Epochs: 0 Accuracy Reached: 0.0 GPU Model: V100
Download di uno script modello
Per scaricare uno script modello dal registro al disco locale, specifica il nome e la versione dello script modello.
root@localhost:~# ngc registry model-script download-version nvidia/<model-script-name:version>
Esempio :Download di un modello nella directory corrente.
Quello che segue è un esempio che mostra l'output che conferma il completamento del download:
root@localhost:~# ngc registry model-script download-version nvidia/bert_for_pytorch:1 Downloaded 275.69 KB in 6s, Download speed: 45.87 KB/s Transfer id: bert_for_pytorch_v1 Download status: Completed. Downloaded local path: /root/bert_for_pytorch_v1 Total files downloaded: 49 Total downloaded size: 275.69 KB Started at: 2019-10-30 18:34:24.956435 Completed at: 2019-10-30 18:34:30.970395 Duration taken: 6s seconds
Il modello viene scaricato in una cartella che corrisponde al nome del modello nella directory corrente. Puoi specificare un altro percorso utilizzando -d . opzione.
Esempio :Download di uno script di modalità in una directory specifica (/model-scripts).
root@localhost:~# ngc registry model-script download-version nvidia/bert_for_pytorch:1 -d ./model-scripts