GNU/Linux >> Linux Esercitazione >  >> Ubuntu

Come utilizzare la CLI del catalogo NVIDIA® GPU Cloud (NGC) sul server GPU di E2E.

Questo articolo per la CLI del catalogo NGC che spiega come utilizzare la CLI.

Introduzione

La CLI del catalogo NVIDIA® GPU Cloud (NGC) è un'interfaccia a riga di comando per la gestione dei contenuti all'interno del registro NGC. La CLI opera all'interno di una shell e ti consente di utilizzare gli script per automatizzare i comandi. Con NGC Catalog CLI puoi

  • Visualizza un elenco di immagini di container Docker con accelerazione GPU, modelli di deep learning pre-addestrati e script per la creazione di modelli di deep learning.
  • Scarica modelli e script di modelli.
  • Nota: Attualmente, la CLI del catalogo NGC non offre la possibilità di scaricare le immagini del contenitore. Per scaricare le immagini del contenitore, utilizza il comando pull della finestra mobile dalla riga di comando della finestra mobile.

Questo documento fornisce un'introduzione all'utilizzo della CLI del catalogo NGC. Per un elenco completo di comandi e opzioni, usa -h opzione come spiegato in Utilizzo dell'interfaccia a riga di comando di NGC .

Nota :Attualmente CLI NGC funziona solo con Ubuntu-18 per altri sistemi operativi, fare riferimento alla nostra documentazione GUI NGC:https://www.e2enetworks.com/help/knowledge-base/get-started-with-nvidia-docker-and-ngc-container-registry/#how-to-access -ngc-catalogo-software

Per scaricare contenuti all'interno del registro NGC

Il contenuto all'interno del registro NGC è bloccato o sbloccato. Il contenuto sbloccato è disponibile gratuitamente per il download da parte degli utenti ospiti. Per scaricare contenuti bloccati devi registrarti per un account utente della community NGC.

Utenti ospiti

Gli utenti guest possono accedere al sito Web di NGC senza dover effettuare l'accesso. Dal sito Web, gli utenti guest possono scaricare la CLI del catalogo NGC e iniziare a utilizzarla per visualizzare i contenuti e scaricare i contenuti sbloccati.

Utenti della comunità

Per essere un utente della comunità e scaricare contenuto NGC bloccato, devi registrarti per un account NGC, accedere al sito Web NGC con il tuo account e quindi generare una chiave API. Per istruzioni, consulta la Guida introduttiva a NVIDIA GPU Cloud.

Utilizzo della CLI del catalogo NGC

Per eseguire un comando CLI NGC, immettere "ngc" seguito dalle opzioni appropriate.

Per vedere una descrizione delle opzioni disponibili e delle descrizioni dei comandi, usa l'opzione -h dopo qualsiasi comando o opzione.

Esempio 1 :per visualizzare un elenco di tutte le opzioni disponibili per ngc, invio

root@localhost:~# ngc -h
 usage: ngc [--debug] [--format_type] [-h] [-v] {config,diag,registry} …
 NVIDIA NGC Catalog CLI
 optional arguments:
   -h, --help            show this help message and exit
   -v, --version         show the CLI version and exit.
   --debug               Enables debug mode.
   --format_type         Change output format type. Options: ascii, csv, json.
 ngc:
   {config,diag,registry}
     config              Configuration Commands
     diag                Diagnostic commands
     registry            Registry Commands

Esempio 2: Per visualizzare una descrizione dell'immagine del registro comando e opzioni, inserisci

root@localhost:~# ngc registry image -h
 usage: ngc registry image [--debug] [--format_type] [-h] {info,list} …
 Container Image Registry Commands
 optional arguments:
   -h, --help      show this help message and exit
   --debug         Enables debug mode.
   --format_type   Change output format type. Options: ascii, csv, json.
 image:
   {info,list}
     info          Display information about an image repository or tagged
                   image.
     list          Lists container images accessible by the user

​Esempio 3 :per visualizzare una descrizione delle informazioni sull'immagine del registro comando e opzioni, inserisci

root@localhost:~# ngc registry image info -h
 usage: ngc registry image info [--debug] [--details] [--format_type]
                                [--history] [--layers] [-h]
                                
[:]
 Display information about an image repository or tagged image.
 positional arguments:
   
[:]  Name of the image repository or tagged image,
                    
[:]
 optional arguments:
   -h, --help       show this help message and exit
   --debug          Enables debug mode.
   --details        Show the details of an image repository
   --format_type    Change output format type. Options: ascii, csv, json.
   --history        Show the history of a tagged image
   --layers         Show the layers of a tagged image

Preparazione al download di contenuti bloccati

Se prevedi di scaricare contenuti bloccati, assicurati di aver registrato un account NGC e aver generato una chiave API , quindi emetti quanto segue e inserisci la tua chiave API al prompt.

root@localhost:~# ngc config set 
 Enter API key [no-apikey]. Choices: [, 'no-apikey']:<your-api-key>

Accesso al Container Registry

L'immagine del registro ngc i comandi ti consentono di accedere a immagini del contenitore con accelerazione GPU pronte per l'uso dal registro.

Visualizzazione delle informazioni sull'immagine del contenitore

Sono disponibili diversi comandi per visualizzare le informazioni sulle immagini del contenitore disponibili.

Per elencare le immagini del contenitore:

root@localhost:~# ngc registry image list

Esempio di output

| TensorFlow            | nvidia/tensorflow      | 19.10-py3              | 3.39 GB    | Oct 28, 2019 | unlocked   |
 | TensorRT              | nvidia/tensorrt        | 19.10-py3              | 2.22 GB    | Oct 28, 2019 | unlocked   |
 | TensorRT Inference    | nvidia/tensorrtserver  | 19.10-py3              | 2.76 GB    | Oct 28, 2019 | unlocked   |
 | Server                |                        |                        |            |              |            |
 | Theano                | nvidia/theano          | 18.08                  | 1.49 GB    | Oct 18, 2019 | unlocked   |
 | Transfer Learning     | nvidia/tlt-            | v1.0_py2               | 3.99 GB    | Oct 21, 2019 | unlocked   |
 | Toolkit for Video     | streamanalytics        |                        |            |              |            |
 | Streaming Analytics   |                        |                        |            |              |            |
 | Torch                 | nvidia/torch           | 18.08-py2              | 1.24 GB    | Oct 18, 2019 | unlocked   |
 | DeepStream -          | nvidia/video-          | latest                 | 2.52 GB    | Oct 20, 2019 | unlocked   |
 | Intelligent Video     | analytics-demo         |                        |            |              |            |
 | Analytics Demo        |                        |                        |            |              |            |
 | Chainer               | partners/chainer       | 4.0.0b1                | 963.75 MB  | Oct 18, 2019 | locked     |
 | Deep Cognition Studio | partners/deep-         | cuda9-2.5.1            | 2.05 GB    | Oct 18, 2019 | locked     |
 |                       | learning-studio        |                        |            |              |            |
 | DeepVision -          | partners/deepvision/ad | onpremise-1.0.1        | 240.24 MB  | Oct 21, 2019 | locked     |
 | admin.console         | min.console            |                        |            |              |            |
 | DeepVision -          | partners/deepvision/ad | onpremise-1.0.1        | 753.95 KB  | Oct 21, 2019 | locked     |
 | admin.console.data    | min.console.data       |                        |            |              |            |
 | DeepVision -          | partners/deepvision/vf | onpremise-2.0.0        | 3.29 GB    | Oct 21, 2019 | locked     |
 | Demographics          | .demographics          |                        |            |              |            |

Per visualizzare informazioni dettagliate su un'immagine specifica, specifica l'immagine e il tag.

Esempio :

root@localhost:~# ngc registry image info nvidia/tensorflow:19.10-py3
 Image Information
     Name: nvidia/tensorflow:19.10-py3
     Architecture: amd64
     Schema Version: 1

Accesso al Model Registry

Il modello di registro ngc i comandi ti consentono di accedere a modelli di deep learning pronti per l'uso dal registro.

Visualizzazione delle informazioni sul modello

Sono disponibili diversi comandi per visualizzare le informazioni sui modelli disponibili.

Per visualizzare un elenco di modelli forniti da NVIDIA:

Esempio di output

+-----------------+-----------------+----------------+-----------------+--------------+-----------+---------------+------------+
 | Name            | Repository      | Latest Version | Application     | Framework    | Precision | Last Modified | Permission |
 +-----------------+-----------------+----------------+-----------------+--------------+-----------+---------------+------------+
 | BERT-Large      | nvidia/bert_for | 1              | Language        | TensorFlow   | FP16      | Oct 18, 2019  | unlocked   |
 | (pre-training)  | tensorflow     |                | Modelling       |              |           |               |            | | for TensorFlow  |                 |                |                 |              |           |               |            | | BERT-Large(pre- | nvidia/bert_tf | 1              | Language        | Tensorflow   | FP16      | Oct 19, 2019  | unlocked   |
 | training using  | pretraining_lam |                | Modelling       |              |           |               |            |
 | LAMB optimizer) | b_16n           |                |                 |              |           |               |            |
 | for TensorFlow  |                 |                |                 |              |           |               |            |
 | BERT-Base(fine- | nvidia/bert_tf_ | 2              | Language        | Tensorflow   | FP16      | Oct 18, 2019  | unlocked   |
 | tuning) - SQuAD | v1_1_base_fp16_ |                | Modelling       |              |           |               |            |
 | 1.1, seqLen=128 | 128             |                |                 |              |           |               |            |
 | BERT-Base(fine- | nvidia/bert_tf_ | 2              | Language        | Tensorflow   | FP16      | Oct 18, 2019  | unlocked   |
 | tuning) - SQuAD | v1_1_base_fp16_ |                | Modelling       |              |           |               |            |

Per visualizzare tutte le versioni di un modello, utilizza il carattere jolly *.

root@localhost:~# ngc registry model list nvidia/bert_for_tensorflow:*
+---------+----------+---------+------------+-----------+-----------+-----------+--------+--------------+--------------+
| Version | Accuracy | Epochs | Batch Size | GPU Model | Memory | File Size | Owner | Status | Created Date |
| | | | | | Footprint | | | | |
+---------+----------+---------+------------+-----------+-----------+-----------+--------+--------------+--------------+
| 1 | | 1000000 | 256 | V100 | 4011 | 3.77 GB | NVIDIA | UPLOAD_COMPL | Jun 13, 2019 |
| | | | | | | | | ETE | |
+---------+----------+---------+------------+-----------+-----------+-----------+--------+--------------+--------------+

Per visualizzare informazioni dettagliate su un modello, puoi specificare

il modello

root@localhost:~# ngc registry model info nvidia/bert_for_tensorflow
 Model Information
     Name: bert_for_tensorflow
     Application: Language Modelling
     Framework: TensorFlow
     Model Format: TF ckpt
     Precision: FP16
     Description: 
         # BERT Large(pre-training) for TensorFlow

o la versione del modello.

root@localhost:~# ngc registry model info nvidia/bert_for_tensorflow:1
 Model Version Information
     Id: 1
     Batch Size: 256
     Memory Footprint: 4011
     Number Of Epochs: 1000000
     Accuracy Reached: 
     GPU Model: V100
     Owner Name: NVIDIA
     Created Date: 2019-06-13T22:50:06.405Z
     Description: 
         Pretrained weights for the BERT (pre-training) model.
     Status: UPLOAD_COMPLETE
     Total File Count: 3
     Total Size: 3.77 GB

Download di un modello

Per scaricare un modello dal registro al disco locale, specifica il nome del modello e la versione.

root@localhost:~# ngc registry model download-version nvidia/<model-name:version>

Esempio :Download di un modello nella directory corrente.

root@localhost:~# ngc registry model download-version nvidia/bert_for_tensorflow:1
 Downloaded 3.46 GB in 6m 22s, Download speed: 9.26 MB/s                  
 Transfer id: bert_for_tensorflow_v1 Download status: Completed.
 Downloaded local path: /root/bert_for_tensorflow_v1
 Total files downloaded: 3 
 Total downloaded size: 3.46 GB
 Started at: 2019-10-30 18:14:23.667980
 Completed at: 2019-10-30 18:20:46.313870
 Duration taken: 6m 22s seconds

Il modello viene scaricato in una cartella che corrisponde al nome del modello nella directory corrente. Puoi specificare un altro percorso utilizzando -d . opzione.

root@localhost:~# ngc registry model download-version nvidia/bert_for_tensorflow:1 -d ./models

Visualizzazione delle informazioni sullo script del modello

Esistono diversi comandi per visualizzare le informazioni sugli script modello disponibili.

Per visualizzare un elenco di script modello forniti da NVIDIA:

root@localhost:~# ngc registry model-script list

+-----------------+-----------------+----------------+-----------------+------------+-----------+---------------+------------+

| Name            | Registry        | Latest Version | Application     | Framework  | Precision | Last Modified | Permission |

+-----------------+-----------------+----------------+-----------------+------------+-----------+---------------+------------+

| BERT for        | nvidia/bert_for | 3              | NLP             | PyTorch    | FPBOTH    | Oct 19, 2019  | unlocked   |

| PyTorch         | _pytorch        |                |                 |            |           |               |            |

| BERT for        | nvidia/bert_for | 4              | NLP             | TensorFlow | FPBOTH    | Oct 21, 2019  | unlocked   |

| TensorFlow      | _tensorflow     |                |                 |            |           |               |            |

| Clara Deploy    | nvidia/clara_de | 4              | SEGMENTATION    | TensorFlow | FPBOTH    | Oct 21, 2019  | unlocked   |

| SDK             | ploy_sdk        |                |                 |            |           |               |            |

| Clara AI        | nvidia/clara_tr | 1              | KUBEFLOW_PIPELI | TensorFlow | FP32      | Oct 19, 2019  | locked     |

| Medical Imaging | ain             |                | NE              |            |           |               |            |

Per visualizzare informazioni dettagliate su uno script modello, puoi specificare

il copione del modello

root@localhost:~# ngc registry model-script info nvidia/bert_for_pytorch
 model-script Information
     Name: bert_for_pytorch
     Application: NLP
     Training Framework: PyTorch
     Model Format: PyTorch PTH
     Precision: FP16, FP32

o la versione con script del modello.

root@localhost:~# ngc registry model-script info nvidia/bert_for_pytorch:3
 model_script Version Information
     Id: 3
     Batch Size: 0
     Memory Footprint: 0
     Number Of Epochs: 0
     Accuracy Reached: 0.0
     GPU Model: V100

Download di uno script modello

Per scaricare uno script modello dal registro al disco locale, specifica il nome e la versione dello script modello.

root@localhost:~# ngc registry model-script download-version nvidia/<model-script-name:version>

Esempio :Download di un modello nella directory corrente.

Quello che segue è un esempio che mostra l'output che conferma il completamento del download:

root@localhost:~# ngc registry model-script download-version nvidia/bert_for_pytorch:1
 Downloaded 275.69 KB in 6s, Download speed: 45.87 KB/s               
 Transfer id: bert_for_pytorch_v1 Download status: Completed.
 Downloaded local path: /root/bert_for_pytorch_v1
 Total files downloaded: 49 
 Total downloaded size: 275.69 KB
 Started at: 2019-10-30 18:34:24.956435
 Completed at: 2019-10-30 18:34:30.970395
 Duration taken: 6s seconds

Il modello viene scaricato in una cartella che corrisponde al nome del modello nella directory corrente. Puoi specificare un altro percorso utilizzando -d . opzione.

Esempio :Download di uno script di modalità in una directory specifica (/model-scripts).

root@localhost:~# ngc registry model-script download-version nvidia/bert_for_pytorch:1 -d ./model-scripts

Ubuntu
  1. Come installare e utilizzare Telnet su Ubuntu 20.04 LTS

  2. Come installare gli strumenti della CLI di SQL Server e SQL Server su Ubuntu

  3. Come utilizzare il server dedicato

  4. Limitazioni dell'immagine del server cloud

  5. Come utilizzare Ubuntu Server Disk Top

Come trovare l'indirizzo IP del server DHCP in Linux utilizzando la CLI

Come usare Eye of Gnome Image Viewer in Ubuntu

Come installare Plex Media Server su Ubuntu 16.04 Server/Desktop

Come installare Jellyfin Media Server su Ubuntu 20.04 LTS Server/Desktop

Come eseguire il rollback di un server cloud

Come abilitare i backup su cloud