Container Di Deep Learning

INIZIA CON NVIDIA GPU CLOUD E AMAZON EC2

NVIDIA GPU Cloud (NGC) è una piattaforma cloud accelerata da GPU che permette di iniziare velocemente a utilizzare framework di deep learning in azienda o su Amazon Elastic Compute Cloud (Amazon EC2) e altri fornitori di servizi cloud che verranno aggiunti a breve.

Guarda il video >

TRE MOTIVI PER SCEGLIERE NVIDIA GPU CLOUD

  1. INNOVAZIONE PER TUTTI I SETTORI INDUSTRIALI

    Scienziati e ricercatori possono sfruttare subito la potenza dell'intelligenza artificiale targata NVIDIA con l'architettura per GPU più veloce del mondo e container con framework di deep learning ottimizzati su NVIDIA GPU Cloud. L'IA di NVIDIA sta contribuendo alla risoluzione di alcune tra le problematiche più complesse che affliggono l'umanità. Le soluzioni NVIDIA contribuiscono a diagnosticare precocemente e a individuare i trattamenti per curare malattie infettive, aiutano a ridurre gli incidenti dovuti al traffico, a individuare imperfezioni in infrastrutture critiche, a fornire dati aziendali approfonditi e su larga scala e tanto altro ancora. L'IA di NVIDIA sta trasformando ogni settore industriale, da quello automobilistico a quello sanitario to fino alle tecnologie più sofisticate.
  2. È ORA DI DIRE ADDIO AL FAI DA TE

    NVIDIA GPU Cloud offre ai ricercatori in ambito IA container progettati per alte prestazioni con framework di deep learning come TensorFlow, PyTorch, MXNet e altri. Tali framework preintegrati e accelerati da GPU, dotati di tutte le necessarie dipendenze come runtime CUDA, librerie NVIDIA e un sistema operativo, sono stati calibrati, testati e certificati da NVIDIA per essere eseguiti su istanze Amazon EC2 P3 con NVIDIA Volta, NVIDIA DGX-1™ e NVIDIA DGX Station™. Questo permette di eliminare complesse e dispendiose integrazioni software fai da te, mentre gli utenti possono dedicarsi ad affrontare con l'IA sfide prima impensabili.
  3. ACCESSO DA OGNI LUOGO

    Il catalogo di container di framework di deep learning ottimizzato su NGC è disponibile per tutti a costo zero ed è pronto per essere utilizzato tramite i fornitori di servizi cloud aderenti e sui sistemi NVIDIA DGX™. Il software centralizzato consente la portabilità dei processi di deep learning su più ambienti, riducendo i tempi di gestione tipicamente necessari per scalare i carichi di lavoro IA. Gli sviluppatori e gli esperti di dati che affidano i loro esperimenti a NVIDIA DGX Station, le imprese con NVIDIA DGX-1 nel data center o le organizzazioni che usano le GPU NVIDIA nel cloud possono ora accedere a un set di strumenti coerente e ottimizzato. Con NGC, i ricercatori possono dedicare meno tempo all'IT e concentrarsi maggiormente sulla sperimentazione, la raccolta di informazioni e la generazione di risultati con il deep learning.
Download the NGC Deep Learning Frameworks Brief

SCARICA LA SINTESI DEI FRAMEWORK DI DEEP LEARNING

Scopri di più sui migliori framework di deep learning ottimizzati in questo documento. Inizia subito con NGC e con tutti i principali framework, tra cui TensorFlow, PyTorch, MXnet, Theano, Caffe2, Microsoft Cognitive Toolkit (CNTK) e altri ancora.

DOMANDE FREQUENTI

  • Cosa si ottiene con la registrazione a NGC?

    Avrai accesso a un catalogo completo di container di framework di deep learning completamente integrati e ottimizzati, a costo zero.  

  • Chi può accedere ai container su NGC?

    I container sono disponibili per tutti gli utenti che registrano un account su NGC. Grazie all'account, è possibile scaricare e utilizzare le versioni più recenti dei container ottimizzati per GPU sulle piattaforme supportate.

  • Cosa c'è nei container di deep learning?

    Ogni container include lo stack NGC di deep learning, uno stack software preintegrato e ottimizzato per il deep learning su GPU NVIDIA. Include un sistema Linux OS, runtime CUDA, le librerie necessarie e il framework scelto (NVCaffe, TensorFlow, ecc.). Tali componenti sono tutti calibrati in modo da funzionare subito insieme senza alcun intervento aggiuntivo di configurazione.

  • Quali framework sono disponibili su NGC?

    Il registro di container NGC include le versioni dei più noti framework accelerati da GPU NVIDIA: NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Digits, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA (container di livello base per sviluppatori).

  • Dove è possibile eseguire i container?

    I container accelerati da GPU sono calibrati, testati e certificati da NVIDIA per essere eseguiti su istanze Amazon EC2 P3 con NVIDIA Volta e sistemi NVIDIA DGX. Presto verranno supportati ulteriori fornitori di servizi cloud.

  • È possibile eseguire container da NGC sul mio PC con Titan Xp o GeForce 1080 Ti?

    Sì, i termini di utilizzo consentono l'uso dei container di framework di NGC su PC desktop con GPU basate su Pascal o Volta.

  • Come si eseguono questi container su Amazon EC2?

    NVIDIA ha creato un'immagine per Amazon, AMI (Amazon Machine Image), gratuita chiamata NVIDIA Volta Deep Learning AMI for NGC, disponibile nel marketplace AWS. L'immagine AMI è un ambiente ottimizzato per eseguire i framework di deep learning disponibili nel registro di container NGC. Basta creare semplicemente un'istanza per l'AMI e utilizzare il framework desiderato da NGC sull'istanza per iniziare subito con i processi di deep learning. Inoltre, sono disponibili ulteriori AMI per il deep learning nel marketplace AWS, ma non sono testate né ottimizzate per NVIDIA.

  • Con quale frequenza vengono aggiornati i container di framework di deep learning?

    Ogni mese. I container di deep learning su NGC sono oggetto di investimenti NVIDIA continui in ricerca e sviluppo e la collaborazione con ingegneri esperti assicura che ogni framework di deep learning sia calibrato per il training più veloce possibile. Gli ingegneri NVIDIA ottimizzano continuamente il software con aggiornamenti mensili dei container per tutelare il tuo investimento nel deep learning e garantire un rendimento sempre maggiore nel tempo.

  • Che tipo di supporto offre NVIDIA per questi container?

    Tutti gli utenti di NGC possono accedere al forum per sviluppatori NVIDIA DevTalk https://devtalk.nvidia.com/. Il forum per sviluppatori NVIDIA DevTalk è supportato da un vasta community di esperti di deep learning e GPU che fanno parte dell'ecosistema di clienti, partner e dipendenti di NVIDIA.

  • Come mai NVIDIA ha messo a disposizione questi container?

    NVIDIA punta ad accelerare la democratizzazione dell'IA offrendo ai ricercatori e agli sviluppatori in ambito deep learning l'accesso semplificato ai framework di deep learning basati su GPU, per facilitare l'esecuzione di framework ottimizzati su sistemi cloud compatibili con Volta o sistemi locali dotati delle più recenti GPU NVIDIA.

  • Quindi i container sono gratuiti o si paga il tempo di elaborazione?

    L'uso dei container di deep learning NVIDIA del registro NGC (soggetto ai termini di utilizzo) non prevede alcun costo. Tuttavia, ogni fornitore di servizi cloud avrà il proprio listino per i servizi di elaborazione accelerati.

ACCEDI A FRAMEWORK DI DEEP LEARNING PROGETTATI PER PRESTAZIONI MASSIME CON NGC