NVIDIA HGX-2

Basata su GPU NVIDIA Tesla V100 e NVSwitch

LA PIATTAFORMA DI COMPUTING MULTI-PRECISIONE PIÙ POTENTE PER IA E HPC

Siamo all'alba di una nuova di intelligence, dove IA e HPC stanno rivoluzionando il mondo. Dai veicoli autonomi alle simulazioni climatiche globali, nuove sfide emergono e richiedono enormi risorse di elaborazione per essere risolte. NVIDIA HGX-2 è progettata per il multi-precisione,che abbina la potenza del computing scientifico ad alta precisione con la velocità del computing IA a precisione più bassa,per fornire una singola piattaforma flessibile e potenteper risolvere sfide importanti.

Attiva la GPU più potente del mondo

Accelerata da 16 GPU NVIDIA®Tesla® V100 e NVIDIA NVSwitch™, la piattaforma HGX-2 offre una potenza di elaborazione senza precedenti, larghezza di banda e topologia di memoria avanzate per addestrare i modelli in modo più veloce ed efficiente. Le 16 GPU Tesla V100 funzionano come acceleratore singolo e unificato a 2 petaFLOP con mezzo TB della memoria totale della GPU, consentendo la gestione dei carichi di lavoro più intensivi in termini di capacità di elaborazione e di attivare "la GPU più grande del mondo".

Attiva la
Training con IA: HGX-2 sostituisce 300 nodi server con sola CPU

IA di nuova generazione per prestazioni più veloci

I modelli IA diventano sempre più complessi e richiedono ampia memoria, più GPU e una connessione estremamente veloce affinché le GPU possano funzionare. Con NVSwitch che collega tutte e GPU e la memoria unificata, HGX-2 fornisce la potenza per gestire questi nuovi modelli per training più veloce con IA avanzata. Una singola HGX-2 sostituisce 300 server con CPU, per un risparmio significativo di costi, spazio ed energia nel data center.

HPC: HGX-2 sostituisce 60 nodi server con sola CPU

Il super nodo HPC dalle più alte prestazioni

Le applicazioni HPC richiedono solidi nodi server con potenza di elaborazione adatta per eseguire un elevato numero di calcoli al secondo. L'aumento della densità di ciascun nodo riduce significativamente il numero di server necessari, con enormi risparmi di costi, alimentazione e spazio nel data center. Per le simulazioni HPC, la moltiplicazione di matrici ad alta dimensione richiede un processore che recuperi i dati dai sistemi connessi per facilitare il calcolo, il che rende la connessione delle GPU tramite NVSwitch l'opzione ideale. Un singolo server HGX-2 sostituisce 60 server con sola CPU.

NVSwitch per elaborazione alla massima larghezza di banda

NVSwitch permette a ciascuna GPU di comunicare con le altre GPU alla massima larghezza di banda di 2,4 TB/sec per risolvere i più importanti problemi IA e HPC. Ogni GPU ha accesso completo a 0,5 TB di memoria HBM2 aggregata per gestire i data set più intensivi. Abilitando un nodo server unificato, NVSwitch accelera drasticamente le applicazioni IA e HPC più complesse.

NVSwitch per elaborazione alla massima larghezza di banda

Specifiche

HGX-1 HGX-2
Prestazioni 1 petaFLOP per operazioni Tensor
125 teraFLOPS inprecisione singola
62 teraFLOPS in doppia precisione
2 petaFLOP per operazioni Tensor
250 teraFLOPS inprecisione singola
125 teraFLOPS in doppia precisione
GPU 8 NVIDIA Tesla V100 16 NVIDIA Tesla V100
Memoria della GPU 256GB totali 512GB totali
NVIDIA CUDA® Core 40,960 81,920
NVIDIA Tensor Cores 5,120 10,240
Canale di comunicazione Cube mesh ibrido basato su NVLink 300 GB/s di banda bi-sezione NVSwitch basato su NVLink 2.4 TB/s di banda bi-sezione

Architettura di riferimento HGX-1

Basata su GPU NVIDIA Tesla e NVLink

NVIDIA HGX-1 è un'architettura di riferimento con cui viene standardizzato il design dei data center, accelerando l'IA nel cloud. Basata su otto schede Tesla SXM2 V100, con la topologia di tipo cube mesh ibrido per la scalabilità, 1 petaFLOP di potenza di elaborazione e il design modulare, funziona perfettamente in data center iperscalabili e fornisce un percorso semplice e veloce verso l'IA.

Potenziare l'ecosistema del data center

NVIDIA collabora con i produttori leader mondiali per accelerare il progresso del cloud computing basato su IA. Per la GPU HGX-2, NVIDIA fornisce schede di base, linee guida per il design e accesso anticipato alle tecnologie di monitoraggio per consentire ai partner di integrare la soluzione nei server e distribuirla in modo scalabile nei data center.

Potenziare l'ecosistema del data center

Iscriviti per ricevere le news sul data center.

Scopri di più su High Performance Computing, deep learning e intelligenza artificiale.