NVLink Fabric

I progressi dell'elaborazione multi-GPU

Maximizing System Throughput

MASSIMIZZARE IL THROUGHPUT DEL SISTEMA

La tecnologia NVIDIA® NVLink affronta il problema dell'interconnessione fornendo una banda più ampia, più link e una maggiore scalabilità per le configurazioni di sistemi a più GPU e più GPU/CPU. Una singola GPU NVIDIA Tesla® V100 supporta fino a sei link NVLink e una larghezza di banda totale di 300 GB/sec, dieci volte la banda di PCIe 3. I server come il nuovo NVIDIA DGX-1 sfruttano queste tecnologie per offrire maggiore scalabilità per il training in deep learning ultra veloce.

NUOVI LIVELLI DI ACCELERAZIONE GPU-GPU

Introdotto per la prima volta con l'architettura NVIDIA Pascal, NVLink su Tesla V100 ha aumentato la velocità del segnale da 20 a 25 GB/secondo in ciascuna direzione. Può essere utilizzato per comunicazioni GPU-CPU e GPU-GPU, come nel server DGX-1V con Tesla V100.

Tesla V100 con connessioni NVLink GPU-GPU e GPU-CPU
NVLink per la connessione di otto acceleratori Tesla V100
NUOVI LIVELLI DI PRESTAZIONI

NUOVI LIVELLI DI PRESTAZIONI

NVIDIA NVLink aumenta le prestazioni fino al 31% rispetto a un server con la stessa configurazione. La banda significativamente più ampia e la latenza ridotta permettono di sostenere carichi di lavoro di deep learning ancora più intensivi con una scalabilità garantita delle prestazioni, secondo la crescita.

NVSWITCH: NVLINK COMPLETAMENTE CONNESSO

La crescita rapida dei carichi di lavoro di deep learning ha generato la necessità di interconnessioni più rapide e scalabili, mentre la larghezza di banda PCIe diventa sempre di più un collo di bottiglia a livello di sistemi multi-GPU.

NVLink ha rappresentato una grande svolta per abilitare fino a otto GPU in un singolo server e accelerare le prestazioni oltre il PCIe. Ma per portare le prestazioni del deep learning su un livello ancora superiore occorre un fabric della GPU che abilità più GPU su un singolo server con connettività a massima larghezza di banda tra loro.

NVIDIA NVSwitch è la prima architettura switch su nodo a supportare 16 GPU completamente connesse su un singolo nodo server favorendo la comunicazione simultanea tra tutte le otto coppie di GPU alla velocità incredibile di 300 GB/s ciascuna. E queste 16 GPU completamente connesse possono essere utilizzate come singolo acceleratore su larga scala con 0,5 Terabyte di spazio di memoria unificato e 2 PetaFLOPS di potenza di elaborazione.

NVSwitch Chart Speedup