GPU NVIDIA TESLA V100 TENSOR CORE

La GPU AI più avanzata mai realizzata

Benvenuti nell'era dell'intelligenza artificiale.

Individuare informazioni fruibili in enormi flussi di dati significa trasformare i settori industriali, ad esempio con terapie oncologiche personalizzate, permettendo agli assistenti virtuali di conversare in modo naturale e prevedendo il prossimo grande uragano. 

NVIDIA® Tesla® V100 Tensor Core è la GPU per data center più avanzata mai costruita per accelerare IA, HPC e grafica. È basta sull'architettura NVIDIA Volta, disponibile in configurazioni da 16 e 32GB e offre le prestazioni di 100 CPU in una sola GPU. Premette a scienziati, ricercatori e ingegneri di affrontare problemi una volta considerati irrisolvibili.

AI Training

Training con AI

Dal riconoscimento vocale al training di assistenti virtuali personali, dal rilevamento di corsie stradali alle auto a guida autonoma, gli scienziati stanno affrontando sfide sempre più complesse nell'ambito dell'intelligenza artificiale. Risolvere problematiche di questo tipo richiede il training di modelli di deep learning estremamente complessi in tempi ragionevoli.

con 43 mila core Tensor, Tesla V100 è la prima GPU al mondo a superare il record di 100 teraops (TOPS) di prestazioni in deep learning. Il sistema NVIDIA NVLink™ di seconda generazione collega più GPU V100 a fino a 160 GB/s per creare i server di elaborazione più potenti del mondo. I modelli AI che richiederebbero settimane di risorse di elaborazione sui sistemi precedenti possono ora essere addestrati in pochi giorni. Con questa riduzione sostanziale dei tempi di training, tutta una serie di problemi sarà ora risolvibile grazie all'intelligenza artificiale.

AI Inference

Inferenza con AI

Per entrare in possesso di informazioni, servizi e prodotti pertinenti, le compagnie iperscalabili hanno iniziato a integrare algoritmi di intelligenza artificiale. Tuttavia, tenere il passo con la domanda è un problema di non facile soluzione. Ad esempio, le principali aziende iperscalabili del mondo, hanno stimato che se ogni utente utilizzasse il loro servizio di riconoscimento vocale per soli tre minuti al giorno, servirebbe il doppio della capacità del data center.

Tesla V100 per l'iperscalabilità è stata progettata per offrire prestazioni massime in rack server iperscalabili esistenti. Con l'intelligenza artificiale alla base, un rack server da 13 kW con GPU Tesla V100 è in grado di fornire le stesse prestazioni di inferenza per il deep learning di 30 rack di server CPU. Questo enorme passo avanti in termini di produttività ed efficienza renderà ancora più fruibili i servizi AI scale-out.

High Performance Computing

Elaborazione ad alte prestazioni (HPC)

L'HPC è un pilastro fondamentale della scienza moderna. Dalle previsioni meteo fino al rilevamento di sostanze stupefacenti e alla ricerca di nuove fonti energetiche, i ricercatori utilizzano enormi sistemi di elaborazione per simulare e predire il nostro mondo. L'AI espande l'HPC tradizionale permettendo ai ricercatori di analizzare enormi volumi di dati ottenendo informazioni utili dove la sola simulazione non basterebbe per produrre simulazioni realistiche.

Tesla V100 è stata progettata per la convergenza di HPC e AI. Offre una piattaforma per sistemi HPC che permette di eccellere sia nelle scienze computazionali per la simulazione scientifica sia nelle scienze dei dati per la ricerca di informazioni fruibili. Abbinando i core CUDA e i core Tensor all'interno di un'architettura unificata, un solo server con GPU Tesla V100 può sostituire centinaia di server CPU per carichi di lavoro HPC tradizionali e AI. Ogni ricercatore e ingegnere può finalmente permettersi un supercomputer AI per affrontare il lavoro più esigente.

GPU PER DATA CENTRE

data-center-tesla-v100-nvlink-625-ud@2x

NVIDIA TESLA V100 PER NVLINK

prestazioni all'avanguardia per il deep learning

data-center-tesla-v100-pcie-625-ud@2x

NVIDIA TESLA V100 PER PCle

massima versatilità per tutti i carichi di lavoro, realizzata per HPC

SPECIFICHE NVIDIA Tesla V100

 

Tesla V100 per NVLink

Tesla V100 per PCIe

PRESTAZIONI
con NVIDIA GPU Boost

PRECISIONE DOPPIA
7,8 TeraFLOPS

PRECISIONE SINGOLA
15,7 TeraFLOPS

Deep Learning
125 TeraFLOPS

PRECISIONE DOPPIA
7 TeraFLOPS

PRECISIONE SINGOLA
14 TeraFLOPS

Deep Learning
112 TeraFLOPS

BANDA DI INTERCONNESSIONE
Bi-direzionale

NVLink
300 GB/s

PCIe
32 GB/s

MEMORIA
HBM2 CoWoS in stack

CAPACITÀ
HBM2 32/16 GB

LARGHEZZA DI BANDA
900 GB/s

ALIMENTAZIONE
Consumo massimo


300 WATT


250 WATT

FAI UNA PROVA GRATUITA

Gli acceleratori GPU più veloci del mondo per HPC e deep learning.

DOVE ACQUISTARE

Trova un NVIDIA Accelerated Computing Partner nella nostra NVIDIA Partner Network (NPN).