Tesla

POWER NEW LEVELS OF USER ENGAGEMENT
Boost throughput and responsive experiences in deep learning inference workloads.
Boost throughput and responsive experiences in deep learning inference workloads

ACCELERA L’INFERENZA DEL DEEP LEARNING

La nuova era dell'intelligenza artificiale, il deep learning, sta offrendo una precisione quasi sovrumana in attività complesse per migliorare le esperienze di ogni giorno. Servizi vocali interattivi, visione artificiale e analisi predittive sono solo alcune delle aree in cui i modelli di deep learning basati su GPU hanno prodotto risultati incredibili che una volta erano ritenuti impossibili.

I servizi basati sull'intelligenza artificiale impongono la necessità di mantenere il passo con l'aumento costante dei volumi di dati, fornendo risposte sempre più veloci. Un server con una singola GPU Tesla è in grado di fornire un throughput di inferenza 40 volte superiore rispetto a un server basato su CPU a socket singolo. Questa accelerazione massiva comporta un enorme risparmio per i data center che possono quindi essere più scalabili per soddisfare la crescente domanda di servizi basati su IA.

Inoltre, la reattività è fondamentale per consentire la fruibilità di servizi come la ricerca visiva, i consigli personalizzati e il servizio clienti automatico. Poiché i modelli di deep learning aumentano in precisione, dimensione e complessità, le CPU non riescono a offrire un'esperienza utente interattiva. Le GPU Tesla offrono un throughput 47 volte superiore a bassa latenza rispetto ai server basati su sola CPU e garantendo la reattività necessaria per esperienze basate su IA.

Gli acceleratori per GPU NVIDIA® Tesla® V100 e P4 GPU offrono la soluzione ottimale: con il throughput più elevato e la latenza più bassa su carichi di lavoro di inferenza con deep Learning danno una spinta alle esperienze basate su IA.

NVIDIA Tesla V100

MASSIMO THROUGHPUT DI INFERENZA PER IL DEEP LEARNING

Tesla V100 è la GPU universale per data center con prestazioni innovative su HPC, deep learning e grafica remota. Offre un throughput straordinario per training in deep learning e inferenza. Con 125 TeraFLOPS di prestazioni in inferenza per GPU, un solo server con otto Tesla V100 è in grado di elaborare dati nell'ordine dei PetaFLOP.

 
NVIDIA Tesla P40

L'AVANGUARDIA DELL'INFERENZE NEL DEEP LEARNING

L’acceleratore Tesla P40 è realizzato appositamente per garantire il massimo throughput per l’inferenza del deep learning. Con 47 TOPS (Tera-Operations Per Second) di prestazioni di inferenza per GPU, un server singolo con otto Tesla P40 può sostituire più di 100 server CPU.

 

DEEP LEARNING ULTRA EFFICIENTE NEI SERVER DI SCALE-OUT

Tesla P4 accelera qualsiasi server di scale-out, offrendo efficienza energetica pari a 40 volte quella delle CPU.

Pdf
Foglio dati Tesla P4 (PDF – 164KB)
Tesla P4
 

CARATTERISTICHE E VANTAGGI DELL’ACCELERATORE DI DEEP LEARNING

Queste GPU determinano previsioni più rapide che offrono sbalorditive esperienze utente per le applicazioni di intelligenza artificiale.

 
1Throughput 100 volte più elevato per restare al passo con l’espansione dei dati

Un throughput 50 volte più elevato per sostenere carichi di lavoro in costante aumento

Elaborare sulle CPU elevati volumi di dati, generati ogni giorno sotto forma di registri di sensori, immagini, video e registrazioni, risulterebbe economicamente svantaggioso. Invece, le GPU Tesla V100 basate su Volta offrono ai data center un significativo aumento del throughput per i carichi di lavoro di deep learning, estrapolando intelligenza da questo numero esorbitante di dati. Un server con una singola Tesla V100 è in grado di sostituire fino a 50 server con sola CPU per carichi di lavoro di inferenza in deep learning, garantendo un throughput significativamente superiore con costi di acquisizione molto più bassi.

 
Un motore di decodifica dedicato per i nuovi servizi video basati su intelligenza artificiale

Un motore di decodifica dedicato per i nuovi servizi video basati su intelligenza artificiale

Le GPU Tesla P4 e P40 possono analizzare fino a 39 stream video HD in tempo reale grazie a un motore di decodifica dedicato con accelerazione hardware che funziona in parallelo con i core NVIDIA CUDA® che generano l’inferenza. Grazie all’integrazione del deep learning nella pipeline video, i clienti possono offrire agli utenti nuovi livelli di servizi video intelligenti e innovativi.

Efficienza senza precedenti per i server di scale-out dall’alimentazione ridotta

Efficienza senza precedenti per i server di scale-out dall’alimentazione ridotta

La GPU Tesla P4 ultra efficiente accelera i server scale-out ottimizzati per densità con un fattore di forma compatto e un design basato su un assorbimento energetico di soli 50/75 W. Garantisce inoltre un'efficienza energetica 52 volte superiore rispetto alle CPU per i carichi di lavoro di inferenza in deep learning in modo da supportare la massima scalabilità all'interno delle infrastrutture esistenti per supportare la crescita esponenziale della domanda di servizi basati su IA.



 
Distribuzione più rapida con NVIDIA TensorRT™ e DeepStream SDK

Distribuzione più rapida con NVIDIA TensorRT™ e DeepStream SDK

NVIDIA TensorRT è un motore di inferenza per reti neurali ad alte prestazioni per l'implementazione di applicazioni di deep learning in ambienti di produzione. Include una libreria per ottimizzare i modelli di deep learning per l'implementazione in produzione, ottimizza le reti neurali, di norma con dati a 32 o a 16 bit, per operazioni INT8 a precisione ridotta su Tesla P4 o FP16 su Tesla V100. NVIDIA DeepStream SDK sfrutta la potenza delle GPU Tesla per decodificare e analizzare simultaneamente video in streaming.

 

 

SPECIFICA DELLE PRESTAZIONI PER GLI ACCELERATORI TESLA P4, P40 E V100

 
  Tesla V100: la GPU universale per il data center Tesla P4 per server di scale-out ultra efficienti Tesla P40 per server con throughput di inferenza
Performance in precisione singola 14 teraflops (PCIe)
15.7 teraflops (SXM2)
5,5 TeraFLOP 12 TeraFLOP
Prestazioni a mezza precisione (FP16) 112 teraflops (PCIe)
125 teraflops (SXM2)
-- --
Operazioni con interi (INT8) -- 22 TOPS* 47 TOPS*
Memoria della GPU 16 GB HBM2 8 GB 24 GB
Banda passante di memoria 900 GB/s 192 GB/s 346 GB/s
Interfaccia di sistema/Fattore di forma Fattore di forma PCI Express a doppio slot
e piena altezza SXM2/NVLink
Form factor PCI Express di basso profilo Form factor PCI Express a doppio slot e altezza completa
Alimentazione 250W (PCIe)
300W (SXM2)
50 W/75 W 250 W
Motore video con accelerazione hardware -- 1 motore di decodifica, 2 motori di codifica 1 motore di decodifica, 2 motori di codifica

*Tera-Operations per Second con Boost Clock attivato

FOGLI DATI NVIDIA TESLA P40 E P4

Pdf
Pdf
Foglio dati Tesla P4 (PDF – 164KB)
Pdf
Foglio dati Tesla P40 (PDF – 166KB)
 
 

INIZIA OGGI STESSO A UTILIZZARE NVIDIA TESLA P40 E P4

Tesla P40 e P4 sono immediatamente disponibili per l’inferenza del deep learning.

DOVE ACQUISTARE

 
CUDA e il GPU Computing

Che cos'è il GPU Computing?
Dati sull'elaborazione via GPU
Programmazione su GPU
Architettura delle GPU Kepler
Cloud Computing GPU
Contattaci

Che cos’è CUDA?
Vetrina di CUDA
Training su CUDA
Calendario Corsi CUDA
CUDA Research Center
CUDA Teaching Center

Applicazioni per GPU

Applicazioni per GPU Tesla
Storie di successo di Tesla
Direttive OpenACC
Tesla GPU Test Drive

GPU Tesla per
server e workstation

Per quale motivo scegliere Tesla
Soluzioni server Tesla
Soluzioni Workstation Tesla
Embedded Development Platform
Acquista GPU Tesla

News e informazioni Tesla

Documentazione sui prodotti Tesla
Funzionalità software Tesla
Strumenti di sviluppo software Tesla
Ricerca NVIDIA
Avvisi Tesla

Trovaci online

NVIDIA Blog Blog di NVIDIA
Facebook Facebook IT
Twitter Twitter IT
YouTube YouTube