Tesla

POWER NEW LEVELS OF USER ENGAGEMENT
Boost throughput and responsive experiences in deep learning inference workloads.
Boost throughput and responsive experiences in deep learning inference workloads

ACCELERA L’INFERENZA DEL DEEP LEARNING

La nuova era dell'intelligenza artificiale, il deep learning, sta offrendo una precisione quasi sovrumana in attività complesse per migliorare le esperienze di ogni giorno. Servizi vocali interattivi, visione artificiale e analisi predittive sono solo alcune delle aree in cui i modelli di deep learning basati su GPU hanno prodotto risultati incredibili che una volta erano ritenuti impossibili.

Quando le moderne reti neurali vengono distribuite su CPU per inferenza, i servizi basati sull’intelligenza artificiale non sono in grado di garantire la reattività necessaria per il coinvolgimento dei clienti. Gli acceleratori di GPU NVIDIA® Tesla® P40 e P4 offrono la soluzione ideale, realizzata per offrire il throughput più elevato e le esperienze più reattive per i carichi di lavoro di inferenza del deep learning. Sono dotati di architettura NVIDIA Pascal™ per garantire prestazioni di inferenza 60 volte più rapide rispetto alle CPU per reattività in tempo reale anche nei più complessi modelli di deep learning.

 

ACCELERATORI DI INFERENZA NVIDIA TESLA

Deep Learning Inference Latency

Deep Learning Inference Throughput

 
NVIDIA Tesla P40

MASSIMO THROUGHPUT DI INFERENZA DEL DEEP LEARNING

L’acceleratore Tesla P40 è realizzato appositamente per garantire il massimo throughput per l’inferenza del deep learning. Con 47 TOPS (Tera-Operations Per Second) di prestazioni di inferenza per GPU, un server singolo con otto Tesla P40 può sostituire più di 100 server CPU.

Pdf
Foglio dati Tesla P40 (PDF – 166KB)
 

DEEP LEARNING ULTRA EFFICIENTE NEI SERVER DI SCALE-OUT

Tesla P4 accelera qualsiasi server di scale-out, offrendo efficienza energetica pari a 40 volte quella delle CPU.

Pdf
Foglio dati Tesla P4 (PDF – 164KB)
Tesla P4
 

CARATTERISTICHE E VANTAGGI DELL’ACCELERATORE DI DEEP LEARNING

Queste GPU determinano previsioni più rapide che offrono sbalorditive esperienze utente per le applicazioni di intelligenza artificiale.

 
1Throughput 100 volte più elevato per restare al passo con l’espansione dei dati

Throughput 100 volte più elevato per restare al passo con l’espansione dei dati

Il volume di dati generati ogni giorno sotto forma di log di sensori, immagini, video e record è poco pratico da elaborare sulle CPU dal punto di vista economico. Le GPU con Pascal offrono ai data center un drastico aumento di throughput per i carichi di lavoro di distribuzione di deep learning e ricavano intelligenza da questa immensa quantità di dati. Un server con otto Tesla P40 può sostituire più di 100 server con sola CPU per i carichi di lavoro di deep learning, in modo da garantire un throughput più elevato con costi di acquisizione ridotti.

 
Un motore di decodifica dedicato per i nuovi servizi video basati su intelligenza artificiale

Un motore di decodifica dedicato per i nuovi servizi video basati su intelligenza artificiale

Le GPU Tesla P4 e P40 possono analizzare fino a 39 stream video HD in tempo reale grazie a un motore di decodifica dedicato con accelerazione hardware che funziona in parallelo con i core NVIDIA CUDA® che generano l’inferenza. Grazie all’integrazione del deep learning nella pipeline video, i clienti possono offrire agli utenti nuovi livelli di servizi video intelligenti e innovativi.

Efficienza senza precedenti per i server di scale-out dall’alimentazione ridotta

Efficienza senza precedenti per i server di scale-out dall’alimentazione ridotta

L’ultra efficiente GPU Tesla P4 accelera i server di scale-out a densità ottimizzata con un form factor ridotto e un design di impronta energetica da 50/75 W. Offre un'incredibile efficienza energetica pari a 40 volte quella delle CPU per i carichi di lavoro di inferenza del deep learning. Questo consente ai clienti dei sistemi hyperscale di scalare all’interno dell’infrastruttura esistente e di soddisfare la crescita esponenziale nella richiesta di applicazioni basate sull’intelligenza artificiale.



 
Distribuzione più rapida con NVIDIA TensorRT™ e DeepStream SDK

Distribuzione più rapida con NVIDIA TensorRT™ e DeepStream SDK

NVIDIA TensorRT è un motore di inferenza della rete neurale dalle prestazioni elevate per la distribuzione in produzione delle applicazioni di deep learning. Include una libreria creata per ottimizzare i modelli di deep learning per la distribuzione in produzione, prendendo le reti neurali istruite, generalmente in dati da 32 o 16 bit, e ottimizzandole per le operazioni INT8 che richiedono precisione ridotta. NVIDIA DeepStream SDK si inserisce nella potenza delle GPU Pascal per decodificare e allo stesso tempo analizzare gli stream video.

 

 

SPECIFICA DELLE PRESTAZIONI PER GLI ACCELERATORI TESLA P40 E P4

 
  Tesla P4 per server di scale-out ultra efficienti Tesla P40 per server di throughput dalla massima inferenza
Performance in precisione singola 5,5 TeraFLOP 12 TeraFLOP
Operazioni con interi (INT8) 22 TOPS* 47 TOPS*
Memoria della GPU 8 GB 24 GB
Banda passante di memoria 192 GB/s 346 GB/s
Interfaccia di sistema Form factor PCI Express di basso profilo Form factor PCI Express a doppio slot e altezza completa
Alimentazione 50 W/75 W 250 W
Motore video con accelerazione hardware 1 motore di decodifica, 2 motori di codifica 1 motore di decodifica, 2 motori di codifica

*Tera-Operations per Second con Boost Clock attivato

FOGLI DATI NVIDIA TESLA P40 E P4

Pdf
Foglio dati Tesla P40 (PDF – 166KB)
Pdf
Foglio dati Tesla P4 (PDF – 164KB)
 
 

INIZIA OGGI STESSO A UTILIZZARE NVIDIA TESLA P40 E P4

Tesla P40 e P4 sono immediatamente disponibili per l’inferenza del deep learning.

DOVE ACQUISTARE

 
CUDA e il GPU Computing

Che cos'è il GPU Computing?
Dati sull'elaborazione via GPU
Programmazione su GPU
Architettura delle GPU Kepler
Cloud Computing GPU
Contattaci

Che cos’è CUDA?
Vetrina di CUDA
Training su CUDA
Calendario Corsi CUDA
CUDA Research Center
CUDA Teaching Center

Applicazioni per GPU

Applicazioni per GPU Tesla
Storie di successo di Tesla
Direttive OpenACC
Tesla GPU Test Drive

GPU Tesla per
server e workstation

Per quale motivo scegliere Tesla
Soluzioni server Tesla
Soluzioni Workstation Tesla
Embedded Development Platform
Acquista GPU Tesla

News e informazioni Tesla

Documentazione sui prodotti Tesla
Funzionalità software Tesla
Strumenti di sviluppo software Tesla
Ricerca NVIDIA
Avvisi Tesla

Trovaci online

NVIDIA Blog Blog di NVIDIA
Facebook Facebook IT
Twitter Twitter IT
YouTube YouTube