Stampa

Con gli acceleratori NVIDIA Tesla P100 il Deep Learning e le applicazioni per il supercalcolo compiono un enorme balzo in avanti

Cinque passi da gigante a livello di architettura consentono ai server di fornire prestazioni 12 volte superiori rispetto alle soluzioni di precedente generazione

Product PR
Luciano Ballerano
PR Manager Italia
NVIDIA
lballerano@nvidia.it


Agenzia di PR
Preview Public Relations
Marzia Musati
nvidia@previewitalia.com
www.previewitalia.com

tesla-p100-gpu

SAN JOSE, Calif.—GPU Technology Conference—4/7 Aprile 2016— NVIDIA annuncia NVIDIA® Tesla® P100 GPU, il più avanzato acceleratore hyperscale data center mai realizzato.

Ultima novità della NVIDIA Tesla Accelerated Computing Platform, la Tesla P100 consente a una nuova classe di server di fornire le prestazioni di centinaia di nodi server basati su CPU. Gli attuali data center processano una grande mole di lavoro come i servizi web, ma sono inefficienti con le applicazioni d'intelligenza artificiale e con quelle scientifiche, che richiedono nodi server ultra-efficienti, in grado di operare alla velocità della luce.

Basata sulla nuova architettura GPU NVIDIA Pascal™, che vanta cinque innovative tecnologie, la Tesla P100 offre prestazioni senza eguali e tutta l'efficienza di cui necessitano le applicazioni computazionalmente più impegnative.

"Le più grandi sfide scientifiche e tecniche, come, ad esempio, il trovare la cura contro il cancro, la comprensione dei cambiamenti climatici e la costruzione di macchine intelligenti, richiedono prestazioni di calcolo pressoché infinite.", ha dichiarato Jen-Hsun Huang, CEO e co-fondatore, NVIDIA. "Abbiamo progettato l'architettura delle GPU Pascal da zero innovando a tutti i livelli. Essa rappresenta un enorme balzo in avanti sia in fatto di prestazioni sia di efficienza di calcolo e aiuterà alcune delle menti più brillanti a condurre i progressi di domani".

Dr. John Kelly III, Senior Vice President, Cognitive Solutions and IBM Research, ha dichiarato: "La nuova era del computing nella quale siamo entrati richiede un approccio completamente nuovo alle tecnologie di base necessarie per beneficiare pienamente dei vantaggi della AI e del cognitive. La combinazione delle GPU NVIDIA con la tecnologia OpenPower sta già accelerando l'apprendimento di nuove competenze da parte di Watson. L'architettura Power di IBM insieme all'architettura Pascal di NVIDIA con NVLink accelererà ulteriormente le prestazioni cognitive facendo avanzare il settore dell'intelligenza artificiale ".

I cinque passi in avanti dell'architettura
La Tesla P100 offre prestazioni senza precedenti, scalabilità ed efficienza di programmazione grazie a cinque innovative caratteristiche:

  • Architettura NVIDIA Pascal per un salto prestazionale di livello esponenziale - Una soluzione Pascal-based Tesla P100 offre sul training delle reti neurali un aumento delle prestazioni di 12 volte rispetto alle soluzioni basate sulla precedente architettura NVIDIA Maxwell ™.
  • NVIDIA NVLink per la massima scalabilità delle applicazioni - NVIDIA NVLink™ high-speed GPU interconnect scala le applicazioni su più GPU, offrendo un'accelerazione 5x sulla larghezza di banda rispetto alle migliori soluzioni oggi disponibili1. Fino a otto P100 GPU Tesla possono essere interconnesse con NVLink per massimizzare le prestazioni delle applicazioni in un singolo nodo. IBM ha implementato NVLink sulle proprie CPU Power8 per la comunicazione veloce tra CPU e GPU.
  • 16nm FinFET per un'efficienza energetica senza precedenti - Con 15,3 miliardi di transistor e tecnologie FinFET a 16 nanometri, la GPU Pascal è il più grande chip FinFET mai realizzato al mondo2. E' progettato per offrire le prestazioni più elevate e la migliore efficienza energetica per carichi di lavoro virtualmente infiniti.
  • CoWoS con HBM2 per gli enormi carichi di lavoro dei big data - L'architettura Pascal unifica processore e dati in un unico pacchetto per offrire un'efficienza di calcolo senza precedenti. Un approccio innovativo alla progettazione della memoria, Chip on Wafer on Substrate (CoWoS) con HBM2, fornisce prestazioni 3x rispetto all'architettura Maxwell relativamente al memory bandwidth, o 720GB/sec.
  • Nuovi algoritmi di AI per prestazioni al top - Nuove istruzioni a mezza precisione offrono prestazioni di picco di oltre 21 teraflop per il deep learning.

L'acceleratore Tesla P100 GPU offre un nuovo livello di prestazioni in ambito HPC e nelle applicazioni di deep learning, tra cui AMBER molecular dynamics code, che gira più velocemente su un singolo nodo server con Tesla P100 GPU rispetto a 48 nodi server dual-socket CPU3. Il training della popolare rete neurale AlexNet avrebbe reso necessario l'impiego di 250 nodi server dual-socket CPU per eguagliare le prestazioni di otto Tesla P100 GPU4. L'applicazione per le previsioni meteo, COSMO, oggi ampiamente utilizzata, gira più velocemente su otto Tesla P100 GPU rispetto a 27 server dual-socket CPU5.

Primo acceleratore in grado di superare i 5 e 10 teraflop, rispettivamente nelle operazioni a doppia e singola precisione, la Tesla P100 permette di fare passi da gigante nella ricerca e nella velocizzazione delle tempistiche in un ampio spettro di settori.

Aggiornamenti della NVIDIA SDK
NVIDIA ha anche annunciato una serie di aggiornamenti della NVIDIA SDK, la piattaforma di sviluppo per GPU Computing più potente al mondo.

Questi aggiornamenti comprendono NVIDIA CUDA® 8. L'ultima versione della piattaforma di calcolo parallelo NVIDIA offre agli sviluppatori un accesso diretto alle nuove e potenti funzionalità di Pascal, compresa la memoria unificata e NVLink. Sono incluse in questa release una nuova libreria per l'analisi grafica, nvGRAPH, che può essere utilizzata per la pianificazione dei percorsi nella robotica, nell'ambito della sicurezza informatica, dell'analisi logistica, nonché per portare l'accelerazione GPU nel mondo della big data analytics.

NVIDIA ha, inoltre, annunciato cuDNN version 5, una libreria di primitive GPU-accelerated per le reti neurali profonde. cuDNN 5 comprende il supporto alle GPU Pascal, l'accelerazione di reti neurali ricorrenti, che vengono utilizzate per i video e per altre tipologie di dati sequenziali, per portare ulteriori miglioramenti nei settori medico, petrolifero, del gas, etc. cuDNN accelera importanti deep learning frameworks, tra cui Google TensorFlow, UC Berkeley's Caffe, University of Montreal's Theano and NYU's Torch, a loro volta utilizzati da Amazon, Facebook, Google e altri.

Specifiche Tesla P100
Le specifiche dell'acceleratore Tesla P100 GPU comprendono:

  • 5.3 teraflop a doppia precisione, 10.6 teraflop a singola precisione e 21,2 teraflops a mezza precisione con tecnologia NVIDIA GPU BOOST ™
  • 160 GB/sec bi-directional interconnect bandwidth con NVIDIA NVLink
  • 16 GB di CoWoS HBM2 stacked memory
  • 720GB/sec memory bandwidth con CoWoS HBM2 stacked memory
  • programmabilità avanzata con page migration engine e unified memory
  • ECC protection per una maggiore affidabilità
  • Server-optimized per la massima produttività e affidabilità dei data center

Disponibilità
La disponibilità dell'acceleratore NVIDIA Tesla P100 GPU basato su Pascal nel nuovo DGX-1™ deep learning system è prevista per il prossimo giugno. La disponibilità da parte dei produttori di server a partire dai primi mesi 2017.

Ulteriori Risorse

Per essere aggiornati su NVIDIA:
Segui su NVIDIA blog ,Facebook, Google+, Twitter, YouTube , LinkedIn e Instagram.

Informazioni su NVIDIA
Dal 1993 NVIDIA (NASDAQ: NVDA) fa da pioniere per quanto concerne la scienza e l'arte del visual computing. Le tecnologie dell'Azienda stanno trasformando il mondo delle immagini in un mondo interattivo, che tutti, dai giocatori agli scienziati, dai consumatori all'utenza enterprise, potranno scoprire. Per maggiori informazioni http://www.nvidia.it/page/newsandevents.html e http://blogs.nvidia.com

Alcune affermazioni del presente comunicato stampa, tra cui, ma non limitatamente a, frasi quali: caratteristiche, impatto, benefici e disponibilità della NVIDIA Tesla P100 GPU, NVIDIA SDK e del sistema per il deep learning NVIDIA DGX-1 sono affermazioni soggette a rischi e incertezze che possono avere esiti effettivi materialmente differenti dalle aspettative attese. Importanti fattori che potrebbero determinare risultati effettivi materialmente diversi comprendono: condizioni economiche globali; ricorso a terze parti per la produzione, assemblaggio, imballaggio e testing dei prodotti; l'impatto dello sviluppo tecnologico e della concorrenza; lo sviluppo di nuovi prodotti e tecnologie o di miglioramenti ai nostri prodotti e alle tecnologie esistenti; l'accoglienza del mercato verso i nostri prodotti e verso i prodotti dei nostri partner; la loro progettazione, produzione ed eventuali difetti del software; cambiamenti nelle preferenze dei consumatori o delle loro richieste; cambiamenti negli standard di settore e delle interfacce; perdita imprevista di performance dei nostri prodotti o tecnologie quando sono integrati all'interno di sistemi; nonché altri fattori che si possono verificare di volta in volta, così come specificato nei report NVIDIA depositati presso la Securities and Exchange Commission, o SEC, tra cui il Form 10-K per il periodo fiscale terminato il 31 Gennaio 2016. Copie dei report depositati presso la SEC sono disponibili sul sito web della società e sono disponibili gratuitamente presso NVIDIA. Queste dichiarazioni previsionali non sono garanzia di prestazioni future e sono valide solo alla data odierna e, a eccezione di quanto richiesto dalla legge, NVIDIA declina qualsiasi obbligo di aggiornare queste dichiarazioni previsionali per eventi o circostanze future.

###

© 2016 NVIDIA Corporation. Tutti i diritti riservati. NVIDIA, il logo NVIDIA, Tesla, NVIDIA DIGITS, DGX-1, Pascal, Maxwell, CUDA eNVIDIA NVLink sono marchi e / o marchi registrati di NVIDIA Corporation negli Stati Uniti e in altri Paesi. Altre società e nomi di prodotti possono essere marchi delle rispettive società a cui sono associati. Caratteristiche, prezzi, disponibilità e specifiche sono soggette a modifiche senza preavviso.

______________________________________________________

(1) NVLink fornisce 160GB/sec di bi-directional interconnect bandwidth, comparata a PCIe x16 Gen3 che fornisce 31.5GB/sec di bi-directional bandwidth.  

(2)NVIDIA Tesla P100 GPU integra 15.3 miliardi di transistor 16nm FinFET.

(3)Sistema con CPU: 48 nodi, ogni singolo nodo 2x Intel E5-2680v3 12 core, 128GB DDR4, FDR IB interconnect. Sistema GPU: singolo nodo, 2x Intel E5-2698 v3 16 core, 512GB DDR4, 4x Tesla P100, NVLink interconnect.

(4)Rispetto a Caffe/AlexNet time to train ILSVRC-2012 dataset su cluster 2-socket Intel Xeon E5-2697 v3 processor-based systems con InfiniBand interconnect. 250-node performance estimated using source: https://software.intel.com/en-us/articles/caffe-training-on-multi-node-distributed-memory-systems-based-on-intel-xeon-processor-e5.

(5)CPU system: 2x Intel E5-2698 v3 16 core, 256GB DDR4. GPU system: Single node, 2x Intel E5-2698 v3 16 core, 512GB DDR4, 8x Tesla P100, NVLink interconnect.