Un nuovo standard di settore per il cloud computing basato su AI

BASATO SU NVIDIA P100 E NVLINK

ACCELERATORE GPU IPERSCALABILE HGX-1 PER CLOUD COMPUTING BASATO SU AI

Basato sulle GPU ® Tesla® P100 e la tecnologia interconnessa multi-GPU ad alta velocità NVIDIA® NVLink™, HGX-1 si presenta sotto forma di carichi di lavoro AI, che vanno dalla guida autonoma e la personalizzazione dei servizi sanitari al riconoscimento vocale sovrumano, affermandosi sempre di più sul cloud.

Data Center HGX NVLINK

Progettato appositamente per il cloud computing, l'architettura di HGX-1 offre prestazioni rivoluzionarie con capacità di configurazione senza precedenti. Sfruttando la potenza di otto GPU NVIDIA Tesla P100 interconnesse con il mesh fabric ibrido NVLink, introdotto con il supercomputer DGX-1, questa soluzione garantisce prestazioni avanzatissime. L'architettura switch PCIe innovativa permette la connessione dinamica della CPU a qualsiasi numero di GPU. Questo consente ai fornitori di servizi cloud, standardizzati su una singola infrastruttura HGX-1, di offrire ai clienti una vasta gamma di istanze macchina di CPU e GPU, mentre l'architettura standard fabric NVLINK permette di sfruttare l'ecosistema avanzato di software per GPU per accelerare l'AI e altri carichi di lavoro in modo trasparente.

Con HGX-1, i data center iperscalabili possono fornire prestazioni ottimali e flessibilità, praticamente per qualsiasi carico di lavoro accelerato, tra cui training con deep learning, inferenza, analisi statistica avanzata ed elaborazione ad alte prestazioni. Per il deep learning, fornisce prestazioni fino a 100 volte più veloci rispetto ai server tradizionali basati su CPU a un costo stimato pari a un quinto per il training con AI e a un decimo per l'inferenza con AI.

Con la sua progettazione modulare, HGX-1 può essere distribuito nei rack esistenti dei data center di tutto il mondo, garantendo ai data center iperscalabili un percorso semplice e veloce verso l'implementazione completa di soluzioni per l'AI.

 

 

 

 

Kushagra Vaid GM

L'acceleratore HGX-1 per AI offre la massima scalabilità delle prestazioni per soddisfare i requisiti più esigenti dei carichi di lavoro di machine learning in rapida crescita. Il suo design esclusivo gli permette di essere facilmente integrato nei data center di tutto il mondo.

— Kushagra Vaid GM, Azure Hardware Infrastructure, Microsoft

Jen-Hsun Huang

L'intelligenza artificiale è un nuovo modello di elaborazione che richiede una nuova architettura. L'acceleratore GPU iperscalabile HGX-1 farà per il cloud computing basato su AI quello che lo standard ATX ha fatto per diffondere l'uso dei PC oggi. Permetterà ai fornitori di servizi cloud di adottare facilmente le GPU NVIDIA per soddisfare la domanda sempre più insistente di elaborazione AI.

— Jensen Huang, fondatore e CEO di NVIDIA

Programma per i partner NVIDIA HGX

Favorendo la crescita dei principali progettisti del mondo (ODM), come Foxconn/Ingrasys, Inventec, Quanta e Wistron, nell'ambito del cloud computing basato su IA, NVIDIA sta lavorando affinché ciascun ODM possa accedere in anticipo all'architettura di riferimento NVIDIA HGX, alle tecnologie di GPU computing NVIDIA e alle linee guida di progettazione.

QCT-Logo-Core-Vertical-RGB-NoMargin
Quanta-Computer
Inventec_en
Wlogo_BG_Gi_R
FOXCONN

REGISTRATI PER LE ULTIME NOTIZIE SUI DATA CENTER

Scopri di più su elaborazione a elevate prestazioni, deep learning e intelligenza artificiale.