Connect with us

Notizie

Il CEO di NVIDIA Jensen Huang consegna la prima stazione AI DGX H200 al mondo a OpenAI

Il CEO di NVIDIA Jensen Huang consegna la prima stazione AI DGX H200 al mondo a OpenAI

NVIDIA ha consegnato la prima stazione AI DGX H200 al mondo a OpenAI, affidata nientemeno che allo stesso CEO Jensen Huang.

NVIDIA non intende ancora fermarsi con la sua massiccia crescita e consegna la prima stazione AI DGX H200 a OpenAI per alimentare la prossima era dell’intelligenza artificiale

In un X post di Greg Brockman, Presidente e co-fondatore di OpenAI, è stato rivelato che il Team Green ha finalmente consegnato il prodotto più potente dell’azienda a OpenAI. È interessante notare che il CEO di NVIDIA, Jensen Huang, è arrivato per consegnare quella che dovremmo definire una meraviglia tecnologica. Anche il CEO di OpenAI, Sam Altman e Greg Brockman, hanno ricevuto il pacchetto NVIDIA, dimostrando che il DGX H200 è davvero qualcosa di enorme che richiede partecipanti di alto profilo.

Prima di approfondire ciò che offre il DGX H200, discutiamo delle dinamiche del settore. Oltre a concentrarsi sul fatto che OpenAI ha ottenuto l’accesso esclusivo al sistema di intelligenza artificiale più potente del mondo, è interessante osservare come le aziende combattono tra loro per ottenere hardware superiore. Di recente abbiamo parlato un po’ delle GPU Blackwell e di come Meta abbia effettuato i primi ordini dell’architettura di nuova generazione nonostante non sia stata rilasciata sui mercati di massa. D’altra parte, abbiamo OpenAI, che si concentra sulla costruzione di giganteschi data center con una valutazione proposta di 7 trilioni di dollari, ma non approfondiremo ulteriormente l’argomento.

L’immagine mi dice due cose; il primo è che la futura concorrenza tra le aziende non dipende dai ricavi derivanti dall’intelligenza artificiale, ma dalla potenza di calcolo di cui dispongono. La seconda è che l’uomo nel mezzo, che indossa l’iconica giacca di pelle, sarà sotto i riflettori del settore ormai da un bel po’ di tempo perché ogni azienda là fuori guarda a NVIDIA per le proprie esigenze di intelligenza artificiale. Non possiamo nemmeno discuterne poiché il robusto ecosistema che Team Green offre ai suoi clienti è semplicemente sorprendente.

Fonte immagine: NVIDIA

Tornando al DGX H200, questa bestia di macchina è alimentata dall’abilità di HBM3E. Ha capacità di memoria fino a 141 GB e fino a 4,8 TB/s di larghezza di banda, ovvero 2,4 volte maggiore di larghezza di banda e il doppio della capacità dell’iterazione precedente. In un recente articolo, abbiamo evidenziato la superiorità degli H200 rispetto ai mercati e come sia riuscito a fornire quasi il doppio delle prestazioni nelle applicazioni AI come MLPerf v4.0, mostrando quanto questi componenti hardware siano dominanti nel segmento di mercato.

È interessante notare che il DGX H200 si basa sull’architettura Hopper a cui sono succedute le nuove GPU Blackwell B100/B200. Questi chip IA di prossima generazione offrono prestazioni e capacità IA migliorate e probabilmente li vedremo in azione entro la fine dell’anno.

Condividi questa storia

Facebook

Twitter