Connect with us

Notizie

NVIDIA prevede di produrre in serie GPU R100 “Rubin” di nuova generazione nel quarto trimestre del 2025: TSMC N3, 8 stack HBM4, CPU Grace da 3 nm e focus sull’efficienza energetica

NVIDIA prevede di produrre in serie GPU R100 “Rubin” di nuova generazione nel quarto trimestre del 2025: TSMC N3, 8 stack HBM4, CPU Grace da 3 nm e focus sull’efficienza energetica

Si prevede che NVIDIA produrrà in serie le sue GPU Rubin R100 di prossima generazione con memoria HBM4 sul nodo TSMC da 3 nm entro il quarto trimestre del 2025.

Le GPU Rubin R100 di prossima generazione di NVIDIA si concentreranno sull’efficienza energetica aumentando al contempo le prestazioni dell’intelligenza artificiale e utilizzeranno la memoria HBM4 e il nodo TSMC da 3 nm

Le nuove informazioni provengono da Mich-Chi Kuo, analista di TF International Securitiesil quale afferma che NVIDIA ha gettato le basi per le sue GPU Rubin R100 di prossima generazione che prendono il nome da Vera Rubin, un’astronoma americana che ha dato un contributo significativo alla comprensione della materia oscura nell’universo e allo stesso tempo è stata pioniera nel lavoro sulla velocità di rotazione delle galassie.

Kuo afferma che le GPU NVIDIA Rubin R100 faranno parte della gamma della serie R e dovrebbero essere prodotte in serie nel quarto trimestre del 2025, mentre si prevede che sistemi come le soluzioni DGX e HGX saranno prodotti in serie nella prima metà. del 2026. NVIDIA ha recentemente presentato le sue GPU Blackwell B100 di nuova generazione che presentano un enorme aumento delle prestazioni dell’intelligenza artificiale e sono il primo vero chiplet dell’azienda che per prima ha gettato le sue basi nella GPU Ampere.

Si prevede che le GPU Rubin R100 di NVIDIA utilizzeranno un design del reticolo 4x (rispetto a 3,3x di Blackwell) e saranno realizzate utilizzando la tecnologia di packaging TSMC CoWoS-L sul nodo del processo N3. TSMC ha recentemente delineato piani per chip con dimensioni del reticolo fino a 5,5x entro il 2026, che presenterebbero un substrato di 100×100 mm e consentirebbero fino a 12 siti HBM rispetto a 8 siti HBM sugli attuali pacchetti 80×80 mm.

L’azienda di semiconduttori prevede inoltre di passare a un nuovo design SoIC che presenterà una dimensione del reticolo superiore a 8x in una configurazione del contenitore da 120×120 mm. Questi sono ancora in fase di pianificazione, quindi possiamo aspettarci più realisticamente una dimensione del reticolo compresa tra 4x per le GPU Rubin.

Fonte immagine: TSMC

Altre informazioni menzionate affermano che NVIDIA utilizzerà la DRAM HBM4 di prossima generazione per alimentare le sue GPU R100. L’azienda attualmente sfrutta la memoria HBM3E più veloce per le sue GPU B100 e si prevede che aggiornerà questi chip con varianti HBM4 quando la soluzione di memoria verrà ampiamente prodotta in serie alla fine del 2025. Questo sarà più o meno lo stesso periodo in cui si prevede che le GPU R100 entreranno in massa. produzione. HBM4. Sia Samsung che SK Hynix hanno rivelato i piani per iniziare lo sviluppo della soluzione di memoria di nuova generazione nel 2025 con stack fino a 16-Hi.

NVIDIA è inoltre pronta ad aggiornare la sua CPU Grace per il modulo GR200 Superchip che ospiterà due GPU R100 e una CPU Grace aggiornata basata sul processo a 3 nm di TSMC. Attualmente, la CPU Grace è basata sul nodo di processo a 5 nm di TSMC e racchiude 72 core per un totale di 144 core sulla soluzione Grace Superchip.

Uno degli obiettivi principali di NVIDIA con le sue GPU Rubin R100 di nuova generazione sarà l’efficienza energetica. L’azienda è consapevole delle crescenti esigenze energetiche dei suoi chip per data center e fornirà miglioramenti significativi in ​​questo reparto, aumentando al contempo le capacità di intelligenza artificiale dei suoi chip. Le GPU R100 sono ancora lontane e non dovremmo aspettarci che vengano svelate prima delle GTC del prossimo anno, ma se queste informazioni sono corrette, allora NVIDIA ha sicuramente molti sviluppi entusiasmanti in vista per il segmento AI e Data Center.

Roadmap per data center NVIDIA/GPU AI

Nome in codice GPUXRubinoBlackwellTramoggiaAmpereVoltaPascal
Famiglia GPUGX200GR100GB200GH200/GH100GA100GV100GP100
SKU della GPUX100R100B100/B200H100/H200A100V100P100
MemoriaHBM4e?HBM4?HBM3eHBM2e/HBM3/HBM3eHBM2eHBM2HBM2
Lancio202X202520242022-20242020-202220182016

Condividi questa storia

Facebook

Twitter