Impatto Rivoluzionario: Nvidia Rivela il Processore Grafico Blackwell B200

Negli ultimi anni, l’avanzamento tecnologico di Nvidia nel settore dei chip per intelligenza artificiale ha superato persino giganti della tecnologia come Alphabet e Amazon. Con l’introduzione del nuovo processore grafico Blackwell B200 e del superchip GB200, Nvidia è pronta a rafforzare ulteriormente la sua posizione di leadership.

Il Blackwell B200 GPU si distingue per i suoi impressionanti 208 miliardi di transistor, offrendo fino a 20 petaflops di prestazioni FP4. In combinazione con un singolo processore Grace, il superchip GB200 può garantire fino a 30 volte le prestazioni per i carichi di lavoro di inferenza LLM, offrendo nel contempo un’efficienza energetica considerevole. Questo nuovo chip è in grado di ridurre costi e consumo energetico fino a 25 volte rispetto al suo predecessore, l’H100.

Per addestrare un modello con 1,8 trilioni di parametri in precedenza, erano necessari 8.000 GPU Hopper e 15 megawatt di potenza. Tuttavia, Nvidia sostiene che con soli 2.000 Blackwell GPU, lo stesso compito può essere completato con soli quattro megawatt di potenza. Il GB200 mostra anche notevoli miglioramenti delle prestazioni, con sette volte le prestazioni e quattro volte la velocità di addestramento rispetto all’H100, secondo i test di benchmark di Nvidia su un benchmark GPT-3 LLM con 175 miliardi di parametri.

Questi progressi sono attribuiti a due fattori chiave introdotti da Nvidia. In primo luogo, le GPU Blackwell utilizzano un motore a trasformatore di seconda generazione che raddoppia il calcolo, la larghezza di banda e le dimensioni del modello impiegando quattro bit per ogni neurone anziché otto. In secondo luogo, uno switch NVLink di nuova generazione consente una comunicazione senza soluzione di continuità tra un gran numero di GPU. Questo switch consente a 576 GPU di interagire tra loro, vantando una larghezza di banda bidirezionale di 1,8 terabyte al secondo. Per raggiungere questo risultato, Nvidia ha sviluppato un nuovo chip switch di rete con 50 miliardi di transistor e le proprie capacità di calcolo a bordo.

Nvidia prevede una significativa domanda per queste GPU e ha progettato confezioni più grandi per soddisfarla. Ad esempio, il GB200 NVL72 incorpora 36 CPU e 72 GPU in un unico rack raffreddato a liquido, offrendo prestazioni di addestramento e di inferenza di intelligenza artificiale impressionanti. Importanti fornitori di servizi cloud come Amazon, Google, Microsoft e Oracle hanno già espresso interesse nell’offrire questi rack.

Nvidia mira inoltre a fornire soluzioni complete alle aziende. Il DGX Superpod per DGX GB200 combina otto unità in una sola, con 288 CPU, 576 GPU, 240TB di memoria e 11,5 exaflops di potenza di calcolo FP4.

La visione di Nvidia va oltre le singole unità GPU. Si immagina sistemi in grado di scalare fino a decine di migliaia di superchip GB200, collegati tramite tecnologie avanzate di rete come Quantum-X800 InfiniBand o Spectrum-X800 Ethernet.

Sebbene questo annuncio sia giunto dalla Conferenza di Tecnologia GPU di Nvidia, che si concentra principalmente sul calcolo GPU e sull’intelligenza artificiale piuttosto che sul gioco, è probabile che l’architettura del processore grafico Blackwell alimenti anche future GPU da gioco, compresa la prevista lineup RTX della serie 50.

Domande Frequenti

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact