En Innovativ Era för AI: Nvidia Presenterar Blackwell B200 GPU

Nvidia har gjort betydande framsteg på marknaden för AI-kretsar med sin mycket eftertraktade H100 AI-krets, vilket har lyft företagets värde bortom tech-jättar som Alphabet och Amazon. Nu är Nvidia inställt på att utvidga sin ledning ännu mer med introduktionen av den nya Blackwell B200 GPU:n och GB200 ”superchip.”

Blackwell B200 GPU imponerar med imponerande 208 miljarder transistorer, vilket erbjuder upp till 20 petaflops av FP4-prestanda. Nvidia påstår att när den kombineras med en enda Grace CPU kan GB200 superchipet erbjuda upp till 30 gånger prestandan för LLM-inferensarbetsbelastningar samtidigt som det ger betydande energieffektivitet. Det sägs minska kostnaden och energiförbrukningen med upp till 25 gånger jämfört med H100.

Att träna en modell med 1,8 biljoner parametrar krävde tidigare 8 000 Hopper GPU:er och 15 megawatt ström, men Nvidia hävdar att med endast 2 000 Blackwell GPU:er kan samma uppgift utföras med endast fyra megawatt ström. GB200 uppvisar också betydande prestandaförbättringar, med sju gånger prestanda och fyra gånger träningshastigheten jämfört med H100, enligt Nvidias benchmarktestning på en GPT-3 LLM-benchmark med 175 miljarder parametrar.

Nvidia tillskriver dessa framsteg till två huvudsakliga faktorer. För det första använder Blackwell GPU:erna en transformerare av andra generationen som dubblar beräkning, bandbredd och modellstorlek genom att använda fyra bitar för varje neuron i stället för åtta. För det andra möjliggör en nästa generationens NVLink-switch sömlös kommunikation mellan stora antal GPU:er. Denna switch möjliggör att 576 GPU:er kan interagera med varandra och skryta med 1,8 terabyte per sekund av bilaterell bandbredd. För att uppnå detta utvecklade Nvidia en ny nätverksswitchkrets med 50 miljarder transistorer och sina egna inbyggda beräkningsförmågor.

Tidigare stötte Nvidia på kommunikationshinder, där endast 16 GPU:er spenderade 60% av sin tid med att utbyta data i stället för att beräkna. Men Blackwell-arkitekturen hanterar detta problem genom att möjliggöra bättre utnyttjande av beräkningskraften.

Nvidia förutser betydande efterfrågan på dessa GPU:er och har utformat större paket för att passa detta. GB200 NVL72, till exempel, integrerar 36 CPU:er och 72 GPU:er i en enda vätskekylt rack, vilket ger imponerande 720 petaflops av AI-träningsprestanda eller 1 440 petaflops av inferens. Med nästan två miles kablar och 5 000 individuella kablar representerar denna rack ett stort kliv inom beräkningskraften.

Märkbara molntjänstleverantörer som Amazon, Google, Microsoft och Oracle har visat intresse för att erbjuda NVL72-rack. Nvidia strävar också efter att tillhandahålla heltäckande lösningar för företag, som DGX Superpod för DGX GB200. Denna system kombinerar åtta enheter i en enda, med 288 CPU:er, 576 GPU:er, 240TB minne och en imponerande 11,5 exaflops av FP4-beräkningskraft.

Nvidias vision sträcker sig bortom enskilda GPU-enheter. De föreställer sig system som kan skalas upp till tiotusentals GB200 superchips, anslutna via avancerade nätverksteknologier som Quantum-X800 InfiniBand eller Spectrum-X800 Ethernet.

Även om denna tillkännagivelse kom från Nvidias GPU Technology Conference, som främst fokuserar på GPU-beräkningar och AI snarare än spel, är det troligt att Blackwell GPU-arkitekturen också kommer att driva framtida speldatorer, inklusive den efterlängtade RTX 50-serien.

FAQ

Vad är Blackwell B200 GPU?

Blackwell B200 GPU är Nvidias senaste grafikprocessor designad för att leverera enastående prestanda inom artificiell intelligens.

Vilka fördelar har GB200 superchipet?

GB200 superchipet kombinerar två Blackwell B200 GPU:er med en enda Grace CPU, vilket erbjuder betydande prestandaförbättringar och energieffektivitet för LLM-inferensarbetsbelastningar.

Hur förbättrar Blackwell-arkitekturen kommunikationen mellan GPU:er?

Blackwell GPU:ernas transformerare av andra generationen dubblar beräkning, bandbredd och modellstorlek genom att använda fyra bitar för varje neuron. Dessutom tillåter nästa generationens NVLink-switch sömlös kommunikation mellan stora antal GPU:er, vilket markant förbättrar den övergripande prestandan.

Vilka potentiella tillämpningar har Blackwell B200 GPU?

Blackwell B200 GPU har olika tillämpningar inom AI-träning och inferens, vilket möjliggör effektiv utförande av uppgifter som språkbearbetning, bildigenkänning och dataanalys för organisationer.

Vilka företag har uttryckt intresse för NVL72-racken?

Större molntjänstleverantörer, inklusive Amazon, Google, Microsoft och Oracle, har uttryckt intresse av att inkludera NVL72-racken i sina erbjudanden.

Källor:

Nvidia
The Verge

The source of the article is from the blog radiohotmusic.it

Privacy policy
Contact