Revolutionizing the AI Landscape: Nvidia’s Blackwell Series

Nvidia har lanserat Blackwell: Framtiden för AI behandling
Nvidia, ett ledande företag inom chipproduktion, har nyligen meddelat lanseringen av sin mycket efterlängtade Blackwell-serie, en ny generation av artificiell intelligens (AI) chips och programvara designad specifikt för att köra AI-modeller. Denna banbrytande utveckling avslöjades på Nvidias utvecklarkonferens i San Jose, där företaget syftade till att befästa sin position som den största leverantören för AI-företag.

Den första chipen i Blackwell-serien, känd som GB200, planeras att släppas senare i år. Enligt Nvidia erbjuder Blackwell-baserade processorer ett betydande språng i prestanda, med 20 petaflops i AI-prestanda jämfört med den tidigare H100-serien, som endast erbjöd 4 petaflops. Detta innebär att AI-företag nu får tillgång till kraftfullare processningskapaciteter, vilket möjliggör träning av större och mer intrikata AI-modeller.

En av de viktigaste funktionerna hos Blackwell-chipet är dess ”transformatormotor,” som är specifikt utformad för att köra transformerbaserad AI. Denna teknologi är avgörande för att köra AI-modeller som ChatGPT, som förlitar sig på transformatorer som sin kärnarkitektur.

Blackwell-GPU:en är en anmärkningsvärd ingenjörskonst, som kombinerar två separata chips till en enda chip tillverkad av TSMC. Dessutom kommer Nvidia att erbjuda GB200 som en komplett server kallad GB200 NVLink 2, som består av 72 Blackwell-GPU:er och andra Nvidia-komponenter designade för att underlätta träning av AI-modeller.

När det gäller tillgänglighet kommer stora molntjänstleverantörer som Amazon, Google, Microsoft och Oracle att erbjuda tillgång till GB200 genom sina molntjänster. Amazon Web Services planerar till exempel att bygga en serverkluster med imponerande 20 000 GB200-chips. Denna infrastrukturnivå möjliggör för företag att distribuera modeller med upp till 27 biljoner parametrar, vilket överstiger även de största modellerna som för närvarande finns på marknaden.

När det gäller kostnad har specifika prisuppgifter för GB200 och dess associerade system inte avslöjats av Nvidia. Analytiker uppskattar dock att föregående generation H100-chip, som Blackwell-serien syftar till att ersätta, kostar mellan $25 000 och $40 000 per chip, med hela system som kostar så mycket som $200 000.

Utöver maskinvaruförbättringarna avslöjade Nvidia också en ny programvara kallad NIM. Denna programvara syftar till att underlätta för företag att använda äldre Nvidia-GPU:er för inferens, processen att köra AI-programvara. NIM gör det möjligt för företagen att fortsätta dra fördel av de GPU:er de redan äger, vilket gör det till en kostnadseffektiv lösning för företag som vill köra sina egna AI-modeller istället för att förlita sig på AI som tjänst-leverantörer.

Nvidias ambition bakom införandet av NIM är att uppmuntra kunder som köper Nvidias-baserade servrar att också prenumerera på Nvidias företagsprogramvara. Med en årlig licenskostnad på $4 500 per GPU tillhandahåller Nvidias företagsprogramvara företag med de nödvändiga verktygen för att effektivt köra sina AI-modeller på sina egna servrar eller på Nvidias molnbaserade servrar. Denna integration integreras sömlöst med populära AI-plattformar som Microsoft och Hugging Face.

Sammanfattningsvis representerar Nvidias Blackwell-serie ett stort steg framåt inom AI-processeringsteknik. Med sina kraftfulla prestandafunktioner och innovativa funktioner ger Blackwell-chippen och den medföljande programvaran AI-företag de nödvändiga verktygen för att träna och distribuera större och mer sofistikerade AI-modeller. Medan Nvidia fortsätter att utvecklas till en omfattande plattformsleverantör är man redo att förbli i framkant av AI-revolutionen.

Vanliga frågor om Blackwell-serien:

The source of the article is from the blog girabetim.com.br

Privacy policy
Contact