Nvidia’s Breakthrough in AI Processing Industry

Nvidia, som er en førende chipproducent, har for nylig annonceret lanceringen af deres meget ventede Blackwell-serie, en ny generation af kunstig intelligens (AI) chips og software, der er specielt designet til kørsel af AI-modeller. Denne banebrydende udvikling blev præsenteret på Nvidias udviklerkonference i San Jose, hvor virksomheden sigtede mod at styrke sin position som den foretrukne leverandør for AI-virksomheder.

Den første chip i Blackwell-serien, kendt som GB200, forventes at blive frigivet senere på året. Ifølge Nvidia tilbyder Blackwell-baserede processorer et betydeligt løft i ydeevnen med 20 petaflops i AI-ydelse sammenlignet med den tidligere H100-serie, der kun bød på 4 petaflops. Dette betyder, at AI-selskaber nu vil have adgang til mere kraftfulde processorer, der gør det muligt at træne større og mere komplekse AI-modeller.

En af nøglefunktionerne ved Blackwell-chippen er dens “transformer-motor”, der er specifikt designet til at køre transformer-baserede AI. Denne teknologi er afgørende for kørslen af AI-modeller som ChatGPT, der er afhængige af transformatorer som deres kernearkitektur.

Blackwell GPU’en er et bemærkelsesværdigt ingeniørarbejde, der kombinerer to separate dies i en enkelt chip produceret af TSMC. Derudover vil Nvidia tilbyde GB200 som en komplet server kaldet GB200 NVLink 2, der består af 72 Blackwell GPU’er og andre Nvidia-komponenter designet til at lette AI-modeltræning.

Når det kommer til tilgængelighed, vil store cloud-tjenesteudbydere som Amazon, Google, Microsoft og Oracle tilbyde adgang til GB200 via deres cloud-tjenester. Amazon Web Services planlægger f.eks. at opbygge en serverkluster med imponerende 20.000 GB200 chip. Denne infrastrukturniveau vil muliggøre virksomheder at implementere modeller med op til 27 billioner parametre, overgående endda de største modeller, der i øjeblikket er tilgængelige på markedet.

Hvad angår omkostninger, er specifikke prisoplysninger for GB200 og dets tilknyttede systemer ikke blevet offentliggjort af Nvidia. Analytikeres skøn antyder dog, at den foregående generation H100-chippen, som Blackwell-serien sigter mod at erstatte, koster mellem $25.000 og $40.000 pr. chip, hvor hele systemer kan koste op til $200.000.

Ud over hardware-udviklingen afslørede Nvidia også et nyt softwareprodukt kaldet NIM. Dette software sigter mod at gøre det nemmere for virksomheder at udnytte ældre Nvidia GPU’er til inference, processen med at køre AI-software. NIM muliggør, at virksomheder kan fortsætte med at udnytte de GPU’er, de allerede ejer, hvilket gør det til en omkostningseffektiv løsning for virksomheder, der ønsker at køre deres egne AI-modeller i stedet for at stole på AI som en serviceudbydere.

Nvidias ambition bag introduktionen af NIM er at opfordre kunder, der køber Nvidia-baserede servere, også at abonnere på Nvidias enterprise-software. Med en årlig licensomkostning på $4.500 pr. GPU leverer Nvidias enterprise-software virksomheder med de nødvendige værktøjer til effektivt at køre deres AI-modeller på deres egne servere eller på Nvidias cloud-baserede servere. Denne integration fungerer problemfrit med populære AI-platforme som Microsoft og Hugging Face.

Sammenfattende repræsenterer Nvidias Blackwell-serie et betydeligt skridt fremad inden for AI-processeringsteknologi. Med dens kraftfulde ydeevne og innovative funktioner giver Blackwell-chipsene og tilhørende software AI-virksomheder de nødvendige værktøjer til at træne og implementere større og mere sofistikerede AI-modeller. Mens Nvidia fortsætter med at udvikle sig til en omfattende platformleverandør, er virksomheden klar til at forblive i front i AI-revolutionen.

Ofte stillede spørgsmål (FAQ):

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact