Nvidia’s AI Revolution: Blackwell Series Leading the Way

Nvidia, een toonaangevende chipfabrikant, heeft onlangs de lancering aangekondigd van zijn langverwachte Blackwell-serie, een nieuwe generatie kunstmatige intelligentie (AI)-chips en software speciaal ontworpen voor het uitvoeren van AI-modellen. Deze baanbrekende ontwikkeling werd onthuld op de ontwikkelaarsconferentie van Nvidia in San Jose, waar het bedrijf zijn positie als de belangrijkste leverancier voor AI-bedrijven wilde versterken.

De eerste chip in de Blackwell-serie, bekend als de GB200, wordt later dit jaar uitgebracht. Volgens Nvidia bieden de op Blackwell gebaseerde processoren een aanzienlijke sprong in prestaties, met 20 petaflops aan AI-prestaties in vergelijking met de vorige H100-serie, die slechts 4 petaflops bood. Dit betekent dat AI-bedrijven nu toegang zullen hebben tot krachtigere verwerkingsmogelijkheden, waardoor ze grotere en complexere AI-modellen kunnen trainen.

Een van de belangrijkste kenmerken van de Blackwell-chip is zijn “transformator-engine”, die specifiek is ontworpen voor het uitvoeren van op transformators gebaseerde AI. Deze technologie is cruciaal voor het uitvoeren van AI-modellen zoals ChatGPT, die vertrouwen op transformators als hun kernarchitectuur.

De Blackwell GPU is een opmerkelijk stuk techniek, waarbij twee afzonderlijke dies worden gecombineerd tot één chip die wordt vervaardigd door TSMC. Bovendien zal Nvidia de GB200 aanbieden als een compleet server genaamd de GB200 NVLink 2, die bestaat uit 72 Blackwell-GPU’s en andere Nvidia-componenten die zijn ontworpen om AI-modeltraining te vergemakkelijken.

Wat betreft toegankelijkheid zullen grote cloudserviceproviders zoals Amazon, Google, Microsoft en Oracle toegang bieden tot de GB200 via hun cloudservices. Amazon Web Services bijvoorbeeld, plant de bouw van een servercluster met een indrukwekkende 20.000 GB200-chips. Deze infrastructuurniveau stelt bedrijven in staat modellen met maximaal 27 biljoen parameters te implementeren, die zelfs de grootste modellen die momenteel op de markt beschikbaar zijn, overstijgen.

Wat betreft kosten zijn specifieke prijsdetails voor de GB200 en de bijbehorende systemen niet bekendgemaakt door Nvidia. Analisten schatten echter dat de vorige generatie H100-chip, waarop de Blackwell-serie zich richt om te vervangen, tussen de $25.000 en $40.000 per chip kost, waarbij hele systemen zoveel als $200.000 kunnen kosten.

Naast de hardware-ontwikkelingen, heeft Nvidia ook een nieuwe softwareproduct onthuld genaamd NIM. Deze software is bedoeld om het voor bedrijven gemakkelijker te maken om oudere Nvidia-GPU’s te gebruiken voor inferentie, het proces van het uitvoeren van AI-software. NIM stelt bedrijven in staat om de GPU’s die ze al in hun bezit hebben te blijven benutten, waardoor het een kosteneffectieve oplossing is voor bedrijven die hun eigen AI-modellen willen uitvoeren in plaats van te vertrouwen op AI-als-een-serviceproviders.

Nvidia’s ambitie achter de introductie van NIM is om klanten die Nvidia-gebaseerde servers kopen aan te moedigen zich ook te abonneren op Nvidia enterprise-software. Met een jaarlijkse licentiekosten van $4.500 per GPU, biedt de Nvidia enterprise-software bedrijven de nodige tools om hun AI-modellen efficiënt uit te voeren op hun eigen servers of op Nvidia’s cloudgebaseerde servers. Deze integratie past naadloos bij populaire AI-platforms zoals Microsoft en Hugging Face.

In samenvatting vertegenwoordigt Nvidia’s Blackwell-serie een grote stap voorwaarts in de AI-verwerkingstechnologie. Met zijn krachtige prestatiecapaciteiten en innovatieve functies bieden de Blackwell-chips en bijbehorende software AI-bedrijven de nodige tools om grotere en meer geavanceerde AI-modellen te trainen en in te zetten. Terwijl Nvidia blijft evolueren tot een allesomvattende platformaanbieder, staat het op het punt om aan de frontlinie te blijven van de AI-revolutie.

FAQ:

Wat is de Blackwell-serie?

De Blackwell-serie is Nvidia’s nieuwe generatie AI-chips en software ontworpen voor het uitvoeren van AI-modellen.

Wanneer wordt de eerste Blackwell-chip uitgebracht?

De eerste Blackwell-chip, de GB200, wordt later dit jaar verwacht.

Hoe verschilt de Blackwell-serie van de vorige H100-serie?

De Blackwell-serie biedt een aanzienlijke prestatie-upgrade in vergelijking met de H100-serie, met 20 petaflops in AI-prestaties versus 4 petaflops.

Wat is de transformer-engine functie van de Blackwell-chip?

De transformer-engine is een gespecialiseerd onderdeel van de Blackwell-chip dat is ontworpen om op transformators gebaseerde AI uit te voeren, een belangrijke technologie in modellen zoals ChatGPT.

Zullen de Blackwell-chips toegankelijk zijn via cloudservices?

Ja, belangrijke cloudserviceproviders zoals Amazon, Google, Microsoft en Oracle zullen toegang bieden tot de Blackwell-chips via hun cloudservices.

Hoeveel zullen de Blackwell-chips kosten?

Specifieke prijsdetails zijn niet bekendgemaakt, maar schattingen suggereren dat de vorige H100-chip tussen de $25.000 en $40.000 per chip kost.

Wat is NIM?

NIM is een nieuw softwareproduct dat door Nvidia is geïntroduceerd en dat tot doel heeft het gebruik van oudere Nvidia-GPU’s voor inferentie, het proces van het uitvoeren van AI-software, te vergemakkelijken.

Hoeveel kost het abonnement op de Nvidia enterprise-software?

De jaarlijkse licentiekosten voor de Nvidia enterprise-software bedragen $4.500 per GPU.

The source of the article is from the blog foodnext.nl

Privacy policy
Contact