A forradalmi technológiák új hajnalán: AI feldolgozás a jövőben

Az Nvidia, a vezető chipgyártó, nemrég bejelentette a Blackwell sorozat piacra dobását, egy új generációs mesterséges intelligencia (AI) chip- és szoftvercsaládot, melyet kifejezetten AI modellek futtatására terveztek. Ez a forradalmi fejlesztés az Nvidia fejlesztői konferenciáján, San Jose-ban került bemutatásra, ahol a cég célja az volt, hogy megerősítse pozícióját az AI vállalatok preferált szállítójaként.

A Blackwell sorozat első chipje, a GB200, várhatóan az idén debütál. Az Nvidia szerint a Blackwell alapú processzorok jelentős teljesítményugrást kínálnak, 20 petaflops AI teljesítménnyel a korábbi H100 sorozathoz képest, amely csak 4 petaflopsot kínált. Ez azt jelenti, hogy az AI vállalatok most már hozzáférhetnek erőteljesebb feldolgozási képességekhez, lehetővé téve számukra, hogy nagyobb és bonyolultabb AI modelleket képezzenek.

Az egyik fő jellemzője a Blackwell chipnek az „átváltoztató motor”, amely kifejezetten a transformer-alapú AI futtatására lett tervezve. Ez a technológia nélkülözhetetlen olyan AI modellek futtatásához, mint például a ChatGPT, amelyek a transformer-ekre támaszkodnak alaparchitektúrájukban.

A Blackwell GPU jelentős mérnöki alkotás, két különálló die összekapcsolásával egyetlen chipbe, amit a TSMC gyárt. Emellett az Nvidia a GB200-at teljes szerverként is kínálja, GB200 NVLink 2 néven, amely 72 Blackwell GPU-t tartalmaz, illetve egyéb Nvidia komponenseket az AI modellek képzésének megkönnyítése érdekében.

Az elérhetőséget tekintve a nagy felhőszolgáltatók, mint az Amazon, a Google, a Microsoft és az Oracle, hozzáférést biztosítanak majd a GB200-hoz a felhőszolgáltatásaikon keresztül. Az Amazon Web Services például tervez egy szerverfürdőt egy lenyűgöző 20 000 GB200 chipből álló összeállítással. Ez az infrastruktúra szint lehetővé fogja tenni a vállalatoknak, hogy akár 27 trilliós paraméterekkel rendelkező modelleket telepítsenek, felülmúlva a jelenleg elérhető legnagyobb modelleket is a piacon.

Költségek tekintetében az Nvidia által egyelőre nem hozzáférhetővé tett specifikus árazási részletekkel kapcsolatban az elemzői becslések azt sugallják, hogy az előző generációs H100 chip, amelyet a Blackwell sorozat lecserél, egységenként 25 000 és 40 000 dollárba kerülhet, míg a teljes rendszerek akár 200 000 dollárig is elérhetnek.

A hardverfejlesztéseken felül az Nvidia bejelentett egy új szoftverterméket is NIM néven. Ez a szoftver célja, hogy még egyszerűbbé tegye a vállalatok számára a régebbi Nvidia GPU-k használatát az inferencia folyamatában, a mesterséges intelligencia szoftver futtatására. A NIM lehetővé teszi a vállalatok számára, hogy továbbra is kihasználják a már meglévő GPU-kat, így költséghatékony megoldást nyújtva azoknak a vállalkozásoknak, akik saját AI modelleket szeretnének futtatni, anélkül, hogy AI-szolgáltatókra támaszkodnának.

Az Nvidia célja a NIM bevezetésével az, hogy ösztönözze a vásárlókat, akik Nvidia alapú szervereket vásárolnak, hogy előfizessenek az Nvidia vállalati szoftverre is. Az éves licencdíj 4500 dollár minden GPU-ra, az Nvidia vállalati szoftverek pedig a vállalkozásoknak szükséges eszközöket biztosítják az AI modellek hatékony üzemeltetéséhez saját szervereiken vagy az Nvidia felhőalapú szerverein. Ez az integráció könnyen integrálódik elterjedt AI platformokkal, mint például a Microsoft és a Hugging Face.

Összefoglalva, az Nvidia Blackwell sorozata jelentős előrelépést jelent az AI feldolgozási technológiában. Erőteljes teljesítménykapacitásával és innovatív funkcióival a Blackwell chippek és a hozzájuk tartozó szoftverek lehetőséget biztosítanak az AI vállalatoknak a nagyobb és összetettebb AI modellek képzéséhez és telepítéséhez. Ahogy az Nvidia továbbra is fejlődik egy átfogó platformszolgáltatóvá, készen áll arra, hogy az AI forradalmának élén maradjon.

Gyakran Ismételt Kérdések (FAQ):

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact