Den nya erans AI: Framtiden med biologiskt inspirerade chip

Nvidia’s GPU Technology Conference (GTC) i San Jose, Kalifornien har alltid varit en händelse som bryter ny mark inom AI-världen. Även kallad ”AI Woodstock”, har evenemanget samlat branschjättar som Nvidia, OpenAI, xAI, Meta, Google och Microsoft, samt ledare från stora företag som L’Oréal, Lowe’s, Shell och Verizon, som alla siktar på att implementera AI-teknologi.

Under konferensen avtäckte Nvidia VD Jensen Huang företagets senaste grafikprocessor (GPU), Blackwell GPU. Denna nya chip skryter med imponerande 208 miljarder transistorer, överträffandes sin föregångare, H100 GPU, som hade 80 miljarder transistorer. De större chippen i Blackwell GPU erbjuder dubbelt så snabb träning av AI-modeller och är fem gånger snabbare på att generera utdata från tränade modeller (kallat inferens). Nvidia introducerade också den kraftfulla GB200 ”superchip”, som integrerar två Blackwell GPUs kopplade till sin Grace CPU, överträffande de befintliga Grace Hopper MGX-enheter som används i datacenters.

En anmärkningsvärd aspekt av Blackwell GPU är dess energiprofil, vilket Nvidia utnyttjar i sin marknadsföring. Tidigare förbrukade kraftfulla chip mer energi, med energieffektivitet som hamnade i skuggan av ren prestanda. Med avslöjandet av Blackwell GPU betonade Huang dess ökade processhastighet och underströk den minskade energiförbrukningen vid träning jämfört med tidigare modeller. Att träna ultrastora AI-modeller med 2 000 Blackwell GPUs skulle kräva 4 megawatt energi under 90 dagar, jämfört med 8 000 äldre GPUs som skulle förbruka 15 megawatt under samma träningsperiod. Denna betydande skillnad i energiförbrukning adresserar bekymmer kring monetära kostnader och koldioxidavtryck förknippade med AI-teknologi.

Fokusen på energiförbrukning är avgörande, eftersom ökad medvetenhet om kostnaderna och miljöpåverkan av AI har gjort företag tveksamma att helt omfamna den generativa AI-revolutionen. Molnleverantörer tar exempelvis ut höga avgifter för att köra GPU:er, inte bara för att täcka kostnaden för chippen i sig, utan också för att täcka energiförbrukning och kylkrav för datacenter. Nvidia erkänner denna oro och strävar efter att mildra den genom att lyfta fram Blackwells energieffektivitet. Dessutom påpekar Nvidia att AI-experter har hittat sätt att efterlikna prestandan hos större, energikrävande modeller som GPT-4 med mindre, mer energisnåla modeller.

Även om energiförbrukningen för AI-datacenter för närvarande representerar en liten del av världens totala energiförbrukning, tyder uppskattningar på att den kan öka snabbt i framtiden. Schneider Electric uppskattar till exempel att AI förbrukar lika mycket energi som Cypern på årsbasis. Enligt en expert från Microsoft förväntas bara implementeringen av Nvidia H100 förbruka lika mycket energi som hela staden Phoenix vid årets slut.

Dock kanske oron över AI:s energiförbrukning i datacenter är något missriktad. De flesta datacenter som används av molntjänstleverantörer, där majoriteten av AI-processer sker, använder nu förnybar energi eller lågkolnukleär energi. Genom avtal om stora mängder förnybar energi till fasta priser har dessa hyperscalers spelat en avgörande roll för att uppmuntra förnybara energiföretag att bygga vind- och solprojekt. Detta har resulterat i att mer förnybar energi blir tillgänglig för alla, till fördel för både molnleverantörer och hållbarheten hos energikällorna. Trots detta återstår vattenanvändningen som krävs för kylning av datacenter som ett område för hållbarhetsbemödanden.

Även om många datacenter drivs hållbart kan vissa regioner sakna tillgång till förnybar energi. Om AI fortsätter att växa och AI-modeller blir större kan efterfrågan på förnybar energi överskrida tillgången, särskilt i USA och Europa. Detta driver fram initiativ, som Microsofts intresse av att använda AI för att påskynda godkännandeprocessen för nya kärnkraftverk i USA.

AI:s energiförbrukning belyser också ett av de många områden där mänskliga hjärnor överträffar de artificiella vi har skapat hittills. Mänskliga hjärnor förbrukar cirka 0,3 kilowattimmar dagligen, främst från kaloriintag, medan den genomsnittliga H100 GPU:en kräver cirka 10 kilowattimmar dagligen. För att säkerställa en bred och hållbar adoption av AI utan att skada planeten kan artificiella neurala nätverk behöva fungera med energiprofiler som är mer lik sina biologiska motsvarigheter.

Storbritanniens Advance Research and Invention Agency (Aria), liknande USA:s försvarsdepartements DARPA, syftar till att adressera denna utmaning. Nyligen åtog sig Aria att finansiera projekt till ett värde av £42 miljoner ($53 miljoner) för att minska energiförbrukningen vid drift av AI-applikationer med en faktor tusen. Aria överväger radikala tillvägagångssätt för att bygga datorchip, inklusive sådana som förlitar sig på biologiska neuroner för beräkning istället för kiseltransistorer. Medan utfallet är osäkert, signalerar endast existensen av Aria-utmaningen och Nvidias betoning på energieffektivitet vid GTC-konferensen en växande inriktning på att minska AI:s energiförbrukning och främja hållbara metoder.

Vanliga frågor

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact