Stigande Oro Över AI:s Växande Energiförbrukning

I en nylig intervju som uppmärksammades av The Wall Street Journal lyfte Arm VD Rene Haas fram den betydande ökningen av energiförbrukningen som förväntas från AI-datacenter, med möjligheten att stiga till 25% av den amerikanska elnätets användning, från dess nuvarande 4%. Denna diskussion föregrep en möjlig allians mellan Japan och USA inom AI-teknologi. Haas observationer återspeglade en rapport från januari av International Energy Agency, som fann att AI-plattformar som ChatGPT kräver betydligt mer energi per förfrågan jämfört med traditionella sökmotorförfrågningar.

Till exempel, om Google skulle övergå hela sin sökplattform till ett AI-driven system liknande ChatGPT, skulle dess energiförbrukning kunna öka till över tio gånger sin nuvarande nivå, och nå minst 11 terawatt-timmar årligen. Nyliga framsteg inom AI, såsom OpenAI’s Sora, visar på tung energiförbrukning vid drift, vilket involverar kraftfulla GPU:er för endast en kort stund av genererat innehåll. Träning av AI-system som Grok 3 kan innebära användningen av tiotusentals av dessa GPU:er.

Konsekvenserna av AI:s energiutnyttjande för hållbarheten är av yttersta vikt, särskilt när den nuvarande energiinfrastrukturen och de växande kraven från olika industrier beaktas. Med endast 22% av den amerikanska energiproduktionen från förnybara källor, uppmanar experter till en balans mellan teknologisk tillväxt och hållbara metoder. Krav på mer statlig reglering framkommer i en tid av stigande energikostnader och företagstryck. Mot denna bakgrund har Haas visat en gnutta optimism avseende de potentiella fördelarna med internationella samarbeten som initiativet mellan USA och Japan, men framtiden för AI:s energiavtryck förblir under uppsikt.

Uppväxten av AI-Datacenter – En Energiperspektiv

The source of the article is from the blog maltemoney.com.br

Privacy policy
Contact