Stigende Bekymringer Om AI’s Voksende Energiforbrug

I et nyligt interview fremhævet af The Wall Street Journal, bragte Arm CEO Rene Haas opmærksomhed til den betydelige stigning i energiforbruget, der forventes fra AI-datacentre, potentielt stigende til 25% af den amerikanske energigrids ​​forbrug, op fra det nuværende 4%. Denne diskussion forudgik en mulig alliance mellem Japan og USA om AI-teknologi. Haas’ observationer fulgte en januar-rapport fra Det Internationale Energiagentur, som fandt, at AI-platforme som ChatGPT kræver betydeligt mere strøm pr. forespørgsel sammenlignet med traditionelle søgemaskineforespørgsler.

For eksempel, hvis Google skiftede hele sin søgeplatform til et AI-drevet system lignende ChatGPT, kunne energiforbruget stige til over ti gange sit nuværende niveau, ramme mindst 11 terawatt-timer årligt. Nylige fremskridt inden for AI, såsom OpenAI’s Sora, demonstrerer tungt energiforbrug i drift, involverende kraftfulde GPU’er til blot et kort tidsrum af genereret indhold. Træning af AI-systemer som Grok 3 kunne indebære brugen af titusindvis af disse GPU’er.

Konsekvenserne af AI’s strømforbrug for bæredygtigheden er af afgørende bekymring, især når den nuværende energiinfrastruktur og de voksende krav fra forskellige brancher tages i betragtning. Mens kun 22% af den amerikanske energiproduktion kommer fra vedvarende kilder, opfordrer eksperter til en balance mellem teknologisk vækst og bæredygtige praksisser. Opfordringer til mere statslig regulering opstår i lyset af stigende strømudgifter og virksomhedspres. Mod denne baggrund har Haas vist et glimt af optimisme med hensyn til de potentielle fordele ved internationale samarbejder som det amerikansk-japanske initiativ, men fremtiden for AI’s energifodaftryk forbliver et vigtigt emne.

Stigningen af AI Datacentre – Et Energibehovsperspektiv

The source of the article is from the blog lokale-komercyjne.pl

Privacy policy
Contact