Reducerea Consumului de Energie in Tehnologia AI: O Perspectiva Sustinabila

Conferinta GTC a companiei Nvidia: Focusul pe Eficienta Energetica in AI

Conferinta dezvoltatorilor GTC a Nvidia, desfasurata la San Jose, California, a atras atentia in lumea AI-ului. Numita „Woodstock-ul AI-ului,” evenimentul a reunit reprezentanti ai gigantilor din industrie, inclusiv Nvidia, OpenAI, xAI, Meta, Google si Microsoft, precum si executivi din companii majore precum L’Oréal, Lowe’s, Shell si Verizon, cu totii interesati de implementarea tehnologiei AI.

In cadrul conferintei, CEO-ul Nvidia, Jensen Huang, a prezentat cea mai noua unitate de procesare grafica (GPU) a companiei, Blackwell GPU. Acest nou cip se lauda cu impresionantii 208 miliarde tranzistori, depasind capacitatea predecesorului sau, GPU-urile H100, care aveau 80 de miliarde tranzistori. Cipurile mai mari ale Blackwell GPU ofera de doua ori viteza pentru antrenarea modelelor AI si sunt de cinci ori mai rapide la generarea output-urilor din modelele antrenate (denumite inferenta). Nvidia a introdus si supercipul GB200 „superchip,” care incorporeaza doua GPU-uri Blackwell conectate la procesorul sau Grace, depasind unitatile existente Grace Hopper MGX folosite in centrele de date.

Un aspect demn de luat in considerare al GPU-ului Blackwell este profilul sau energetic, iar Nvidia valorifica acest lucru in marketingul cipului. In trecut, cipurile puternice consumau mai multa energie, cu accent pe performanta bruta, iar eficienta energetica statea pe locul doi. Cu toate acestea, odata cu lansarea Blackwell GPU, Huang a subliniat viteza sa de procesare mai mare si a evidentiat reducerea consumului de energie in timpul antrenarii in comparatie cu modelele anterioare. Antrenarea modelelor AI ultra-mari folosind 2.000 de GPU-uri Blackwell ar necesita 4 megawati de energie pe parcursul a 90 de zile, in comparatie cu cele 8.000 de GPU-uri mai vechi care ar consuma 15 megawati pentru aceeasi perioada de antrenament. Aceasta diferenta semnificativa in consumul de energie abordeaza preocuparile legate de costul monetar si amprenta de carbon asociate tehnologiei AI.

Focusul pe consumul de energie este crucial, deoarece cresterea constientizarii asupra cheltuielilor si impactului ambiental al AI-ului a determinat companiile sa fie reticente in a adopta in totalitate revolutia AI-ului generativ. Furnizorii de servicii cloud, de exemplu, taxeaza tarife ridicate pentru rularea GPU-urilor, nu doar pentru a acoperi costul cipurilor in sine, ci si pentru a acoperi consumul de energie si cerintele de racire ale centrelor de date. Nvidia recunoaste aceasta ingrijorare si isi propune sa o atenueze prin evidentierea eficientei energetice a Blackwell. In plus, Nvidia subliniaza faptul ca expertii in AI au gasit modalitati de a imita performanta modelelor mai mari, intens consumatoare de putere, cum ar fi GPT-4, cu modele mai mici, care consuma mai putina energie.

Desi consumul de energie al centrelor de date pentru AI reprezinta in prezent o mica parte din consumul total de energie al lumii, estimarile sugereaza ca ar putea creste rapid in viitor. Schneider Electric, de exemplu, estimeaza ca AI-ul consuma energie echivalenta cu cea a Ciprului anual. Conform unui expert Microsoft, desfasurarea doar a H100-urilor Nvidia este prognozata sa consume la finalul acestui an la fel de multa energie ca intregul oras Phoenix.

Cu toate acestea, ingrijorarea legata de consumul de energie al AI-ului in centrele de date ar putea fi intr-o anumita masura gresit plasata. Majoritatea centrelor de date utilizate de marii furnizori de servicii cloud, acolo unde are loc marea parte a procesarii AI-ului, se bazeaza acum pe energie regenerabila sau pe energie nucleara cu emisii reduse de carbon. Prin contractarea de cantitati mari de energie regenerabila la preturi stabilite, acesti hyperscaleri au jucat un rol vital in incurajarea companiilor de energie regenerabila sa construiasca proiecte eoliene si solare. Acest lucru a dus la o mai mare disponibilitate a energiei regenerabile pentru toata lumea, beneficiind atat furnizorii de servicii cloud, cat si sustenabilitatea surselor de energie. Cu toate acestea, consumul de apa necesar pentru racirea centrului de date ramane o problema de ingrijorare pentru eforturile de sustenabilitate.

Desi multe centrale de date sunt alimentate in mod durabil, unele regiuni ar putea sa nu aiba acces la energie regenerabila. Daca AI-ul continua sa se extinda si modelele AI cresc in marime, cererea de energie regenerabila poate depasi ofertele de energie cu emisii reduse de carbon chiar si in Statele Unite si Europa. Acest lucru determina eforturi, cum ar fi interesul Microsoft de a folosi AI-ul pentru a accelera procesul de aprobare pentru noi centrale nucleare in Statele Unite.

Consumul de energie al AI-ului evidentiaza si unul dintre multele domenii in care creierul uman natural depaseste pe cele artificiale pe care le-am creat. Creierul uman consuma aproximativ 0.3 kilowatt-ore zilnic, in principal din aportul caloric, in timp ce un GPU mediu H100 necesita aproximativ 10 kilowatt-ore zilnic. Pentru a asigura adoptia extinsa si sustenabila a AI-ului fara a dauna planetei, retelele neuronale artificiale ar putea fi nevoite sa functioneze cu profiluri de energie mai asemanatoare cu cele biologice.

Aria de Cercetare si Inventie Avansata a Marii Britanii (Aria), asemanatoare cu DARPA a Departamentului american al Apararii, isi propune sa abordeze aceasta provocare. Recent, Aria a alocat 42 de milioane de lire sterline ($53 de milioane) pentru a finanta proiecte axate pe reducerea amprentei energetice a aplicatiilor AI cu un factor de o mie. Aria ia in considerare abordari radicale pentru construirea cipurilor de calculator, inclusiv cele care se bazeaza pe neuroni biologici pentru calcul in loc de tranzistori de siliciu. In timp ce rezultatul ramane incert, simpla existenta a provocarii Aria si accentul Nvidia pe eficienta energetica la conferinta GTC semnifica un interes in crestere pentru reducerea consumului de energie al AI-ului si avansarea practicilor sustenabile.

Intrebari Frecvente

Ce reprezinta conferinta GTC a Nvidia?
Conferinta GTC (GPU Technology Conference) a Nvidia este un eveniment important in domeniul AI-ului si prelucrarii grafice, adunand lideri de industrie, cercetatori si dezvoltatori pentru a prezenta si discuta cele mai noi avansari in tehnologia GPU si aplicatiile AI.

Ce reprezinta Blackwell GPU?
Blackwell GPU este cea mai noua unitate de procesare grafica a Nvidia, oferind inovatii precum 208 miliarde de tranzistori, facandu-l mai puternic si mai rapid pentru antrenarea modelelor AI si generarea output-urilor din modelele antrenate. De asemenea, se lauda cu o eficienta energetica imbunatatita in comparatie cu modelele anterioare.

De ce este importanta eficienta energetica in AI?
Eficienta energetica in AI este cruciala pentru a aborda preocuparile legate de costul monetar si impactul ambiental al tehnologiei AI. Prin reducerea consumului de energie in timpul antrenarii si inferentei AI-ului, companiile pot reduce cheltuielile si pot contribui la eforturile de sustenabilitate.

Care este rolul energiei regenerabile in AI?
Multe centre de date utilizate pentru prelucrarea AI-ului sunt alimentate de energie regenerabila sau de energie nucleara cu emisii reduse de carbon. Angajamentul furnizorilor de servicii cloud pentru energie regenerabila a incurajat companiile de energie regenerabila sa dezvolte proiecte mai mari, sporind disponibilitatea energiei regenerabile pentru toti.

De ce este importanta reducerea consumului de energie al AI-ului pentru sustenabilitate?
Pe masura ce adoptia AI-ului creste si modelele devin mai mari, cererea de energie, in special de energie regenerabila, poate sa depaseasca oferta. Prin focalizarea pe eficienta energetica si explorarea de abordari alternative, precum utilizarea de neuroni biologici in loc de tranzistori de siliciu, se urmareste reducerea consumului de energie al AI-ului si promovarea practicilor sustenabile.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact