Розширюючі потреби енергії штучного інтелекту

Розвиток штучного інтелекту (AI) перевершив спосіб взаємодії з технологією. Від простих завдань, таких як включення світла, до складних голосових команд, AI став невід’ємною частиною нашого повсякденного життя. Однак позаду цих на перший погляд легких взаємодій стоїть широка мережа ресурсів, праці та алгоритмічної обробки.

У 2018 році Кейт Кроуфорд і Владан Йолер писали про величезні ресурси, необхідні для функціонування AI систем, щоб виконати хоча б найпростіші завдання. Масштаб споживаної AI енергії та праці значно перевищує те, що потрібно людині для виконання тих самих завдань. Цікаво, що вже в 2021 році ми бачимо, наскільки експоненціальним був ріст цієї галузі.

Останні аналізи показують, що кількість обчислювальної потужності, використовуваної для навчання великих моделей AI, значно збільшилася за останні шість років. Фактично, вона зросла в 300 000 разів швидше, ніж закон Мура, який описує тенденцію потрійної збільшення обчислювальної потужності кожні два роки. Цей величезний ріст обчислювальної потужності є важливим для обробки та “навчання” на величезних обсягах даних.

Поступово розширюючи свої можливості, AI також збільшує споживання енергії цих систем. Важко визначити точну кількість споживаної AI електроенергії, але звіти свідчать про те, що AI у 2021 році складала від 10 до 15% загального споживання електроенергії Google. Це приблизно 2,3 тераватт-годин щорічно, що еквівалентно споживанню електроенергії міста такого розміру, як Атланта.

Апетит AI до енергії активно зростає за прогнозами на майбутнє. Наприклад, провідний виробник AI серверних чіпів Nvidia, прогнозує, що до 2027 року щорічно буде доставляти 1,5 мільйона одиниць AI серверів. Якщо ці сервери працюватимуть на повну потужність, то щороку вони будуть споживати принаймні 85,4 тераватт-годин електроенергії, що перевищує споживання енергії багатьох малих країн.

Необхідність досягнення прориву в технології енергії стає все більш нагальною. Генеральний директор OpenAI Сем Олтман вказує, що для забезпечення потреб AI у енергії потрібна ядерна фузія або значно дешевша сонячна енергія у великому масштабі. Сам Олтман інвестував у стартап з ядерної фузії Helion Energy, який має на меті досягти цього прориву.

Тим часом, високе споживання електроенергії AI продовжуватиме бути обмежуючим фактором. Вартість використання AI, як у відношенні енергії, так і фінансів, обмежуватиме широкий доступ до складних моделей AI. Зі зростанням обчислювальних витрат для моделей AI стає зрозуміло, чому технологічні гіганти, такі як Google, обережно відносяться до того, щоб зробити ці моделі доступними для загального користування.

Майбутнє AI має неймовірний потенціал, але вирішення проблем енергетичних потреб та витрат, пов’язаних з цими системами, є критичним для їх сталого розвитку. Продовжуючи працювати над проривами в технології енергії, ми повинні забезпечити, що зростання AI не відбувається за рахунок нашого навколишнього середовища та ресурсів.

Поширені запитання:

The source of the article is from the blog mgz.com.tw

Privacy policy
Contact