Чому ШІ споживає стільки електроенергії та що це означає для світу
Скільки енергії використовують моделі штучного інтелекту
Коротка відповідь — насправді ми не знаємо точно. Оцінки дійсно існують, але експерти кажуть, що ці цифри є частковими та умовними, що дають лише уявлення про загальне споживання електроенергії штучним інтелектом. Причина полягає у тому, що моделі машинного навчання неймовірно різноманітні і від їх архітектури енерговитрати різко змінюються. Інша проблема — головні техкомпанії, які створюють подібні продукти на кшталт Meta, Microsoft і OpenAI просто не діляться відповідною інформацією.
Саша Лучіоні, дослідник франко-американської фірми Hugging Face, що спеціалізується на штучному інтелекті, говорить про те, що компанії стали більш закритими, оскільки штучний інтелект став прибутковим. Наприклад, вона зазначає, що
лише кілька років тому, такі фірми, як OpenAI, опублікували деталі своїх режимів навчання. Але такої ж інформації просто немає для останніх моделей, таких як ChatGPT і GPT-4.
Лучіоні та її колеги провели дослідження та випробували 88 різних моделей, які виконували низку завдань (відповіді на запитання, ідентифікація об’єктів та створення зображень). У кожному випадку вони повторювали завдання 1000 разів і оцінювали витрати енергії. Переважна більшість споживає невелику кількість енергії, наприклад 0,002 кВт-год для класифікації тексту і 0,047 кВт-год для написання (за 1 тис. разів). При цьому створення зображень вже підняло цифру до 2,9 кВт-го, а це вже близько 170 зарядок вашого смартфона.
Підписуйтеся на наші соцмережі
Інший спосіб оцінити енерговитрати зробив Алекса де Фріс, PhD у Амстердамській школі бізнесу та економіки. Оскільки на Nvidia припадає приблизно 95% продажів на ринку графічних процесорів для ШІ, а компанія також публікує дані про енергоспоживання для свого апаратного забезпечення та прогнози продажів, то вчений провів певні розрахунки.
Об’єднавши ці дані, де Фріз підрахував, що до 2027 року сектор штучного інтелекту може споживати від 85 до 134 терават-годин щороку. Це приблизно стільки ж, скільки річна потреба в енергії Нідерландів (33-тя країна у світі за споживанням). Також він припустив, що до 2027-го року ШІ споживатиме 0,5% світової електроенергії.
Датацентри вимагають більше
Пів відсотка може видатись не надто великим показником, але запити на електроенергію швидко зростають. Як ми вже згадували, порахувати точні енерговитрати саме на ШІ досить складно, оскільки їх обладнання є частиною глобальних датацентрів. Goldman Sachs повідомляє, що з 2015 по 2019 рік споживання датацентрів не зростало.
І справа не в тому, що останнім часом наш попит на дані був мізерним. Насправді робоче навантаження центрів обробки даних зросло майже втричі, але попит центрів обробки даних на електроенергію залишався рівним і становив близько 200 терават-годин на рік. Частково це було тому, що центри обробки даних ставали все більш ефективними у тому, як вони використовували енергію. До 2028 року аналітики очікують, що штучний інтелект буде складати близько 19% потреб датацентрів.
За оцінками Міжнародного енергетичного агентства (МЕА), у 2022 році це споживання становило майже 2 відсотки світового попиту на енергію, і до 2026 року попит на ці види споживання може подвоїтися, що приблизно дорівнюватиме кількості електроенергії, яка споживається всією Японією. При цьому у США, де розташована переважна більшість великих датацентрів їх частка може становити до 8%.
Стійка з традиційними серверами в центрі обробки даних споживає 7 кВт електроенергії, тоді як стійка з серверами ШІ з підвищеною обчислювальною потужністю — 30-100. Nvidia, нинішній лідер на ринку серверів штучного інтелекту, поставила 100 тис. одиниць минулого року, що, як очікується, споживатиме в 7,3 рази більше енергії на рік.
Що краща модель, то більше споживання
Окрім того, що саме використання моделей ШІ споживає досить багато енергії, їх навчання теж. GPT-4, наприклад, вимагав понад 50 гігават-годин , приблизно 0,02% електроенергії, яку Каліфорнія генерує за рік, і в 50 разів більше, ніж для тренування GPT-3, попередньої ітерації.
До того ж енергія, яку використовують датацентри переважно не «зелена». Ці установи разом щорічно викидають приблизно стільки вуглекислого газу, скільки Бразилія. Створення зображень є, безумовно, найбільш енергоємним і вуглецевим завданням на основі ШІ. Створення 1000 зображень за допомогою потужної моделі штучного інтелекту, такої як Stable Diffusion XL, призводить до викидів приблизно стільки ж вуглекислого газу, скільки проїзд еквівалентний 6,5 км на середньому автомобілі з бензиновим двигуном.
Як вирішуватимуть енергетичну кризу
Є одразу кілька шляхів, якими намагаються нівелювати негативний вплив та задовільнити потребу в електроенергії.
Ефективність обчислень може відповідати закону Кумі, за яким кожні два з половиною роки кількість енергії, необхідної для виконання певного обсягу обчислень, скорочується вдвічі. Втім, центри обробки даних самі створюють виклики, що заважають повній реалізації цього принципу. До 2000-х років, коли центри обробки даних перетворилися на тісно згруповані стійки з дедалі потужнішими серверами, їм стали необхідними промислові системи кондиціонування повітря для охолодження серверів, які нагрівалися від обробки даних. Ці системи потребують величезної кількості води для охолодження повітря, яке охолоджує сервери.
Одним із потенційних рішень є створення центрів обробки даних у таких регіонах, як Скандинавія, де менше людей, прохолодніший клімат і велика кількість гідроенергетичних станцій. Швеція, яка колись вважалася головним місцем для майнерів біткойнів у Європі, минулого року скасувала податкові пільги для центрів обробки даних і почала стягувати додаткові податки. Компанія, що планувала побудувати найбільший у світі центр обробки даних у Норвегії збанкрутувала після того, як уряд змінив правила щодо пільг для майнерів криптовалюти.
Водночас фізична близькість має значення. Користувач, який знаходиться на відстані 100 км від серверів програми AI, отримуватиме повільніші відповіді, ніж той, хто знаходиться на відстані 10 км. А користувачі, які шукають кращу альтернативу Google, очікують таких же миттєвих результатів.
Деякі компанії, які займаються ШІ, стверджують, що сама технологія може допомогти вирішити ці проблеми. Зокрема у 2016 році Google оголосив, що його штучний інтелект DeepMind допоміг зменшити споживання енергії охолодження центру обробки даних компанії «до 40 відсотків».
На цій хвилі багато країн міркують про повернення до ядерної енергетики, як альтернативу та більш екологічний спосіб отримання електрики. Сем Альтман, очільник Open AI також інвестує у компанії, які працюють у галузі термоядерного синтезу.
Іншим шляхом може стати краща енергоефективність. Наприклад, TSMC та NVIDIA намагаються розробляти пристрої, які забезпечують кращу обчислювальну потужність при менших енерговитратах. Доволі радикальним рішенням можу стати «біологічні» комп’ютери, які використовують підхід під назвою network-based biocomputation, що дозволяє проводити паралельні обчислення з дуже малими енерговитратами. Щоправда, ці системи наразі перебувають на рівні дослідницьких прототипів.