Навчання ChatGPT потребує такої кількості води, яка заповнить градирню ядерного реактора

13 квітня 2023 2 хвилин читання

Нове дослідження демонструє, що спілкування середньостатистичного користувача з ChatGPT дорівнює виливанню великої пляшки прісної води на землю.

Популярні великі мовні моделі (LLM), такі як ChatGPT від OpenAI і Bard від Google, є енергоємними, тому для надання достатньої кількості даних для навчання потужних програм потрібні великі серверні ферми, які потрібно охолоджувати. Нове дослідження показує, що тренування лише для GPT-3 потребувало 700 000 літрів води, а спілкування середньостатичного користувача з ChatGPT в основному дорівнює виливанню великої пляшки прісної води на землю, пише Gizmodo. 

Дослідники з Університету Колорадо Ріверсайд і Університету Техасу в Арлінгтоні опублікували оцінки споживання води штучним інтелектом у статті під назвою «Зробити штучний інтелект менш спраглим». Автори виявили, що кількість чистої прісної води, необхідної для тренування GPT-3, еквівалентна кількості, необхідній для заповнення градирні ядерного реактора.

OpenAI не розголошує тривалість часу, необхідного для навчання GPT-3, що ускладнює оцінки дослідників. Проте Microsoft, яка уклала багаторічне багатомільярдне партнерство зі стартапом AI і створила суперкомп'ютери для навчання AI, каже, що найновіший суперкомп'ютер, який потребує потужного охолоджувального пристрою, містить 10 000 графічних карт і понад 285 000 процесорних ядер. Ця величезна кількість літрів води могла б виробляти елементи батареї для 320 Tesla.

Раніше Speka розповідала, як працює ChatGPT у схемах та мемах.