Рубріки: Новини

ChatGPT може бути менш енергоємним, ніж вважалося раніше

Андрій Губін

Нещодавній аналіз Epoch AI, некомерційного дослідницького інституту ШІ, спробував підрахувати, скільки енергії споживає типовий запит ChatGPT. Використовуючи останню стандартну модель OpenAI для ChatGPT, GPT-4o, як еталон, Epoch виявила, що середній запит ChatGPT споживає близько 0,3 ват-годин — менше, ніж багато побутових приладів. Про це повідомили Founder.ua.

Раніше повідомлялося, що ChatGPT потребує близько 3 ват-годин енергії, щоб відповісти на одне запитання, або в 10 разів більше, ніж пошук у Google.

«Споживання енергії насправді не є великою проблемою порівняно з використанням звичайних приладів, опаленням чи охолодженням вашого будинку або водінням автомобіля», — розповів аналітик даних Epoch Джошуа Ю,  який проводив аналіз.

Енергоспоживання штучного інтелекту та його вплив на навколишнє середовище, загалом кажучи, є предметом суперечливих дискусій, оскільки компанії ШІ прагнуть швидко розширити свою інфраструктуру. Лише минулого тижня група з понад 100 організацій  опублікувала відкритий лист  із закликом до індустрії штучного інтелекту та регуляторів переконатися, що нові центри обробки даних штучного інтелекту не виснажують природні ресурси та не змушують комунальні підприємства покладатися на невідновлювані джерела енергії.

Зрозуміло, цифра Epoch у 0,3 ват-години також є приблизною. OpenAI не опублікував деталі, необхідні для точного розрахунку.

Аналіз також не враховує додаткові витрати на електроенергію, пов’язані з такими функціями ChatGPT, як створення зображень або обробка вхідних даних. Ви визнали, що запити ChatGPT із «довгим введенням» — наприклад, запити із вкладеними довгими файлами — ймовірно споживають більше електроенергії наперед, ніж звичайне запитання.

Незважаючи на те, що за останні місяці відбулися значні прориви в ефективності штучного інтелекту, очікується, що масштаби розгортання штучного інтелекту сприятимуть величезному, енергоємному розширенню інфраструктури. Відповідно до звіту Rand, у найближчі два роки центрам обробки даних зі штучним інтелектом може знадобитися майже вся потужність електроенергії Каліфорнії 2022 року (68 ГВт). До 2030 року навчання передової моделі може вимагати потужності, еквівалентної потужності восьми ядерних реакторів (8 ГВт), прогнозується у звіті.

Увага OpenAI — як і решти індустрії штучного інтелекту — також зосереджується на моделях міркування, які, як правило, є більш ефективними з точки зору завдань, які вони можуть виконати, але вимагають більше обчислень для виконання. На відміну від таких моделей, як GPT-4o, які відповідають на запити майже миттєво, моделі міркування «думають» від секунд до хвилин, перш ніж відповісти, процес, який забирає більше обчислювальних ресурсів — і, отже, потужності.

 

Останні статті

Незважаючи на протести, Microsoft запустить функцію, яка відстежує місцезнаходження співробітників

Microsoft планує в березні додати функцію оповіщення про місцезнаходження співробітників для корпоративних клієнтів Teams. Раніше…

26.01.2026

У Сумах програміст судився з роботодавцем через повернення до офісу

Сумський апеляційний суд оголосив рішення у довготривалій справі, в якій місцевий програміст оскаржував наказ роботодавця…

26.01.2026

Кількість нових програм в App Store за рік зросла на 60%

За даними Sensor Tower та Wells Fargo Securities, у грудні 2025 року кількість нових iOS-додатків…

26.01.2026

Функція тимчасового чату ChatGPT стає персоналізованою

OpenAI тестує оновлення функції тимчасового чату в ChatGPT. Вона дозволить користувачам зберегти персоналізацію в тимчасовому…

26.01.2026

Головні технічні тренди блокчейну та криптовалют у 2026 році

На початку 2026 року одна з лідерок криптоіндустрії, CEO Trust Wallet Еовін Чен, відповідаючи на…

26.01.2026

Бельгійський розробник створив мову програмування, не написавши жодного рядка коду

Бернар Ламбо, розробник програмного забезпечення з Бельгії, створив мову програмування під назвою Elo, використовуючи інструмент…

26.01.2026