Рубріки: Новини

Співзасновник Open AI Ілля Суцкевер вважає, що навчання ШІ зайшло в глухий кут. Ботів треба змушувати думати швидше

Андрій Губін

Співзасновник OpenAI Ілля Суцкевер вважає, що існуючі підходи до масштабування великих мовних моделей зайшли в глухий кут. На його думку, щоб досягти значного прогресу в майбутньому, лабораторіям ШІ потрібно буде навчати розумніших, а не просто більших моделей, а LLM потрібно буде думати трохи довше. Про це повідомляє PC Gamer.

У розмові з Reuters Суцкевер пояснив, що етап попереднього навчання при масштабуванні великих мовних моделей, таких як ChatGPT, досягає своїх меж. Попереднє навчання — це початковий етап, на якому обробляються величезні обсяги некатегоризованих даних для побудови мовних шаблонів і структур у моделі.

Донедавна додавання масштабу, тобто збільшення кількості даних, доступних для навчання, було достатнім для створення потужнішої та ефективнішої моделі. Але це вже не так, натомість важливіше те, на чому і як ви навчаєте модель.

«2010-ті роки були епохою масштабування, а зараз ми знову повернулися до епохи здивувань і відкриттів. Кожен шукає щось нове правильне масштабування зараз має більше значення, ніж будь-коли», — вважає Сатскевер.

Причиною цього є все більш очевидні проблеми, з якими стикаються лабораторії штучного інтелекту, що досягають значних успіхів у моделюванні потужності та продуктивності ChatGPT 4.0.

Якщо коротко, то зараз кожен має доступ до однакових або, принаймні, схожих легкодоступних навчальних даних через різні онлайн-джерела. Більше неможливо отримати перевагу, просто вкинувши в проблему більше необроблених даних. Отже, дуже просто кажучи, тренуватися розумніше, а не просто більше — ось що тепер дасть перевагу командам зі штучним інтелектом.

Ще один фактор, що сприятиме ефективності LLM, буде на іншому кінці процесу, коли моделі будуть повністю навчені і стануть доступними для користувачів, на етапі, відомому як виведення висновків.

Ідея полягає у використанні багатокрокового підходу до вирішення проблем і запитів, в якому модель може повертатися до самої себе, що призводить до більш людських міркувань і прийняття рішень.

«Виявилося, що якщо змусити бота думати лише 20 секунд під час роздачі в покер, це дає такий самий приріст продуктивності, як і масштабування моделі в 100 000 разів і навчання її в 100 000 разів довше», — говорить дослідник OpenAI, який працював над останнім курсом «o1 LLM» Ноам Браун.

Іншими словами, якщо змусити ботів думати довше, а не просто видавати перше, що спадає на думку, можна досягти кращих результатів. Якщо останній підхід виявиться продуктивним, індустрія апаратного забезпечення для ШІ може перейти від масових навчальних кластерів до банків графічних процесорів, орієнтованих на поліпшення висновків.

Звичайно, в будь-якому випадку, Nvidia, швидше за все, буде готова взяти гроші у всіх. Зростання попиту на графічні процесори для штучного інтелекту — це дійсно те, що нещодавно відзначив генеральний директор Nvidia Дженсен Хуанг.

«Ми відкрили другий закон масштабування, і це закон масштабування під час виведення. Всі ці фактори призвели до того, що попит на Blackwell (архітектуру графічних процесорів Nvidia наступного покоління) є неймовірно високим», — нещодавно сказав Хуанг.

Скільки часу знадобиться для того, щоб з’явилося покоління розумніших ботів завдяки цим методам, поки неясно. Але зусилля, ймовірно, скоро відобразяться на банківському балансі Nvidia.

Останні статті

Microsoft заплатить за знайдені вразливості навіть в чужих програмах

Microsoft переглядає свою програму винагород за виявлення вразливостей. Тепер багхантерів будуть винагороджувати за пошук помилок…

12.12.2025

Cursor випустив візуальний редактор веб-додатків

Стартап Cursor випустив Visual Editor — візуальний редактор інтерфейсів веб-додатків, який не вимагає знання коду.…

12.12.2025

Як будувати кар’єру в IT і кого шукають роботодавці у 2026? Розкажуть на IT Career Conf 25/26 від Neoversity

В умовах стрімких змін на IT-ринку питання кар’єрного розвитку потребує нового погляду: які навички стають…

12.12.2025

Дія.AI: технології, що стоять за першим у світі AI-асистентом для держпослуг

У вересні 2025 року Україна запустила першого у світі AI-асистента в Дії, який не просто…

12.12.2025

Навіть просте автодоповнення коду за допомогою ШІ економить розробникам 3,8 годин на тиждень — дослідження

Загальний вплив штучного інтелекту на продуктивність розробників залежить від багатьох нюансів: мови програмування, цілей, віку,…

12.12.2025

Google випускає Disco — експериментальний браузер, в якому можна створювати веб-додатки

Команда Google Labs представила експериментальний браузер Disco на базі Gemini 3. Він включає інструмент GenTabs,…

12.12.2025