Рубріки: Новини

Ілон Маск вважає, що людство вичерпало дані для навчання штучного інтелекту

Дмитро Сімагін

Ілон Маск висловив згоду з провідними експертами в галузі штучного інтелекту, які заявили, що людство вже не має достатньо даних для навчання моделей штучного інтелекту. Про це повідомляє TechCrunch з посиланням на сторінку Маска в X.

«Ми вже вичерпали в основному загальну суму людських знань… у навчанні штучного інтелекту. Це сталося ще минулого року», — сказав Маск під час прямого ефіру з головою Stagwell Марком Пенном.

Ілон Маск в основному повторив тези, яких ще в грудні минулого року на одній з конференцій торкнувся колишній головний науковий співробітник OpenAI Ілля Суцкевер. Тоді він заявив, що галузь штучного інтелекту досягла «пікових даних», і дав прогноз, що через брак навчальних даних вчені будуть змушені змінити спосіб розробки моделей машинного навчання.

Що стосується Ілона Маска, то він припустив, що замінити дані, створені людьми, допоможуть синтетичні дані — інформація, яка створена самими моделями ШІ.

«Єдиний спосіб доповнити дані реального світу — синтетичні дані, які створюються штучним інтелектом… З синтетичними даними штучний інтелект оцінюватиме себе та проходитиме процес самонавчання», — додав Маск.

Інші IT-гіганти, такі як Microsoft, Meta, OpenAI і Anthropic, вже почали використовувати синтетичні дані для навчання своїх флагманських моделей штучного інтелекту. Як стверджує Gartner, за підсумками 2024 року 60% даних, використаних для проектів штучного інтелекту та аналітики, були синтетично згенеровані.

Наприклад, модель Phi-4 від Microsoft з відкритим кодом була навчена на синтетичних даних разом з даними, створеними людьми. Те ж саме стосується моделі Gemma від Google. Компанія Anthropic також використала частину синтетичних даних для розробки LLM-моделі Claude 3.5 Sonnet . 

Навчання на синтетичних даних має суттєві переваги, в тому числі економію коштів. Навчання моделі Palmyra X 004 від стартапу Writer, яка пройшла з використанням майже повністю синтетичних даних, коштувала лише $700 000. Це набагато менше в порівнянні з $4,6 мільйонів, які використали для аналогічної моделі OpenAI.

Що ж стосується недоліків, то головним з них є те, що ряд досліджень стверджують, що синтетичні дані роблять модель менш «креативною», що в підсумку може погіршити її функціональність. 

 

Останні статті

Вайб-кодери скаржаться, що Claude Opus 4.7 витрачає токени набагато швидше, хоча тарифи не змінились

Здається, в Anthropic вирішили залишити цінник на вітрині старим, але зменшити розмір порції. Програмісти масово…

20.04.2026

Кінець епохи графічних редакторів? Claude Design малює макет за секунди

Компанія Anthropic офіційно представила Claude Design — інноваційний інструмент від підрозділу Anthropic Labs, який дозволяє…

20.04.2026

Оновлений Codex Desktop отримав 90+ плагінів, SSH та вбудований браузер

Компанія OpenAI представила масштабне оновлення свого десктопного застосунку Codex. Воно перетворює інструмент з простого помічника…

17.04.2026

Робочий експлойт за ціною вживаного авто: Claude Opus зламав захист Google Chrome за $2283

Модель штучного інтелекту Claude Opus 4.6 від компанії Anthropic продемонструвала здатність створювати функціональні експлойти для…

17.04.2026

Data-брокери на руїнах стартапів: розробники LLM-моделей скуповують архіви компаній

Ринок навчання штучного інтелекту виходить на новий рівень: тепер «паливом» для нейромереж стають не лише…

17.04.2026

21-річна польська програмістка знайшла та виправила баг у Linux, який старший за неї

Молода польська розробниця Каміла Шевчик змогла розв'язати технічну проблему в інтерфейсі Linux, яка залишалася непоміченою…

17.04.2026