Рубріки: Новини

Ілон Маск вважає, що людство вичерпало дані для навчання штучного інтелекту

Дмитро Сімагін

Ілон Маск висловив згоду з провідними експертами в галузі штучного інтелекту, які заявили, що людство вже не має достатньо даних для навчання моделей штучного інтелекту. Про це повідомляє TechCrunch з посиланням на сторінку Маска в X.

«Ми вже вичерпали в основному загальну суму людських знань… у навчанні штучного інтелекту. Це сталося ще минулого року», — сказав Маск під час прямого ефіру з головою Stagwell Марком Пенном.

Ілон Маск в основному повторив тези, яких ще в грудні минулого року на одній з конференцій торкнувся колишній головний науковий співробітник OpenAI Ілля Суцкевер. Тоді він заявив, що галузь штучного інтелекту досягла «пікових даних», і дав прогноз, що через брак навчальних даних вчені будуть змушені змінити спосіб розробки моделей машинного навчання.

Що стосується Ілона Маска, то він припустив, що замінити дані, створені людьми, допоможуть синтетичні дані — інформація, яка створена самими моделями ШІ.

«Єдиний спосіб доповнити дані реального світу — синтетичні дані, які створюються штучним інтелектом… З синтетичними даними штучний інтелект оцінюватиме себе та проходитиме процес самонавчання», — додав Маск.

Інші IT-гіганти, такі як Microsoft, Meta, OpenAI і Anthropic, вже почали використовувати синтетичні дані для навчання своїх флагманських моделей штучного інтелекту. Як стверджує Gartner, за підсумками 2024 року 60% даних, використаних для проектів штучного інтелекту та аналітики, були синтетично згенеровані.

Наприклад, модель Phi-4 від Microsoft з відкритим кодом була навчена на синтетичних даних разом з даними, створеними людьми. Те ж саме стосується моделі Gemma від Google. Компанія Anthropic також використала частину синтетичних даних для розробки LLM-моделі Claude 3.5 Sonnet . 

Навчання на синтетичних даних має суттєві переваги, в тому числі економію коштів. Навчання моделі Palmyra X 004 від стартапу Writer, яка пройшла з використанням майже повністю синтетичних даних, коштувала лише $700 000. Це набагато менше в порівнянні з $4,6 мільйонів, які використали для аналогічної моделі OpenAI.

Що ж стосується недоліків, то головним з них є те, що ряд досліджень стверджують, що синтетичні дані роблять модель менш «креативною», що в підсумку може погіршити її функціональність. 

 

Останні статті

Meta закриває проект Workrooms — віртуальні простори для віддаленої роботи

Керівництво Meta ухвалило рішення припинити підтримку Workrooms як окремого додатку з 16 лютого 2026 року.…

16.01.2026

У ChatGPT з’явився розширений пошук в історії діалогів. Тільки для платних користувачів

Компанія OpenAI випустила велике оновлення для ChatGPT з підтримкою розширеного пошуку в історії чатів, але…

16.01.2026

У програмах, згенерованих штучним інтелектом, багато помилок безпеки — дослідження

Застосунки, створені за допомогою вайб-кодування, де розробник надає агенту штучного інтелекту повну свободу дій, ймовірно,…

16.01.2026

Українська компанія MacPaw закриває свій маркетплейс Setapp Mobile

Одна з найбільших українських продуктових IT-компаній MacPaw оголосила про закриття з 16 лютого 2026 року…

16.01.2026

Replit запускає інструмент вайб-кодингу iOS-додатків

Компанія Replit оголосила про запуск нового веб-інструменту вайб-кодування під назвою Mobile Apps on Replit. Він…

16.01.2026

GPT-5.2 написала веб-браузер з нуля. Модель створила три мільйони рядків коду і працювала безперервно цілий тиждень

Генеральний директор компанії Cursor AI Майкл Труелл повідомив, що LLM-модель GPT-5.2, яку задіяли через агент…

15.01.2026