Рубріки: Новини

OpenAI знищила 100 000 книг, за якими тренували GPT-3. Причетні теж кудись зникли

Ігор Шелудченко

Компанія OpenAI видалила два величезних набори даних «books1» і «books2», які використовувалися для навчання моделі GPT-3.

Про це повідомив Business Insider, посилаючись на матеріали судового позову Authors Guild.

Суть позову

Юристи Authors Guild заявили, що набори даних GPT-3, ймовірно, містили «понад 100 000 опублікованих книг». Таким чином OpenAI використовував захищені авторським правом матеріали для навчання моделей ШІ.

Довідка. Authors Guild — найстаріша (створена в 1912 році) та найавторитетніша професійна організація письменників США. Займається захистом свободи слова та захистом авторських прав. 

Протягом кількох місяців Authors Guild просила OpenAI надати інформацію про використані набори даних. Спочатку компанія відмовляла, мотивуючи це положеннями про конфіденційність. Але потім взагалі виявилося, що вона видалила всі копії даних.

Високоякісні навчальні дані є важливою частиною потужних моделей ШІ. Для побудови цих моделей OpenAI та інші компанії використовують дані з Інтернету, в тому числі й книги.

Багато компаній, які створили цю інформацію, хочуть отримувати гроші за надання інформації цим новим продуктам ШІ. Технологічні компанії не хочуть, щоб їх змушували платити. Зараз цей спір вирішується в суді за кількома позовами.

100 000 книг — 16% навчальних даних GPT-3

У технічному документі 2020 року OpenAI описав набори даних books1 і books2 як «корпуси книжок з Інтернету» і заявив, що загалом це 16% навчальних даних, які були використані при створенні GPT-3.

У документі також сказано, що «books1» і «books2» разом містили 67 мільярдів токенів, або приблизно 50 мільярдів слів.

OpenAI припинила використовувати «books1» і «books2» для навчання моделей наприкінці 2021 року. В середині 2022 року їх видалили — через «непридатність для використання».

Також в документах йдеться про те, що двоє дослідників, які створили набори даних «books1» і «books2», більше не працюють в OpenAI. OpenAI відмовляється розкривати інформацію про них, хоча й Authors Guild наполягає на цьому.

OpenAI звернувся до суду з проханням зберегти імена співробітників, а також інформацію про набори даних.

«Моделі, які сьогодні використовують ChatGPT і наш API, не були створені з використанням цих наборів даних», — йдеться в заяві OpenAI у вівторок.

Нагадаємо, була історія, коли ШІ-дослідниця та ексменеджерка Amazon Вівіан Гадері звинувачувала колишнього роботодавця в порушенні вимог щодо авторського права.

У березні директор її команди поставив завдання — знайти причини, чому Amazon не досягає своїх цілей щодо якості пошуку Alexa. В розмові він порекомендував для покращення результатів ігнорувати політику авторського права. Директор попросив звернути увагу на конкурентів зі словами «усі так роблять».

Останні статті

«Ваучери на навчання до 30 000 грн»: українським ветеранам пропонують переходити в IT

Мінцифри анонсує програму Державної служби зайнятості, яка передбачає видачу ваучерів на навчання за ІТ-спеціальностями для…

15.09.2025

Портрет українського айтівця: частка нетехнічних фахівців зростає, джунів і мідлів меншає

44% українських IT-спеціалістів відносять себе до Software Engineer, на другому місці —  тестувальники (17%), ще…

15.09.2025

Windows 11 отримає вбудований тест швидкості інтернету

Microsoft може незабаром додати до Windows 11 вбудований інструмент перевірки швидкості інтернету. За словами джерела,…

15.09.2025

Replit представив новий інструмент для вайб-кодингу Agent 3

Стартап Replit випустив Agent 3, автономну систему генерації коду, створену для розробки програмного забезпечення без…

15.09.2025

Основний розробник Ethereum втратив всі кошти після того, як скачав фейкове розширення для редактора коду Cursor

Зловмисник на ім'я WhiteCobra націлився на розробників, які використовують редактори коду VS Code, Cursor і…

15.09.2025

В США відбулися перші змагання програмістів проти штучного інтелекту

У Сан-Франциско відбувся перший хакатон по кодингу, де змагалися програмісти та штучний інтелект. У заході…

12.09.2025