Рубріки: Новини

Користувачі GitHub збираються колективно подати до суду на Microsoft: що сталося

Анастасія Пономарьова

Microsoft використовував загальнодоступний код Github для навчання свого інструменту штучного інтелекту. Автори коду вважають, що їхню працю експлуатують — йде розслідування, пише Vice.

Подробиці

Microsoft купила платформу для спільного кодування GitHub ще у 2018 році, а в червні 2022 року випустила інструмент зі штучним інтелектом Microsoft GitHub Copilot. AI навчався з використанням мільярдів рядків відкритого вихідного коду, розміщеного на Github, проте думки програмістів про це ніхто не запитав. Програміст та юрист Метью Баттерик пише, що зібрав колективний судовий позов проти GitHub Copilot. Наразі триває розслідування.

Нагадаємо, що Copilot є розширенням для середовища кодування Microsoft Visual Studio, яке використовує алгоритми прогнозування для автоматичного завершення рядків коду. Це робиться за допомогою моделі штучного інтелекту під назвою Codex, яка була створена та навчена OpenAI з використанням даних, вилучених з репозиторіїв коду у відкритому Інтернеті.

Що кажуть у корпорації

Представники Microsoft стверджують, що інструмент «навчився на десятках мільйонів загальнодоступних репозиторіїв» коду, і що компанія «вважає, що це приклад добросовісного використання». Але програмісти так не вважають.

Github, ілюстрація

«Як Нео, підключений до Матриці, чи корова на фермі, Copilot хоче перетворити нас не більше, ніж на виробників ресурсів, які потрібно видобувати, — каже Баттерик. Навіть корови отримують їжу та дах від угоди. Copilot нічого не робить для наших індивідуальних проектів. І нічого для широкого відкритого вихідного коду».

Деякі розробники навіть помітили, що Copilot копіює їхній код — приклади вражаючої подібності фахівці показали у Twitter. Справа в тому, що ліцензії на програмне забезпечення з відкритим вихідним кодом вимагають, щоб будь-хто, хто використовує код, вказав його першоджерело. Звичайно, це стає практично неможливим, коли ви використовуєте мільярди рядків коду для навчання моделі AI.

GitHub заявив, що дані, взяті з загальнодоступних репозиторіїв, «не призначені для дослівного включення у вихідні дані Copilot», і стверджує, що переважна більшість вихідних даних (> 99%) не відповідає навчальним даним, згідно з внутрішнім звітом компанії. Тобто штучний інтелект не «списує».

Юристи вважають це все відмовками: компанія надає досвід розробників для своїх комерційних проектів, нічого не пропонуючи натомість.

“Схоже, що Microsoft отримує прибуток від роботи інших, ігноруючи умови базових ліцензій з відкритим вихідним кодом та інші юридичні вимоги“, — заявила юридична фірма Джозефа Савері, яка бере участь у розслідуванні.

Останні статті

Штучний інтелект може прогнозувати по фотографії людини її майбутні досягнення та рівень зарплати

Група вчених з США та Ізраїлю опублікували статтю, в якій стверджується, що аналіз рис обличчя,…

11.02.2026

Python все ще лідер, але втрачає популярність — рейтинг TIOBE

Лютневе оновлення рейтингу TIOBE має трохи занепокоїти Python-розробників. Незважаючи на те, що мова програмування Python…

10.02.2026

YouTube-зірка MrBeast всерйоз захопився IT-бізнесом

Мегазірка YouTube Джиммі Дональдсон, більш відомий як MrBeast, розширює свою присутність в IT-бізнесі. Його компанія…

10.02.2026

Новий вірусний тренд: ChatGPT створює карикатури на власника акаунту на основі його запитів

Серед користувачів ChatGPT з'явився новий вірусний тренд, який демонструє, наскільки добре чат-бот вас знає. Люди…

10.02.2026

Визначено країну Європи, де IT-фахівцям пропонують найбільші зарплати

IT-спеціалістам, для яких головним пріоритетом є висока зарплата, краще жити в Швейцарії. У цій країні…

10.02.2026

Розробники Nvidia тепер створюють втричі більше коду, ніж до переходу на Cursor

Внутрішні обсяги коду в Nvidia зросли втричі, після того, як півроку тому CEO компанії Дженсен…

10.02.2026