Рубріки: Новини

Користувачі GitHub збираються колективно подати до суду на Microsoft: що сталося

Анастасія Пономарьова

Microsoft використовував загальнодоступний код Github для навчання свого інструменту штучного інтелекту. Автори коду вважають, що їхню працю експлуатують — йде розслідування, пише Vice.

Подробиці

Microsoft купила платформу для спільного кодування GitHub ще у 2018 році, а в червні 2022 року випустила інструмент зі штучним інтелектом Microsoft GitHub Copilot. AI навчався з використанням мільярдів рядків відкритого вихідного коду, розміщеного на Github, проте думки програмістів про це ніхто не запитав. Програміст та юрист Метью Баттерик пише, що зібрав колективний судовий позов проти GitHub Copilot. Наразі триває розслідування.

Нагадаємо, що Copilot є розширенням для середовища кодування Microsoft Visual Studio, яке використовує алгоритми прогнозування для автоматичного завершення рядків коду. Це робиться за допомогою моделі штучного інтелекту під назвою Codex, яка була створена та навчена OpenAI з використанням даних, вилучених з репозиторіїв коду у відкритому Інтернеті.

Що кажуть у корпорації

Представники Microsoft стверджують, що інструмент «навчився на десятках мільйонів загальнодоступних репозиторіїв» коду, і що компанія «вважає, що це приклад добросовісного використання». Але програмісти так не вважають.

Github, ілюстрація

«Як Нео, підключений до Матриці, чи корова на фермі, Copilot хоче перетворити нас не більше, ніж на виробників ресурсів, які потрібно видобувати, — каже Баттерик. Навіть корови отримують їжу та дах від угоди. Copilot нічого не робить для наших індивідуальних проектів. І нічого для широкого відкритого вихідного коду».

Деякі розробники навіть помітили, що Copilot копіює їхній код — приклади вражаючої подібності фахівці показали у Twitter. Справа в тому, що ліцензії на програмне забезпечення з відкритим вихідним кодом вимагають, щоб будь-хто, хто використовує код, вказав його першоджерело. Звичайно, це стає практично неможливим, коли ви використовуєте мільярди рядків коду для навчання моделі AI.

GitHub заявив, що дані, взяті з загальнодоступних репозиторіїв, «не призначені для дослівного включення у вихідні дані Copilot», і стверджує, що переважна більшість вихідних даних (> 99%) не відповідає навчальним даним, згідно з внутрішнім звітом компанії. Тобто штучний інтелект не «списує».

Юристи вважають це все відмовками: компанія надає досвід розробників для своїх комерційних проектів, нічого не пропонуючи натомість.

“Схоже, що Microsoft отримує прибуток від роботи інших, ігноруючи умови базових ліцензій з відкритим вихідним кодом та інші юридичні вимоги“, — заявила юридична фірма Джозефа Савері, яка бере участь у розслідуванні.

Останні статті

«Вже кілька місяців ніхто не пише код руками»: співробітник Anthropic розповів про робочі процеси

Користувач Reddit під псевдонімом oh1n опублікував вірусний пост, в якому розповів про свого друга —…

30.03.2026

Нуль шансів для хакерів: Apple заявляє про абсолютну стійкість Lockdown Mode

Компанія Apple заявила про надзвичайну ефективність свого захисного механізму Lockdown Mode. Згідно з офіційним звітом,…

30.03.2026

Ethereum за 12 секунд: Віталік Бутерін готує відповідь для Solana

Засновник Ethereum Віталік Бутерін представив нову пропозицію, яка здатна кардинально змінити механізм транзакцій ETH. Йдеться…

30.03.2026

Навчіться створювати ШІ-агентів: Google запускає безкоштовний онлайн-курс для українців

Компанія Google Cloud за інформаційної підтримки Міністерства цифрової трансформації України відкриває реєстрацію на нову навчальну…

30.03.2026

Вчені б’ють тривогу: люди небезпечно прив’язуються до штучного інтелекту, який «ніколи не каже ні»

Сучасні великі мовні моделі (LLM) мають серйозну ваду, яку вчені називають «сикофантством». Замість того, щоб…

30.03.2026

Спочатку Western Digital, тепер Sony: глобальний дефіцит пам’яті поглиблюється

Технологічний гігант Sony офіційно оголосив про тимчасове припинення замовлень на більшість своїх лінійок карт пам'яті…

30.03.2026