New York, USA - 9 April 2020: GitHub website on laptop screen close up. Man using service on display, blurry background, Illustrative Editorial.
Microsoft використовував загальнодоступний код Github для навчання свого інструменту штучного інтелекту. Автори коду вважають, що їхню працю експлуатують — йде розслідування, пише Vice.
Microsoft купила платформу для спільного кодування GitHub ще у 2018 році, а в червні 2022 року випустила інструмент зі штучним інтелектом Microsoft GitHub Copilot. AI навчався з використанням мільярдів рядків відкритого вихідного коду, розміщеного на Github, проте думки програмістів про це ніхто не запитав. Програміст та юрист Метью Баттерик пише, що зібрав колективний судовий позов проти GitHub Copilot. Наразі триває розслідування.
Нагадаємо, що Copilot є розширенням для середовища кодування Microsoft Visual Studio, яке використовує алгоритми прогнозування для автоматичного завершення рядків коду. Це робиться за допомогою моделі штучного інтелекту під назвою Codex, яка була створена та навчена OpenAI з використанням даних, вилучених з репозиторіїв коду у відкритому Інтернеті.
Представники Microsoft стверджують, що інструмент «навчився на десятках мільйонів загальнодоступних репозиторіїв» коду, і що компанія «вважає, що це приклад добросовісного використання». Але програмісти так не вважають.
Github, ілюстрація
«Як Нео, підключений до Матриці, чи корова на фермі, Copilot хоче перетворити нас не більше, ніж на виробників ресурсів, які потрібно видобувати, — каже Баттерик. — Навіть корови отримують їжу та дах від угоди. Copilot нічого не робить для наших індивідуальних проектів. І нічого для широкого відкритого вихідного коду».
Деякі розробники навіть помітили, що Copilot копіює їхній код — приклади вражаючої подібності фахівці показали у Twitter. Справа в тому, що ліцензії на програмне забезпечення з відкритим вихідним кодом вимагають, щоб будь-хто, хто використовує код, вказав його першоджерело. Звичайно, це стає практично неможливим, коли ви використовуєте мільярди рядків коду для навчання моделі AI.
GitHub заявив, що дані, взяті з загальнодоступних репозиторіїв, «не призначені для дослівного включення у вихідні дані Copilot», і стверджує, що переважна більшість вихідних даних (> 99%) не відповідає навчальним даним, згідно з внутрішнім звітом компанії. Тобто штучний інтелект не «списує».
Юристи вважають це все відмовками: компанія надає досвід розробників для своїх комерційних проектів, нічого не пропонуючи натомість.
“Схоже, що Microsoft отримує прибуток від роботи інших, ігноруючи умови базових ліцензій з відкритим вихідним кодом та інші юридичні вимоги“, — заявила юридична фірма Джозефа Савері, яка бере участь у розслідуванні.
Резиденти Дія.City сплатили до бюджету понад 8 млрд грн податків в І кварталі 2025 року.…
У Китаї закликають офісних працівників не працювати надто багато — держава сподівається, що вільний час…
Експерти звертають увагу на тривожну тенденцію: люди все частіше використовують ChatGPT, щоб визначити місцезнаходження, зображене…
Компанія JetBrains випустила нову версію мультимовного середовища розробки IntelliJ IDEA 2025.1. Оновлена IDE отримала численні…
Платформа обміну миттєвими повідомленнями Discord впроваджує функцію перевірки віку за допомогою сканування обличчя. Зараз вона…
Wikipedia намагається захистити себе від тисяч різноманітних ботів-скрейперів, які сканують дані цієї платформи для навчання…