Рубріки: Новини

Ризики перевищують вигоди. Працівники OpenAI і Google DeepMind закликають посилити контроль за ШІ

Ігор Шелудченко

Колишні та нинішні працівники OpenAI і Google DeepMind підписали відкритий лист із вимогами посилення заходів безпеки у розвитку штучного інтелекту.

У відкритому листі експерти закликають до створення незалежних регуляторних органів та встановлення суворих стандартів для контролю за розвитком та впровадженням ШІ-технологій. Вони зазначають, що без належного контролю та регуляції потенційні ризики перевищать вигоди, які можуть принести ці технології.

Підписанти висловлюють занепокоєння з приводу можливих зловживань та небезпек, пов’язаних з неконтрольованим розвитком ШІ. Вони наголошують на важливості міждисциплінарної співпраці для забезпечення безпечного та етичного використання ШІ-технологій, а також на необхідності прозорості та підзвітності у цій галузі.

Працівники висувають такі вимоги до передових компаній у галузі ШІ:

  • Не укладати угоди, що забороняють критику компанії з приводу ризиків, та не переслідувати працівників за таку критику.
  • Забезпечити можливість донести застереження (в тому числі й анонімно) до ради директорів, регуляторів та інших організацій.
  • Формувати культуру відкритого діалогу та дозволяти працівникам публічні висловлювання за умови захисту комерційної таємниці.
  • Не застосовувати санкції щодо працівників, які публічно діляться конфіденційною інформацією про ризики після того, як інші способи донести своє занепокоєння не дали результату.

Відкритий лист вже отримав широку підтримку в академічних колах та серед громадських організацій, що займаються питаннями етики та безпеки в технологічному секторі.

OpenAI відреагувала на звернення, заявивши, що вже має канали для інформування про можливі ризики ШІ. Зокрема, це «гаряча лінія». Також компанія не випускає нові технології, поки не будуть впроваджені відповідні заходи безпеки.

Варто зазначити, що ШІ-компанії, в тому числі й OpenAI, неодноразово застосовували агресивні тактики для запобігання вільному висловлюванню працівників. За інформацією Vox, минулого тижня стало відомо, що OpenAI змушувала працівників, які залишають компанію, підписувати надзвичайно обмежувальні документи про заборону на критику та нерозголошення, інакше вони втрачали всі свої нараховані акції. Генеральний директор OpenAI Сем Альтман вибачився після цього повідомлення, заявивши, що змінить процедури звільнення.

Лист з’явився невдовзі після того, як OpenAI залишили два провідні працівники — співзасновник Ілля Суцкевер та ключовий дослідник з безпеки Ян Лейке. Після звільнення Лейке заявив, що OpenAI відмовилася від культури безпеки на користь «блискучих продуктів».

AGI — не за горами, вважають експерти

В той же час фахівці у сфері штучного інтелекту висловлюють занепоєння темпами та вектором розвитку ШІ.

Наприклад, колишній інженер OpenAI Леопольд Ашенбреннер написав документ аж на 165 сторінок про те, що у 2027 ми будемо мати AGI (інтелект, що дорівнює людському), який досить швидко дотренує сам себе до рівня ASI (інтелект, що перевершує людський). Головний ризик на думку Леопольда в тому, що ШІ зараз як друга ядерна бомба й військові вже дуже хочуть отримати (і отримують) доступ до ШІ.

Останні статті

«Скопіювали чужий код»: конкурс з розробки LLM-моделі з нуля провалився

Зусилля уряду Південної Кореї створити нативну модель штучного інтелекту без іноземних запозичень зазнали фіаско. Конкурс,…

14.01.2026

Google опублікувала Universal Commerce Protocol. Він стандартизує замовлення та онлайн-оплату через агентів штучного інтелекту

Компанія Google оприлюднила перший проект Universal Commerce Protocol (UCP) — нового стандарту з відкритим кодом,…

14.01.2026

Творець месенджера Signal представив ШІ-помічника Confer. Він має відкритий код та засоби шифрування

Моксі Марлінспайк — псевдонім розробника, який стоїть за створенням «конфіденційного» месенджера Signal, — тепер прагне…

14.01.2026

Microsoft відкрила код середовища розробки прототипів XAML Studio

Microsoft відкрила вихідний код свого проекту XAML Studio. Це інструмент розробки, який дозволяє швидко створювати…

14.01.2026

Хакери активно маскуються під українські благодійні фонди — CERT-UA

Протягом жовтня-грудня 2025 року командою реагування на кіберзагрози CERT-UA, у взаємодії з Командою реагування на…

14.01.2026

Придбаний Meta стартап Manus випустив інструмент для запису, розшифровки та аналізу зустрічей

Сінгапурський стартап Manus, який нещодавно за $2 мільярди придбала компанія Meta, представив новий інструмент Meeting…

13.01.2026