Рубріки: Новини

Ризики перевищують вигоди. Працівники OpenAI і Google DeepMind закликають посилити контроль за ШІ

Ігор Шелудченко

Колишні та нинішні працівники OpenAI і Google DeepMind підписали відкритий лист із вимогами посилення заходів безпеки у розвитку штучного інтелекту.

У відкритому листі експерти закликають до створення незалежних регуляторних органів та встановлення суворих стандартів для контролю за розвитком та впровадженням ШІ-технологій. Вони зазначають, що без належного контролю та регуляції потенційні ризики перевищать вигоди, які можуть принести ці технології.

Підписанти висловлюють занепокоєння з приводу можливих зловживань та небезпек, пов’язаних з неконтрольованим розвитком ШІ. Вони наголошують на важливості міждисциплінарної співпраці для забезпечення безпечного та етичного використання ШІ-технологій, а також на необхідності прозорості та підзвітності у цій галузі.

Працівники висувають такі вимоги до передових компаній у галузі ШІ:

  • Не укладати угоди, що забороняють критику компанії з приводу ризиків, та не переслідувати працівників за таку критику.
  • Забезпечити можливість донести застереження (в тому числі й анонімно) до ради директорів, регуляторів та інших організацій.
  • Формувати культуру відкритого діалогу та дозволяти працівникам публічні висловлювання за умови захисту комерційної таємниці.
  • Не застосовувати санкції щодо працівників, які публічно діляться конфіденційною інформацією про ризики після того, як інші способи донести своє занепокоєння не дали результату.

Відкритий лист вже отримав широку підтримку в академічних колах та серед громадських організацій, що займаються питаннями етики та безпеки в технологічному секторі.

OpenAI відреагувала на звернення, заявивши, що вже має канали для інформування про можливі ризики ШІ. Зокрема, це «гаряча лінія». Також компанія не випускає нові технології, поки не будуть впроваджені відповідні заходи безпеки.

Варто зазначити, що ШІ-компанії, в тому числі й OpenAI, неодноразово застосовували агресивні тактики для запобігання вільному висловлюванню працівників. За інформацією Vox, минулого тижня стало відомо, що OpenAI змушувала працівників, які залишають компанію, підписувати надзвичайно обмежувальні документи про заборону на критику та нерозголошення, інакше вони втрачали всі свої нараховані акції. Генеральний директор OpenAI Сем Альтман вибачився після цього повідомлення, заявивши, що змінить процедури звільнення.

Лист з’явився невдовзі після того, як OpenAI залишили два провідні працівники — співзасновник Ілля Суцкевер та ключовий дослідник з безпеки Ян Лейке. Після звільнення Лейке заявив, що OpenAI відмовилася від культури безпеки на користь «блискучих продуктів».

AGI — не за горами, вважають експерти

В той же час фахівці у сфері штучного інтелекту висловлюють занепоєння темпами та вектором розвитку ШІ.

Наприклад, колишній інженер OpenAI Леопольд Ашенбреннер написав документ аж на 165 сторінок про те, що у 2027 ми будемо мати AGI (інтелект, що дорівнює людському), який досить швидко дотренує сам себе до рівня ASI (інтелект, що перевершує людський). Головний ризик на думку Леопольда в тому, що ШІ зараз як друга ядерна бомба й військові вже дуже хочуть отримати (і отримують) доступ до ШІ.

Останні статті

Нова модель кодування Claude Haiku 4.5 «втричі дешевша та вдвічі швидша», ніж Claude Sonnet 4

Anthropic випустила нову оптимізовану для кодування модель Claude Haiku 4.5, яка, згідно з повідомленням у…

16.10.2025

Ілон Маск анонсував конкурента Microsoft та Apple. Новий проект Macrohard матиме свою операційну систему

Ілон Маск припускає, що його новий проект Macrohard не обмежуватиметься розробкою програмного забезпечення, як Microsoft,…

15.10.2025

Фонд вільного програмного забезпечення почав розробку Librephone — «повністю безкоштовної» версії Android

Фонд вільного програмного забезпечення (Free Software Foundation, FSF) оголосив про запуск проекту Librephone, який має…

15.10.2025

Indeema придбала Perfsol, зміцнюючи свої позиції у штучному інтелекті та розробці інтелектуальних систем

Indeema, глобальна інженерна компанія зі спеціалізацією в галузі IoT, оголосила про придбання Perfsol — компанії-розробника…

15.10.2025

Є і буде завжди: як працювати з невизначеністю? Досвід у FAVBET Tech

Бізнес-аналітик – це фахівець, який перетворює запити замовника на конкретні вимоги до програмного забезпечення. Тому…

15.10.2025

Поліція затримала шахраїв, які використовували штучний інтелект для оформлення кредитів на українців

Слідчі ГСУ Національної поліції України за підтримки інших правоохоронних структур затримали учасників організованого злочинного угруповання,…

15.10.2025