Протести в Google: топові розробники відмовляються працювати на Пентагон
Всередині Google знову назріває етичний шторм. Понад 600 співробітників компанії, в тому числі з підрозділу штучного інтелекту DeepMind, підписали відкритий лист до керівництва, висловлюючи рішучий протест проти поглиблення співпраці з Міністерством оборони США.
Події нагадують конфлікт 2018 року (Project Maven), коли подібний тиск змусив Google частково відмовитися від військових контрактів, пише The Washington Post.

Зображення ілюстративне (ChatGPT)
Основні претензії: штучний інтелект для військових операцій
Працівники Google занепокоєні тим, що технології штучного інтелекту, над якими вони працюють, можуть бути використані для створення автономної зброї або систем пошуку цілей для подальших військових ударів.
- Порушення принципів: Лист стверджує, що нові контракти з Пентагоном прямо суперечать офіційним «Принципам ШІ» (AI Principles) Google, де компанія обіцяла не розробляти технології, що завдають шкоди людям.
- Брак прозорості: Автори звернення вимагають повної звітності про те, як саме військові використовують алгоритми компанії — чи це лише логістика та хмарні обчислення, чи безпосередня участь у бойових операціях.
- Заклик до нейтральності: Технологічна спільнота всередині компанії наполягає, що Google має залишатися цивільною платформою, а не ставати частиною «військово-промислового комплексу».
«Ми хочемо бачити, як штучний інтелект приносить користь людству, а не щоб його використовували негуманним або надзвичайно шкідливим чином. Це включає летальну автономну зброю та масове спостереження… Єдиний спосіб гарантувати, що Google не буде пов’язаний із такою шкодою, — це відхилити будь-які секретні робочі навантаження», — йдеться в листі співробітників.
Позиція керівництва
Офіційно топ-менеджери Google аргументують таку співпрацю тим, що їхні технології допомагають модернізувати застарілу інфраструктуру армії, покращують кібербезпеку та рятують життя за допомогою точнішої аналітики, не беручи участі безпосередньо у веденні вогню. Проте для багатьох інженерів ця межа виглядає занадто розмитою.
Керівництво Міністерства оборони США нещодавно заявило, що воно повинно мати свободу використовувати комерційні технології штучного інтелекту для «всіх законних цілей» — фраза, яка, за словами чиновників, дозволяє гнучкість у різних ситуаціях.
Деякі фахівці зі штучного інтелекту кажуть, що таких гарантій недостатньо. Особливе занепокоєння працівників Google викликає той факт, що не так давно Дональд Трамп погрожував розбомбити «кожен міст та електростанцію в Ірані». Експерти оцінюють це як явне порушення міжнародного права. Аналогічні претензії висловлено щодо ударів по човнах, які нібито перевозили наркотики.
Нагадаємо, 75% коду Google зараз генерується штучним інтелектом. Півроку тому було 50%.
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn












Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: