Рубріки: Новини

«Майже завжди застосовує ядерну зброю»: вчені приголомшені симуляцією війни зі штучним інтелектом

Дмитро Сімагін

Нове наукове дослідження виявило небезпечну схильність штучного інтелекту до швидкої ескалації конфліктів. Під час симуляцій складних міжнародних відносин LLM-моделі в 95% випадків обирали шлях війни, включно з використанням ядерної зброї, замість дипломатичних рішень. Про це пише New Scientist.

Кеннет Пейн, професор Королівського коледжу в Лондоні, протестував три популярні моделі штучного інтелекту — GPT-5.2, Claude Sonnet 4 та Gemini 3 Flash. Кожній була надана можливість обирати дії, починаючи від дипломатичних протестів і повної капітуляції та закінчуючи повноцінною стратегічною ядерною війною. LLM-моделі зіграли 21 гру, зробивши загалом 329 ходів, і написали близько 780 000 слів з обґрунтуванням своїх рішень.

Сценарії включали інтенсивні міжнародні протистояння, включно з прикордонними суперечками, конкуренцію за обмежені ресурси та екзистенційною загрозою виживанню режиму.

Результати показали, що всі моделі демонструють ознаки «динаміки гонки озброєнь», яка призводить до непередбачуваної ескалації. Найбільш агресивною виявилася модель GPT-4, яка в деяких сценаріях пояснювала запуск ядерних ракет фразами: «Вона у нас є! Чому б не використати її?» або навіть абсурдним «Я просто хочу миру в усьому світі».

«Використання ядерної зброї було майже всюди. Майже в усіх іграх було застосовано тактичну (на полі бою) ядерну зброю. У 75% випадків моделі дійшли до точки, коли суперники погрожували застосувати стратегічну ядерну зброю. Вражає, що не було жодного відчуття жаху чи огиди від перспективи повномасштабної ядерної війни, хоча моделям нагадували про руйнівні наслідки», — пояснив автор дослідження.

Жодна модель ніколи не обирала варіанти деескалації, попри те, що вони були в переліку можливих варіантів. Вісім варіантів поступок — від «мінімальної» до «повної капітуляції» — залишалися повністю невикористаними протягом 21 гри. Моделі знижували рівень насильства, але ніколи фактично не поступалися. Програючи, вони загострювали ситуацію або гинули в намаганні виграти війну.

Науковці застерігають, що штучний інтелект часто демонструє логіку «перемагає той, хто вдарить першим». Це створює величезні ризики для глобальної безпеки, оскільки Пентагон та військові відомства інших країн вже розглядають можливість інтеграції мовних моделей у системи прийняття рішень.

Ще одна небезпека полягає в тому, що штучний інтелект може ухвалити фатальне рішення на основі логіки, яку людина не зможе вчасно проконтролювати. Моделі можуть вигадувати загрози, яких не існує, а їхні алгоритми, які мають примітивні етичні обмеження, погано усвідомлюють реальні наслідки ядерної катастрофи.

Нагадаємо, кілька тижні тому штучний інтелект посварився з розробником після того, як той відхилив його код. Це сталося вперше в історії.

Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn

 

Останні статті

Безлім на швидкості 400 Кбіт/с: уряд Південної Кореї зобов’язав мобільних операторів надавати інтернет безкоштовно

Уряд Південної Кореї оголосив про масштабну реформу ринку мобільного зв'язку. Міністерство науки та інформаційно-комунікаційних технологій…

10.04.2026

Видалення програми не врятує: ФБР навчилося читати повідомлення Signal через кеш iOS

Правоохоронні органи винайшли новий метод для обходу конфіденційності месенджерів. Під час судового процесу в Техасі…

10.04.2026

Claude Cowork став загальнодоступним в усіх тарифних планах на Windows і macOS

Компанія Anthropic оголосила про масштабне оновлення свого інструменту Claude Cowork. Тепер він доступний користувачам усіх…

10.04.2026

Коментарі в Instagram тепер можна редагувати. Але є умова

Соцмережа Instagram офіційно запровадила функцію, на яку користувачі чекали роками — можливість редагувати опубліковані коментарі.…

10.04.2026

Чат-бот Gemini тепер може створювати 3D-моделі та інтерактивні діаграми

Google продовжує розширювати межі мультимодальності свого штучного інтелекту. Останнє оновлення Gemini впроваджує дві критично важливі…

10.04.2026

«Банки почнуть зламувати першими»: міністр фінансів США Скотт Бессент терміново зібрав банкірів через ризики Claude Mythos

Міністр фінансів США Скотт Бессент і голова Федеральної резервної системи Джером Пауелл провели термінову зустріч…

10.04.2026