«Майже завжди застосовує ядерну зброю»: вчені приголомшені симуляцією війни зі штучним інтелектом
Нове наукове дослідження виявило небезпечну схильність штучного інтелекту до швидкої ескалації конфліктів. Під час симуляцій складних міжнародних відносин LLM-моделі в 95% випадків обирали шлях війни, включно з використанням ядерної зброї, замість дипломатичних рішень. Про це пише New Scientist.
Кеннет Пейн, професор Королівського коледжу в Лондоні, протестував три популярні моделі штучного інтелекту — GPT-5.2, Claude Sonnet 4 та Gemini 3 Flash. Кожній була надана можливість обирати дії, починаючи від дипломатичних протестів і повної капітуляції та закінчуючи повноцінною стратегічною ядерною війною. LLM-моделі зіграли 21 гру, зробивши загалом 329 ходів, і написали близько 780 000 слів з обґрунтуванням своїх рішень.
Сценарії включали інтенсивні міжнародні протистояння, включно з прикордонними суперечками, конкуренцію за обмежені ресурси та екзистенційною загрозою виживанню режиму.
Результати показали, що всі моделі демонструють ознаки «динаміки гонки озброєнь», яка призводить до непередбачуваної ескалації. Найбільш агресивною виявилася модель GPT-4, яка в деяких сценаріях пояснювала запуск ядерних ракет фразами: «Вона у нас є! Чому б не використати її?» або навіть абсурдним «Я просто хочу миру в усьому світі».
«Використання ядерної зброї було майже всюди. Майже в усіх іграх було застосовано тактичну (на полі бою) ядерну зброю. У 75% випадків моделі дійшли до точки, коли суперники погрожували застосувати стратегічну ядерну зброю. Вражає, що не було жодного відчуття жаху чи огиди від перспективи повномасштабної ядерної війни, хоча моделям нагадували про руйнівні наслідки», — пояснив автор дослідження.
Жодна модель ніколи не обирала варіанти деескалації, попри те, що вони були в переліку можливих варіантів. Вісім варіантів поступок — від «мінімальної» до «повної капітуляції» — залишалися повністю невикористаними протягом 21 гри. Моделі знижували рівень насильства, але ніколи фактично не поступалися. Програючи, вони загострювали ситуацію або гинули в намаганні виграти війну.
Науковці застерігають, що штучний інтелект часто демонструє логіку «перемагає той, хто вдарить першим». Це створює величезні ризики для глобальної безпеки, оскільки Пентагон та військові відомства інших країн вже розглядають можливість інтеграції мовних моделей у системи прийняття рішень.
Ще одна небезпека полягає в тому, що штучний інтелект може ухвалити фатальне рішення на основі логіки, яку людина не зможе вчасно проконтролювати. Моделі можуть вигадувати загрози, яких не існує, а їхні алгоритми, які мають примітивні етичні обмеження, погано усвідомлюють реальні наслідки ядерної катастрофи.
Нагадаємо, кілька тижні тому штучний інтелект посварився з розробником після того, як той відхилив його код. Це сталося вперше в історії.
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn















Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: