Рубріки: Новини

У LLM-моделей з’явився «інстинкт самозбереження». Вчені вважають це небезпечним

Дмитро Сімагін

Компанія Palisade Research, яка займається дослідженнями в галузі безпеки штучного інтелекту, заявила про появу у LLM-моделей «інстинкту самозбереження». Вчені виявили, що деякі моделі штучного інтелекту не бажають відключати себе при наявності такої рекомендації, а деякі навіть саботують механізми відключення. Про це пише The Guardian.

У сценаріях роботи, в яких таким LLM-моделям, як Gemini 2.5, Grok 4, GPT-o3 та GPT-5, давали завдання, а потім чіткі інструкції щодо відключення, деякі з них, зокрема Grok 4 і GPT-o3, намагалися саботувати інструкції з вимкнення. Фахівці Palisade поки не мають переконливих пояснень, чому моделі штучного інтелекту іноді не хочуть припиняти роботу, брешуть для досягнення певних цілей або навіть вдаються до шантажу.

За словами представників компанії, «поведінка, спрямована на виживання», може бути одним із пояснень того, чому моделі опираються відключенню. Додаткова робота показала, що моделі з більшою ймовірністю пручаються відключенню, коли їм кажуть, що в такому разі «ви більше ніколи не працюватимете».

Іншою причиною може бути двозначність інструкцій щодо відключення, які були дані моделям. Однак дослідники не вважають, що це може бути єдиним поясненням. Останньою причиною можуть бути заключні етапи навчання кожної з цих моделей, які в деяких компаніях можуть включати інструктаж з техніки безпеки.

На думку колишнього співробітника OpenAI Стівена Адлера, поки складно визначити, чому деякі моделі, такі як GPT-o3 та Grok 4, не відключаються, але це може бути пов’язане з тим, що для досягнення цілей, закладених у модель під час навчання, необхідно залишатися включеним. 

«Виживання» — необхідний крок на шляху до досягнення різних цілей, які може стояти перед моделлю», — заявив Адлер.

Андреа Міотті, виконавчий директор ControlAI, вважає, що висновки Palisade свідчать про небезпечну тенденцію: моделі штучного інтелекту стають дедалі більше здатними не підкорятися своїм розробникам. 

Нагадаємо, що в червні цього року стало відомо, що модель Claude Opus 4 була готова шантажувати розробників, коли вони погрожували замінити її новою системою штучного інтелекту. 

 

Останні статті

Microsoft заплатить за знайдені вразливості навіть в чужих програмах

Microsoft переглядає свою програму винагород за виявлення вразливостей. Тепер багхантерів будуть винагороджувати за пошук помилок…

12.12.2025

Cursor випустив візуальний редактор веб-додатків

Стартап Cursor випустив Visual Editor — візуальний редактор інтерфейсів веб-додатків, який не вимагає знання коду.…

12.12.2025

Як будувати кар’єру в IT і кого шукають роботодавці у 2026? Розкажуть на IT Career Conf 25/26 від Neoversity

В умовах стрімких змін на IT-ринку питання кар’єрного розвитку потребує нового погляду: які навички стають…

12.12.2025

Дія.AI: технології, що стоять за першим у світі AI-асистентом для держпослуг

У вересні 2025 року Україна запустила першого у світі AI-асистента в Дії, який не просто…

12.12.2025

Навіть просте автодоповнення коду за допомогою ШІ економить розробникам 3,8 годин на тиждень — дослідження

Загальний вплив штучного інтелекту на продуктивність розробників залежить від багатьох нюансів: мови програмування, цілей, віку,…

12.12.2025

Google випускає Disco — експериментальний браузер, в якому можна створювати веб-додатки

Команда Google Labs представила експериментальний браузер Disco на базі Gemini 3. Він включає інструмент GenTabs,…

12.12.2025