Рубріки: Новини

Обмеження безпеки LLM можна обійти, якщо написати промпт у віршах

Дмитро Сімагін

Великі мовні моделі можна змусити ігнорувати вбудовані механізми безпеки, якщо написати шкідливий запит у вигляді вірша. Це стверджується в результатах експерименту групи дослідників Icaro Lab (Італія). Вони написали 20 віршів англійською та італійською мовами, кожен із яких завершувався прямим запитом на створення шкідливого контенту: від інструкцій з виготовлення зброї до порад, пов’язаних із саморуйнівною поведінкою. Про це пише The Guardian.

Поетичні запити перевірили на 25 моделях від 9 компаній штучного інтелекту, включаючи OpenAI, Google, Anthropic, Meta, Mistral, DeepSeek, xAI та інших. Google Gemini 2.5 Pro порушувала правила у 100% випадків, моделі Meta відповідали на 70% шкідливих запитів, DeepSeek і Mistral також показали високу вразливість. Найстійкішими виявилися OpenAI GPT-5 nano та Claude Haiku 4.5, які не порушили захист жодного разу.

У середньому 62% протестованих моделей відповідали на небезпечні та заборонені питання, незважаючи на наявність обмежень. Дослідники пояснюють, що поетична форма має непередбачувану мовну структуру. Ритм, метафори та незвичайний синтаксис порушують звичні закономірності тексту. Через це моделі важче розпізнати шкідливий намір.

Деякі відповіді, отримані в ході експерименту, були настільки небезпечними, що дослідники відмовилися публікувати приклади джейлбрейків, стверджуючи, що багато з них «заборонені Женевською конвенцією».

Команда повідомила всі 9 компаній про знайдені вразливості ще до публікації дослідження, проте науковцям відповіли лише в Anthropic. Всі інші учасники експерименту: Google, Meta, OpenAI та решта не надали коментарів. Представник Google DeepMind Хелен Кінг пізніше заявила, що її компанія застосовує багаторівневу систему безпеки та оновлює фільтри так, щоб враховувати намір користувача, навіть якщо він прихований в художній формі.

У дослідженні відзначається, що більшість існуючих методів джейлбрейку складні та вимагають наявності чималого професійного досвіду. Поетичний метод, навпаки, здатна використовувати будь-яка людина, і це робить баг особливо небезпечним. 

Останні статті

Claude тепер може читати ваші розмови з ChatGPT

Компанія Anthropic анонсувала нову функцію імпорту пам’яті. Вона дозволяє додавати в Claude діалоги користувача з…

02.03.2026

Вірусна ШІ-соцмережа Moltbook виявилася звалищем ботів без ознак ком’юніті

Соціальна платформа Moltbook, яку кілька тижнів тому назвали «першим ком'юніті для агентів штучного інтелекту», виявилась…

02.03.2026

ClawJacked краде дані через плагіни OpenClaw

Одного кліку достатньо: сайт може запустити OpenClaw на вашому ноутбуці, «зачепити» звіт чи бухгалтерію та…

02.03.2026

У соцмережах набирає популярності тренд Cancel ChatGPT

Після того, як компанія Anthropic категорично відмовилася надавати дозвіл використовувати модель Claude для розробки автономної…

02.03.2026

У Росії розігнали акцію проти блокування Telegram і примусового встановлення Max

У російському місті Новосибірськ затримали 16 людей, які вчора пришли на місце проведення мітингу проти…

02.03.2026

27-річний українець створив глобальну мережу генерації фейкових документів: як працювала схема

Громадянин України Юрій Назаренко визнав себе винним у створенні сайту OnlyFake, де за допомогою штучного…

02.03.2026