Обмеження безпеки LLM можна обійти, якщо написати промпт у віршах
Великі мовні моделі можна змусити ігнорувати вбудовані механізми безпеки, якщо написати шкідливий запит у вигляді вірша. Це стверджується в результатах експерименту групи дослідників Icaro Lab (Італія). Вони написали 20 віршів англійською та італійською мовами, кожен із яких завершувався прямим запитом на створення шкідливого контенту: від інструкцій з виготовлення зброї до порад, пов’язаних із саморуйнівною поведінкою. Про це пише The Guardian.
Поетичні запити перевірили на 25 моделях від 9 компаній штучного інтелекту, включаючи OpenAI, Google, Anthropic, Meta, Mistral, DeepSeek, xAI та інших. Google Gemini 2.5 Pro порушувала правила у 100% випадків, моделі Meta відповідали на 70% шкідливих запитів, DeepSeek і Mistral також показали високу вразливість. Найстійкішими виявилися OpenAI GPT-5 nano та Claude Haiku 4.5, які не порушили захист жодного разу.
У середньому 62% протестованих моделей відповідали на небезпечні та заборонені питання, незважаючи на наявність обмежень. Дослідники пояснюють, що поетична форма має непередбачувану мовну структуру. Ритм, метафори та незвичайний синтаксис порушують звичні закономірності тексту. Через це моделі важче розпізнати шкідливий намір.
Деякі відповіді, отримані в ході експерименту, були настільки небезпечними, що дослідники відмовилися публікувати приклади джейлбрейків, стверджуючи, що багато з них «заборонені Женевською конвенцією».
Команда повідомила всі 9 компаній про знайдені вразливості ще до публікації дослідження, проте науковцям відповіли лише в Anthropic. Всі інші учасники експерименту: Google, Meta, OpenAI та решта не надали коментарів. Представник Google DeepMind Хелен Кінг пізніше заявила, що її компанія застосовує багаторівневу систему безпеки та оновлює фільтри так, щоб враховувати намір користувача, навіть якщо він прихований в художній формі.
У дослідженні відзначається, що більшість існуючих методів джейлбрейку складні та вимагають наявності чималого професійного досвіду. Поетичний метод, навпаки, здатна використовувати будь-яка людина, і це робить баг особливо небезпечним.
Компанія Anthropic анонсувала нову функцію імпорту пам’яті. Вона дозволяє додавати в Claude діалоги користувача з…
Соціальна платформа Moltbook, яку кілька тижнів тому назвали «першим ком'юніті для агентів штучного інтелекту», виявилась…
Одного кліку достатньо: сайт може запустити OpenClaw на вашому ноутбуці, «зачепити» звіт чи бухгалтерію та…
Після того, як компанія Anthropic категорично відмовилася надавати дозвіл використовувати модель Claude для розробки автономної…
У російському місті Новосибірськ затримали 16 людей, які вчора пришли на місце проведення мітингу проти…
Громадянин України Юрій Назаренко визнав себе винним у створенні сайту OnlyFake, де за допомогою штучного…