Рубріки: Новини

Обмеження безпеки LLM можна обійти, якщо написати промпт у віршах

Дмитро Сімагін

Великі мовні моделі можна змусити ігнорувати вбудовані механізми безпеки, якщо написати шкідливий запит у вигляді вірша. Це стверджується в результатах експерименту групи дослідників Icaro Lab (Італія). Вони написали 20 віршів англійською та італійською мовами, кожен із яких завершувався прямим запитом на створення шкідливого контенту: від інструкцій з виготовлення зброї до порад, пов’язаних із саморуйнівною поведінкою. Про це пише The Guardian.

Поетичні запити перевірили на 25 моделях від 9 компаній штучного інтелекту, включаючи OpenAI, Google, Anthropic, Meta, Mistral, DeepSeek, xAI та інших. Google Gemini 2.5 Pro порушувала правила у 100% випадків, моделі Meta відповідали на 70% шкідливих запитів, DeepSeek і Mistral також показали високу вразливість. Найстійкішими виявилися OpenAI GPT-5 nano та Claude Haiku 4.5, які не порушили захист жодного разу.

У середньому 62% протестованих моделей відповідали на небезпечні та заборонені питання, незважаючи на наявність обмежень. Дослідники пояснюють, що поетична форма має непередбачувану мовну структуру. Ритм, метафори та незвичайний синтаксис порушують звичні закономірності тексту. Через це моделі важче розпізнати шкідливий намір.

Деякі відповіді, отримані в ході експерименту, були настільки небезпечними, що дослідники відмовилися публікувати приклади джейлбрейків, стверджуючи, що багато з них «заборонені Женевською конвенцією».

Команда повідомила всі 9 компаній про знайдені вразливості ще до публікації дослідження, проте науковцям відповіли лише в Anthropic. Всі інші учасники експерименту: Google, Meta, OpenAI та решта не надали коментарів. Представник Google DeepMind Хелен Кінг пізніше заявила, що її компанія застосовує багаторівневу систему безпеки та оновлює фільтри так, щоб враховувати намір користувача, навіть якщо він прихований в художній формі.

У дослідженні відзначається, що більшість існуючих методів джейлбрейку складні та вимагають наявності чималого професійного досвіду. Поетичний метод, навпаки, здатна використовувати будь-яка людина, і це робить баг особливо небезпечним. 

Останні статті

Anthropic випустила Claude Opus 4.7. Повний огляд можливостей нової моделі

Компанія Anthropic офіційно представила свою найпотужнішу на сьогодні LLM-модель — Claude Opus 4.7, яка стала…

17.04.2026

Google дозволить Gemini створювати контент з ваших особистих фото

Компанія Google представила масштабне оновлення для свого чат-бота Gemini, інтегрувавши його з бібліотекою Google Photos…

17.04.2026

DeepL виходить за межі тексту: компанія запускає голосовий переклад у реальному часі

Німецький стартап DeepL, який завоював репутацію творця одного з найточніших текстових перекладачів у світі, оголосив…

16.04.2026

YouTube дозволив користувачам приховати розділ Shorts

Відеосервіс YouTube почав впроваджувати довгоочікувану функцію, яка дозволяє користувачам вимикати показ коротких відео Shorts у…

16.04.2026

Роботів-собак від Boston Dynamics навчили зчитувати покази лічильників

Компанія Boston Dynamics інтегрувала мультимодальні можливості штучного інтелекту Google Gemini у своїх чотирилапих роботів Spot.…

16.04.2026

CERT-UA: хакери активно пропонують українцям «отримати гуманітарну допомогу» або розсилають «повістки в суд»

Команда реагування на комп’ютерні надзвичайні події України (CERT-UA) попередила про активізацію кіберзагроз з боку хакерського…

16.04.2026