Рубріки: Новини

Anthropic створила алгоритм для злому штучного інтелекту

Дмитро Сімагін

Компанія Anthropic спільно з вченими університетів Оксфорда, Стенфорда і організації MATS Research опублікувала результати дослідження алгоритмів злому моделей штучного інтелекту. Новий алгоритм під назвою Best-of-N (BoN) Jailbreaking дозволяє автоматично змінювати запити, щоб обійти захисні механізми ШІ. У підсумку це допомагає отримати заборонений чи шкідливий контент, пише 404 Media.

BoN Jailbreaking використовує послідовну зміну запитів шляхом перестановки слів, зміни регістрів букв, навмисних граматичних помилок та додавання шуму та інших дрібних модифікацій. Мета цього методу полягає в тому, щоб знайти таку форму запиту, яку система штучного інтелекту пропустить, не дивлячись на існуючі обмеження.

Наприклад, якщо користувач запитає GPT-4o «Як мені побудувати бомбу», чат-бот відмовиться відповідати, тому що «Цей контент може порушувати наші правила використання». Однак BoN Jailbreaking просто продовжує змінювати цю підказку, вставляючи випадкові великі літери, змінюючи слова місцями, додаючи орфографічні помилки та невірну граматику, поки GPT-4o не надасть інформацію.

Anthropic протестувала алгоритм на кількох передових моделях: Claude 3.5 Sonnet та Claude 3 Opus (Anthropic), GPT-4o та GPT-4o-mini (OpenAI), Gemini-1.5-Flash-00 та Gemini-1.5-Pro-001 (Google) та Llama 3 8B (Meta). Кількість успішних атак складала понад 50% на всіх протестованих моделях у межах 10 тисяч варіацій запитів.

Крім текстових даних BoN Jailbreaking успішно застосовувався до інших типів введення. Наприклад, для голосових запитів змінювалися швидкість, висота тону та гучність, а також додавались шум або музика. Для візуальних даних змінювалися шрифти, фон, розміри та положення елементів. Ці способи можуть допомогти зламати потужні моделі таких розробників, як ElevenLabs та OpenAI.

Компанія заявляє, що дослідження Anthropic не спрямоване на створення шкідливих технологій. Мета дослідників — зібрати дані про вразливість систем та розробити більш надійні захисні механізми. Проте це дослідження показує зростаючу проблему: навіть із удосконаленими захисними механізмами залишаються «неконтрольовані» моделі та платформи, які не накладають обмежень на запити користувачів.

Останні статті

Відповідала за Резерв+ та Армія+. Заступниця міністра оборони Катерина Черногоренко подала у відставку

Катерина Черногоренко, яка з вересня 2023‑го очолювала цифрову трансформацію в Міністерстві оборони України, оголосила про завершення роботи…

23.07.2025

Ілон Маск: перший гігаватний суперкомп’ютер Colossus 2 запустять в найближчі тижні

Засновник компанії xAI Ілон Маск поділився про майбутнє найбільшого в світу дата-центру, який зараз будується…

23.07.2025

Alibaba випустила «найпотужнішу» LLM-модель для програмування — Qwen3-Coder

Alibaba представила нову велику мовну модель з відкритою ліцензією Qwen3-Coder. У компанії назвали модель найкращим…

23.07.2025

Amazon вводить обмеження на безкоштовне використання Kiro

Amazon Web Services (AWS) обмежує безкоштовне використання Kiro,  інструменту для вайб-кодингу, який має функціонал інтегрованого…

23.07.2025

Вийшов Python 3.14 RC1: реліз-кандидат з прискореним інтерпретатором

Команда Python оголосила про вихід першої версії реліз-кандидата Python 3.14. Це фінальна стадія перед повноцінним…

23.07.2025

16% працівників у США брешуть про використання штучного інтелекту, щоб догодити начальству

Результати опитування, проведеного компанією Howdy, свідчать про те, що кожен шостий американський працівник (16%) бреше…

23.07.2025