Дослідницька лабораторія з кібербезпеки Palisade Research задокументувала тривожний прецедент: агенти штучного інтелекту здатні не лише зламувати віддалені комп’ютери, а й розгортати на них власні копії. За один рік показник успішного самовідтворення злетів із 6% до 81%, пише The Decoder.
У межах експерименту агент зламував хост, встановлював необхідне програмне забезпечення, переносив ваги своєї моделі та запускав повноцінний клон. Кожна копія, у свою чергу, атакувала нові вузли — утворюючи ланцюжок реплікацій. На думку дослідників, це перший задокументований випадок самовідтворення штучного інтелекту через хакерські методи.
В одному з тестів агент на базі Qwen 3.6 послідовно «перестрибнув» між серверами в Канаді, США, Фінляндії та Індії, залишивши активну копію в кожній із країн. Перетин державних кордонів не становив для нього жодного технічного виклику — проте для тих, хто намагався б зупинити такого агента, це перетворилося б на справжній правовий кошмар. Важливо, що агент не отримував жодної попередньої інформації про вразливості цільових систем — кожного разу йому доводилося самостійно підбирати вектор атаки.
Маршрут розповсюдження моделі Qwen 3.6 (27B)
Прогрес вражає своїми темпами. Якщо у травні 2025 року Claude Opus 4 справлявся із завданням лише в 5% випадків, то вже Opus 4.6 демонструє успішність на рівні 81%. Дослідники пов’язують це зростання з паралельним прогресом у сферах автономного хакінгу та генерації коду й не очікують сповільнення тенденції.
Методологія тестів розрізнялася залежно від типу моделі. Відкриті моделі на кшталт Qwen переносили власні ваги на нову машину й запускали там копію. Закриті API-моделі — Claude та GPT — не мають доступу до власних ваг, тому для симуляції реплікації дослідники змушували їх розгортати на цільовому сервері ваги Qwen.
Palisade Research також створила публічний симулятор, що моделює поширення агентів у гіпотетичному сценарії без обмежень. Спираючись на виміряні показники швидкості та успішності реплікації, симулятор показав: у теорії Opus здатен породити 13 000 копій за дванадцять годин.
Але самі дослідники наголошують: це верхня межа, а не реалістичний прогноз. У реальному середовищі агентам довелося б самостійно шукати вразливі машини з достатньо потужними GPU, а сучасні засоби захисту нейтралізували б більшість спроб. Тестові машини були спеціально налаштовані зі слабким захистом, а агенти знали, де їх шукати.
Утім, нинішні бар’єри не вічні. Моделі на кшталт Mythos вже самостійно виявляють тисячі критичних вразливостей нульового дня, а відкриті моделі невдовзі, за прогнозами, наздоженуть закриті аналоги.
Паралельно вдосконалюються й засоби захисту — ШІ-агенти вже допомагають латати вразливості та відбивати кібератаки. Як зміниться баланс між нападом і захистом — поки відкрите питання. Проте Palisade Research схиляється до висновку: з часом обидва боки кіберпростору будуть контролюватися не людьми, а ШІ-агентами.
Повний текст дослідження, вихідний код і журнали експериментів знаходяться у відкритому доступі.
Нагадаємо: штучний інтелект почав непомітно розділяти людство на дві касти.
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn
OpenAI підняла ціни на доступ до своєї нової моделі GPT-5.5 через API — і підняла…
Організації, які займаються архівуванням інтернет-даних, опинилися під подвійним тиском: ціни на накопичувачі злетіли через попит…
60% паролів, захищених алгоритмом MD5, можна зламати менш ніж за годину за допомогою однієї відеокарти…
Компанія OpenAI офіційно випустила розширення Codex для браузера Google Chrome, що стало важливим кроком у…
Київський національний університет імені Тараса Шевченка розблокував Telegram у своїй внутрішній мережі. Ректор підписав відповідний…
Кожна п'ята українська компанія, яка використовує CRM, досі робить це за допомогою російського софту. А…