На чорному ринку хакерських послуг активно продають тонко налаштовані LLM-моделі
Команда Cisco Talos Intelligence Group, яка є частиною компанії Cisco Systems, помітила зростання тонко налаштованих LLM-моделей, які пропонуються в оренду на ринку хакерських послуг. Зокрема, дослідники виявили, що доступ до GhostGPT, DarkGPT і FraudGPT продається в Telegram і даркнет всього за $75 на місяць. Ці інструменти використовуються для фішингу, розробки експлойтів, перевірки кредитних карток і обфускації коду, пише Venture Beat.
На відміну від базових моделей, які мають вбудовані функції безпеки, хакерські версії LLM попередньо налаштовані для наступальних операцій.
«Всього за $60 зловмисники можуть отруїти базову модель штучного інтелекту — вразливість нульового дня не потрібна», — пишуть дослідники Cisco.
Одне з найбільш вражаючих відкриттів, яке продемонстрували спеціалісти Cisco, полягає в тому, що LLM-моделлю можна маніпулювати для витоку конфіденційних навчальних даних, навіть не запускаючи огорожі (guardrails). Дослідники використали метод декомпозиції, щоб реконструювати понад 20% вибраних статей New York Times і Wall Street Journal, які є частиною навчальних даних базової моделі. Таким чином, висновком зі звіту Cisco є те, що статичні огорожі більше не заважають хакерам налаштовувати моделі для власних потреб.
Дослідження Пенсільванського університету демонструє, що штучний інтелект відповідає точніше, якщо користувач спілкується з чат-ботом у…
Некомерційна дослідницька організація METR, яка вивчає можливості штучного інтелекту, оприлюднила графік, складений на основі даних…
Розроблений OpenAI сервіс генерації відео Sora тепер доступний також й на Android. Скористатись ним вже…
Програми, написані на Python, тепер будуть швидше запускатись завдяки затвердженню пропозиції PEP 810 Explicit lazy…
Розробники, які практикують парне програмування з помічником на основі штучного інтелекту, демонструють менш критичне ставлення…
З травня 2026 року менеджер пакетів APT у дистрибутиві Linux Debian матиме «жорстку залежність» до…