Anthropic звинувачує китайські компанії в масовій крадіжці можливостей Claude
Компанія Anthropic звинуватила трьох провідних китайських розробників штучного інтелекту — DeepSeek, Moonshot та MiniMax. Їм закидають використання дистиляції в «промислових масштабах» для незаконного вдосконалення власних моделей на базі відповідей Claude. Загалом зафіксовано 16 мільйонів обмінів даними через мережу з 24 000 шахрайських облікових записів, пише Tom’s Hardware.
Дистиляція — це метод, коли менша модель навчається на результатах більш потужної LLM. Хоча технологія є законною для внутрішніх потреб, Anthropic вважає, що дії китайців порушують ліцензійну угоду та експортний контроль США. Головний ризик полягає в тому, що іноземні лабораторії можуть інтегрувати американські напрацювання у військові та розвідувальні системи, обходячи встановлені обмеження.
Фахівці DeepSeek використовували складні проксі-системи, які Anthropic називає «кластерами гідри». Вони розподіляли трафік між тисячами акаунтів, змішуючи запити на вилучення даних зі звичайними питаннями, щоб уникнути блокування. Активність ботів видала аномально висока повторюваність та фокус на специфічних навичках.
Масштаби втручання:
- MiniMax: Найбільша кампанія (13 млн запитів). Компанія миттєво перемикала трафік на кожну нову модель Claude протягом 24 годин після релізу.
- Moonshot (Kimi): 3,4 млн запитів, зосереджених на кодуванні, комп’ютерному зорі та агентному мисленні.
- DeepSeek: 150 тис. запитів, націлених на логічне міркування та переписування політично чутливого контенту для обходу цензури.
На відміну від OpenAI, яка раніше лише натякала на подібні дії з боку DeepSeek, Anthropic надала вичерпні технічні докази промислового шпигунства у сфері ШІ.
Нагадаємо, що американські військові хочуть, щоб OpenAI та Anthropic зробили для військових спеціальні версії LLM «без обмежень».
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn














Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: