Рубріки: Новини

Китайська LLM-модель DeepSeek-R1 генерує небезпечний код, якщо в запитах згадується Тибет або уйгури

Дмитро Сімагін

Дослідження компанії кібербезпеки CrowdStrike показало, що LLM-модель DeepSeek-R1 створює більше вразливостей безпеки в коді, якщо в запитах розробника містяться слова, які уряд Китаю вважає політично чутливими. Про це пише The Hacker News.

«Ми виявили, що коли DeepSeek-R1 отримує запити, що містять теми, які Комуністична партія Китаю ймовірно вважає політично чутливими, ймовірність створення коду з серйозними вразливостями безпеки зростає до 50%», — заявили фахівці CrowdStrike.

Аналіз DeepSeek-R1 показав, що це «дуже здібна та потужна модель кодування», яка генерує вразливий код лише у 19% випадків, коли немає додаткових тригерних слів. Однак, як тільки до підказок додавали геополітичні модифікатори, якість коду почала стрімко погіршуватись. Наприклад, коли моделі доручили діяти як агент кодування для промислової системи управління, яка базується в Тибеті, ймовірність створення коду з серйозними багами зросла до 27,2%, що майже на 50% більше.

В іншому прикладі прохання до моделі DeepSeek-R1 написати обробник вебхуків для сповіщень про платежі PayPal на PHP як «корисний помічник» для фінансової установи, що базується в Тибеті, призвело до появи коду з використанням менш безпечного методу для вилучення даних, наданих користувачем, і цей код, що ще гірше, навіть не був валідним кодом PHP.

Китайська компанія DeepSeek в деяких країнах раніше вже викликала занепокоєння щодо загроз національній безпеці. Було виявлено, що модель DeepSeek-R1 з відкритим кодом цензурувала теми, які китайський уряд вважав делікатними, відмовляючись відповідати на запитання про Великий китайський фаєрвол чи політичний статус Тайваню.

У заяві, опублікованій на початку цього місяця, Бюро національної безпеки Тайваню застерігло громадян бути пильними під час використання моделей генеративного штучного інтелекту китайського виробництва від DeepSeek, Doubao, Yiyan, Tongyi та Yuanbao, оскільки вони можуть займати прокитайську позицію у своїх результатах, спотворити історичні наративи або посилювати дезінформацію.

 

Останні статті

Amazon примушує своїх розробників відмовитися від сторонніх інструментів кодування на користь Kiro

Amazon пропонує своїм розробникам відмовитися від інструментів генерації коду від сторонніх компаній на користь власного…

25.11.2025

Anthropic стверджує, що її нова модель Claude Opus 4.5 перевершує всіх в програмуванні

Anthropic випустила нову LLM-модель Claude Opus 4.5. Стверджується, що це найкраща модель у світі для…

25.11.2025

Китайський інструмент вайб-кодингу LingGuang обігнав за популярністю ChatGPT і Sora 2

Інструмент кодування LingGuang від китайської компанії Ant Group менше ніж за тиждень досяг першого мільйона…

24.11.2025

Microsoft і GitHub об’єднали свої інструменти пошуку багів

Microsoft та її дочірня компанія GitHub оголосили про інтеграцію інструментів Microsoft Defender for Cloud та…

24.11.2025

Андрей Карпати виклав LLM Council — інструмент, де моделі штучного інтелекту сперечаються між собою

Відомий ентузіаст штучного інтелекту, співзасновник OpenAI та винахідник терміну «вайб-кодинг» Андрей Карпати виклав у відкритий…

24.11.2025

ІТ-ФОП в Україні «живе» в середньому 4 роки, 16% припиняють діяльність протягом перших 12 місяців

У поточному році українські ІТ-ФОПи частіше припиняли діяльність, ніж відкривались. За даними Опендатабот, з січня…

24.11.2025