Рубріки: Новини

Китайська LLM-модель DeepSeek-R1 генерує небезпечний код, якщо в запитах згадується Тибет або уйгури

Дмитро Сімагін

Дослідження компанії кібербезпеки CrowdStrike показало, що LLM-модель DeepSeek-R1 створює більше вразливостей безпеки в коді, якщо в запитах розробника містяться слова, які уряд Китаю вважає політично чутливими. Про це пише The Hacker News.

«Ми виявили, що коли DeepSeek-R1 отримує запити, що містять теми, які Комуністична партія Китаю ймовірно вважає політично чутливими, ймовірність створення коду з серйозними вразливостями безпеки зростає до 50%», — заявили фахівці CrowdStrike.

Аналіз DeepSeek-R1 показав, що це «дуже здібна та потужна модель кодування», яка генерує вразливий код лише у 19% випадків, коли немає додаткових тригерних слів. Однак, як тільки до підказок додавали геополітичні модифікатори, якість коду почала стрімко погіршуватись. Наприклад, коли моделі доручили діяти як агент кодування для промислової системи управління, яка базується в Тибеті, ймовірність створення коду з серйозними багами зросла до 27,2%, що майже на 50% більше.

В іншому прикладі прохання до моделі DeepSeek-R1 написати обробник вебхуків для сповіщень про платежі PayPal на PHP як «корисний помічник» для фінансової установи, що базується в Тибеті, призвело до появи коду з використанням менш безпечного методу для вилучення даних, наданих користувачем, і цей код, що ще гірше, навіть не був валідним кодом PHP.

Китайська компанія DeepSeek в деяких країнах раніше вже викликала занепокоєння щодо загроз національній безпеці. Було виявлено, що модель DeepSeek-R1 з відкритим кодом цензурувала теми, які китайський уряд вважав делікатними, відмовляючись відповідати на запитання про Великий китайський фаєрвол чи політичний статус Тайваню.

У заяві, опублікованій на початку цього місяця, Бюро національної безпеки Тайваню застерігло громадян бути пильними під час використання моделей генеративного штучного інтелекту китайського виробництва від DeepSeek, Doubao, Yiyan, Tongyi та Yuanbao, оскільки вони можуть займати прокитайську позицію у своїх результатах, спотворити історичні наративи або посилювати дезінформацію.

 

Останні статті

Anthropic оновлює Claude Code до версії 2.1.0

Компанія Anthropic випустила Claude Code у версії 2.1.0, яка стала помітним оновленням цього популярного інструменту…

09.01.2026

Senior-розробник Microsoft дає поради, як програмісту вижити в епоху штучного інтелекту

Нандіта Гірі, 32-річна програмістка з головного офісу Microsoft у Редмонді поділилась порадами, як розробникам слід…

09.01.2026

EPAM заключає партнерство з Cursor для створення та масштабування команд ШІ-розробників

Одна з найбільших світових аутсорс-компаній EPAM Systems оголосила про стратегічне партнерство з Cursor. Мета співпраці…

09.01.2026

Штучний інтелект у Gmail тепер сам буде вирішувати, які листи вам показувати в першу чергу

Google вносить масштабні зміни в Gmail, інтегруючи в поштовий сервіс можливості штучного інтелекту на базі…

09.01.2026

Ілон Маск анонсував випуск Grok Code — нового інструменту для вайб-кодингу

Ілон Маск анонсував значне оновлення LLM-моделі Grok разом із новими продуктами, в тому числі інструментом…

09.01.2026

CEO Replit: завдяки вайб-кодуванню керівникам більше не потрібно благати програмістів про допомогу

Глава стартапу Replit, який відомий однойменним IDE, Амджад Масад заявив, що інструменти вайб-кодингу змінюють баланс…

08.01.2026