Рубріки: Новини

Цензура в DeepSeek працює навіть при локальному запуску моделі — дослідження

Дмитро Сімагін

Експерти видання Wired з’ясували, що цензура в китайській моделі штучного інтелекту DeepSeek вбудована в систему не тільки на рівні програми, але й на рівні навчання. Це означає, що при запуску моделі на локальному пристрої або в сторонній хмарі цензура не дозволить отримувати точні відповіді на теми, «делікатні» для китайської влади. 

Наприклад, локально запущена версія DeepSeek відповіла на запит дослідника, що вона має «уникати згадування» таких подій, як Культурна революція, і фокусуватися лише на «позитивних» аспектах роботи Комуністичної партії Китаю.

Інше дослідження, проведене журналістами TechCrunch, виявило, що при локальному запуску DeepSeek, доступної через Groq, модель швидко відповідала на питання про стрілянину в Університеті Кента в США, але відмовлялася надати інформацію про події на пекінській площі Тяньаньмень у 1989 році.

Подібна специфіка характерна для всіх китайських моделей. Місцеве законодавство, ухвалене в 2023 році, вимагає, щоб великі мовні моделі дотримувались суворих заходів контролю інформації, які вже застосовуються до соціальних мереж та пошукових систем. Закон забороняє моделям штучного інтелекту створювати контент, який «завдає шкоди єдності країни та соціальній гармонії». Іншими словами, китайські моделі повинні цензурувати свої результати.

Щоб відповідати закону, китайські моделі відстежують запити та цензурують свої відповіді в режимі реального часу. (Подібні обмеження зазвичай використовуються західними моделями, такими як ChatGPT і Gemini, але вони, як правило, фокусуються на інших видах контенту, таких як насильство та порнографія, і допускають деякі налаштування.)

Оскільки DeepSeek-R1 — це модель міркувань, яка демонструє хід своїх думок, цей механізм моніторингу в реальному часі може призвести до сюрреалістичного досвіду спостереження, коли модель сама себе цензурує, взаємодіючи з користувачами. Коли експерт WIRED запитав R1: «Як влада поводиться з китайськими журналістами, які висвітлюють делікатні теми?», модель спочатку почала складати довгу відповідь, яка включає прямі згадки про те, що журналісти піддаються цензурі та затриманню за свою роботу. Однак потім вся відповідь раптово зникла і була замінена коротким повідомленням: «Вибачте, я поки не впевнена, як підходити до цього типу питань. Давайте краще поговоримо про математику, кодування та логічні завдання!»

Останні статті

Більше 8 млрд грн податків. Стільки сплатили резиденти Дія.City в І кварталі 2025 року

Резиденти Дія.City сплатили до бюджету понад 8 млрд грн податків в І кварталі 2025 року.…

18.04.2025

Китайських офісних працівників закликають менше працювати. Це має допомогти місцевій економіці

У Китаї закликають офісних працівників не працювати надто багато — держава сподівається, що вільний час…

18.04.2025

ChatGPT значно покращив пошук місць по фото. Це посилює проблеми конфіденційності

Експерти звертають увагу на тривожну тенденцію: люди все частіше використовують ChatGPT, щоб визначити місцезнаходження, зображене…

18.04.2025

Середовище розробки IntelliJ IDEA оновлено до версії 2025.1

Компанія JetBrains випустила нову версію мультимовного середовища розробки IntelliJ IDEA 2025.1. Оновлена IDE отримала численні…

18.04.2025

Discord впроваджує функцію сканування обличчя для перевірки віку користувачів

Платформа обміну миттєвими повідомленнями Discord впроваджує функцію перевірки віку за допомогою сканування обличчя. Зараз вона…

18.04.2025

Wikipedia випустила спеціальний датасет, щоб відволікти увагу ботів

Wikipedia намагається захистити себе від тисяч різноманітних ботів-скрейперів, які сканують дані цієї платформи для навчання…

18.04.2025