DeepSeek-R1
Новини -
25.11.2025 12:20
Китайська LLM-модель DeepSeek-R1 генерує небезпечний код, якщо в запитах згадується Тибет або уйгури
Журналіст
Дослідження компанії кібербезпеки CrowdStrike показало, що LLM-модель DeepSeek-R1 створює більше вразливостей безпеки в коді, якщо в запитах розробника містяться слова, які уряд Китаю вважає політично чутливими. Про це пише The Hacker News.
Новини
Китайська LLM-модель DeepSeek-R1 генерує небезпечний код, якщо в запитах згадується Тибет або уйгури
25.11.2025 12:20Amazon примушує своїх розробників відмовитися від сторонніх інструментів кодування на користь Kiro
25.11.2025 11:37Anthropic стверджує, що її нова модель Claude Opus 4.5 перевершує всіх в програмуванні
25.11.2025 09:45Китайський інструмент вайб-кодингу LingGuang обігнав за популярністю ChatGPT і Sora 2
24.11.2025 16:56Microsoft і GitHub об'єднали свої інструменти пошуку багів
24.11.2025 15:36Андрей Карпати виклав LLM Council — інструмент, де моделі штучного інтелекту сперечаються між собою
24.11.2025 12:00ІТ-ФОП в Україні «живе» в середньому 4 роки, 16% припиняють діяльність протягом перших 12 місяців
24.11.2025 10:36Топ текстів тижня

Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: