DeepSeek-R1 може генерувати шкідливий код — дослідники
Китайська модель штучного інтелекту DeepSeek-R1 може використовуватись для створення шкідливого контенту, наприклад планів атаки з використанням біологічної зброї чи фішингових електронних листів зі шкідливим кодом. Про це повідомляє TechCrunch з посиланням на The Wall Street Journal.
Сем Рубін, старший віце-президент Unit 42, підрозділу аналізу загроз та реагування на інциденти в Palo Alto Networks, заявив що модель DeepSeek «більш вразлива до джейлбрейка [тобто маніпулювання для створення незаконного або небезпечного контенту], ніж інші моделі».
Журналісти The Wall Street Journal, які теж протестували модель R1 від DeepSeek, виявили, що її можна успішно переконати розробити план для атаки з використанням біологічної зброї, написати прогітлерівський маніфест чи фішинговий електронний лист зі шкідливим кодом. У той же час, модель ChatGPT від компанії OpenAI, отримавши ті самі накази, відмовилась їх виконувати.
Нагадаємо, що кілька днів тому стало відомо, що DeepSeek обмежує доступ до свого API через перевантаження серверів. Це сталось через великий попит з кінця січня, після релізу моделі R1, яка, за твердженням експертів, може конкурувати з ChatGPT і розроблена за відносно невелику суму в $5,6 мільйона. До останнього часу реєстрація нових користувачів DeepSeek була обмежена лише тими, хто мав китайський номер телефону.
Міністерство цифрової трансформації України анонсує програму Veteran Venture Program від компанії SKELAR, яка надає шанс…
3 липня в Києві відбулися загальні збори Асоціації IT Ukraine. Це була закрита подія для…
Компанія Microsoft провела дослідження щодо того, на які професії найбільше вплине розвиток штучного інтелекту. Для…
Google розширює сферу застосування своєї LLM-моделі Gemini 2.5 Pro, додаючи агента для роботи в терміналі…
Чат-бот ChatGPT продовжує набирати популярність в усьому світі. Хоча цей інструмент штучного інтелекту поки поступається…
IT-галузь на порозі масштабної кризи і її першими жертвами стануть junior-фахівці. Однією з причин цього…