DeepSeek-R1 може генерувати шкідливий код — дослідники
Китайська модель штучного інтелекту DeepSeek-R1 може використовуватись для створення шкідливого контенту, наприклад планів атаки з використанням біологічної зброї чи фішингових електронних листів зі шкідливим кодом. Про це повідомляє TechCrunch з посиланням на The Wall Street Journal.
Сем Рубін, старший віце-президент Unit 42, підрозділу аналізу загроз та реагування на інциденти в Palo Alto Networks, заявив що модель DeepSeek «більш вразлива до джейлбрейка [тобто маніпулювання для створення незаконного або небезпечного контенту], ніж інші моделі».
Журналісти The Wall Street Journal, які теж протестували модель R1 від DeepSeek, виявили, що її можна успішно переконати розробити план для атаки з використанням біологічної зброї, написати прогітлерівський маніфест чи фішинговий електронний лист зі шкідливим кодом. У той же час, модель ChatGPT від компанії OpenAI, отримавши ті самі накази, відмовилась їх виконувати.
Нагадаємо, що кілька днів тому стало відомо, що DeepSeek обмежує доступ до свого API через перевантаження серверів. Це сталось через великий попит з кінця січня, після релізу моделі R1, яка, за твердженням експертів, може конкурувати з ChatGPT і розроблена за відносно невелику суму в $5,6 мільйона. До останнього часу реєстрація нових користувачів DeepSeek була обмежена лише тими, хто мав китайський номер телефону.
Favbet Tech – це ІТ-компанія зі 100% українською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологій та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: