DeepSeek-R1 може генерувати шкідливий код — дослідники
Китайська модель штучного інтелекту DeepSeek-R1 може використовуватись для створення шкідливого контенту, наприклад планів атаки з використанням біологічної зброї чи фішингових електронних листів зі шкідливим кодом. Про це повідомляє TechCrunch з посиланням на The Wall Street Journal.
Сем Рубін, старший віце-президент Unit 42, підрозділу аналізу загроз та реагування на інциденти в Palo Alto Networks, заявив що модель DeepSeek «більш вразлива до джейлбрейка [тобто маніпулювання для створення незаконного або небезпечного контенту], ніж інші моделі».
Журналісти The Wall Street Journal, які теж протестували модель R1 від DeepSeek, виявили, що її можна успішно переконати розробити план для атаки з використанням біологічної зброї, написати прогітлерівський маніфест чи фішинговий електронний лист зі шкідливим кодом. У той же час, модель ChatGPT від компанії OpenAI, отримавши ті самі накази, відмовилась їх виконувати.
Нагадаємо, що кілька днів тому стало відомо, що DeepSeek обмежує доступ до свого API через перевантаження серверів. Це сталось через великий попит з кінця січня, після релізу моделі R1, яка, за твердженням експертів, може конкурувати з ChatGPT і розроблена за відносно невелику суму в $5,6 мільйона. До останнього часу реєстрація нових користувачів DeepSeek була обмежена лише тими, хто мав китайський номер телефону.
Всередині Google знову назріває етичний шторм. Понад 600 співробітників компанії, в тому числі з підрозділу…
Компанія OpenAI, схоже, готова вийти за межі чат-ботів і кинути виклик пануванню Apple та Google…
Компанія Google почала тестувати нову функцію на базі штучного інтелекту під назвою Ask YouTube. Цей…
Компанія Meta готує власне хмарне рішення для користувачів WhatsApp, яке дозволить зберігати резервні копії файлів…
Поліцейські Львівської області затримали хакерське угруповання, учасники якого зламали понад 610 тисяч геймерських профілів. Метою…
Компанія Apple анонсувала впровадження нової моделі монетизації програм в App Store. Вона має зробити платні…