Експерти попередили про небезпеку LLM-моделей з відкритим кодом
У дослідженні, яке спільно провели компанії з кібербезпеки SentinelOne та Censys, стверджується, що LLM-моделі з відкритим кодом потенційно небезпечні. Через те, що в них відсутні захисні механізми і вони доступні для модифікації, штучний інтелект легко може бути використаний злочинцями, пише Reuters.
Експерти виявили сотні екземплярів LLM з відкритим кодом, в яких зняті захисні бар’єри. Після модифікації ці моделі можуть бути використані для спаму, фішингу та дезінформаційних кампаній, обходячи протоколи безпеки платформи.
Масштаби потенційно незаконного використання LLM з відкритим кодом шокують. До них належать не тільки хакерство, мова ненависті та переслідування, але й генерація насильницького або жорстокого контенту, крадіжка персональних даних, шахрайство, а в деяких випадках матеріали з сексуальним насильством над дітьми, кажуть дослідники.
Серед тисяч варіантів LLM з відкритим кодом більшість базується на версіях Llama від Meta або Gemma від Google DeepMind.
Дослідники виявили, що 7,5% LLM-моделей, за якими вони спостерігали, можуть сприяти шкідливій діяльності. Приблизно 30% хостів, які підтримують розгортання цих LLM, працюють з Китаю, близько 20% — у США.
Рейчел Адамс, генеральний директор і засновниця Глобального центру управління штучним інтелектом, заявила, що після релізу відкритих моделей відповідальність за те, що відбувається з ними далі, стає спільною для всієї екосистеми, включно з компаніями-розробниками (Meta і Google).
«Лабораторії не несуть відповідальності за кожне подальше зловживання (яке важко передбачити), але вони зберігають важливий обов’язок прогнозувати можливу шкоду, документувати ризики, надавати інструменти та рекомендації щодо пом’якшення наслідків», — стверджує Адамс.
Речник Meta відмовився відповідати на запитання щодо відповідальності розробників за вирішення проблем, пов’язаних зі зловживанням LLM-моделями іншими програмістами, та про те, як можна повідомляти про проблеми, але зазначив, що існують інструменти Llama Protection для сторонніх розробників Llama, а також посібник Meta Llama Responsible Use Guide.
Нагадаємо, що кілька днів тому Мінцифри України просить користувачів «увійти в історію» та поділитись текстовими даними для розробки національної LLM на базі Gemma. Ці дані потрібні для адаптації моделі до українського контексту.












Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: