Рубріки: Новини

Експерти попередили про небезпеку LLM-моделей з відкритим кодом

Дмитро Сімагін

У дослідженні, яке спільно провели компанії з кібербезпеки SentinelOne та Censys, стверджується, що LLM-моделі з відкритим кодом потенційно небезпечні. Через те, що в них відсутні захисні механізми і вони доступні для модифікації, штучний інтелект легко може бути використаний злочинцями, пише Reuters.

Експерти виявили сотні екземплярів LLM з відкритим кодом, в яких зняті захисні бар’єри. Після модифікації ці моделі можуть бути використані для спаму, фішингу та дезінформаційних кампаній, обходячи протоколи безпеки платформи.

Масштаби потенційно незаконного використання LLM з відкритим кодом шокують. До них належать не тільки хакерство, мова ненависті та переслідування, але й генерація насильницького або жорстокого контенту, крадіжка персональних даних, шахрайство, а в деяких випадках матеріали з сексуальним насильством над дітьми, кажуть дослідники.

Серед тисяч варіантів LLM з відкритим кодом більшість базується на версіях Llama від Meta або Gemma від Google DeepMind.

Дослідники виявили, що 7,5% LLM-моделей, за якими вони спостерігали, можуть сприяти шкідливій діяльності. Приблизно 30% хостів, які підтримують розгортання цих LLM, працюють з Китаю, близько 20% — у США.

Рейчел Адамс, генеральний директор і засновниця Глобального центру управління штучним інтелектом, заявила, що після релізу відкритих моделей відповідальність за те, що відбувається з ними далі, стає спільною для всієї екосистеми, включно з компаніями-розробниками (Meta і Google).

«Лабораторії не несуть відповідальності за кожне подальше зловживання (яке важко передбачити), але вони зберігають важливий обов’язок прогнозувати можливу шкоду, документувати ризики, надавати інструменти та рекомендації щодо пом’якшення наслідків», — стверджує Адамс.

Речник Meta відмовився відповідати на запитання щодо відповідальності розробників за вирішення проблем, пов’язаних зі зловживанням LLM-моделями іншими програмістами, та про те, як можна повідомляти про проблеми, але зазначив, що існують інструменти Llama Protection для сторонніх розробників Llama, а також посібник Meta Llama Responsible Use Guide.

Нагадаємо, що кілька днів тому Мінцифри України просить користувачів «увійти в історію» та поділитись текстовими даними для розробки національної LLM на базі Gemma. Ці дані потрібні для адаптації моделі до українського контексту.

Останні статті

Онлайн перемагає офлайн? Зібрали досвід сучасних шкіл та ділимось, як технології допомагають навчатися краще

Ще кілька років тому дистанційне навчання сприймали як вимушений компроміс. Батьки чекали, коли світ повернеться…

30.01.2026

Google відкрила доступ до генератора ігрових світів Project Genie

Експериментальний генератор інтерактивних ігрових світів Project Genie від Google, який створює 3D-середовища з текстових або…

30.01.2026

Гейм-розробники більше не хочуть створювати ігри для Xbox

Платформи Steam та Windows лідирують в геймдеві, оскільки підтримка консолей, здається, більше не є пріоритетом…

30.01.2026

Лінус Торвальдс написав інструкцію, що робити з Linux, якщо з ним щось станеться

Лінус Торвальдс додав в ядро Linux файл Project continuity — коміт з планом дій, якщо…

29.01.2026

WhatsApp скоротили на 50 000 рядків, переписавши частину коду C++ на Rust

Фахівці Meta перенесли значну частину коду WhatsApp з мови програмування C++ на більш безпечну Rust.…

29.01.2026

«Не відкривайте жодних архівів RAR»: архіватор WinRAR знову використовують для атак на українських користувачів

Компанія Google попередила, що широко відома вразливість архіватора файлів WinRAR для Windows, яку раніше вже…

29.01.2026