Рубріки: Новини

OpenAI заявила про використання росією ШІ в масштабній кампанії дезінформації

Ігор Шелудченко

Російська кампанія Doppelganger за допомогою штучного інтелекту від OpenAI створювала антиукраїнські коментарі в соціальній мережі X.

Про це йдеться в матеріалі The New York Times, який посилається на звіт OpenAI.

OpenAI виявила кампанії прихованого впливу, до яких долучилися державні структури та приватні компанії в Росії, Китаї, Ірані та Ізраїлі.

Зокрема, йдеться про п’ять онлайн-кампаній. Під час них ШІ генерував маніпулятивні коментарі з метою впливу на громадську думкою в усьому світі.

Doppelganger — операція впливу, спрямована на припинення підтримки України міжнародними партнерами. За оцінкою Meta, це наймасштабніша російська дезінформаційна кампанія з 2017 року.

Операції використовували технологію OpenAI для:

  • створення постів у соціальних мережах,
  • перекладу та редагування статей,
  • написання заголовків
  • налагодження комп’ютерних програм.

Дослідники соцмереж зазначили, що це перший випадок, коли велика ШІ-компанія повідомляє про використання своїх технологій в зловмисних цілях.

У своєму звіті OpenAI заявила, що її інструменти використовувалися в кампаніях впливу, які дослідники відстежували роками, зокрема й російську кампанію під назвою Doppelganger і китайську кампанію під назвою Spamouflage.

Кампанія Doppelganger використовувала технологію OpenAI для створення антиукраїнських коментарів, які були розміщені на платформі X англійською, французькою, німецькою, італійською та польською мовами.

Інструменти OpenAI також використовувалися для перекладу та редагування статей, які підтримували росію у війні в Україні, а також для конвертації антиукраїнських матеріалів в пости на Facebook.

У рамках цієї роботи також використовувалися інструменти OpenAI для налагодження комп’ютерного коду, який, очевидно, був розроблений для автоматичної публікації інформації в телеграмі.

Тим не менш, в OpenAI підкреслюють, що хоча ШІ і може допомогти зробити кампанії більш ефективними, потоку переконливої дезінформації так і не було створено.

«Це свідчить про те, що деякі з наших найбільших побоювань щодо операцій впливу за допомогою ШІ та дезінформації за допомогою ШІ поки що не справдилися», — заявив директор з розвідки компанії Graphika (відстежує маніпуляції в соціальних мережах) Джек Стаббс.

Останні статті

Китайські моделі з відкритим кодом захопили 30% світового ринку LLM

Китайські LLM-моделі з відкритим кодом стрімко завойовують світовий ринок штучного інтелекту, зайнявши майже третину глобального…

09.12.2025

Дослідники виявили шкідливі пакети VS Code, Go, npm та Rust, які викрадають дані розробників

Дослідники з компанії Koi Security виявили на маркетплейсі Microsoft VS Code два нових розширення, які…

09.12.2025

В українській армії з’явиться окрема IT-структура з 7 тисячами цифрових офіцерів

Міністр цифрової трансформації Михайло Федоров анонсував появу в Силах оборони України нової цифрової IT-вертикалі. Її…

09.12.2025

У Microsoft проблема: ніхто не хоче купувати її інструменти штучного інтелекту

Звіт, підготовлений виданням The Information, стверджує, що всі зусилля Microsoft у сфері штучного інтелекту йдуть…

09.12.2025

Агентом кодування Claude Code тепер можна керувати через месенджер Slack

Компанія Anthropic представила бета-версію функції, яка дозволяє розробникам делегувати завдання кодування в Claude Code безпосередньо…

09.12.2025

У Польщі затримали трьох українців з обладнанням для злому телеком-мереж. Вони назвали себе IT-фахівцями

Польські поліцейські затримали у Варшаві трьох громадян України за підозрою в незаконному втручанні в роботу…

08.12.2025