Рубріки: Новини

OpenAI заявила про використання росією ШІ в масштабній кампанії дезінформації

Ігор Шелудченко

Російська кампанія Doppelganger за допомогою штучного інтелекту від OpenAI створювала антиукраїнські коментарі в соціальній мережі X.

Про це йдеться в матеріалі The New York Times, який посилається на звіт OpenAI.

OpenAI виявила кампанії прихованого впливу, до яких долучилися державні структури та приватні компанії в Росії, Китаї, Ірані та Ізраїлі.

Зокрема, йдеться про п’ять онлайн-кампаній. Під час них ШІ генерував маніпулятивні коментарі з метою впливу на громадську думкою в усьому світі.

Doppelganger — операція впливу, спрямована на припинення підтримки України міжнародними партнерами. За оцінкою Meta, це наймасштабніша російська дезінформаційна кампанія з 2017 року.

Операції використовували технологію OpenAI для:

  • створення постів у соціальних мережах,
  • перекладу та редагування статей,
  • написання заголовків
  • налагодження комп’ютерних програм.

Дослідники соцмереж зазначили, що це перший випадок, коли велика ШІ-компанія повідомляє про використання своїх технологій в зловмисних цілях.

У своєму звіті OpenAI заявила, що її інструменти використовувалися в кампаніях впливу, які дослідники відстежували роками, зокрема й російську кампанію під назвою Doppelganger і китайську кампанію під назвою Spamouflage.

Кампанія Doppelganger використовувала технологію OpenAI для створення антиукраїнських коментарів, які були розміщені на платформі X англійською, французькою, німецькою, італійською та польською мовами.

Інструменти OpenAI також використовувалися для перекладу та редагування статей, які підтримували росію у війні в Україні, а також для конвертації антиукраїнських матеріалів в пости на Facebook.

У рамках цієї роботи також використовувалися інструменти OpenAI для налагодження комп’ютерного коду, який, очевидно, був розроблений для автоматичної публікації інформації в телеграмі.

Тим не менш, в OpenAI підкреслюють, що хоча ШІ і може допомогти зробити кампанії більш ефективними, потоку переконливої дезінформації так і не було створено.

«Це свідчить про те, що деякі з наших найбільших побоювань щодо операцій впливу за допомогою ШІ та дезінформації за допомогою ШІ поки що не справдилися», — заявив директор з розвідки компанії Graphika (відстежує маніпуляції в соціальних мережах) Джек Стаббс.

Останні статті

Через автоматизацію кандидати все частіше відмовляються від коротких резюме

Кандидати все частіше відмовляються від короткого формату при написанні резюме. Про це йдеться в щорічному…

27.01.2026

Нове розширення MCP Apps дозволяє відкривати сторонні сервіси в Claude

Компанія Anthropic оголосила, що тепер можна відкривати сторонні інструменти та взаємодіяти з ними в Claude.…

27.01.2026

Kimi 2.5 стала першою LLM-моделлю, яка вміє писати код по зображенню та відео

Китайський стартап Moonshot AI випустив оновлення своєї відкритої мультимодальної моделі Kimi. Реліз 2.5 був навчений…

27.01.2026

Gemini тепер сам підбирає найкращий час для онлайн-зустрічей

Компанія Google оголосила, що її Gemini тепер може самостійно підібрати «найкращий для всіх час для…

27.01.2026

Готові ШІ-моделі: як обрати та адаптувати під свій продукт – досвід

За оцінками Stanford AI Index, на тренування GPT-4 знадобилося орієнтовно $78 млн лише на обчислення;…

27.01.2026

В Instagram, Facebook і WhatsApp з’являться преміум-підписки

Компанія Meta готується тестувати платні підписки в Instagram, Facebook і WhatsApp, які надаватимуть у цих…

27.01.2026