Рубріки: Новини

OpenAI заявила про використання росією ШІ в масштабній кампанії дезінформації

Ігор Шелудченко

Російська кампанія Doppelganger за допомогою штучного інтелекту від OpenAI створювала антиукраїнські коментарі в соціальній мережі X.

Про це йдеться в матеріалі The New York Times, який посилається на звіт OpenAI.

OpenAI виявила кампанії прихованого впливу, до яких долучилися державні структури та приватні компанії в Росії, Китаї, Ірані та Ізраїлі.

Зокрема, йдеться про п’ять онлайн-кампаній. Під час них ШІ генерував маніпулятивні коментарі з метою впливу на громадську думкою в усьому світі.

Doppelganger — операція впливу, спрямована на припинення підтримки України міжнародними партнерами. За оцінкою Meta, це наймасштабніша російська дезінформаційна кампанія з 2017 року.

Операції використовували технологію OpenAI для:

  • створення постів у соціальних мережах,
  • перекладу та редагування статей,
  • написання заголовків
  • налагодження комп’ютерних програм.

Дослідники соцмереж зазначили, що це перший випадок, коли велика ШІ-компанія повідомляє про використання своїх технологій в зловмисних цілях.

У своєму звіті OpenAI заявила, що її інструменти використовувалися в кампаніях впливу, які дослідники відстежували роками, зокрема й російську кампанію під назвою Doppelganger і китайську кампанію під назвою Spamouflage.

Кампанія Doppelganger використовувала технологію OpenAI для створення антиукраїнських коментарів, які були розміщені на платформі X англійською, французькою, німецькою, італійською та польською мовами.

Інструменти OpenAI також використовувалися для перекладу та редагування статей, які підтримували росію у війні в Україні, а також для конвертації антиукраїнських матеріалів в пости на Facebook.

У рамках цієї роботи також використовувалися інструменти OpenAI для налагодження комп’ютерного коду, який, очевидно, був розроблений для автоматичної публікації інформації в телеграмі.

Тим не менш, в OpenAI підкреслюють, що хоча ШІ і може допомогти зробити кампанії більш ефективними, потоку переконливої дезінформації так і не було створено.

«Це свідчить про те, що деякі з наших найбільших побоювань щодо операцій впливу за допомогою ШІ та дезінформації за допомогою ШІ поки що не справдилися», — заявив директор з розвідки компанії Graphika (відстежує маніпуляції в соціальних мережах) Джек Стаббс.

Останні статті

Ілон Маск анонсував конкурента Microsoft та Apple. Новий проект Macrohard матиме свою операційну систему

Ілон Маск припускає, що його новий проект Macrohard не обмежуватиметься розробкою програмного забезпечення, як Microsoft,…

15.10.2025

Фонд вільного програмного забезпечення почав розробку Librephone — «повністю безкоштовної» версії Android

Фонд вільного програмного забезпечення (Free Software Foundation, FSF) оголосив про запуск проекту Librephone, який має…

15.10.2025

Indeema придбала Perfsol, зміцнюючи свої позиції у штучному інтелекті та розробці інтелектуальних систем

Indeema, глобальна інженерна компанія зі спеціалізацією в галузі IoT, оголосила про придбання Perfsol — компанії-розробника…

15.10.2025

Є і буде завжди: як працювати з невизначеністю? Досвід у FAVBET Tech

Бізнес-аналітик – це фахівець, який перетворює запити замовника на конкретні вимоги до програмного забезпечення. Тому…

15.10.2025

Поліція затримала шахраїв, які використовували штучний інтелект для оформлення кредитів на українців

Слідчі ГСУ Національної поліції України за підтримки інших правоохоронних структур затримали учасників організованого злочинного угруповання,…

15.10.2025

Вразливість GitHub Copilot Chat дозволяла викрадали чужі ключі та інші конфіденційні дані

Дослідник безпеки Омер Майраз виявив критичну вразливість у GitHub Copilot Chat (CVSS 9.6). Вона дозволяла…

15.10.2025