Рубріки: Новини

OpenAI заблокувала акаунти ChatGPT, якими користувались північнокорейські хакери

Дмитро Сімагін

Компанія OpenAI заблокувала для кількох північнокорейських хакерських груп можливість використання ChatGPT для дослідження майбутніх цілей та пошуку способів злому їхніх мереж. Про це повідомляє Bleeping Computer.

«Ми заблокували облікові записи, які демонструють діяльність, потенційно пов’язану з публічно зареєстрованими суб’єктами загроз з КНДР,», — заявила компанія у своєму звіті за лютий 2025 року.

Крім досліджень, які інструменти краще використовувати для кібератак, зловмисники застосовували ChatGPT для пошуку інформації на теми, пов’язані з криптовалютою та кодуванням. Хакерів цікавило, як працювати з інструментами віддаленого адміністрування з відкритим кодом (RAT), а також інформація про налагодження та розробку інструментів з відкритим кодом, які можна використовувати в атаках підбору даних за протоколом віддаленого робочого столу (RDP).

Інші зловмисні дії, виявлені OpenAI під час дослідження того, як північнокорейські кіберзлочинці використовували ChatGPT:

  • Запити про вразливості в різних програмах.
  • Розробка та усунення несправностей клієнта RDP на основі C#.
  • Запит коду для обходу попереджень безпеки для несанкціонованого RDP.
  • Запити про сценарії PowerShell для з’єднань RDP, завантаження/скачування файлів, виконання коду з пам’яті та обфускації вмісту HTML.
  • Обговорення створення та розгортання обфускованих корисних навантажень для виконання.
  • Пошук методів цілеспрямованого фішингу та соціальної інженерії проти криптовалютних інвесторів і торговців, а також більш загального фішингового вмісту.
  • Створення фішингових електронних листів і сповіщень, щоб змусити користувачів розкрити конфіденційну інформацію.

Компанія OpenAI також заблокувала облікові записи ChatGPT, пов’язані з потенційною схемою північнокорейських ІТ-працівників, яка має ознаки спроб отримати дохід для режиму Пхеньяна шляхом обману, щоб західні компанії всупереч міжнародним санкціям наймали громадян КНДР.

«Після працевлаштування вони використовували наші моделі для виконання службових завдань, таких як написання коду, усунення несправностей і обмін повідомленнями з колегами… Вони також використовували наші моделі, щоб вигадувати сюжети для пояснення незвичайної поведінки, такої як уникнення участі у відеодзвінках, доступ до корпоративних систем із неавторизованих країн або робота в ненормований графік», — пояснили в OpenAI.

У жовтневому звіті OpenAI повідомила, що з початку 2024 року її фахівці припинили понад двадцять хакерських кампаній, пов’язаних з кіберопераціями та операціями таємного впливу, які пов’язані з Іраном та Китаєм.

Останні статті

Google інтегрувала Gemini CLI в інтерфейс командного рядка Firebase Studio

Google розширює сферу застосування своєї LLM-моделі Gemini 2.5 Pro, додаючи агента для роботи в терміналі…

22.07.2025

OpenAI розкриває масштаби популярності ChatGPT — 2,5 млрд запитів щодня

Чат-бот ChatGPT продовжує набирати популярність в усьому світі. Хоча цей інструмент штучного інтелекту поки поступається…

22.07.2025

Вайб-кодинг створює псевдорозробників, які не можуть налагоджувати або підтримувати код

IT-галузь на порозі масштабної кризи і її першими жертвами стануть junior-фахівці. Однією з причин цього…

22.07.2025

Brave1 продовжили прийняття заявок на конкурс Battle Proven для deftech-стартапів

Кластер Brave1 продовжив прийняття заявок на конкурс Battle Proven — тепер податися можна до 25 липня 2025 року. Про це…

21.07.2025

Експериментальна LLM-модель OpenAI досягла рівня переможця Міжнародної математичної олімпіади

Експериментальна модель OpenAI досягла рівня золотої медалі на Міжнародній математичній олімпіаді (IMO), вирішивши п'ять із…

21.07.2025

JetBrains переводить всі продукти IntelliJ IDEA на єдиний інсталятор

Компанія JetBrains повідомила, що всі програмні продукти серії IntelliJ IDEA відтепер переходять на єдиний уніфікований…

21.07.2025