Платні акаунти ChatGPT та Claude стали затребуваним товаром на підпільних форумах
На підпільних форумах, спільнотах Telegram та маркетплейсах у даркнеті спостерігається стрімка зміна пріоритетів: платні акаунти в популярних ШІ-сервісах, таких як ChatGPT Plus, Midjourney та Claude Pro, стали однією з найбільш затребуваних категорій товарів.
Якщо раніше кіберзлочинців цікавили переважно стрімінгові платформи чи ігрові сервіси, то зараз акцент змістився на інструменти штучного інтелекту. Злом та перепродаж доступу до преміальних моделей став прибутковим бізнесом, який живиться за рахунок масового розповсюдження інфостілерів, таких як RedLine, Vidar або Lumma. Ці шкідливі програми викрадають не лише логіни та паролі, а й сесійні токени, що дозволяє зловмисникам обходити двофакторну автентифікацію та отримувати прямий доступ до облікових записів.

У деяких оголошеннях вказується на продаж ключа API або доступу розробника. Згадки про ключі API можуть свідчити про те, що також продається доступ до серверної частини або програмний доступ.
Для ІТ-фахівців та системних адміністраторів ця тенденція несе специфічні ризики, оскільки компрометація акаунта ШІ — це не лише фінансові втрати від несанкціонованої підписки. Головна небезпека полягає у витоку конфіденційної інформації, яку користувачі часто завантажують у чати.
Небезпека втрати доступу до акаунту полягає також у тому, що аналіз історії запитів може розкрити фрагменти пропрієтарного коду, внутрішню документацію, конфігурації серверів або навіть API-ключі. Крім того, викрадені акаунти активно використовуються для автоматизації кібератак: генерації переконливого фішингового контенту, написання шкідливого коду або проведення масштабних операцій впливу, де потрібні високі ліміти запитів, доступні лише на платних тарифах.
Для чого кіберзлочинцям потрібен ваш акаунт до ШІ-платформи?
- Вартість: Преміум-акаунти в сервісах штучного інтелекту зазвичай починаються приблизно від $20 доларів на місяць і можуть значно зростати залежно від використання або корпоративних функцій. Натомість, у підпільних спільнотах часто робиться акцент на дешевшому доступі або пакетних пропозиціях.
- Масштаб: Покупцям, яким потрібно кілька облікових записів для автоматизації, тестування або ухилення від перевірок, значно легше придбати доступ до чужого акаунту, ніж створювати облікові записи самостійно, особливо там, де вимоги до перевірки та оплати створюють труднощі.
- Обхід санкцій: У деяких країнах, таких як Росія, Іран або Північна Корея, доступ та оплата місцевими кредитними картками для ChatGPT чи Claude можуть бути обмежені. Підпільні ринки пропонують готові до використання облікові записи, які пройшли веріфікацію та надають негайний доступ.
- Обмеження моделей: Деякі оголошення рекламують «скорочення обмежень», що приваблює користувачів, які прагнуть обійти ліміти використання. Хоча ці твердження часто читаються як неправдива або перебільшена реклама, вони відображають поширену реальність на підпільних ринках, де облікові записи або ключі API перепродаються з обіцянкою зменшення контролю.
Ринок збуту таких акаунтів розділений на декілька сегментів: від продажу «чистих» логів до надання доступу через спеціалізовані сервіси-посередники, які дозволяють декільком особам одночасно користуватися одним преміум-профілем за символічну ціну.
Деякі зловмисники навіть розгортають власні «дзеркала» оригінальних сервісів, які працюють через викрадені сесії. Це створює серйозний виклик для безпеки корпоративного сектора, де співробітники можуть використовувати особисті акаунти для робочих завдань. У підсумку, популярність ШІ-інструментів вимагає від ІТ-департаментів перегляду політик безпеки, впровадження суворішого моніторингу використання зовнішніх сервісів та підвищення цифрової грамотності команд, щоб запобігти перетворенню зручного інструмента на відкритий канал для витоку даних.
Нагадаємо, що Рада консультантів OpenAI категорично висловилась проти ідеї Альтмана додати в ChatGPT «еротичні чати».
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn












Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: