Рубріки: Новини

Експерти б’ють на сполох: OpenAI визнала, що не може розрізнити створений ШІ та людиною текст

Ігор Шелудченко

Компанія OpenAI, яка створила популярний ШІ-бот ChatGPT, офіційно закрила свій застосунок, який ідентифікує текст, згенерований штучним інтелектом. Причина — його низька точність.

Про це повідомив Insider.

Оскільки гонка штучного інтелекту тільки набирає обертів, розрізнення створенного людиною та ШІ — це одне з найважливіших питань, на яке має відповісти індустрія.

Болюче питання

Як відомо, ChatGPT, Google Bard та інші ШІ-сервіси можуть створювати переконливий і корисний текст. Це може спросити і пришвидшити написання коду, але й може спровокувати появу тексту з неточностями та фактичними помилками. Отже, створення інструменту для розрізнення того, що створено людиною та ШІ є одним із основних завданнь технологічної індустрії.

OpenAI зрозумів це буквально ж відразу після запуску ChatGPT. У січні компанія оприлюднила «класифікатор для розрізнення тексту, написаного людиною, від тексту, написаного штучним інтелектом від різних розробників».

OpenAI заявила, що так класифікатори важливі для вирішення багатьох проблемних ситуацій. Серед них – неправдиві твердження про те, що згенерований штучним інтелектом текст був написаний людиною, запуск автоматизованих кампаній дезінформації та використання інструментів штучного інтелекту для виконання домашніх чи тестових завданнь.

Але менш ніж через сім місяців проект було скасовано.

«Станом на 20 липня 2023 року класифікатор штучного інтелекту більше не доступний через його низьку точність. Ми опрацьовуємо відгуки і зараз досліджуємо ефективніші методи походження тексту», — повідомила OpenAI у своєму блозі.

Наслідки

Якщо OpenAI не може розрізнити написаний ШІ текст, то чи може хтось інший? Над цим завданням працюють і інші проєкти, закрема стартап GPTZero. Але OpenAI вважається найкращим у цій сфері.

Коли ми не можемо відрізнити ШІ від людського тексту, сприйняття онлайн-інформації стає більш проблематичним. Так, уже є спам-сайти, які створюють автоматичний вміст за допомогою нових моделей ШІ.

Але якщо технологічні компанії випадково використовуватимуть отримані штучним інтелектом дані для навчання нових моделей, деякі дослідники побоюються, що ці моделі погіршаться.

Група дослідників штучного інтелекту з передових університетів, включаючи Оксфорд і Кембридж вивчала, що відбувається, коли текст, створений моделлю штучного інтелекту в стилі GPT (наприклад, GPT-4), утворює більшу частину навчального набору даних для наступних моделей.

«Ми виявили, що використання контенту, створеного моделлю, у навчанні спричиняє незворотні дефекти в отриманих моделях», — підсумували вони в нещодавній дослідницькій статті.

Побачивши, що може піти не так, автори  зробили цікавий прогноз.

«Це потрібно сприймати серйозно, якщо ми хочемо зберегти переваги навчання на основі великомасштабних даних, зібраних з Інтернету», — написали вони.

Разом з цим, нещодавно компанія OpenAI розпочала формування спеціальної команди для розробки способів управління та контролю «надрозумного» штучного інтелекту.

Читайте також:

«ШІ створює ризики вимирання, як і ядерна війна»: Сем Альтман з OpenAI та 350 науковців підписали нову заяву

«Привіт, я розробник OpenAI»: GitHub Copilot Chat злив студенту-самозванцю всі системні препромти

«GPT-4 може стати останнім великим досягненням»: CEO OpenAI заявив, що стратегія компанії приречена

Останні статті

Інсайдери OpenAI розповіли, що чекати від GPT-5, яка з’явиться в липні

Флагманська LLM-модель OpenAI GPT-5 з'явиться вже в липні, як стверджують інсайдери. Модель матиме підтримку відео,…

04.06.2025

Безкоштовні користувачі ChatGPT отримали доступ до розширеної функції пам’яті

Функція пам'яті ChatGPT, яка дозволяє звертатися до історії минулих розмов з чат-ботом, тепер стала доступною…

04.06.2025

Розробники Go остаточно відмовились від спроб покращити синтаксис обробки помилок

Після шести років обговорень та сотень пропозицій від ком'юніті команда розробників Go офіційно оголосила, що…

04.06.2025

Оновлення Telegram: з’явились повідомлення адмінам каналів і скорочення голосових повідомлень

Команда Telegram випустила чергове велике оновлення. Адмінам каналів тепер можна надсилати особисті повідомлення, спростилося перемикання…

04.06.2025

У Росії націоналізували одну з найбільших геймдев-компаній. Звинуватили в підтримці ЗСУ

Таганський суд Москви ухвалив рішення про передачу у власність держави 100% уставного капіталу IT-компанії «Леста…

04.06.2025

Adobe випустила бета-версію Photoshop для Android

Компанія Adobe оголосила про випуск бета-версії мобільного додатку Photoshop для платформи Android. Реліз стався через…

03.06.2025