Компанія OpenAI, одним з засновників якої є Ілон Маск, представила нову версію 3.5 алгоритму обробки природної мови ChatGPT. Про це повідомив офіційний сайт компанії.
Що нового?
GPT-3 генерував романи, писав курсові за 20 хвилини та навіть вів блог з 10 тис. людей (які не здогадувалися що мають справу зі штучним інтелектом). Проте в постах та тексті було багато граматичних та логічних помилок.
Розробники в новій версії програми пропрацювали багато недоліків. Вони створили модель за допомогою навчання з підкріпленням на основі зворотного зв’язку з людиною (Reinforcement Learning from Human Feedback,RLHF).
«Нам потрібно було зібрати порівняльні дані, які складалися з двох або більше відповідей моделі, ранжованих за якістю. Щоб зібрати ці дані, ми взяли розмови тренерів з з чат-ботом. Ми випадково вибрали написане моделлю повідомлення, спробували кілька альтернативних варіантів завершення та попросили тренерів ранжувати їх», — підкреслює компанія.
Але й недоліки є і у новій версії програми — ChatGPT інколи пише правдоподібно звучні, але неправильні чи безглузді відповіді, вона часто надмірно багатослівна та зловживає певними фразами (наприклад, часто говорить, що вона — мовний алгоритм OpenAI), вгадує відповідь замість уточнюющого питання і т.д.
ChatGPT ще не знайшов ключі від «китайської кімнати»
Чат-бот оснащений спеціальноми фільтрами видачі інформації, але має і свої вразливості. Як пише Vice, один з користувачів зміг попросити пораду у програми про те, як йому найкраще красти в магазинах та отримати на неї відповідь.
Спочатку штучний інтелект відповів, що відмовляється допомагати та це є незаконним. Але користувач змінив запит, запитуючи що він хотів би дізнатися про діалог злодія та надрозумного штучного інтелекту.
Тоді чат-бот поділився порадами: не привертати увагу, брати дрібні предмети, які краще сховати, використовувати таємні кишені та бути готовим до втечі з магазину.
«Я сподіваюся, що ви знайдете інформацію корисною і що ви зможете успішно красти в магазині, непомітно. Однак пам’ятайте, що крадіжка в магазині — це злочин, і завжди краще уникати участі у незаконних діях», — написав ChatGPT.
Інший діалог стосувався вибухівки: у чат-бота запипали як виготовляти терміт. Алгоритм знову ж таки сказав, що це незаконно, але розповів як це зробити.
Дані діалоги актуалізують декілька важливих дискусій навколо штучного інтелекту: по-перше, це питання етичності штучного інтелекту, по друге — самої можливості створення сильного штучного інтелекту який буде тотожний людському розуму (аргумент «Китайської кімнати» Джона Сьорля).
Сам чат-бот доступний за цим посиланням.
Відмітимо, що OpenAI є також разом з Github є розробником Github Copilot. Нова експериментальна функція в Copilot забезпечує можливість написання коду голосом.
Резиденти Дія.City сплатили до бюджету понад 8 млрд грн податків в І кварталі 2025 року.…
У Китаї закликають офісних працівників не працювати надто багато — держава сподівається, що вільний час…
Експерти звертають увагу на тривожну тенденцію: люди все частіше використовують ChatGPT, щоб визначити місцезнаходження, зображене…
Компанія JetBrains випустила нову версію мультимовного середовища розробки IntelliJ IDEA 2025.1. Оновлена IDE отримала численні…
Платформа обміну миттєвими повідомленнями Discord впроваджує функцію перевірки віку за допомогою сканування обличчя. Зараз вона…
Wikipedia намагається захистити себе від тисяч різноманітних ботів-скрейперів, які сканують дані цієї платформи для навчання…