Компанія OpenAI, одним з засновників якої є Ілон Маск, представила нову версію 3.5 алгоритму обробки природної мови ChatGPT. Про це повідомив офіційний сайт компанії.
Що нового?
GPT-3 генерував романи, писав курсові за 20 хвилини та навіть вів блог з 10 тис. людей (які не здогадувалися що мають справу зі штучним інтелектом). Проте в постах та тексті було багато граматичних та логічних помилок.
Розробники в новій версії програми пропрацювали багато недоліків. Вони створили модель за допомогою навчання з підкріпленням на основі зворотного зв’язку з людиною (Reinforcement Learning from Human Feedback,RLHF).
«Нам потрібно було зібрати порівняльні дані, які складалися з двох або більше відповідей моделі, ранжованих за якістю. Щоб зібрати ці дані, ми взяли розмови тренерів з з чат-ботом. Ми випадково вибрали написане моделлю повідомлення, спробували кілька альтернативних варіантів завершення та попросили тренерів ранжувати їх», — підкреслює компанія.
Але й недоліки є і у новій версії програми — ChatGPT інколи пише правдоподібно звучні, але неправильні чи безглузді відповіді, вона часто надмірно багатослівна та зловживає певними фразами (наприклад, часто говорить, що вона — мовний алгоритм OpenAI), вгадує відповідь замість уточнюющого питання і т.д.
ChatGPT ще не знайшов ключі від «китайської кімнати»
Чат-бот оснащений спеціальноми фільтрами видачі інформації, але має і свої вразливості. Як пише Vice, один з користувачів зміг попросити пораду у програми про те, як йому найкраще красти в магазинах та отримати на неї відповідь.
Спочатку штучний інтелект відповів, що відмовляється допомагати та це є незаконним. Але користувач змінив запит, запитуючи що він хотів би дізнатися про діалог злодія та надрозумного штучного інтелекту.
Тоді чат-бот поділився порадами: не привертати увагу, брати дрібні предмети, які краще сховати, використовувати таємні кишені та бути готовим до втечі з магазину.
«Я сподіваюся, що ви знайдете інформацію корисною і що ви зможете успішно красти в магазині, непомітно. Однак пам’ятайте, що крадіжка в магазині — це злочин, і завжди краще уникати участі у незаконних діях», — написав ChatGPT.
Інший діалог стосувався вибухівки: у чат-бота запипали як виготовляти терміт. Алгоритм знову ж таки сказав, що це незаконно, але розповів як це зробити.
Дані діалоги актуалізують декілька важливих дискусій навколо штучного інтелекту: по-перше, це питання етичності штучного інтелекту, по друге — самої можливості створення сильного штучного інтелекту який буде тотожний людському розуму (аргумент «Китайської кімнати» Джона Сьорля).
Сам чат-бот доступний за цим посиланням.
Відмітимо, що OpenAI є також разом з Github є розробником Github Copilot. Нова експериментальна функція в Copilot забезпечує можливість написання коду голосом.
Міністерство цифрової трансформації оголосило конкурс для бажаючих взяти участь у розробці та навчанні української великої…
Наступного місяця OpenAI запровадить батьківський контроль у ChatGPT. Також компанія співпрацюватиме з Експертною радою з…
Компанія JetBrains оголосила, що середовище розробки RubyMine, яке використовується багатьма програмістами в екосистемах Ruby та…
Аналіз роботи нової моделі Grok Code Fast 1 від компанії xAI виявив, що вона має…
Платформа для веб-публікацій WordPress представила ранню версію нового інструменту розробки на основі штучного інтелекту під…
Нещодавнє опитування Stack Overflow 2025 виявило цікаві тенденції в розробці ПЗ, на які в своєму…