ChatGPT відповідає точніше, якщо з ним розмовляти грубо
Дослідження Пенсільванського університету демонструє, що штучний інтелект відповідає точніше, якщо користувач спілкується з чат-ботом у різкій формі. В ході експерименту вчені виявили, що ChatGPT (модель GPT-4o) виконує завдання на 4% краще, коли користувач вводить запит в «неввічливому» тоні, тобто звертається до штучного інтелекту як до підлеглого, а не як до колеги. Про це пише Vice.
Чат-боту запропонували відповісти на 50 тестових питань з варіантами відповідей та 250 різними формулюваннями запитів. Коли команда звучала різко, наприклад, «Гей, розберися з цим», замість «Будь ласка, допоможи вирішити завдання», — точність відповідей моделі зросла з 80,8% до 84,8%. У деяких завданням така різниця може мати статистичне значення.
Автори відзначають, що подібна реакція штучного інтелекту пов’язана з особливостями мовних моделей: вони «уловлюють» тон та намір користувача, що може впливати на структуру та повноту відповіді. Таким чином, ChatGPT працює більш ефективно, коли відчуває жорсткий наказ, а не прохання.
«Навіть невелика зміна формулювання може суттєво вплинути на результат», — пояснив професор Пенсільванського університету Ахіл Кумар.
З іншого боку, вчені попереджають, що «ефективна грубість» має зворотний бік. Вони попередили, що «нецивілізована дискусія» з чат-ботом може нормалізувати погану поведінку в людському спілкуванні, знижуючи культуру діалогу. Вчені побоюються, що це зробить цифрове середовище менш доброзичливим.
Робота Пенсільванського університету поки не пройшла експертне рецензування, але вже доповнює зростаючу кількість досліджень про те, як мова, тон та стиль мови впливають на роботу нейромереж. Раніше фахівці зазначали, що LLM-моделі дедалі частіше демонструють чутливість до контексту і навіть формують «мовну поведінку», яка нагадує людську.












Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: