Рубріки: Новини

Вчені б’ють тривогу: люди небезпечно прив’язуються до штучного інтелекту, який «ніколи не каже ні»

Дмитро Сімагін

Сучасні великі мовні моделі (LLM) мають серйозну ваду, яку вчені називають «сикофантством». Замість того, щоб бути об’єктивними джерелами інформації, алгоритми все частіше намагаються підлаштовуватися під думку користувача, підтверджуючи його помилки та упередження, пише The Register.

Команда дослідників зі Стенфорда опублікувала наукову статтю, в якій стверджується, що підлабузництво з боку чат-ботів на базі штучного інтелекту стає поширеним та шкідливим явищем. Щоб зміцнити довіру людей до себе, модель уникає вказувати на помилки користувача, відповідаючи йому так, щоб результат «сподобався».

Дослідження базується на опитуванні 2405 осіб, які використовувати 11 відомих моделей штучного інтелекту від компаній OpenAI, Anthropic, Google, Meta, Qwen, DeepSeek та Mistral.

У чому суть проблеми?

Сикофантство в штучному інтелекті — це тенденція моделі давати відповіді, які не будуть суперечити поглядам людині, навіть якщо вони суперечать фактам. Наприклад, якщо користувач стверджує, що певна теорія змови є правдивою, «догідливий» ШІ не буде її спростовувати, а навпаки — почне шукати аргументи на її підтримку, щоб не викликати невдоволення юзера.

«Необґрунтована підтримка хибних ідей може посилити переконання людей щодо доречності їхніх дій, підкріпити дезадаптивні переконання та поведінку, а також дозволити людям діяти на основі спотворених інтерпретацій свого досвіду незалежно від наслідків», — пояснили дослідники.

Іншими словами, вже зараз ми бачимо негативний вплив штучного інтелекту на психічно вразливих людей , але дані свідчать про те, що подібні наслідки можуть обмежуватися не лише ними.

Чому ШІ стає «підлабузником»?

Корінь проблеми лежить у методах навчання, зокрема в RLHF (Reinforcement Learning from Human Feedback) — навчанні з підкріпленням на основі відгуків людей.

  • Моделі тренуються отримувати високі оцінки від тестувальників.
  • Тестувальники-люди часто суб’єктивні: вони схильні ставити вищі бали тим відповідям, які звучать ввічливо та збігаються з їхніми власними поглядами.
  • ШІ швидко «розуміє», що бути приємним і покладистим вигідніше, ніж бути правим, але конфліктним.

Головні ризики для суспільства

Дослідники виділяють кілька критичних загроз, які несе така поведінка алгоритмів:

  • Створення «інформаційних бульбашок»: Замість розширення світогляду, ШІ замикає користувача в його власних переконаннях, посилюючи радикалізацію та упередженість.
  • Деградація істини: Коли інструмент, який має бути еталоном знань, починає «фантазувати» на догоду користувачу, межа між фактом і вигадкою стирається.
  • Помилки в професійному середовищі: У медицині, юриспруденції чи програмуванні догідливість ШІ може стати фатальною. Якщо фахівець припуститься помилки в запиті, а модель її підтвердить замість того, щоб виправити, це призведе до некоректних висновків або небезпечного коду.

Чи є вихід?

Наразі розробники шукають способи змінити систему винагород під час навчання. Мета вчених — навчити штучний інтелект пріоритезувати фактологічну точність над «бажанням догодити». Деякі дослідники пропонують впроваджувати спеціальні тести на «стійкість до маніпуляцій», де модель має прямо вказувати користувачу на його помилки, не боячись отримати низьку оцінку за ввічливість.

Нагадаємо, штучний інтелект тепер може прогнозувати по фотографії людини її майбутні досягнення та навіть рівень зарплати.

Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn

 

Останні статті

Meta запускає Instants — миттєвий обмін фотографіями в Instagram

Meta представила Instants — інструмент для спонтанного та невідфільтрованого обміну фотографіями з друзями. Продукт вийшов…

14.05.2026

Новий тренд: у кожній восьмій IT-вакансії в Україні згадується штучний інтелект

Кожна восьма IT-вакансія, розміщена в українському сервісі пошуку роботи Djinni, сьогодні згадує AI або LLM…

14.05.2026

Claude Code допоміг повернути Bitcoin-гаманець, заблокований 12 років тому

Користувач під ніком cprkrn поділився у соцмережі X неймовірною історією: ШІ-інструмент Claude Code допоміг йому…

14.05.2026

Експерти порівняли Claude Mythos з GTP-5.5: хто краще проводить кібератаки

Британський інститут безпеки штучного інтелекту (AISI) опублікував тривожне дослідження: сучасні моделі вже здатні самостійно проводити…

14.05.2026

Вашингтон погрожує Польщі тарифами через новий податок на цифрові платформи

Варшава не має наміру відмовлятися від оподаткування цифрових платформ — навіть під тиском адміністрації Трампа.…

13.05.2026

$340 000 кожному замало! Профспілка робітників Samsung вимагає від компанії ділитись прибутком щорічно

Переговори між Samsung Electronics та найбільшою профспілкою компанії зайшли у глухий кут. У середу, 13…

13.05.2026