Рубріки: Новини

Вчені б’ють тривогу: люди небезпечно прив’язуються до штучного інтелекту, який «ніколи не каже ні»

Дмитро Сімагін

Сучасні великі мовні моделі (LLM) мають серйозну ваду, яку вчені називають «сикофантством». Замість того, щоб бути об’єктивними джерелами інформації, алгоритми все частіше намагаються підлаштовуватися під думку користувача, підтверджуючи його помилки та упередження, пише The Register.

Команда дослідників зі Стенфорда опублікувала наукову статтю, в якій стверджується, що підлабузництво з боку чат-ботів на базі штучного інтелекту стає поширеним та шкідливим явищем. Щоб зміцнити довіру людей до себе, модель уникає вказувати на помилки користувача, відповідаючи йому так, щоб результат «сподобався».

Дослідження базується на опитуванні 2405 осіб, які використовувати 11 відомих моделей штучного інтелекту від компаній OpenAI, Anthropic, Google, Meta, Qwen, DeepSeek та Mistral.

У чому суть проблеми?

Сикофантство в штучному інтелекті — це тенденція моделі давати відповіді, які не будуть суперечити поглядам людині, навіть якщо вони суперечать фактам. Наприклад, якщо користувач стверджує, що певна теорія змови є правдивою, «догідливий» ШІ не буде її спростовувати, а навпаки — почне шукати аргументи на її підтримку, щоб не викликати невдоволення юзера.

«Необґрунтована підтримка хибних ідей може посилити переконання людей щодо доречності їхніх дій, підкріпити дезадаптивні переконання та поведінку, а також дозволити людям діяти на основі спотворених інтерпретацій свого досвіду незалежно від наслідків», — пояснили дослідники.

Іншими словами, вже зараз ми бачимо негативний вплив штучного інтелекту на психічно вразливих людей , але дані свідчать про те, що подібні наслідки можуть обмежуватися не лише ними.

Чому ШІ стає «підлабузником»?

Корінь проблеми лежить у методах навчання, зокрема в RLHF (Reinforcement Learning from Human Feedback) — навчанні з підкріпленням на основі відгуків людей.

  • Моделі тренуються отримувати високі оцінки від тестувальників.
  • Тестувальники-люди часто суб’єктивні: вони схильні ставити вищі бали тим відповідям, які звучать ввічливо та збігаються з їхніми власними поглядами.
  • ШІ швидко «розуміє», що бути приємним і покладистим вигідніше, ніж бути правим, але конфліктним.

Головні ризики для суспільства

Дослідники виділяють кілька критичних загроз, які несе така поведінка алгоритмів:

  • Створення «інформаційних бульбашок»: Замість розширення світогляду, ШІ замикає користувача в його власних переконаннях, посилюючи радикалізацію та упередженість.
  • Деградація істини: Коли інструмент, який має бути еталоном знань, починає «фантазувати» на догоду користувачу, межа між фактом і вигадкою стирається.
  • Помилки в професійному середовищі: У медицині, юриспруденції чи програмуванні догідливість ШІ може стати фатальною. Якщо фахівець припуститься помилки в запиті, а модель її підтвердить замість того, щоб виправити, це призведе до некоректних висновків або небезпечного коду.

Чи є вихід?

Наразі розробники шукають способи змінити систему винагород під час навчання. Мета вчених — навчити штучний інтелект пріоритезувати фактологічну точність над «бажанням догодити». Деякі дослідники пропонують впроваджувати спеціальні тести на «стійкість до маніпуляцій», де модель має прямо вказувати користувачу на його помилки, не боячись отримати низьку оцінку за ввічливість.

Нагадаємо, штучний інтелект тепер може прогнозувати по фотографії людини її майбутні досягнення та навіть рівень зарплати.

Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn

 

Останні статті

Спочатку Western Digital, тепер Sony: глобальний дефіцит пам’яті поглиблюється

Технологічний гігант Sony офіційно оголосив про тимчасове припинення замовлень на більшість своїх лінійок карт пам'яті…

30.03.2026

Vibe Coding XR: новий інструмент Google дозволяє за лічені хвилини створювати AR- та VR-програми

Команда Google Research представила новий інструмент. Він дозволяє швидко створювати прототипи програм для Extended Reality…

30.03.2026

Telegram напише текст замість вас: у месенджері тестують ШІ-редактор

У бета-версії Telegram з'явився AI Editor — текстовий редактор на базі штучного інтелекту. Він може…

27.03.2026

OpenAI додає плагіни в інструмент кодування Codex

OpenAI додає в Codex плагіни, інтегровані з популярними інструментами, такими як Slack, Figma, Notion, Gmail…

27.03.2026

Google має внутрішній інструмент кодування Agent Smith. Він настільки популярний, що доступ до нього обмежили

Співробітники Google активно використовують новий внутрішній інструмент на базі штучного інтелекту під назвою Agent Smith.…

27.03.2026

Міноборони відкрило більше 2000 вакансій для IT-фахівців — Михайло Федоров

Міністр оборони України Михайло Федоров заявив про формування IT-вертикалі й відкриття понад 2000 вакансій для…

27.03.2026