Когнітивна капітуляція: нова тривожна тенденція взаємодії зі штучним інтелектом
Користувачі масово делегують власне мислення штучному інтелекту, навіть коли той відверто помиляється. Нове дослідження виявило феномен «когнітивної капітуляції», яка ставить під загрозу людську логіку, пише Ars Technica.
Впевненість замість істини. Серія експериментів групи вчених Університету Пенсильванії, яка охопила понад 1300 учасників та 9 тисяч тестів, продемонструвала вражаючу готовність людей довіряти алгоритмам. Більшість піддослідних без жодного скепсису приймали хибні аргументи чат-ботів, якщо ті були сформульовані впевнено та грамотно. Вчені називають це повною відмовою від перевірки фактів на користь зручності.
В одному дослідженні група людей, яка мала доступ до модифікованого чат-боту, зверталася до нього за допомогою приблизно у 50% для вирішення поставлених завдань. Коли штучний інтелект був точним, ці користувачі погоджувалися з його логікою приблизно у 93% випадків. Однак, коли ШІ випадково виявлявся «несправним», ці користувачі все одно погоджувалися з логікою нейромережі, хоча «лише» у 80% випадків. Це показує, що сама присутність штучного інтелекту часто витісняла «внутрішнє мислення», за словами дослідників.

Пастка впевненості. Головна проблема полягає у формі подачі контенту. Мовні моделі генерують текст настільки впевнено, що людський мозок автоматично сприймає його як авторитетне джерело. Це суттєво знижує поріг критичного сприйняття: замість аналізу суті ми фокусуємося на «привабливій» оболонці відповіді, ігноруючи логічні помилки.
Два типи користувачів. Експерименти чітко розділили аудиторію на два табори. Перші сприймають штучний інтелект як корисний, але недосконалий інструмент, який потребує постійного контролю. Другі — і їх стає все більше — фактично аутсорсять свої інтелектуальні зусилля нейромережам. Вони сприймають алгоритм як всезнаючого оракула, який апріорі не може помилитися.
Ризики інтелектуальної деградації. Така поведінка веде до поступового атрофування навичок вирішення складних завдань. Коли ми перестаємо ставити під сумнів логіку штучного інтелекту, ми втрачаємо здатність помічати системні галюцинації. Це створює середовище, де дезінформація, загорнута у впевнений тон, стає новою істиною для більшості.
Майбутнє під наглядом алгоритмів. Проблема когнітивної капітуляції виходить за межі простої ліні. Це системний зсув у взаємодії людини з технологіями. Якщо ми не навчимося зберігати дистанцію та скептицизм, нейромережі перетворяться на замінників нашого власного інтелекту, що диктуватимуть хибні рішення під виглядом професійної експертизи.
Нагадаємо, що згідно опитування Університету Квінніпіак (США), вже близько 15% американців (кожен сьомий) готові бачити своїм начальником штучний інтелект, а не людину.
Підписуйтесь на нас у соцмережах: Telegram | Facebook | LinkedIn












Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: