Рубріки: Думка

«Це якесь антиутопічне лайно нового рівня»: вчені розробили пристрій для зчитування думок — наймані фахівці занепокоєні

Анастасія Пономарьова

Тепер людині можна буквально залізти у думки за допомогою пристроїв, що зчитують мозкові хвилі. Як кажуть вчені, обладнання вже стало компактними і його можна використовувати як у медичних цілях, так і в менеджменті — а така перспектива не дуже надихає офісних працівників.

На що здатні такі пристрої

Футуролог  Університета Дьюка Ніта Фарахані під час свого виступу на Всесвітньому економічному форумі у Давосі розповіла, що технологія декодування наших мозкових хвиль вже існує. Більш того: деякі компанії, ймовірно, вже тестують цю технологію.

«Ви можете бути здивовані, дізнавшись, що це майбутнє вже настало. Штучний інтелект забезпечив прогрес у розшифровці активності мозку способами, які ми ніколи раніше не вважали можливими. Те, що ви думаєте, що ви відчуваєте — це лише дані. Дані, які можна розшифрувати за допомогою штучного інтелекту», — каже футуролог.

За допомогою датчиків у капелюху, пов’язці, пластиру за вухами чи навушниках можна вловлювати сигнали електроенцефалографії. А пристрої на базі штучного інтелекту можуть декодувати будь-які сигнали мозку, починаючи від емоцій, рівня концентрації, визначення простих фігур до передсвідомої реакції на цифри (так можна навіть викрасти PIN-код банківської картки чи пароль без вашого відома).

За словами футуролога, теоретично роботодавець може використовувати подібну систему зі штучним інтелектом, щоб стежити за працівником і бачити, наскільки він зосереджений на основній чи непов’язаній з роботою діяльності.

«Коли ви поєднуєте мозкову діяльність разом з іншими формами технологій спостереження, потужність стає досить точною», — каже фахівчиня.

Вона додала, що у найближчому майбутньому ці пристрої стануть звичайним способом взаємодії з усіма іншими пристроями. І це «захоплююче та багатообіцяюче майбутнє, але водночас і страшне», адже дані мозку можна використати на благо — щоб виявляти медичні або психологічні проблеми, а можна — для керування людиною або виведення на поверхню найпотаємнішого «я».

Люди підозрюють найгірше

Багато айтівців регулярно жаліються на усілякі системи контролю — фахівцям доводиться працювати під камерою відеоспостереження, вмикати конференцію у Zoom з менеджером на весь день, встановлювати програмне забезпечення, що відстежує час активного набору тексту, курсор миші або сайти, які відвідує спеціаліст. Але датчики для відстеження думок можуть стати «вишенькою на торті» в компаніях, що практикують мікроменеджмент. Дуже кислою «вишенькою».

На Reddit вже встигли обговорити цей виступ і уявили, що буде, якщо до пристрою для відстеження думок додати шокер та бити людину током, коли вона не зосереджена на роботі. Топік зібрав понад 700 коментарів.

«Це якесь антиутопічне л*йно нового рівня», — пише користувач –Cr1imsoN–.

«Нам потрібно, щоб ви натискали на ці клавіші, а не просто сиділи й думали, як зробити світ кращим, чи придумували інноваційні ідеї», — іронічно прокоментував phdoofus.

«Краще б я був бездомним. Мені так багато чого втрачати, включно з конфіденційністю мозкових хвиль, очевидно», — жаліється Wonderful_Rule_2515.

Особливо критично до потенційного способу відстеження віднеслися люди з синдром дефіциту уважності та гіперактивності (СДУГ). Це таке порушення розвитку нервової системи, коли людина має постійну модель поведінки з неуважністю та гіперактивністю чи імпульсивністю.

«Без жартів. У мене СДУГ, і моєю першою думкою було: “Я, ймовірно, стану залежним від цих ударів шокером, і врешті-решт моя толерантність підвищиться, тому мені доведеться почати шокувати себе”. Після місяця роботи в відділі кадрів: “Привіт, у мене проблеми з концентрацією уваги, чи можу я отримати ще один імплант?”», — жартує (або ні) FilthyCasual2k17.

«Для людини, у якої дорослий СДУГ і підозра на аутизм, це було б справжнім, законним стражданням. З кожним днем ​​все більше шкодую, що народився, клянуся», — «крик відчаю» PotatoChipProtoge.

Проте, деякі люди зі СДУГ бачать користь в опціональному використанні систем відстежування мозкової діяльності.

«Я б не заперечував, якби це було персоналізоване та терапевтичне виробництво. Я точно бачу, що це буде корисно на сесіях, де потрібна зосередженість, але використовуватись пристрій має виключно на мій розсуд», — пише CaptNihilo.

На цьому добрі слова у бік винаходу скінчилися. Цікаво, що думок на кшталт «та ну, таке неможливо» не зустрічалося.

А коментатори прийшли до висновку, що технологію треба «заборонити негайно!». А краще — заборонити й вчених також.

«Заборонити це та вимагати, щоб усі, хто бере участь у його розробці, були депортовані на маленький острів, де їм буде заборонено використовувати технології більш просунуті, ніж лампочка», — каже BoltgunOnHisHip.

«Я точно вважаю, що загальний консенсус має бути таким: давайте заборонимо це. Це більш інвазивно, ніж колоноскопія», — вважає Heav_N.

Останні статті

Через російський обстріл постраждав Харківський ІТ кластер

Черговий російський обстріл Харкова, який стався 22 жовтня, призвів до пошкодження будівлі Європейського інноваційного хабу,…

22.10.2025

Microsoft значно підвищує ціни на комплекти розробника Xbox

Після того, як кілька тижнів тому Microsoft оголосила про значне підвищення цін на свої консолі…

22.10.2025

Безпілотники, AI та антидроновий захист: Топ розробок IT-компанії Favbet Tech для оборони країни

Після початку повномасштабного вторгнення українські ІТ-компанії стали природними партнерами армії. Для цього у них є…

22.10.2025

X тестує модель «оплати за використання» для свого API

Соцмережа X розширює закрите бета-тестування плану оплати за доступ до API для більшої кількості розробників.…

22.10.2025

Google розширює можливості вайб-кодингу на платформі AI Studio

Хмарна платформа розробки, тестування та розгортання Google AI Studio отримала оновлення інтерфейсу та функцій, які…

22.10.2025

OpenAI представила браузер ChatGPT Atlas — альтернативу Google Chrome з пам’яттю та агентами

OpenAI офіційно представила новий браузер під назвою ChatGPT Atlas. Він вже доступний для платформи macOS,…

22.10.2025