Рубріки: Новини

«ШІ створює ризики вимирання, як і ядерна війна»: Сем Альтман з OpenAI та 350 науковців підписали нову заяву

Ігор Шелудченко

Генеральний директор Google DeepMind Деміс Хассабіс, генеральний директор OpenAI Сем Альтман, а також провідні дослідники ШІ Джеффрі Хінтон і Юшуа Бенгіо опублікували досить цікаву заяву стосовно перспектив розвитку штучного інтелекту.

В «Заяві про ризик ШІ» вони попереджають про екзистенціальну загрозу, яку, на їхню думку, становить ШІ для людства.

Заява з 21 слова

Заява опублікована некомерційною організацією з Сан-Франциско, Центром безпеки штучного інтелекту.

Лист підписало понад 350 керівників, інженерів та науковців.

Сама ж заява звучить так:

«Зменшення ризику вимирання через ШІ повинно стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна»

При цьому Джеффрі Хінтон і Юшуа Бенгіо — двоє з троє дослідників штучного інтелекту, які отримали премію Тюрінга 2018 року (іноді її називають «Нобелівською премією з обчислювальної техніки») за роботу над ШІ.

Дослідники «висловили щиру стурбованість»

Ден Хендрікс, виконавчий директор Центру безпеки штучного інтелекту, сказав The New York Times , що лаконічність заяви, яка не пропонує жодних потенційних способів пом’якшити загрозу, яку представляє штучний інтелект, мала на меті уникнути таких розбіжностей.

«Ми не хотіли наполягати на надто великому переліку з 30 потенційних загроз», — сказав Хендрікс.

Хендрікс описав це повідомлення як «вихід» для представників галузі, стурбованих ризиком ШІ.

Тим часом як прихильники ШІ, так і скептики погоджуються, що навіть без удосконалення своїх можливостей системи ШІ представляють низку загроз у наш час — від їх використання для масового стеження до  полегшення створення дезінформації та дезінформації.

Цікаво, що події передував візит представників Google, Microsoft, безпосередньо Сема Альтмана та багатьох інших до Білого Дому, де вони обговорили проблеми ШІ з Джо Байденом.

Нагадаємо, пару місяців тому з’явилася заява, в якій Ілон Маск, Стів Возняк та Юваль Харарі вимагають призупинити навчання потужних систем ШІ. 

Щоправда, Ілон Маск потім придбав 10 тис. процесорів і взявся за розробку ШІ для Twitter.

Читайте також:

«Штучний інтелект дає змогу кожному бути програмістом»: Nvidia презентувала суперкомп’ютер для роботи з ШІ

Білл Гейтс прогнозує смерть Google і Amazon: їх замінить персональний ШІ-помічник

Це читерство в реалі: з’явився безплатний ШІ-інструмент для співбесід та іспитів

Останні статті

Юлія Штукатурова стала новою керівницею європейського регіону в GlobalLogic

Компанія GlobalLogic заявила, що європейський регіон відтепер очолюватиме Юлія Штукатурова, повідомили в DOU. У GlobalLogic Юлія…

04.06.2025

Інсайдери OpenAI розповіли, що чекати від GPT-5, яка з’явиться в липні

Флагманська LLM-модель OpenAI GPT-5 з'явиться вже в липні, як стверджують інсайдери. Модель матиме підтримку відео,…

04.06.2025

Безкоштовні користувачі ChatGPT отримали доступ до розширеної функції пам’яті

Функція пам'яті ChatGPT, яка дозволяє звертатися до історії минулих розмов з чат-ботом, тепер стала доступною…

04.06.2025

Розробники Go остаточно відмовились від спроб покращити синтаксис обробки помилок

Після шести років обговорень та сотень пропозицій від ком'юніті команда розробників Go офіційно оголосила, що…

04.06.2025

Оновлення Telegram: з’явились повідомлення адмінам каналів і скорочення голосових повідомлень

Команда Telegram випустила чергове велике оновлення. Адмінам каналів тепер можна надсилати особисті повідомлення, спростилося перемикання…

04.06.2025

У Росії націоналізували одну з найбільших геймдев-компаній. Звинуватили в підтримці ЗСУ

Таганський суд Москви ухвалив рішення про передачу у власність держави 100% уставного капіталу IT-компанії «Леста…

04.06.2025