Рубріки: Новости

Илон Маск, Стив Возняк и Юваль Харари требуют приостановить обучение мощным систем ИИ

Ігор Шелудченко

Стив Возняк, Илон Маск, Эван Шарп (Pinterest), Крис Ларсен (Ripple), Юваль Харари и сотни других предпринимателей, инвесторов и разработчиков требуют приостановить гигантские эксперименты с ИИ и ChatGPT.

Об этом говорится в открытом письме-петиции, размещенном на сайте неприбыльной организации Future of Life Institute.

Опасность рядом

Одно из основных требований — приостановить минимум на 6 месяцев тренировки систем ИИ, которые могут быть мощнее GPT-4.

По словам авторов, мощные системы искусственного интеллекта могут породить серьезные риски для общества и человечества.

Авторы письма ссылаются на принципы искусственного интеллекта Asilomar , в которых сказано, что мощный искусственный интеллект может представлять глубокое изменение в истории жизни на Земле, и его следует планировать и управлять соответствующим усердием и ресурсами . И, к сожалению, такого уровня планирования и управления не существует.

Вместо этого должен быть разработан и внедрен набор общих протоколов безопасности для разработки ИИ, тщательно проверенных и контролируемых независимыми экспертами.

Меры безопасности

Для того чтобы нивелировать негативное влияние ИИ, нужно наладить сотрудничество между разработчиками и политиками. Что включает:

  • новые и эффективные регуляторные органы;
  • отслеживание высококвалифицированных ИИ-систем;
  • ответственность за вред, который они могут нанести;
  • исследование технической безопасности ИИ.

Также авторы письма считают, что нужно:

  • создать рабочую группу независимых экспертов и ИИ-лабораторий для развития и внедрения общих протоколов безопасности;
  • сделать обязательным отслеживание высококвалифицированных ИИ-систем и крупных кластеров вычислительной мощности;
  • создать систему provenance и watermarking, чтобы различать реальные данные от синтетических и отслеживать утечки моделей;
  • развить экосистему аудитирования и сертификации, чтобы она была надежной и эффективной;
  • создать финансовую поддержку инфраструктуры для того, чтобы справиться с драматическими экономическими и политическими сдвигами, которые могут быть вызваны ИИ (в частности, это касается демократии).

Кроме того, подписанты считают, что нужно установить ответственность за ущерб, который могут нанести ШИ-системы.

«Общество может наслаждаться благодатями ИИ в будущем, если развитие ИИ будет ответственное и безопасное», — резюмируется в обращении.

Интересно, что совсем недавно создатель культового фильма «Терминатор» Джеймс Кэмерон заявил, что опасается, что развитие искусственного интеллекта может зайти слишком далеко.

Читайте также:

«Может выйти из-под контроля»: Билл Гейтс оценил будущее ИИ

Украинские работодатели начинают искать кандидатов со знанием ChatGPT: зарплаты – до 120 тыс. грн

Искусственный интеллект полностью автоматизирует 300 млн рабочих мест – Goldman Sachs

Останні статті

Что такое прокси-сервер: пояснение простыми словами, зачем нужны прокси

Прокси (proxy), или прокси-сервер — это программа-посредник, которая обеспечивает соединение между пользователем и интернет-ресурсом. Принцип…

21.11.2024

Что такое PWA приложение? Зачем необходимо прогрессивное веб-приложение

Согласитесь, было бы неплохо соединить в одно сайт и приложение для смартфона. Если вы еще…

19.11.2024

Как создать игру на телефоне: программирование с помощью конструктора

Повсеместное распространение смартфонов привело к огромному спросу на мобильные игры и приложения. Миллиарды пользователей гаджетов…

17.11.2024

Google Bard: эффективный аналог ChatGPT

В перечне популярных чат-ботов с искусственным интеллектом Google Bard (Gemini) еще не пользуется такой популярностью…

14.11.2024

Скрипт и программирование: что это такое простыми словами

Скрипт (англ. — сценарий), — это небольшая программа, как правило, для веб-интерфейса, выполняющая определенную задачу.…

12.11.2024

Дедлайн в разработке: что это такое простыми словами

Дедлайн (от англ. deadline — «крайний срок») — это конечная дата стачи проекта или задачи…

11.11.2024