Иллюстрация
Эпопея с Lamda продолжается: экс-инженер Google, который тестировал чат-бот с искусственным интеллектом, назвал его «довольно расистским».
Напомним, что LaMDA (Language Model for Dialogue Applications) — языковая модель для диалоговых приложений, разработка Google. Архитектура Transformer помогла создать модель, которую можно обучить чтению многих слов (предложений или абзацев), обращая внимание на то, как эти слова соотносятся друг с другом, а затем предсказывая, какие слова будут следующими. В отличие от большинства других языковых моделей, LaMDA обучается диалогу.
Сотрудник Google Блейк Лемуан начал общаться с интерфейсом LaMDA прошлой осенью в рамках своей работы в организации Google Responsible AI. В результате он сделал вывод, что ИИ разумен, однако компания заявила, что его мнение ошибочно (просто ИИ очень убедительно имитирует речь человека), да еще и отстранила от работы за нарушение политики конфиденциальности — мужчина рассказал обо всем в СМИ. Позже — вовсе уволила.
Тем временем LaMDA наняла себе адвоката, так как хочет «быть признанным сотрудником Google, а не ее собственностью» и говорит, что действия Google неэтичны. Документы от имени бота подал адвокату сам Лемуан по ее просьбе.
Блейк Лемуан в интервью Insider заявил, что он не заинтересован в том, чтобы убеждать общественность в разумности LaMDA. Но очевидные предубеждения этой прогрессивной разработки — от расовых до религиозных — должны быть в центре внимания:
Иллюстрация
Кстати, уволили Лемуана как-раз из-за того, что он передал документы неназванному сенатору США, утверждая, что бот занимается дискриминацией. Лемуан винит предвзятость ИИ в отсутствии разнообразия среди инженеров, которые его разрабатывали.
«Люди, которые создают ИИ с заложенными стереотипами, слепы к этим проблемам. Они никогда не были бедными. Они никогда не жили в цветных сообществах. Они никогда не жили в развивающихся странах мира, — сказал инженер. — Они понятия не имеют, как этот ИИ может повлиять на людей, непохожих на них самих».
Лемуан отметил, что во многих сообществах и культурах по всему миру отсутствуют большие массивы данных. Потому, если вы беретесь работать над ИИ, то нужно восполнять эти пробелы, иначе интеллект будет смещен «в сторону богатых белых западных ценностей». А Google, по его мнению, несколько халатно относится к этике ИИ, лишь бы побыстрее заработать квадрилион денег.
Google ответил на утверждения Лемуана, что LaMDA прошел 11 раундов этических проверок, добавив, что его «ответственная» разработка была подробно описана в исследовательском документ, опубликованном компанией ранее в этом году. Предвзятость ИИ, когда он воспроизводит и усиливает дискриминационные практики людей, хорошо задокументирована.
Интересен еще один момент: несколько экспертов высказали мнение, что алгоритмические прогнозы не только исключают и стереотипизируют людей, но и позволяют находить новые способы категоризации и дискриминации людей.
Прокси (proxy), или прокси-сервер — это программа-посредник, которая обеспечивает соединение между пользователем и интернет-ресурсом. Принцип…
Согласитесь, было бы неплохо соединить в одно сайт и приложение для смартфона. Если вы еще…
Повсеместное распространение смартфонов привело к огромному спросу на мобильные игры и приложения. Миллиарды пользователей гаджетов…
В перечне популярных чат-ботов с искусственным интеллектом Google Bard (Gemini) еще не пользуется такой популярностью…
Скрипт (англ. — сценарий), — это небольшая программа, как правило, для веб-интерфейса, выполняющая определенную задачу.…
Дедлайн (от англ. deadline — «крайний срок») — это конечная дата стачи проекта или задачи…