Collage of human head, digits and various abstract elements on the subject of artificial intelligence, modern science, computer technology and human and artific
Епопея з Lamda триває: екс-інженер Google, що тестував чат-бот зі штучним інтелектом, назвав його «досить расистським».
Нагадаємо, що LaMDA (Language Model for Dialogue Applications) — мовна модель для діалогових застосунків, розробка Google. Архітектура Transformer допомогла створити модель, яку можна навчити читанню багатьох слів (речень або абзаців), звертаючи увагу на те, як ці слова співвідносяться один з одним, а потім передбачаючи, які слова будуть наступними. На відміну від багатьох інших мовних моделей, LaMDA навчається діалогу.
Співробітник Google Блейк Лемуан почав спілкуватися з інтерфейсом LaMDA минулої осені в рамках своєї роботи в Google Responsible AI. В результаті він зробив висновок, що AI розумний, проте компанія заявила, що його думка помилкова (просто AI дуже переконливо імітує промову людини), та ще й усунула від роботи за порушення політики конфіденційності — чоловік розповів про все у ЗМІ. Пізніше зовсім звільнила.
Тим часом LaMDA найняла собі адвоката, оскільки хоче «бути визнаним співробітником Google, а не її власністю». Документи від імені бота подав адвокату сам Лемуан на її прохання.
Блейк Лемуан в інтерв’ю Insider заявив, що він не зацікавлений у тому, щоби переконувати громадськість у розумності LaMDA. Але очевидні упередження цієї прогресивної розробки — від расових до релігійних — мають бути в центрі уваги:
Ілюстрація
До речі, Лемуана звільнили саме через те, що він передав документи неназваному сенатору США, стверджуючи, що бот займається дискримінацією. Лемуан звинувачує упередженість АІ у відсутності різноманітності серед інженерів, які його розробляли.
«Люди, які створюють АІ із закладеними стереотипами, сліпі до цих проблем. Вони ніколи не були бідними. Вони ніколи не жили у кольорових спільнотах. Вони ніколи не жили в країнах світу, що розвиваються, — сказав інженер. — Вони не мають поняття, як цей АІ може вплинути на людей, несхожих на них самих».
Лемуан зазначив, що у багатьох спільнотах та культурах по всьому світу відсутні великі масиви даних. Тому, якщо ви беретеся працювати над АІ, потрібно заповнювати ці прогалини, інакше інтелект буде зміщений «у бік багатих білих західних цінностей». А Google, на його думку, дещо недбало ставиться до етики АІ, аби швидше заробити квадріліон грошей.
Google відповів на твердження Лемуана, що LaMDA пройшов 11 раундів етичних перевірок, додавши, що його «відповідальна» розробка була детально описана в документі, опублікованому компанією раніше цього року. Упередженість АІ, коли він відтворює та посилює дискримінаційні практики людей, добре задокументована.
Цікавим є ще один момент: кілька експертів висловили думку, що алгоритмічні прогнози не лише виключають і стереотипізують людей, а й дозволяють знаходити нові способи категоризації та дискримінації людей.
Команда реагування на комп'ютерні надзвичайні ситуації України (CERT-UA) розкрила деталі фішингової кампанії, спрямованої на поширення…
Платформа Hugging Face представляє AnyCoder — середовище для розробки веб-додатків з відкритим кодом. Новий інструмент,…
Компанія Intel оголосила про згортання проекту Clear Linux, робота над яким тривала 10 років. Метою…
Розробник Ендрю Ярос продемонстрував веб-емулятор оригінальної операційної системи Lisa OS, яка є першою графічною ОС…
Експерти відділу безпеки Cisco Talos розкрили оператора шкідливих програм як послуги (Malware-as-a-Service, MaaS), який використовував…
У першій половині 2025 року було викрадено понад $2,17 млрд у криптовалюті, що більше, ніж…