Google відмовилася від обіцянки не використовувати штучний інтелект у військових цілях
Компанія Google змінила свою позицію щодо безпеки штучного інтелекту, відмовившись від обіцянки не застосовувати цю технологію для військових і розвідувальних цілей. Ці правила з’явились у 2018 році, повідомляє The Washington Post.
Раніше компанія запевняла, що не займатиметься чотирма категоріями застосування штучного інтелекту: зброєю, стеженням, технологіями, «здатними завдати шкоди», та проектами, які порушують міжнародне право та права людини. Ці обмеження робили Google винятком серед інших компаній на ринку ШІ. Наприклад, Microsoft і Amazon давно співпрацюють з Міністерством оборони США. Їх приклад наслідували OpenAI та Anthropic, які співпрацюють з оборонними підрядниками США, такими як Anduril та Palantir.
За словами експертів, рішення Google відображає зростання штучного інтелекту для національної оборони США. Професор політології Майкл Горовіц з Пенсільванського університету вважає, що це логічний крок, оскільки технології ШІ стають все більш важливими для американської армії.
Також є й критики, такі як Ліллі Ірані, колишній співробітник Google і професор Каліфорнійського університету в Сан-Дієго. Він заявив, що «обіцянки компанії дотримуватись міжнародних законів і прав людини тепер виявились порожніми словами».
Нагадаємо, що Google вперше запровадила етичні принципи після протестів співробітників проти контракту з Пентагоном, відомого як Project Maven. Цей проект передбачав використання алгоритмів комп’ютерного зору аналізу даних з дронов. Тоді тисячі працівників підписали петицію, вимагаючи припинити участь компанії у військових проектах. Керівники Google погодились із цим, відмовившись не лише від контракту, а й пообіцявши не брати участь у розробці зброї. Нова політика компанії свідчить, що пріоритети змінилися.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: