Пример дипфейка. Николас Кейдж в «Матрице»
Содержание
С помощью дипфейков уже сейчас можно не только отправить Бреда Питта на пенсию или «воскресить» Сида Вишеза, но и повлиять на безопасность целых государств.
Разбираемся в рисках технологии замены лиц в видео и объясняем, как она работает.
Дипфейк (deepfake) — это вид манипуляции медиа-контентом, при котором используются нейронные сети и алгоритмы машинного обучения для создания фальшивого фото-, видео- и аудиоконтента, а также текстов.
С помощью дипфейков можно создавать подделки, трудно отличимые от настоящих. Поэтому технология дипфейков может быть использована как для развлечения и творчества, так и для манипуляции и обмана.
Так как с помощью deepfake можно создать видео, на котором политик или знаменитость делает что-то, чего она на самом деле не делала, дипфейки могут использоваться для создания фейковых новостей, поддельных доказательств в суде, шантажа и других преступных действий.
Именно поэтому и в связи с возросшим интересом к дипфейкам в последние годы, возникают новые технологии и инструменты для их обнаружения и борьбы с ними.
Корни идеи создания синтезированных человеческих изображений уходят в 90-е. В 1997 году появилась технология Video Rewrite, позволявшая моделировать артикуляцию «лица», которая совпадала с аудиодорожкой. Позже в том или ином виде подобные технологии применялись в высокобюджетных фильмах, например, первом «Аватаре» (2009).
Волна развития технологии дипфейков начала подниматься с распространением нейросетей в начале 2010-х годов. Тогда вычислительные мощности были недостаточными для производства реалистичных дипфейков, но уже в 2014 году ученые Оксфордского университета выпустили статью, где описали алгоритм создания искусственных изображений человеческих лиц. А в 2016 появились первые дипфейк-видео на YouTube, созданные с помощью глубинных нейронных сетей.
В том же году исследователи из Стэнфордского университета опубликовали статью, в которой описали новый метод создания deepfake видео-портретов людей.
Но наибольшую популярность deepfake получили в 2017 году, когда появилось приложение FaceApp. Оно позволяло пользователям изменять свое лицо и создавать реалистичные фотографии с помощью нейронных сетей.
В том же году случился еще один ключевой поворот на пути развития технологии: пользователь Reddit под ником Deepfake создал серию порно-роликов, где с помощью нейросети заменил лица актрис фильмов для взрослых на голливудских знаменитостей, включая «чудо-женщину» Галь Гадот.
Руководство Reddit, Twitter и даже PornHub запретило публикацию дипфейк-порнографии на своих ресурсах, но ролики все равно успели завируситься, а все технологии синтеза изображений с помощью ИИ получили общее название deepfake в честь человека, первым опубликовавшего порно-фейки в сети.
Дальше программисты продолжили развивать и обучать нейронные сети создавать гипер-реалистичные видео и фотографии, и дипфейки стали проникать в нашу жизнь все глубже.
Поэтому, несмотря на возможность создания удивительно реалистичных образов, deepfake вызвало озабоченность среди общественности из-за потенциального использования технологии для мошенничества и манипуляции информацией.
Чтобы обратить внимание на опасность технологии, британский телеканал Channel 4 в 2020 году выпустил поддельное поздравление ныне покойной королевы Елизаветы II, где монаршая особа была создана с помощью дипфейка.
Тогда же стартовал и проект Microsoft Video Authenticator, который позволяет определить, использовался ли при создании видео дипфейк.
Суть работы deepfake сводится к использованию глубинных нейронных сетей. Компьютер учат находить закономерности и шаблоны в изображениях или звуке. Для этого модель должна обработать большое количество данных: например, видеозаписей с человеком, которого нужно имитировать.
Когда модель глубинного обучения обучена достаточно хорошо, она может создавать новые изображения, видео или звуки, которые могут быть очень реалистичными. Например, в случае фейковых видео, модель может создать ролик, который кажется настоящим, но на самом деле является фальшивым.
Универсальной сети для создания deepfake не существует. Вместо этого используются разные алгоритмы и технологии, например, генеративно-состязательные сети (GAN).
GAN — это две нейронные сети, которые работают совместно, чтобы создать реалистичное изображение или видео:
Если дискриминатор определит изображение как недостаточно реалистичное, снова запустится работа генератора, который постарается его улучшить — и так по кругу, пока не будет достигнута убедительная картинка или аудио:
Deepfake — широко применимая технология, причем не только в положительных, но и отрицательных областях.
Сначала рассмотрим положительные области применения deepfake. Они включают:
Пример дипфейка. Николас Кейдж в «Матрице»
К сожалению, deepfake можно использовать и для не очень хороших целей. Например:
Именно из-за отрицательных областей применения к deepfake относятся не только как к технологии будушего, но и потенциально опасному инструменту.
Тем не менее, в 2023 технология deepfake продолжает развиваться и улучшаться, что открывает новые возможности. Самые реалистичные перспективы развития технологии включают:
Тем не менее, пока тяжело судить, куда именно приведут игры с искусственно созданными видео, потому что технология еще молодая, но стремительно развивается.
Если хотите еще глубже разобраться в том, как работают дипфейки, лучший способ — попробовать создать его самому. Для этого не нужны глубокие знания нейронных сетей, потому что уже есть много приложений, которые позволяют создавать deepfake-контент.
Вот некоторые из них:
Всего существует несколько десятков нейросетей, позволяющих создавать фейки разной степени достоверности и качества на любой вкус и запросы. Более того: на рынок deepfake уже вышли такие крупные компании, как Microsoft и IBM, так что ждем вскоре новые мощные инструменты.
Итак, приступим к созданию собственного дипфейка.
Внимание! Highload настоятельно рекомендует использовать эту инструкцию только для развлечения или обучения.
Как было сказано выше, инструментов для создания дипфейков существует очень много, так что мы дадим общую инструкцию по созданию фейкового контента. А для каждого отдельного приложения советуем изучить дополнительные материалы:
Дипфейки — это новый и быстро развивающийся вид технологий, который может иметь как позитивные, так и негативные последствия.
Чтобы не стать жертвой дипфейков, нужно как минимум понимать, как они работают и развивать в себе критическое мышление. В серьезных ситуациях можно использовать ПО для распознавание фейковых видео, например, Microsoft Video Authenticator.
Но в том, чтобы попробовать создавать поддельные видео самостоятельно для развлечения, нет ничего плохого. Если вы новичок, стартуйте с мобильных приложений вроде FaceApp или Wombo.
Прокси (proxy), или прокси-сервер — это программа-посредник, которая обеспечивает соединение между пользователем и интернет-ресурсом. Принцип…
Согласитесь, было бы неплохо соединить в одно сайт и приложение для смартфона. Если вы еще…
Повсеместное распространение смартфонов привело к огромному спросу на мобильные игры и приложения. Миллиарды пользователей гаджетов…
В перечне популярных чат-ботов с искусственным интеллектом Google Bard (Gemini) еще не пользуется такой популярностью…
Скрипт (англ. — сценарий), — это небольшая программа, как правило, для веб-интерфейса, выполняющая определенную задачу.…
Дедлайн (от англ. deadline — «крайний срок») — это конечная дата стачи проекта или задачи…