Пример дипфейка. Николас Кейдж в «Матрице»
За допомогою діпфейків вже зараз можна не лише відправити Бреда Пітта на пенсію або «воскресити» Сіда Вішеза, а й вплинути на безпеку цілих держав.
Розбираємось у ризиках технології заміни осіб у відео та пояснюємо, як вона працює.
Діпфейк (deepfake) — це вид маніпуляції медіа-контентом, при якому використовуються нейронні мережі та алгоритми машинного навчання для створення фальшивого фото-, відео- та аудіоконтента, а також текстів.
За допомогою діпфейків можна створювати підробки, які важко відрізнити від справжніх. Тому технологія може бути використана як для розваги та творчості, так й для маніпуляції та обману.
Оскільки за допомогою deepfake можна створити відео, на якому політик чи знаменитість робить щось, чого вона насправді не робила, діпфейки можуть використовуватися для створення фейкових новин, підроблених доказів у суді, шантажу та інших злочинних дій.
Саме тому та у зв’язку із зростанням інтересу до діпфейків в останні роки виникають нові технології та інструменти для їх виявлення та боротьби з ними.
Коріння ідеї створення синтезованих людських зображень сягає 90-х. У 1997 році з’явилася технологія Video Rewrite, яка дозволяла моделювати артикуляцію «особи», яка збігалася з аудіодоріжкою. Пізніше у тому чи іншому вигляді подібні технології застосовувалися у високобюджетних фільмах, наприклад першому «Аватарі» (2009).
Хвиля розвитку технології діпфейків почала підніматися із поширенням нейромереж на початку 2010-х років. Тоді обчислювальні потужності були недостатніми для виробництва реалістичних діпфейків, але вже у 2014 році вчені Оксфордського університету випустили статтю, де описали алгоритм створення штучних зображень людських осіб. А у 2016 з’явилися перші діпфейк-відео на YouTube, створені за допомогою глибинних нейронних мереж.
У тому ж році дослідники зі Стенфордського університету опублікували статтю, в якій описали новий метод створення deepfake відео портретів людей.
Але найбільшу популярність deepfake набули у 2017 році, коли з’явився застосунок FaceApp. Він дозволяв користувачам змінювати своє обличчя та створювати реалістичні фотографії за допомогою нейронних мереж.
У тому ж році стався ще один ключовий поворот на шляху розвитку технології: користувач Reddit під ніком Deepfake створив серію порно-роликів, де за допомогою нейромережі замінив обличчя акторок фільмів для дорослих на голлівудських знаменитостей, включаючи «диво-жінку» Галь Гадот.
Керівництво Reddit, Twitter і навіть PornHub заборонило публікацію діпфейк-порнографії на своїх ресурсах, але ролики все одно встигли завіруситися, а всі технології синтезу зображень за допомогою ШІ отримали загальну назву deepfake на честь людини, яка першою опублікувала порно-фейки в мережі.
Далі програмісти продовжили розвивати та навчати нейронні мережі створювати гіперреалістичні відео та фотографії, та діпфейки стали просочуватись в наше життя дедалі глибше.
Тому, не зважаючи на можливість створення напрочуд реалістичних образів, deepfake викликало занепокоєння серед громадськості через потенційне використання технології для шахрайства та маніпуляції інформацією.
Щоб звернути увагу на небезпеку технології, британський телеканал Channel 4 у 2020 році випустив підроблене привітання нині покійної королеви Єлизавети II, де монарша особа була створена за допомогою діпфейку.
Тоді ж стартував проєкт Microsoft Video Authenticator, який дозволяє визначити, чи використовувався під час створення відео діпфейк.
Суть роботи deepfake зводиться до використання глибинних нейронних мереж. Комп’ютер навчає знаходити закономірності та шаблони у зображеннях або звуці. Для цього модель має обробити велику кількість даних: наприклад, відеозаписів з людиною, яку потрібно імітувати.
Коли модель глибинного навчання досить якісна, вона може створювати нові зображення, відео або звуки, які можуть бути дуже реалістичними. Наприклад, у випадку фейкових відео, модель може створити ролик, який здається справжнім, але насправді є фальшивим.
Універсальної мережі для створення deepfake не існує. Натомість використовуються різні алгоритми та технології, наприклад, генеративно-змагальні мережі (GAN).
GAN — це дві нейронні мережі, які працюють спільно, щоб створити реалістичне зображення або відео:
Якщо дискримінатор визначить зображення як недостатньо реалістичне, знову запуститься робота генератора, який намагатиметься його покращити — і так по колу, доки не буде досягнуто переконливого зображення або аудіо:
Deepfake — широко застосовувана технологія, причому як у позитивних, так й негативних областях.
Спочатку розглянемо позитивні сфери застосування deepfake. Вони включають:
Приклад діпфейку. Ніколас Кейдж у «Матриці»
На жаль, deepfake можна використовувати і для не дуже добрих цілей. Наприклад:
Саме через негативні області застосування до deepfake ставляться не тільки як до технології майбутнього, а й потенційно небезпечного інструменту.
Незважаючі на побоювання щодо її застосування, у 2023 році технологія deepfake продовжує розвиватися та покращуватися, що відкриває нові можливості. Найреалістичніші перспективи розвитку технології включають:
Проте поки що важко судити, куди саме приведуть ігри зі штучно створеними відео, тому що технологія ще молода, але стрімко розвивається.
Якщо хочете ще глибше розібратися в тому, як працюють діпфейки, найкращий спосіб спробувати створити його самотужки. Для цього не потрібні глибокі знання нейронних мереж, тому що вже є багато застосунків, які дозволяють створювати deepfake-контент.
Ось деякі з них:
Всього існує кілька десятків нейромереж, які дозволяють створювати фейки різного ступеня достовірності та якості на будь-який смак та запити. Більше того: на ринок deepfake вже вийшли такі великі компанії, як Microsoft та IBM, тож невдовзі чекаємо на нові потужні інструменти.
Отже, приступимо до створення власного діпфейку.
Увага! Highload рекомендує використовувати цю інструкцію лише для розваги чи навчання.
Як було сказано вище, інструментів для створення діпфейків існує дуже багато, тому ми дамо загальну інструкцію зі створення фейкового контенту. А для кожного окремого застосунка радимо вивчити додаткові матеріали:
Діпфейки — це новий вид технологій, який швидко розвивається та може мати як позитивні, так й негативні наслідки:
Щоб не стати жертвою діпфейків, потрібно як мінімум розуміти, як вони працюють, та розвивати в собі критичне мислення. У серйозних ситуаціях можна використовувати програмне забезпечення для розпізнавання фейкових відео, наприклад, Microsoft Video Authenticator.
Але в тому, щоб спробувати створювати підроблені відео для розваги, немає нічого поганого. Якщо ви новачок, стартуйте з мобільних програм на зразок FaceApp або Wombo.
Резиденти Дія.City сплатили до бюджету понад 8 млрд грн податків в І кварталі 2025 року.…
У Китаї закликають офісних працівників не працювати надто багато — держава сподівається, що вільний час…
Експерти звертають увагу на тривожну тенденцію: люди все частіше використовують ChatGPT, щоб визначити місцезнаходження, зображене…
Компанія JetBrains випустила нову версію мультимовного середовища розробки IntelliJ IDEA 2025.1. Оновлена IDE отримала численні…
Платформа обміну миттєвими повідомленнями Discord впроваджує функцію перевірки віку за допомогою сканування обличчя. Зараз вона…
Wikipedia намагається захистити себе від тисяч різноманітних ботів-скрейперів, які сканують дані цієї платформи для навчання…