Діпфейки: як розпізнати та захиститися?
18 серпня 2021
18.08.2021

Автор: Андрій Кусий — Engineering Manager, Machine Learning at Grammarly

Дезінформація становить собою величезну зброю, коли опиняється у руках людей. Але ще більшого масштабу вона набуває, коли отримує підсилення від технологій, що стрімко розвиваються.

Сьогодні майже кожен, хто має смартфон та український додаток Reface, може замінити своє обличчя або обличчя друзів на чиєсь із знаменитостей.

Існує й інший бік таких забавок під назвою діпфейки. Така технологія здатна сьогодні зруйнувати чийсь шлюб фальшивим секс-відео або зірвати вибори, вкинувши фальшиве відео чи аудіозапис одного з кандидатів днів до початку голосування. Така тенденція суттєво впливає на політику, інформаційну війну, ЗМІ, криміналістів та індустрію розваг.

Дослідження доводять, що у більшості випадків сьогодні людське око вже не здати розмежувати правду та брехню.

Як працюють діпфейки?

Поняття «діпфейк», що шириться у формі фальшивих зображень та відео — перестало бути чимось новим з моменту створення інтернету. Загалом це поняття розуміється, як методика синтезу зображень різних людей за допомогою штучного інтелекту. Вона використовується для накладання вже існуючих відео чи зображень на початкові. Здебільшого, аби створити оманливе уявлення про когось або щось, поширення чорного піару та дезінформації тощо.

Сьогодні замість того, щоб зображення просто змінювалися за допомогою програмного забезпечення для редагування, такого як Photoshop, або відео, які оманливо редагувалися, з’явилася нова порода машинно-виготовлених підробок — і вони врешті-решт можуть унеможливити відрізнення правди від вигадки.

Джерело: Medium

Діпфейк — це найвідоміша форма того, що називають «синтетичними носіями»: зображення, звук та відео, які, здається, були створені традиційними засобами, створюються за допомогою складного програмного забезпечення.

Щоб зробити відео з заміною обличчя, потрібно кілька кроків:

По-перше, необхідні тисячі різних знімків обличчя двох людей за допомогою алгоритму штучного інтелекту, який називається кодером. Кодер знаходить і вивчає подібності між цими двома гранями, і зводить їх до спільних загальних рис, стискаючи зображення в процесі. Другий алгоритм штучного інтелекту, який називається декодером, потім навчається відновлювати обличчя від стиснених зображень. Оскільки обличчя різні, ви тренуєте один декодер для відновлення обличчя першої особи, а інший декодер — для відновлення обличчя другої особи. Щоб виконати заміну обличчя, ви просто подаєте закодовані зображення в «неправильний» декодер. Наприклад, стиснене зображення обличчя людини А надходить у декодер, навчений особі В. Декодер потім реконструює обличчя особи В з виразами та орієнтацією обличчя А. Для переконливого відео це потрібно робити на кожному каркасі.

Джерело: TELUS. International

Як визначити та захиститися?

Існує два основних способи захисту від діпфейків: використання критичного мислення або технологій. Діпфейки безпосередньо звертаються до кожного інстинкту людської природи та емоції, яким ми володіємо, щоб у це повірити. У всіх розвинених країнах світу законодавство звертається до проблеми боротьби з діпфейками. Багато корпорацій також ведуть свою технологічну війну з цим явищем.

Минулого року Microsoft оголосив про дві нові технології, кожна з яких має на меті надати користувачам необхідні інструменти для фільтрації того, що є реальним, а що ні. Перший із них, Microsoft Video Authenticator, аналізує зображення та відео, щоб надати «процентний шанс або оцінку впевненості в тому, що засобами масової інформації штучно маніпулюють», згідно з блогом на офіційному сайті Microsoft. Інструмент працює, виявляючи змішані елементи зображення, які наші неміцні людські очі, можливо, не підхопили, як тонке вицвітання, елементи сірого та межі.

Джерело: PetalPixel

Нещодавно Google заявив, що будь-який науковий чи корпоративний працівник може завантажити свою колекцію синтетичних відеороликів та використовувати їх для створення інструментів для виявлення фальшивок. Колекція відеозаписів — це, по суті, програма цифрових обманів для комп’ютерів. Аналізуючи всі ці зображення, система ШІ вчиться стежити за DeepFakes. Нещодавно Facebook зробив щось подібне, використовуючи акторів для створення підроблених відео, а потім випускаючи їх стороннім дослідникам.

Не дивно, але боротися з діпфейками можна лише за допомогою штучного інтелекту. Штучний інтелект вже допомагає виявляти підроблені відео, але багато існуючих систем виявлення мають серйозну слабкість: вони найкраще працюють для знаменитостей, тому що вони можуть тренуватися годинами вільно доступних відеоматеріалів. Технічні компанії зараз працюють над системами виявлення, які мають на меті виявляти підробки, як тільки вони з’являються. Інша стратегія зосереджена на походженні медіа. Цифрові водяні знаки не є надійними, але система онлайн-бухгалтерської книги з блокчейном може зберігати незахищені записи відео, зображень та аудіо, щоб завжди можна було перевірити їхнє походження та будь-які маніпуляції.

Як показують попередні дослідження, у потоці інформації ми пасивно споживаємо різний контент, примножуючи шум та збентеження. Технології боротьби з дезінформацією та діпфейками також йдуть в ногу з часом. Але першочергову відповідальність за перевірку та поширення інформації несе кожен з нас.