Русский военный корабль, иди нах*й.
Пожертвувати на армію
×
Упс!
Не вдала спроба:(
Будь ласка, спробуйте ще раз.
preview
17 травня 2022 10 хвилин читання

Війна дипфейків. СТО Reface Олесь Петрів та експерти MIT про те, як розпізнати маніпулятивні відео, створені штучним інтелектом

У березні 2022 року сторони російсько-української війни обмінялися інформаційними ударами з використанням дипфейків. В обох випадках підробки виявилися неякісними: фейкові відео із Зеленським та путіним легко викрити неозброєним оком. Але експерти впевнені, що технологія ще не сказала свого останнього слова у конфлікті. 

Ще п'ять років тому про дипфейки майже ніхто не знав, а сьогодні завдяки нейромережам можна створювати цілком реалістичні відео. Що важливо — змінився контекст. Під час війни люди емоційно вразливі, тому їх легше переконати. За таких умов наслідки використання дипфейків можуть бути катастрофічними.

Для проєкту SPEKcheck редакція SPEKA дослідила, що таке дипфейки і як їх використовують у російсько-українській війні. Також ми поспілкувалися з CTO Reface Олесем Петрівим і переклали поради експертів Массачусетського технологічного університету щодо того, як розпізнати дипфейк без використання спеціальних програм.

Що таке дипфейки

Дипфейк — реалістична імітація справжніх фото-, аудіо- та відеоматеріалів, створена за допомогою нейромереж. Комп'ютерні алгоритми навчилися оживляти фотографії, синтезувати голос і підміняти обличчя на відео. В результаті можна отримати контент, який майже не відрізняється від справжнього.

Для створення дипфейків використовують генеративні змагальні нейромережі (GAN). Це алгоритми на базі машинного навчання, які створюють новий контент на основі певного заданого набору. Наприклад, нейромережі можуть вивчити тисячі роликів з Томом Крузом і створити нове з рисами обличчя і мімікою актора. При цьому один алгоритм створює відео, а інший перевіряє його на достовірність. Якщо другий алгоритм виявив підробку, він повідомляє першому, що той зробив не так. У парі ці дві мережі продовжують працювати, поки результат не стане достатньо реалістичним.

Технологію дипфейків розробив у 2014 році студент Стенфорду Єн Гудфелоу. У 2017-му вона здобула популярність завдяки користувачу Reddit з ніком deepfake, який почав змінювати обличчя героїнь порнофільмів на обличчя знаменитостей. 

Дипфейки критикують за те, що їх можна використовувати для шахрайства та маніпуляцій суспільною думкою. Сьогодні у технології з'явився ще один небезпечний вимір — використання у війні. З огляду на те що технологія зовсім нова і прогресує з кожним днем, російсько-українська війна стала першим збройним конфліктом, де дипфейки можуть бути серйозною зброєю.

Дипфейки російсько-української війни

Другого березня Центр стратегічних комунікацій та інформаційної безпеки України повідомив, що росія спробує використати дипфейк Володимира Зеленського, який нібито оголосить про капітуляцію України у війні. Того ж дня на Facebook-сторінці колишнього голови правління Національної суспільної телерадіокомпанії України Зураба Аласанії з'явився «удар на випередження» — відео з дипфейком путіна, який говорить про досягнення миру з Україною і визнанням її кордонів згідно з міжнародними договорами (з Донецькою й Луганською областями та Кримом). Аласанія не приховував, що це дипфейк.

16 березня анонсований фейковий ролик із Зеленським дійсно з'явився в інтернеті. У відео він нібито закликає українських воїнів скласти зброю і повернутися до своїх сімей.

Підробку легко помітити. Голова Зеленського виглядає занадто великою на тлі тулуба, а тембр голосу нижчий, ніж насправді. Сам Зеленський у своєму Facebook назвав відео «дитячою провокацією».

Автори дипфейку невідомі. Втім, є серйозні ознаки, що ролик створювали російські спецслужби. Того ж дня російські хакери зламали трансляцію «Каналу 24». Під відео зловмисники пустили текстовий рядок із фейковим закликом Зеленського скласти зброю — фактично цитатою з дипфейку, поширеного напередодні.

Того ж дня компанії Google та Meta заблокували фейкове відео на платформах Facebook та YouTube. Head of security policy компанії Meta Натаніел Глейшер повідомив, що цей контент порушує правила соцмережі та є маніпуляцією. 

В оприлюднених роликах президенти росії та України дійсно більше схожі на персонажів відеоігор, ніж на своїх прототипів. Але авторка книги Deepfakes: The Coming Infocalypse Ніна Шик вбачає у недолугих дипфейках путіна та Зеленського паростки набагато більшої проблеми. На її думку, соціальні медіа недостатньо борються з дипфейками. Реакцію Facebook та Google вона називає «фіговим листком», адже до блокування відео встигли подивитися багато людей, а дипфейки стають дедалі масовішими.

16 квітня Центр стратегічних комунікацій та інформаційної безпеки України повідомив, що росія готує новий дипфейк із Володимиром Зеленським. За даними кіберрозвідки, ролик мав містити негативні вислови президента про деякі українські міста, зокрема Маріуполь. Однак дипфейк так і не з'явився у загальному доступі.

Співзасновник та CTO Reface Олесь Петрів

Як створюються дипфейки і чи можливо розпізнати підробку

Щоб створити якісний дипфейк, потрібні дні або навіть тижні роботи спеціалістів з машинного навчання, постпродакшену, акторів, постановників. Це не одна програма і не один мобільний застосунок. Це окремо тренована нейромережа, що працює над створенням одного конкретного обличчя на відео. Прикладами таких дипфейків є відомі відео з Бараком Обамою, королевою Єлизаветою, Томом Крузом.

Якщо над дипфейком працювала команда фахівців із машинного навчання, постпродакшену й акторів, якщо вони свідомо робили це відео реалістичним і витратили кілька тижнів, то помітити фейковість відео звичайним оком буде дуже важко. Але якщо є доступ до оригінального відеофайлу, то можна застосувати методи аналізу мікроартефактів на основі інших нейронних мереж. Таке до снаги тільки спеціалістам із машинного навчання. 

Якщо ж відео робили поспіхом, то можна помітити певні недоліки у зоні вух, зубів і повік під час кліпання. Найпростіше зробити дипфейк людини, яка прямо дивиться в камеру й говорить монотонний текст. Повороти голови, виразна міміка, активна жестикуляція ускладнюють процес, саме на них потрібно звертати увагу. У вищезгаданому відео з Обамою можна помітити, що його зіниці рухаються повільно, очі через це схожі на скляні, а міміка довкола губ інколи виглядає як намальована.

В умовах війни найкращим способом відрізнити дипфейк від правди завжди буде розуміння контексту і базові правила медіаграмотності. Якщо політик одного дня оголосив, що ми за жодних умов не будемо оголошувати капітуляцію, а наступного дня каже, що ми капітулюємо, то це, найімовірніше, неправда. Перевіряйте джерела інформації, не довіряйте анонімним паблікам і каналам, завжди чекайте підтвердження будь-якої новини з офіційних державних каналів зв'язку.

Про дипфейк із Зеленським і відеомонтаж зустрічей путіна

Дипфейк Зеленського, який нібито запустили у мережу росіяни, виглядає як неякісна робота. Він неправдоподібний. Ймовірно, для його створення не застосовували окремо навчену нейромережу, більше схоже на не дуже якісний ліпсинк + постпродакшн. Відео видалили з YouTube та Facebook майже відразу після появи. Сумніви беруть, що над цим проєктом серйозно працювали.

Щодо відео путіна, де він зустрічався зі стюардесами та російським міністром оборони, то важко однозначно сказати, відеомонтаж це чи ні. Артефакти, які можна було помітити на відео, цілком могли би бути побічним результатом алгоритмів компресії відео, хоча така кількість різноманітних недоліків на межі переднього та заднього плану в кадрі і справді виглядає результатом роботи недосконалого алгоритму image matting. Однозначна відповідь потребує аналізу відео за допомогою нейромереж для вирішення завдання image forgery detection.

Сім ознак діпфейку: чекліст від MIT

Експерти Масачусетського технологічного університету створили чекліст, який допоможе розпізнати діпфейк за допомогою власних очей.

  • 1
    Звертайте увагу на щоки та лоб. Чи не видаються вони надто гладенькими або, навпаки, надто зморшкуватими? Чи збігається вік шкіри з віком очей та волосся? У дипфейках ці параметри зазвичай різняться. 
  • 2
    Пильнуйте за очима та бровами. Чи з'являються тіні там, де очікується? Дипфейк часто не може натурально відобразити фізичні умови середовища. 
  • 3
    Звертайте увагу на окуляри (якщо вони є). Чи помітні на них відблиски і відображення? Чи змінюється їхній кут, коли голова рухається? Дипфейкам не завжди вдається передати природну гру світла.
  • 4
    Звертайте увагу на вуса та бороду (якщо вони є). Чи виглядає волосся на обличчі натурально? Фахівцям з дипфейків важко зімітувати рослинність на обличчі.
  • 5
    Пильнуйте за родимками на обличчі, зморшками та шрамами (якщо вони є). Чи виглядають вони природно і чи рухаються в унісон з усім обличчям?
  • 6
    Звертайте увагу на кліпання очима. Чи моргає людина занадто часто або занадто рідко?
  • 7
    Звертайте увагу на розмір та колір губ. Чи відповідають вони пропорціям та кольору обличчя?

Аби ускладнити роботу зловмисникам і довести, що ваше відео не є дипфейком, експерти MIT пропонують часто повертати голову і торкатися обличчя, а також ускладнити симуляцію освітлення, додавши у відео динамічне джерело світла. А ще відпустити бороду або вуса. Можливо, саме для протидії створенню дипфейків Володимир Зеленський ходить із щетиною від самого початку повномасштабного російського вторгнення. 

Матеріал опубліковано у співпраці з ГО «Львівський медіафорум» за підтримки Міністерства закордонних справ, у справах Співдружності та розвитку Великої Британії (British Embassy Kyiv).

0
Прокоментувати
Інші матеріали

Чому росія бреше. Тімоті Снайдер про пропаганду та виживання путінського режиму

Юлія Даниленко 14 вересня 2022 18:15

Українська «Вікіпедія» та інформаційна війна. Колонка Юрія Пероганича

Роман Судольський 22 серпня 2022 16:44

#IStandWithPutin — говорив «індійський» Twitter після вторгнення, але чи справді це так?

Юлія Даниленко 21 серпня 2022 21:05

Газети проти ракет. Як росія намагається зашкодити постачанням зброї Україні і до чого тут FT

Kateryna Venzhyk 21 серпня 2022 14:15

Заручник власної пропаганди. Що може змусити Путіна визнати поразку

Юлія Даниленко 19 серпня 2022 20:44