Купити квартиру в Дніпрі

Росіяни поширюють фейкове відео з Залужним – як розпізнати підробку

Російські пропагандисти запустили в мережу фейкове відео з Залужним, де Головнокомандувач ЗСУ нібито закликає до перевороту.

Про це пише НСН з посиланням на Центр протидії дезінформації.

На дезінформаційному ролику Валерій Залужний нібито звинувачує президента Володимира Зеленського у підготовці замаху на нього та оголошує початок державного перевороту.

Ворог створив діпфейк Залужного завдяки технологіям штучного інтелекту. Центр протидії дезінформації вже відреагував на брехню росіян.

В Центрі протидії дезінформації наголосили, що так рашисти прагнуть запевнити в розколі між владою та військовими.

“Автором цього “кіно” виступив TG-акаунт “Радіо Труха”. Головнокомандувач ЗСУ не виступав зі зверненням і не закликав до військового перевороту. Розповсюджуючи подібні фейки, рашисти прагнуть посіяти панічні настрої серед населення та запевнити у розколі між владою і військовими”, пише ЦПД.

Там нагадали, що напередодні попереджали: росіяни почнуть розповсюджувати ІПсО про розкол між Президентом і вищим військовим керівництвом.

Росіяни поширюють фейкове відео з Залужним

Також росіяни за допомогою штучного інтелекту створювали цілі сюжети про нібито відключення світла в Україні. Такі ролики поширювали у соцмережах.

Як розпізнати діпфейк

Діпфейк – це відео-підробки, які були синтезовані нейромережами. У таких роликах на зображення чи відео накладають інші матеріали. Таким чином вдається отримати ролик, який повністю копіює рухи людини, її міміку та жести.

Як розпізнати діпфейк пише speka.media.

Для створення дипфейків використовують генеративні змагальні нейромережі (GAN). Це алгоритми на базі машинного навчання, які створюють новий контент на основі певного заданого набору.

Наприклад, нейромережі можуть вивчити тисячі роликів з Томом Крузом і створити нове з рисами обличчя і мімікою актора. При цьому один алгоритм створює відео, а інший перевіряє його на достовірність. Якщо другий алгоритм виявив підробку, він повідомляє першому, що той зробив не так. У парі ці дві мережі продовжують працювати, поки результат не стане достатньо реалістичним.

Технологію дипфейків розробив у 2014 році студент Стенфорду Єн Гудфелоу. У 2017-му вона здобула популярність завдяки користувачу Reddit з ніком deepfake, який почав змінювати обличчя героїнь порнофільмів на обличчя знаменитостей.

Дипфейки критикують за те, що їх можна використовувати для шахрайства та маніпуляцій суспільною думкою. Сьогодні у технології з’явився ще один небезпечний вимір — використання у війні. З огляду на те що технологія зовсім нова і прогресує з кожним днем, російсько-українська війна стала першим збройним конфліктом, де дипфейки можуть бути серйозною зброєю.

Якщо над дипфейком працювала команда фахівців із машинного навчання, постпродакшену й акторів, якщо вони свідомо робили це відео реалістичним і витратили кілька тижнів, то помітити фейковість відео звичайним оком буде дуже важко. Але якщо є доступ до оригінального відеофайлу, то можна застосувати методи аналізу мікроартефактів на основі інших нейронних мереж. Таке до снаги тільки спеціалістам із машинного навчання.

Якщо ж відео робили поспіхом, то можна помітити певні недоліки у зоні вух, зубів і повік під час кліпання. Найпростіше зробити дипфейк людини, яка прямо дивиться в камеру й говорить монотонний текст. Повороти голови, виразна міміка, активна жестикуляція ускладнюють процес, саме на них потрібно звертати увагу. У вищезгаданому відео з Обамою можна помітити, що його зіниці рухаються повільно, очі через це схожі на скляні, а міміка довкола губ інколи виглядає як намальована.

В умовах війни найкращим способом відрізнити дипфейк від правди завжди буде розуміння контексту і базові правила медіаграмотності. Якщо політик одного дня оголосив, що ми за жодних умов не будемо оголошувати капітуляцію, а наступного дня каже, що ми капітулюємо, то це, найімовірніше, неправда. Перевіряйте джерела інформації, не довіряйте анонімним паблікам і каналам, завжди чекайте підтвердження будь-якої новини з офіційних державних каналів зв’язку.

Ще новини України: Умєров відреагував на заяви щодо «звільнення» Залужного – деякі політики намагаються розколоти суспільство

To Top
Розділи
Назад
Важливі
Новини
Lite
Допо-га
×