Домашняя » как » Как определить «фальшивое» видео с заменой лица

    Как определить «фальшивое» видео с заменой лица

    Недавно Reddit снова делал новости с помощью subreddit, в котором люди используют инструмент машинного обучения под названием «Deep Fake», чтобы автоматически заменять лицо одного человека другим в видео. Очевидно, так как это Интернет, люди используют его для двух вещей: поддельные знаменитости порно и вставив Николас Кейджа в случайные фильмы.

    В то время как обмен чьего-либо лица на фотографии всегда был относительно легким, замена чьего-либо лица в видео раньше была трудоемкой и трудоемкой. До сих пор это в основном делалось студиями VFX для больших бюджетных голливудских фильмов, где лицо актера заменено на дублер. Но теперь, с Deep Fake, любой, у кого есть компьютер, может сделать это быстро и автоматически.

    Прежде чем идти дальше, вы должны знать, как выглядит Deep Fake. Посмотрите видео SFW ниже, которое представляет собой подборку различных свопов с участием знаменитостей, в основном с участием Nic Cage.

    Программное обеспечение Deep Fake работает с использованием машинного обучения. Сначала тренируется с целевым лицом. Искаженные изображения цели запускаются по алгоритму, и он учится исправлять их, чтобы они напоминали неизменное лицо цели. Когда алгоритм затем передает изображения другого человека, он предполагает, что они являются искаженными изображениями цели, и пытается исправить их. Для получения видео программа Deep Fake работает с каждым кадром индивидуально..

    Причина, по которой Deep Fakes в основном задействовали только актеров, заключается в том, что имеется множество видеороликов о них, доступных с разных точек зрения, что делает тренировку более эффективной (Николас Кейдж имеет 91 действующий кредит на IMDB). Однако, учитывая количество фотографий и видео, которые люди публикуют в Интернете, и что вам действительно нужно всего около 500 изображений для обучения алгоритму, нет никаких причин, по которым обычные люди тоже не могут быть нацелены, хотя, вероятно, с меньшим успехом.

    Как определить глубокую подделку

    Прямо сейчас, Deep Fakes довольно легко обнаружить, но с развитием технологий все сложнее. Вот некоторые из бесплатных подарков.

    Странно выглядящие лица. Во многих Deep Fakes лица просто выглядят странно. Функции не выстраиваются идеально, и все выглядит немного восковым, как на рисунке ниже. Если все остальное выглядит нормально, но лицо кажется странным, это, вероятно, Deep Fake.

    Мерцающий. Общей чертой плохих видео Deep Fake является мерцающее лицо, и иногда появляются оригинальные черты лица. Это обычно более очевидно на краях лица или когда что-то проходит перед ним. Если происходит странное мерцание, вы смотрите на Deep Fake.

    Разные тела. Глубокие подделки - это только обмен лицом Большинство людей пытаются получить хороший матч тела, но это не всегда возможно. Если человек кажется заметно тяжелее, светлее, выше, ниже или имеет татуировки, которых нет в реальной жизни (или нет татуировок, которые есть в реальной жизни), есть большая вероятность, что это фальшивка. Вы можете увидеть действительно очевидный пример ниже, где лицо Патрика Стюарта поменялось местами с J.K. Симмонс в кадре из фильма «Хлыст». Симмонс значительно меньше, чем Стюарт, так что это выглядит странно.

    Короткие клипы. Прямо сейчас, даже когда программное обеспечение Deep Fake работает идеально и создает практически неразличимый обмен лицами, оно действительно может сделать это только в течение короткого периода времени. Вскоре одна из проблем выше начнет происходить. Вот почему большинство клипов Deep Fake, которыми обмениваются люди, занимают всего пару секунд, остальные кадры непригодны для использования. Если вам показывают очень короткий клип о том, как знаменитость что-то делает, и нет веской причины, по которой он так короток, это признак того, что это Deep Fake.

    Нет звука или плохая синхронизация губ. Программное обеспечение Deep Fake регулирует только черты лица; волшебным образом это не делает одного человека похожим на другого. Если в клипе нет звука, и нет причин, чтобы он не звучал, это еще одна подсказка, которую вы смотрите на Deep Fake. Точно так же, даже если есть звук, если произнесенные слова не совпадают правильно с движущимися губами (или губы выглядят странно, когда человек говорит, как в скриншоте ниже), у вас может быть глубокая подделка.

    Невероятные клипы. Этот вид само собой разумеется, но, если вам показывают действительно невероятный клип, есть хороший шанс, что вы на самом деле не должны в это верить. Николас Кейдж никогда не снимался в роли Локи в фильме Marvel. Это было бы круто, хотя.

    Сомнительные источники. Как и в случае с поддельными фотографиями, откуда видео, предположительно, взято, часто является большой подсказкой относительно его подлинности. Если «Нью-Йорк Таймс» рассказывает историю, гораздо более вероятно, что что-то, что вы обнаружите в случайном уголке Reddit, окажется правдой..


    В настоящее время Deep Fakes представляют собой скорее ужасающее любопытство, чем серьезную проблему. Результаты легко заметить, и хотя невозможно потворствовать тому, что делается, никто пока не пытается выдать Deep Fakes за подлинное видео.

    Однако, по мере совершенствования технологий, они, вероятно, станут гораздо более серьезной проблемой. Например, убедительные фальшивые кадры, в которых Ким Чен Ын объявляет войну США, могут вызвать серьезную панику..