Русский
Русский
English
Статистика
Реклама

Узнаю тебя из тысячи новый алгоритм способен распознать дипфейк по отражению в глазах



Интернет наполнен самыми причудливыми фотографиями и видео знаменитостей. Кто-то пробуется на новые роли, делает вызывающие заявления, выступает в не самых благоприятных образах, неожиданно снимается в фильмах 18+ и творит прочие абсурдности. В общем-то, человек хозяин своей судьбы, поэтому переживать за всех этих людей не стоит. Но проблема в том, что новые технологии позволяют подставить даже вполне здравомыслящего человека, создав дипфейк, видео или фото. Но и от этой болезни нашлось лекарство.

Ученые из Университета штата Нью-Йорк в Буффало предложили надежный способ, позволяющий отличить дипфейковое изображение от настоящего. В основе решения отражение в глазах человека. Как ни странно, но искусственно сгенерированное сетью GAN-изображение имеет отличия в бликах и отражении в глазах.

Лицо VS дипфейк


За последние годы технологии изменения лица на фотографиях получила новые виток разивтия. Отличить настоящее фото от скомпилированного стало почти невозможно. Выявить подделки не могут даже алгоритмы. И неудивительно, вся эта сфера развивается по спирали с догоняющим эффектом. Что это значит? Пока одна сторона создает новые технологии подмены лица, другая работает над программами обнаружения этих фейков. Процесс так и не заканчивается, а постоянные усовершенствования приводят к спиральной динамике во всех сферах, связанных с созданием/обнаружением дипфейков.

Источник

Так что там с отражениями? Глаза человека находятся ближе между собой, чем источник света. Когда мы берем реальную фотографию, то ее отражения в нашем правом и левом глазах одинаковые. Они могут иметь отличия, но незначительные. Так вот, в алгоритмах для подмены изображений отсутствуют физические ограничения, описывающие поведение отражений. Как итог, создаваемые сетью лица имеют отличные между собой отражения и блики.

Как работает новый алгоритм?


Для правильной работы алгоритма необходимо соблюдение следующих условий:

  • Оба глаза смотрят в камеру. Линия, соединяющая глаза, параллельна камере.
  • Глаза отдалены от источника света или отражения.
  • Источники света или отражатели видимы обоими глазами.


Изображения реальные (сверху) и фейковые (снизу)

Затем запускается алгоритм. И работает он по следующей схеме:

  1. Алгоритм находит на фотографии лицо.
  2. Обозначает контур лица и размечает реперные точки: кончики глаз, рот, нос, брови.
  3. На основании ключевых точек вырезает область глаз, ограниченную радужной оболочкой.
  4. Затем включается механизм бинаризации. Если яркость пикселей выше пороговых значений, то они отмечаются черным цветом, остальные оставляют белыми.
  5. Получают два изображения: в правом и левом глазах.
  6. С помощью коэффициента Жаккара сравнивают их идентичность.


Оценка результатов



Для оценки эффективности и работоспособности алгоритма ученые использовали две выборки:

  • реальные лица из Flickr-Faces-HQ;
  • искусственно созданные нейросетью StyleGAN2 лица с ресурса This Person Does Not Exist.


График сходства для сгенерированных сетью и реальных изображений

Собрав необходимые данные, они построили график. Также добавили для анализа ROC-кривую.



На графике видно, что идентифицировать лица, реальные или сгенерированные, удалось с точностью 94%. Результат впечатляющий.

Но есть и минус. Алгоритм отлично работает с портретным изображением и ярким светом. То есть практически в идеальных условиях. Помимо этого, алгоритм сравнивает не форму изображение в целом, а разбивает фотографии на пиксели.

Боли дипфейков



Авторство технологии дипфейка, появившейся в 2014 году, приписывают студенту Стэнфорда Яну Гудфеллоу. Ее долго использовали среди разработчиков в научных целях. Но уже через три года один из пользователей Reddit заменил с помощью технологии лица знаменитостей в порнофильмах. И понеслось.

Два самых распространенных варианта применения ложных изображений это троллинг знаменитостей и политические манипуляции.



Палата представителей конгресса США увидела реальную угрозу в существовании технологии. И считает, что дипфейки представляют угрозу национальной безопасности. В Калифорнии в итоге запретили на законодательном уровне распространение дипфейков с кандидатами во время выборных кампаний.

Источник: habr.com
К списку статей
Опубликовано: 15.03.2021 22:22:10
0

Сейчас читают

Комментариев (0)
Имя
Электронная почта

Блог компании selectel

Машинное обучение

Научно-популярное

Искусственный интеллект

Deep learning

Deepfake

Дипфейк

Казусы

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru