Русский
Русский
English
Статистика
Реклама

Дипфейк

Перевод Может ли ИИ заменить голоса актеров из Симпсонов

12.03.2021 20:06:18 | Автор: admin

В мае 2015 года стало известно, что актер озвучивания мультсериала Симпсоны Гарри Ширер, чьим голосом говорят несколько ключевых персонажей, например, мистер Бернс и его ассистент Смитерс, покидает проект.

Причин тому сразу несколько. Во-первых, на тот момент сериал продолжался уже более 25 лет. Гонорары актеров все эти годы росли с 30 000 долларов за серию в 1998 году до 400 000 долларов с 2008 года. Однако такой расклад не устроил студию Fox: она пригрозила отменить подшефный сериал, если продюсеры не сократят оплату актеров хотя бы на 30%.

Нельзя просто так взять и уйти из Симпсонов

Почти все согласились с таким положением дел и продолжили работу. Однако Гарри Ширер, ранее уже критиковавший качество новых серий, отказался продлевать контракт. Двадцать лет в этой золотой клетке практически не оставляли ему свободного времени на собственные проекты. По словам шоураннера Эла Джина, на место Ширера планировалось нанять других актеров. На минуточку: рекасту могли подвергнуться в том числе директор Скиннер, Нед Фландерс и Отто Манн.

Но нельзя просто так взять и уйти из Симпсонов. Несколько месяцев спустя Ширер уступил студии и подписал новый контракт. Сериал и без того периодически ломает четвертую стену, а с экрана летят гэги о замене голосов озвучки. Но шутки шутками, а Симпсонам уже 32 года. Срок немалый, большая часть актеров уже перешагнула рубеж пенсионного возраста: большинству из них уже минуло 60, а то и 70 лет. Самому Ширеру уже 77. Есть вероятность, что в ближайшие годы он окончательно покинет проект уже по состоянию здоровья. То же самое может произойти и с другими голосами героев. Деньгами их не удержать: благодаря отчислениям за трансляции старых серий и озвучивание новых каждый из них сколотил состояние в десятки миллионов долларов.

Но может статься, что необходимость в содержании большого числа живых актеров вскоре отпадет сама собой. Не так давно персонаж Эдна Крабаппл (учительница Барта, была выведена из шоу после кончины актрисы Марсии Уоллес в 2013 году), снова появилась в сериале, на сей раз, чтобы окончательно проститься со зрителями. Для озвучки персонажа были использованы реплики, записанные при создании прошлых эпизодов.

Заменят ли актеров дипфейки

Вычислительные мощности постоянно растут, на рынок регулярно выходят новые, улучшенные технологии. В частности, постоянно развиваются и совершенствуются инструменты создания дипфейков. Возможно ли, что скоро любого персонажа можно будет сымитировать компьютерным образом?

Дипфейк можно создать даже на основе небольшого количества обучающих данных. А в распоряжении Fox находится запас озвучек за целых 32 года. Давайте разберемся, стоит ли ждать выхода на экран Симпсонов, в озвучивании которых не были задействованы реальные актеры.

Безусловно создать эпизод Симпсонов, правдоподобно озвученный при помощи ИИ, возможно говорит Тим МакСмитурс, исследователь ИИ и медиа-продюсер, построивший речевую модель, которую можно обучить имитировать любой голос. Но будет ли интересно его смотреть это уже другой вопрос.

На своем YouTube-канале, Speaking of AI, МакСмитурс переделал культовую сцену из фильма Ноттинг-Хилл: в роли героини Джулии Робертс выступает Гомер.

В другом видео на канале МакСмитурса голосом Дональда Трампа говорит глуповатый Ральф Виггам.

МакСмитурс построил ИИ-модель, способную превращать любой письменный текст в речь на английском языке. Чтобы создать новый голос, достаточно обучить модель на двух-трех часах записей реального человека, снабженных письменной расшифровкой. По словам МакСмитурса, ИИ фокусируется на речевых особенностях персонажа: на том, что делает Гомера Гомером.

После обучения модель может сгенерировать несколько дублей одной и той же сцены, и каждый из них будет немного отличаться от предыдущего. Остается выбрать один наиболее удачный и использовать его в своих целях.

Синтезированный голос персонажа звучит ясно и узнаваемо, хотя и несколько плоско. Он лишен характерных эмоций, которые актер озвучивания может добавить герою от себя. Создается ощущение, что знакомый голос зачитывает текст с бумажки, не понимая, о чем именно говорит.

Всё зависит от набора обучающих данных говорит МакСмитурс. Если в модель не заложен широкий спектр эмоций, она не сможет их произвести из ничего. Так что искусственный Гомер звучит гораздо менее энергично, чем настоящий.

Эмоции для дипфейков

Задачу придания искусственному голосу эмоций решает британский стартап Sonantic. Специалистам удалось создать собственную методику создания эмоций в голосах, сгенерированных ИИ. Чтобы получить как можно больше интонированных обучающих данных, программисты привлекают настоящих актеров озвучки. За одну сессию актер проходит один и тот же текст несколько раз, произнося его с разной эмоциональной окраской.

Мы знаем, в чем заключается разница между сарказмом и искренним участием, умеем обрабатывать крошечные нюансы звука говорит Джон Флинн, соучредитель и технический директор Sonantic. Мы научились качественно считывать и масштабировать естественные особенности и акценты живой речи. По словам Флинна, количество данных, необходимых для обучения, удалось сократить с 30-50 часов до 10-20 минут на человека.

Видео от Sonantic с демонстрацией возможностей технологии искусственного интеллекта по имитации человеческих эмоций:

Компании Replica Studios из Брисбена удалось построить модель для воссоздания голоса, которую можно обучить на 20 записях конкретных предложений. Чем больше исходных данных, тем качественнее результат. Но кое-что интересное можно сделать и за пару-тройку минут говорит Шреяс Нивас, соучредитель и генеральный директор Replica.

Слова состоят из слогов, они, в свою очередь, из фонем, отдельных звуков, которые можно издавать с помощью речевого аппарата. Теоретически, необходимые для обучения данные реально получить и из одного единственного предложения, известного как фонетическая панграмма. Такие предложения содержат все фонемы, свойственные языку, а их итоговое произношение будет зависеть от акцента и особенностей произносящего.

Распространенная панграмма для английского языка выглядит следующим образом: The beige hue on the waters of the loch impressed all, including the French queen, before she heard that symphony again, just as young Arthur wanted.

Такой же (во всяком случае, сходный) пример для русского языка: Всё ускоряющаяся эволюция компьютерных технологий предъявила жесткие требования к производителям как собственно вычислительной техники, так и периферийных устройств.

Технология генерации голоса из текста кое-где уже применяется. Хороший пример видеоигры. Sonantic сотрудничает с компанией Obsidian, создателем некоторых игр серии Fallout и The Outer Worlds, а к услугам Replica прибегают и AAA-студии, и инди-разработчики. В частности, синтезированные фоновые диалоги позволяют наполнить открытый игровой мир гораздо большим количеством контента и сделать его живее. Подобный объем живых записей с участием актеров озвучивания стоил бы непомерно дорого и замедлил бы процесс производства игры.

Технология особенно полезна на ранних стадиях разработки: ИИ-голос можно использовать в качестве плейсхолдера и обкатать на нем различные варианты сценария. Когда всё будет готово, можно пригласить профессионального актера и записать реплики, не прерываясь на изменения и исправления.

В спортивных играх ИИ-голоса часто отдаются комментаторам (например, такой подход используется в FIFA для живого комментирования матчей). Существует также модификация для Cyberpunk 2077, которая позволяет изменить имя главного героя и заставить ключевых персонажей, которые обращаются к игроку, произносить его.

Так что там с Симпсонами?

Если студия Fox решится делегировать ИИ работу над озвучкой тех же Симсонов, все эти навороты вряд ли пригодятся: диалоги заранее прописаны, а времени на качественную генерацию речи предостаточно. Но куда более вероятен сценарий, при котором место классических актеров займут люди с похожим тембром и сходными голосовыми возможностями. Если цель состоит в том, чтобы снять еще один эпизод шоу, ничего лучше, чем собрать актеров, вручить им сценарий и попросить прочитать реплики, не найдется. Они этим занимаются уже не один десяток лет, им под силу воплотить своих персонажей на высочайшем уровне говорит Нивас. Использование ИИ-актера потребует приложить гораздо больше усилий.

Помимо сугубо технических проблем, авторы шоу могут столкнуться с массой юридических проблем и нюансов.

При отсутствии каких-либо договорных отношений в игру вступает закон об авторском праве. Тот, кто владеет авторскими правами на Симпсонов, будет обладать всеми правами на воспроизведение готовых работ, включая записи актеров, а также правом на создание производных работ говорит Дженнифер Ротман, специалист по авторскому праву из Университета Пенсильвании.

Но это противоречит набору законов, регулирующих право свободы голоса. Актеры и исполнители могут контролировать несанкционированное использование своих имен, образов и, в том числе, записей своих голосов.

Например, создатель Family Guy (Гриффины) Сет МакФарлейн озвучил и Брайана, и Стьюи. Притом своим естественным голосом он говорит от имени пса. Голос младенца Стьюи же был придуман им специально для этого образа. Так что технически прав на Брайана у актера несколько больше. Тем не менее, поскольку МакФарлейн также является создателем сериала, очень сомнительно, что его голос кто-то может заменить на искусственный без согласия автора.

Еще один сходный прецедент имел место в 1993 году. Два актера из сериала Cheers, Джордж Вендт и Джон Ратценбергер, подали в суд на Paramount за использование своих образов в качестве промо в барах аэропортов. Актеры утверждали, что право на публичность дает им контроль над собственным имиджем, Студия же утверждала, что закон об авторском праве позволяет создавать и эксплуатировать производные работы на основе ситкома. Дело рассматривалось в суде восемь лет, и студия в конечном итоге согласилась выплатить актерам гонорар за несанкционированную рекламу. Сумма не раскрывается.

Но актерам озвучивания, вероятно, пока не требуется искать адвоката по авторскому праву. Ни один инструмент генерации голоса не разрабатывается с целью полностью заменить реальных актёров на дешевые ИИ-копии. И Sonantic, и Replica стремятся подчеркнуть, что они работают с живыми актерами и, согласно внутренней модели распределения доходов, люди, чьи голоса используются для синтеза в видеоиграх, получают регулярные отчисления.

Зина Куреши, генеральный директор и соучредитель Sonantic, сравнивает нынешние технологии генерации голоса с первыми днями CGI: Возможно воспроизвести голос реального актера, но не заменить его в фильме или сериале. CGI не лишил работы операторов, актеров, эта технология лишь помогает им работать лично и виртуально. Даже если человек уйдет на пенсию, его голос сможет работать за него.

МакСмитурс также проводит параллели с компьютерной графикой. По его словам, уже на данный момент возможно снять и озвучить эпизод Симпсонов без участия актеров озвучивания. Это будет долго, сложно, понадобится не одна сотня дублей. Тем не менее, вряд ли полученный результат выдержит испытание временем. Компьютерная графика начала 1990-х кажется современному зрителю неубедительной, устаревшей. То же самое произойдет с голосами. Тем не менее, можно использовать эту технологию во благо: например, для создания коротких фрагментов, призванных ненадолго вернуть умершего актера, чтобы он мог попрощаться со зрителем.

Актеры привносят в своих персонажей гораздо больше, нежели просто голос. Они дарят свои эмоции, чувства говорит МакСмитурс. Дэн Кастелланета наполняет двумерного Гомера своей теплотой, глубиной и прочими жизненно важными качествами, за которые мы его так любим. Настоящие люди очень хорошо умеют быть людьми.

Подробнее..

Узнаю тебя из тысячи новый алгоритм способен распознать дипфейк по отражению в глазах

15.03.2021 22:22:10 | Автор: admin


Интернет наполнен самыми причудливыми фотографиями и видео знаменитостей. Кто-то пробуется на новые роли, делает вызывающие заявления, выступает в не самых благоприятных образах, неожиданно снимается в фильмах 18+ и творит прочие абсурдности. В общем-то, человек хозяин своей судьбы, поэтому переживать за всех этих людей не стоит. Но проблема в том, что новые технологии позволяют подставить даже вполне здравомыслящего человека, создав дипфейк, видео или фото. Но и от этой болезни нашлось лекарство.

Ученые из Университета штата Нью-Йорк в Буффало предложили надежный способ, позволяющий отличить дипфейковое изображение от настоящего. В основе решения отражение в глазах человека. Как ни странно, но искусственно сгенерированное сетью GAN-изображение имеет отличия в бликах и отражении в глазах.

Лицо VS дипфейк


За последние годы технологии изменения лица на фотографиях получила новые виток разивтия. Отличить настоящее фото от скомпилированного стало почти невозможно. Выявить подделки не могут даже алгоритмы. И неудивительно, вся эта сфера развивается по спирали с догоняющим эффектом. Что это значит? Пока одна сторона создает новые технологии подмены лица, другая работает над программами обнаружения этих фейков. Процесс так и не заканчивается, а постоянные усовершенствования приводят к спиральной динамике во всех сферах, связанных с созданием/обнаружением дипфейков.

Источник

Так что там с отражениями? Глаза человека находятся ближе между собой, чем источник света. Когда мы берем реальную фотографию, то ее отражения в нашем правом и левом глазах одинаковые. Они могут иметь отличия, но незначительные. Так вот, в алгоритмах для подмены изображений отсутствуют физические ограничения, описывающие поведение отражений. Как итог, создаваемые сетью лица имеют отличные между собой отражения и блики.

Как работает новый алгоритм?


Для правильной работы алгоритма необходимо соблюдение следующих условий:

  • Оба глаза смотрят в камеру. Линия, соединяющая глаза, параллельна камере.
  • Глаза отдалены от источника света или отражения.
  • Источники света или отражатели видимы обоими глазами.


Изображения реальные (сверху) и фейковые (снизу)

Затем запускается алгоритм. И работает он по следующей схеме:

  1. Алгоритм находит на фотографии лицо.
  2. Обозначает контур лица и размечает реперные точки: кончики глаз, рот, нос, брови.
  3. На основании ключевых точек вырезает область глаз, ограниченную радужной оболочкой.
  4. Затем включается механизм бинаризации. Если яркость пикселей выше пороговых значений, то они отмечаются черным цветом, остальные оставляют белыми.
  5. Получают два изображения: в правом и левом глазах.
  6. С помощью коэффициента Жаккара сравнивают их идентичность.


Оценка результатов



Для оценки эффективности и работоспособности алгоритма ученые использовали две выборки:

  • реальные лица из Flickr-Faces-HQ;
  • искусственно созданные нейросетью StyleGAN2 лица с ресурса This Person Does Not Exist.


График сходства для сгенерированных сетью и реальных изображений

Собрав необходимые данные, они построили график. Также добавили для анализа ROC-кривую.



На графике видно, что идентифицировать лица, реальные или сгенерированные, удалось с точностью 94%. Результат впечатляющий.

Но есть и минус. Алгоритм отлично работает с портретным изображением и ярким светом. То есть практически в идеальных условиях. Помимо этого, алгоритм сравнивает не форму изображение в целом, а разбивает фотографии на пиксели.

Боли дипфейков



Авторство технологии дипфейка, появившейся в 2014 году, приписывают студенту Стэнфорда Яну Гудфеллоу. Ее долго использовали среди разработчиков в научных целях. Но уже через три года один из пользователей Reddit заменил с помощью технологии лица знаменитостей в порнофильмах. И понеслось.

Два самых распространенных варианта применения ложных изображений это троллинг знаменитостей и политические манипуляции.



Палата представителей конгресса США увидела реальную угрозу в существовании технологии. И считает, что дипфейки представляют угрозу национальной безопасности. В Калифорнии в итоге запретили на законодательном уровне распространение дипфейков с кандидатами во время выборных кампаний.

Подробнее..

Конструктивное использование DeepFake технологии

17.06.2020 22:05:08 | Автор: admin

Что такое DeepFake


Технология deepfake это методика синтеза аудио или видео с использованием генеративно-состязательных нейронных сетей. Впервые такая нейросеть была создана в 2014 году студентом Стэндфордского университета Яном Гудфеллоу. Он автоматизировал процесс обучения двух нейронных сетей, когда одна из них генерирует лица или голоса, а другая анализирует поученные результаты и даёт заключение: похожи они на оригинал, или нет. Технологию можно сравнить с работой художника, который копирует картины известных мастеров, а эксперт пытается выявить такую подделку. Не достаточно просто скопировать изображение, сохранить размеры и пропорции, а требуется повторить мельчайшие детали: технику нанесения краски, её состав, наличие повреждений на холсте и, при наличии, подпись автора. Когда эксперт обнаруживает подделку об этом сообщается копирующему, который переделывает свою работу, предлагая более качественный вариант подделки. Аналогично нейросети обучают друг друга до тех пор, пока вторая нейросеть примет сгенерированные изображения за реальные. После того, как эксперт не сможет отличить оригинал от копии начинается процесс изготовления более сложных подделок, а именно создание того, что никогда ранее не существовало. Визуальное представление состязательного обучения двух нейронных сетей подготовила компания OpenAI.

Можно ли распознать Fake видео


С распространением deepfake возникла опасность дискредитации любого человека, запись голоса или фото которого есть в сети. Первой жертвой этой атаки была актриса Галь Гадот. Это стало началом серии атак на представительниц прекрасного пола, вставляя их образы в порно ролики. Следующая волна deepfake атак была направлена на политических лидеров: Барака Обамы, Дональда Трампа, Нэнси Пелоси, Ричарда Никсона и других.
В первый момент deepfake видео выглядят весьма убедительно, но далеко не все они могут обмануть экспертов и специальные алгоритмы.
Один из способов распознания deepfake предложили учёные из Университета штата Нью-Йорк в Олбани. Они провели исследование, в результате которого выявили, что люди в спокойном состояние моргают в среднем 15-17 раз в минуту. Частота моргания увеличивается во время разговора, и падает во время чтения. Для генерации более достоверных результатов, алгоритмы выявления подделок должны учитывать множество различных параметров, в том числе физиологические особенности человека. Это потребует усложнения систем производства качественных deepfake. Со временем, алгоритмы повысят качество генерируемых подделок и решения по их выявлению. Рано или поздно выявление отклонения мельчайших деталей станет нормой для распознавания сгенерированных видеороликов. Уже сейчас алгоритмы могут анализировать движение глаз, изменение размера зрачка или частоту дыхания и сердцебиения. Проработаны решения биометрической идентификации человека по его персональным физиологическим особенностям, например, перемещения взгляда во время чтения. Многие политики и официальные лица, выступая публично читают заранее подготовленный текст. Наблюдая за движением их глаз, морганием и другими индивидуальными особенностями можно определить, какие из записей являются реальными, а какие поддельные.
Компании Facebook и Microsoft подвели итоги Deepfake Detection Challenge конкурса для разработчиков, который направлен на создание решений для борьбы с технологиями подмены лиц на видео. В конкурсе приняли участие 2114 разработчиков, которые создали более 35 тысяч моделей. Оценка эффективности алгоритмов проводилась двумя способами: в первом использовался заранее предоставленный разработчикам тестовый датасет, а во втором закрытый и усложненный (в нем использовались видео с бегущими строками, фильтрами и актерами, которые частично прикрывали лицо). Согласно турнирной таблице на Kaggle победил белорусский разработчик Селим Сефербеков из компании Mapbox: его алгоритм смог определить дипфейки с точностью 65,18%. На третьем месте, с результатом ненамного хуже, оказалась российская Ntech Lab, которая специализируется на создании алгоритмов распознавания лиц.

Где DeepFake может оказаться полезным


Дипфейки воспринимаются как нечто негативное, вводящее в заблуждение для обмана и компрометации. Однако в некоторых случаях эта технология может оказаться незаменимым помощником.

image

1. Реклама


Несмотря на то что технология deepfake сравнительно новый медиаинструмент, она может кардинально изменить сферу видеопродакшена. При выборе актёра для рекламного ролика важным фактором является его узнаваемость. В случае съёмки известного актёра существенную часть стоимости ролика будет составлять его гонорар.

Перед демонстрацией рекламы в разных странах её дублируют национальные дикторы, что не лучшим образом сказывается на узнаваемости образа. В совместной работе Ridley Scott Associates и Synthesia для озвучивания рекламного антималярийного ролика с Дэвидом Бекхэмом на девяти языках была использована технология deepfake.
При полноценной генерации голоса и изображения не потребуется надолго отрывать героя рекламы от его профессиональной деятельности, что позволит сократить значительную часть бюджета.
Но непосредственная съёмка человека или использование его видеообраза, сгенерированного для рекламы, требуют получения персонального согласия участника. Для сокращения зависимости рекламы от конкретного актёра компания KFC приняла решение использовать искусственно сгенерированный образ виртуального полковника Сандерса.

Компьютерные технологии позволяют одновременно генерировать и записывать несколько рекламных роликов, что повышает эффективность использования оборудования. Решения deepfake станут привычным инструментом при создании рекламы, когда стоимость их применения не будет превышать гонорара снимающихся артистов.
Один из новых способов привлечения внимания к рекламе это непосредственное интерактивное взаимодействие с пользователем.
Косметическая марка Vivienne Sab стала первой в России, кто запустил digital-кампанию с использованием технологии замены лиц. Это инновационная технология, которая позволит каждой девушке ощутить себя звездой Кабаре и поделиться с друзьями впечатляющим видео. И совсем недавно, эта компания предложила пользователям новый рекламный ролик с использованием технологии замены лиц. На этот раз участникам предлагается получить персональное предсказание с собой в главной роли.

image

2. Роботы и виртуальные консультанты


Уже используются виртуальные ведущие на телевидение Xin Xiaowei. Следующим шагом будет создание виртуального консультанта, для которого генерируется в реальном времени не только текст, но и голос.

Набирать вручную большой объём текста неудобно и долго. Особенно это не любит делать молодёжь. Симбиоз искусственного интеллекта, ведущего осмысленную беседу, и сгенерированного изображения рекламного лица компании позволит создать инновационного виртуального консультанта.

Можно добавить к этому биометрическую идентификацию собеседника (по лицу, голосу или радужке), и виртуальный консультант, узнав вас, продолжит прерванную беседу. Интеграция deepfake с биометрическими технологиями позволит создать сквозное омниканальное решение для поддержки пользователей. Начав общение по телефону, в мобильном приложении или на сайте, вы сможете завершить беседу при личной встрече с интеллектуальным роботом.
Такие роботы уже создаются. Пока они не полностью копируют исходный образ, поведение, мимику и речь. Но недавно СМИ сообщили, что актер Арнольд Шварценеггер подал в суд на российскую компанию Promobot за то, что та создала робота-двойника с его лицом.
Робот имитирует внешность своего прототипа. Он может двигать глазами, бровями, губами, шеей и воспроизводить более 600 вариантов микромимики человека. Также он может поддерживать разговор.

Для создания робота компания запатентовала собственную конструкцию лица, а также придумала свою технологию изготовления искусственной кожи. До создания настоящего терминатора остался один шаг объединить данную технологию с экзоскелетом.

image

3. Индустрия игр


Эта технология не может обойти стороной и индустрию компьютерных игр. Благодаря deepfake в игре может быть полностью воспроизведён наш образ и голос. А среди других участников игры мы станем узнавать наших друзей.

В современных играх мы сталкиваемся с абстрактным противником. Придав конкретному игроку индивидуальный образ с помощью deepfake, мы сможем отличать одного противника от другого. Мы станем узнавать их по шагам и голосу, оценивать опасность по их интонации, угадывать их поведение. Технология виртуальной реальности окончательно сотрёт границу между игрой и реальным миром. Новый импульс развития получит киберспорт он станет более реалистичным и захватывающим.

В индустрии игр всегда использовались передовые разработки. Не случайно термин игровой компьютер подразумевает мощную вычислительную систему. Развитие deepfake для игр сформирует базовые алгоритмы, которые будут использованы в других областях нашей жизни.

image

4. Кино


В 2001 году Джеймс Кэмерон работал над экранизацией фильма об инопланетянах по роману писательницы Патрисии Энтони под названием Братец Термит. В этом фильме инопланетяне должны были в реальном времени общаться с людьми. К сожалению, работа над фильмом вскоре была прекращена, но за это время Кэмерон успел опробовать технологию переноса реальных человеческих эмоций на анимированного персонажа.

Видеокамера отслеживала перемещение точек, нанесенных на лицо человека, и наделяла получившейся мимикой лицо нарисованного пришельца. Позже усовершенствованная технология была использована при съёмке фильма Аватар.
Компьютерные алгоритмы с того времени сильно изменились. Теперь для переноса эмоций и других действий героев не требуется наносить опорные точки, а весь процесс генерации видео сократился с нескольких месяцев до нескольких дней.
Использование deepfake позволит изменить подход к проведению кастинга. Современные технологии позволяют не только копировать действия и эмоции реального актёра, но и генерировать их самостоятельно. Например, создатели боевика о войне во Вьетнаме В поисках Джека рассматривают возможность вернуть на экраны культового голливудского актера Джеймса Дина, который погиб в 1955 году. Джеймса решили воссоздать с помощью компьютерной графики, а от семьи Дина были получены права на использование его образа в фильме.

Ещё один пример создание фильма Форсаж 7. Съёмки начались в сентябре 2013 года. Было отснято достаточно много материала, когда 30 ноября в автокатастрофе трагически погиб Пол Уокер, исполнитель роли Брайана ОКоннера. Выбор у продюсеров был ограничен: или закрывать картину, или что-то придумать. В марте было принято решение, что Уокера воспроизведут в некоторых эпизодах с помощью компьютерной графики, а в других с помощью дублёров.

Важным моментом в фильме является звуковое сопровождение. Артиста в фильм приглашают не только за его внешность. Незабываемый колорит фильмам придавали голоса Папанова, Леонова, Янковского и других актёров. К сожалению, не всегда получается качественно выполнить дублирование фильма. Отличается текст, тембр и интонация голоса, не соответствуют мимические движения.
Используя технологию deepfake, как и в случае с рекламой, фильм можно скомпилировать с учётом не только языковых, но и национальных особенностей для разных стран. По счастью, современные deepfake-технологии позволяют это сделать с помощью умных алгоритмов.
Весь мир несётся в виртуальное пространство. Исчезает зависимость от капризов исполнителей главных ролей. Ни один из актёров не подходит на роль? Не беда создадим виртуального героя согласно видению режиссёра.

Алгоритмы deepfake осуществляют переворот в киноиндустрии. При должном уровне развития технологии можно будет сгенерировать всех актеров, необходимых для фильма. При этом, если нет копирования конкретного актера, а создаётся новый образ со своим уникальным голосом и мимикой, необходимость в актерах пропадает. Исчезают баснословные гонорары, а киноиндустрия полностью оцифровывается и переходит к выпуску интерактивных анимационных фильмов, где сюжетная линия меняется в зависимости от реакции зрителей.

В этой новой реальности посещение театра с реальными актёрами станет чем-то эксклюзивным, как и вещи ручной работы.

image

5. Политика


Политику считают грязным делом. Это нашло отражение в первых политических рекламных роликах deepfake, которые имели оскорбительное или компрометирующее содержание. Но ситуация меняется, и технология deepfake начинает использоваться не для компрометации, а для агитации и привлечения политических сторонников. За день до выборов в Законодательное собрание Дели, 7 февраля 2020 года, были распространены две видеозаписи с президентом Партии Бхаратия Джаната (БДП) Маноджа Тивари. Для предвыборной агитации индийский политик использовал технологию deepfake. На записи Тивари на языке хинди, диалекте хариани, призывает не голосовать за конкурирующую партию. Запись распространили в 5 800 чатах WhatsApp, а сам ролик просмотрело более 15 миллионов человек. Другой текст ролика был записан на английском языке. Соратники Тивари по партии положительно оценили реакцию на эти видео: Домохозяйки в группе сказали, что им было радостно наблюдать, как наш лидер говорит на их языке. Другую оценку дал Пратик Синха, основатель AltNews, индийского веб-сайта, который проверяет публикации, сделанные в социальных сетях. Синха не смог определить, что видео Тивари было подделкой: Это опасно. Впервые я увидел что-то подобное в Индии. В тоже время Синха считает, что, в отличие от США, запрет использования поддельных видеороликов с участием политиков не будет работать в Индии.
Юридически будет сложно опротестовать такое использование deepfake технологии в политических целях, так как видео генерируется с согласия лица, образ которого используется в ролике, а использованный в нём текст заранее согласован.

Как получить максимум


Deepfake, как и другие технологии, можно использовать как в деструктивных, так и в созидательных целях. Применение дипфейков в рекламе и киноиндустрии уже продемонстрировало большие возможности в этих направлениях.

На данный момент широкое применение дипфейков сдерживается двумя факторами: недостаточным совершенством алгоритмов и высокой стоимостью конечного продукта. Но развитие индустрии развлечений позволит вывести deepfake на массовый рынок, что улучшит эти два показателя.

Пример такой реализации демонстрируют южнокорейские специалисты, подарившие безутешной матери возможность пообщаться с погибшей дочерью при помощи виртуальной реальности. На создание цифровой копии девочки им потребовалось восемь месяцев. Этический вопрос о том, как такие разработки влияют на психику людей, выходит за рамки данной статьи.

Развитие deepfake-технологий идёт очень быстро. Точность генерируемых данных улучшается. Алгоритмы выявления обмана совершенствуются. Законодательное регулирование использования дипфейков становятся строже. Но те фантастические возможности, которые предоставляет эта технология, найдут широкое применение в нашей жизни. Надо только сконцентрироваться на их конструктивном применении и заменить негативно воспринимаемое название deepfake на новое например, deepsynthesis.

В ближайшие три года можно ожидать появления многих компаний, которые будут оказывать услуги по генерации окружающего нас пространства. Эксперты уверены, что рынок коммерческого применения deepfake будет расти, и это хороший стимул для разработки решений с использованием этой технологии.

Оригинал статьи на сайте rb.ru
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru