En
Тренды

Дипфейки: как нейросети копируют реальность

Нейросеть — это буквально человеческий мозг, только в электронном виде. Они способны учиться, запоминать информацию и воспроизводить ее. Искусственный интеллект распознает людей по походке, генерирует реалистичные лица (ненастоящих) людей, даже создает мемы. Сейчас стали особенно популярны так называемые дипфейки. Их активно обсуждают, спорят, боятся и пробуют делать сами. Сегодня объясняем, что такое дипфейки, как они работают и чем опасны.

Дипфейки — это новый формат видеороликов, на которых лица одних людей заменяют другими. Для создания таких видео используют генеративно-состязательные нейросети (GAN). Механизм такой: одна часть алгоритма учится на реальных фотографиях определенного человека и создает изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнет путать копию с оригиналом.

Технологию GAN еще в 2014 году разработал студент Стэнфордского университета Ян Гудфеллоу, и долгое время она использовалась только среди исследователей и разработчиков ИИ. О дипфейках интернет узнал в 2017 году, когда на Reddit стали появляться порноролики, в которых лица порноактрис заменили на лица звезд. Тогда же появилось само слово deepfake — deep learning (глубокое обучение) + fake (подделка).

Дипфейки в массовой культуре

Подобные видео быстро забанили, однако технология не осталась забытой. Одним из вирусных дипфейк-роликов стало видео, на котором лицо актрисы Дженнифер Лоуренс во время ее выступления на премии «Золотой глобус» заменили на лицо актера Стива Бушеми. Другим своеобразным развлечением для интернет-пользователей стало создание дипфейк-видео, на которых в кадры из различных фильмов добавляют лицо актера Николаса Кейджа. Выглядит забавно и пугающе реалистично.

derpfakes/YouTube

Дипфейки в политике

Дипфейки используют не только лица звезд, но и политиков. Например, в мае 2018 года в сети появился ролик, в котором президент США Дональд Трамп обращается к жителям Бельгии, призывая их отказаться признать Парижские соглашения по климатическому урегулированию. Видео вызвало волну возмущения в комментариях в адрес американского президента. Однако позже выяснилось, что Трамп ничего такого не говорил, а само видео было заказано бельгийской социалистической партией, чтобы привлечь внимание к проблеме изменения климата.

А на этом видео актер и режиссер Джордан Пил от лица Барака Обамы предостерегает пользователей от опасности фейковых новостей.

«Мы вступаем в эру, в которой наши враги могут заставить любого сказать что угодно и когда угодно», — говорит «Барак Обама».

Где еще встречаются дипфейки

Тем не менее дипфейки используют не только для развлечения или троллинга. Британская компания Synthesia сняла социальную рекламу об опасностях малярии. В ней принял участие известный футболист Дэвид Бэкхем. В ролике он говорит на девяти языках, а помогли ему в этом девять людей, выживших после болезни, и все те же нейросети.

Malaria Must Die/YouTube

В технологии дипфейков видят огромный потенциал для киноиндустрии и создания спецэффектов, однако возможность приписать любому человеку слова и действия, которых он не говорил и не совершал, несет огромные угрозы.

Screenlifer попросил автора телеграм-канала «Малоизвестное интересное» Сергея Карелова прокомментировать, насколько опасны дипфейки, и можно ли с ними справиться:

«Дипфейки — это совсем не игрушка. Заинтересованные люди готовы вкладывать в создание deepfakes большие деньги. Технология удобна тем, что распознать подделку невероятно сложно. Пока на это будет тратиться время, фейковое видео уже разойдется по сети и будет принято за настоящее. Это средство влияния, с помощью которого могут дискредитировать звезд и политиков — вообще кого угодно.

Это серьезная проблема, которую сейчас всячески стараются, если не решить (это практически невозможно), то хотя бы уменьшить неприятные последствия. Например, в прошлом году DARPA (они разрабатывают новые технологии для Вооруженных сил США) провели конкурс среди ведущих мировых экспертов в области ИИ на лучший дипфейк. Задачей конкурсантов было создать наиболее убедительные видеоролики, аудиозаписи или изображения, а также попытаться найти способы научиться отличать их от настоящих.

Распознают дипфейки точно так же, как создают — с помощью нейросетей. Соотношение сил по созданию фейковых видеороликов и их обнаружению отлично описывает проблема брони и снаряда. Допустим, существует броня, которая способна защитить от сегодняшних снарядов, но дальше изобретут снаряд, который преодолеет эту броню. Потом изобретут броню, которая справится с новым снарядом, а за ней — снаряд, который осилит и эту броню. И так далее.

Дипфейки — это последствия прогресса технологий. Так же, как после открытия атомной энергии последовала атомная бомба, после того, как начали успешно работать системы распознавания, появились дипфейки. Это такая обратная сторона, которая, к сожалению, всегда будет».

Евгения Созанкова

0 комментариев
2
Еще статьи на эту тему
0 комментариев