• En
    Тренды

    Дипфейки: как нейросети копируют реальность

    Нейросеть — это буквально человеческий мозг, только в электронном виде. Они способны учиться, запоминать информацию и воспроизводить ее. Искусственный интеллект распознает людей по походке, генерирует реалистичные лица (ненастоящих) людей, даже создает мемы. Сейчас стали особенно популярны так называемые дипфейки. Их активно обсуждают, спорят, боятся и пробуют делать сами. Сегодня объясняем, что такое дипфейки, как они работают и чем опасны.

    Truth Syrup/YouTube; ScreenSlam/YouTube

    Дипфейки — это новый формат видеороликов, на которых лица одних людей заменяют другими. Для создания таких видео используют генеративно-состязательные нейросети (GAN). Механизм такой: одна часть алгоритма учится на реальных фотографиях определенного человека и создает изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнет путать копию с оригиналом.

    Технологию GAN еще в 2014 году разработал студент Стэнфордского университета Ян Гудфеллоу, и долгое время она использовалась только среди исследователей и разработчиков ИИ. О дипфейках интернет узнал в 2017 году, когда на Reddit стали появляться порноролики, в которых лица порноактрис заменили на лица звезд. Тогда же появилось само слово deepfake — deep learning (глубокое обучение) + fake (подделка).

    Дипфейки в массовой культуре

    Подобные видео быстро забанили, однако технология не осталась забытой. Одним из вирусных дипфейк-роликов стало видео, на котором лицо актрисы Дженнифер Лоуренс во время ее выступления на премии «Золотой глобус» заменили на лицо актера Стива Бушеми. Другим своеобразным развлечением для интернет-пользователей стало создание дипфейк-видео, на которых в кадры из различных фильмов добавляют лицо актера Николаса Кейджа. Выглядит забавно и пугающе реалистично.

    derpfakes/YouTube

    Дипфейки в политике

    Дипфейки используют не только лица звезд, но и политиков. Например, в мае 2018 года в сети появился ролик, в котором президент США Дональд Трамп обращается к жителям Бельгии, призывая их отказаться признать Парижские соглашения по климатическому урегулированию. Видео вызвало волну возмущения в комментариях в адрес американского президента. Однако позже выяснилось, что Трамп ничего такого не говорил, а само видео было заказано бельгийской социалистической партией, чтобы привлечь внимание к проблеме изменения климата.

    А на этом видео актер и режиссер Джордан Пил от лица Барака Обамы предостерегает пользователей от опасности фейковых новостей.

    «Мы вступаем в эру, в которой наши враги могут заставить любого сказать что угодно и когда угодно», — говорит «Барак Обама».

    Где еще встречаются дипфейки

    Тем не менее дипфейки используют не только для развлечения или троллинга. Британская компания Synthesia сняла социальную рекламу об опасностях малярии. В ней принял участие известный футболист Дэвид Бэкхем. В ролике он говорит на девяти языках, а помогли ему в этом девять людей, выживших после болезни, и все те же нейросети.

    Malaria Must Die/YouTube

    В технологии дипфейк технологии видят огромный потенциал для киноиндустрии и создания спецэффектов, однако возможность приписать любому человеку слова и действия, которых он не говорил и не совершал, несет огромные угрозы.

    Screenlifer попросил автора телеграм-канала «Малоизвестное интересное» Сергея Карелова прокомментировать, насколько опасны дипфейки, и можно ли с ними справиться:

    «Дипфейки — это совсем не игрушка. Заинтересованные люди готовы вкладывать в создание deepfakes большие деньги. Технология удобна тем, что распознать подделку невероятно сложно. Пока на это будет тратиться время, фейковое видео уже разойдется по сети и будет принято за настоящее. Это средство влияния, с помощью которого могут дискредитировать звезд и политиков — вообще кого угодно.

    Это серьезная проблема, которую сейчас всячески стараются, если не решить (это практически невозможно), то хотя бы уменьшить неприятные последствия. Например, в прошлом году DARPA (они разрабатывают новые технологии для Вооруженных сил США) провели конкурс среди ведущих мировых экспертов в области ИИ на лучшее дипфейк видео. Задачей конкурсантов было создать наиболее убедительные видеоролики, аудиозаписи или изображения, а также попытаться найти способы научиться отличать их от настоящих.

    Распознают дипфейки точно так же, как создают — с помощью нейросетей. Соотношение сил по созданию фейковых видеороликов и их обнаружению отлично описывает проблема брони и снаряда. Допустим, существует броня, которая способна защитить от сегодняшних снарядов, но дальше изобретут снаряд, который преодолеет эту броню. Потом изобретут броню, которая справится с новым снарядом, а за ней — снаряд, который осилит и эту броню. И так далее.

    Дипфейки — это последствия прогресса технологий. Так же, как после открытия атомной энергии последовала атомная бомба, после того, как начали успешно работать системы распознавания, появились дипфейки. Это такая обратная сторона, которая, к сожалению, всегда будет».

    Евгения Созанкова

    0 комментариев
    Отменить
    Еще статьи на эту тему

    Мы и наши партнеры используем файлы cookie на нашем сайте для персонализации контента и рекламы, предоставления функций социальных сетей и анализа нашего трафика. Продолжая просмотр страниц сайта, вы принимаете условия его использования. Более подробные сведения можно посмотреть в Политике конфиденциальности.