Что такое дипфейки в интернете, чем они опасны и как с ними бороться

Наверняка вы встречали в интернете шокирующие видео из жизни известных людей. В подобных сюжетах знаменитости делают странные заявления, нелепо себя ведут. Это подрывает их авторитет, портит репутацию и вызывает поток обсуждений. А после разбора сенсационных роликов нередко выясняется, что это фальшивка или дипфейк.

Что такое дипфейк

Deepfake в переводе с английского языка означает «глубокий обман». В основе этого явления лежит то, что искусственный интеллект сейчас достиг такого уровня развития, при котором он способен создавать видео с виртуальным двойником любого человека на базе обработки множества его фотографий. То есть можно сфабриковать какой угодно видеосюжет с участием звезды и наложить на него провокационный текст.

Эта технология появилась в 2014 году. Ее изобрел Ян Гудфеллоу, который в то время проходил обучение в Стэнфордском университете. Через несколько лет с ее помощью пользователи всемирно известного развлекательного портала Reddit начали создавать компрометирующие ролики, в которых лица порноактрис подменялись лицами знаменитостей. Последовал скандал, в результате чего Reddit установил жесткие ограничения на публикацию эротических видеоматериалов, а подобный фальшивый контент начали называть дипфейком.

Наиболее известные дипфейки

Анализ показывает, что 96% от общего количества синтезированных роликов составляет порно. Однако сейчас наибольший интерес для производителей дипфейков представляют известные политики. Подлинные видео, на которых присутствуют авторитетные люди, подвергают изменениям и наполняют компрометирующими заявлениями.

Самыми нашумевшими дипфейками последнего времени являются:

  • видео с пьяной Нэнси Пелоси, спикером палаты представителей конгресса США;
  • видео с президентом США Дональдом Трампом, который жестко высказывается против инициатив, связанных с защитой климата;
  • видео с экс-президентом США Бараком Обамой, который называет действующего президента Трампа «засранцем»;
  • видео с главой Facebook Марком Цукербергом, где он говорит о своем мировом господстве.

Конечно, некоторые дипфейки не приносят никому вреда. Они имеют шутливый, развлекательный характер и подобны фотошопу или другому софту, работающему с изображениями ради забавы. Например, на Youtube можно найти ролики, где в известных фильмах лица главных героев заменены лицами других звезд Голливуда.

Например:

  • Терминатор в исполнении Сильвестра Сталлоне;
  • Брюс Ли в роли Нео из «Матрицы»;
  • Джим Керри вместо Джека Николсона в «Сиянии».

Дипфейк-технологии также используются в рекламе для привлечения внимания к социальным проблемам. Например, британская телекомпания выпустила информационный ролик с участием известного английского футболиста Дэвида Бекхэма о малярии. Благодаря синтезированному видео звезда без акцента заговорила на 9 иностранных языках: искусственный интеллект подстроил артикуляцию Бекхэма под запись речи, которую произносили носители.

Говорить об однозначном вреде этой технологии нельзя. Слишком многое зависит от цели ее применения.

Негативные последствия дипфейков

Самая большая опасность этой технологии состоит в том, что она позволяет нечестным людям манипулировать правдой и распространять ложную информацию. Порочащие видео подрывают репутацию знаменитостей и торговых брендов. Дипфейки способны оказывать негативное влияние на политические процессы, создавать угрозу мировой безопасности.

«Липовые» видеосюжеты часто используются в качестве информационного оружия. Поэтому члены палаты представителей конгресса США обеспокоены быстрым распространением этой технологии и считают, что она способна негативно повлиять на предстоящую в 2020 году президентскую предвыборную кампанию. В штате Калифорния уже принят закон, запрещающий распространение дипфейков в этот период.

Почему дипфейков становится все больше

Эксперты предупреждают, что в течение полугода ожидается значительный прогресс в технологии производства дипфейков. Это связано со стремительным развитием искусственного интеллекта и нейросетей.

Уже сейчас есть возможность создавать крупноплановые дипфейки высокого качества без значительных временных и финансовых вложений. Постепенно уходят мимические нестыковки, монотонность речи, нереалистичные движения и другие артефакты. Дипфейки становятся все более правдивыми.

Заменить лицо на фото благодаря специальным программам теперь может любой человек. Так и дипфейки постепенно становятся доступными для массового производства. Например, FaceApp-приложения уже вовсю используют эту технологию. Также в интернете можно найти руководства, обучающие пользователей подменять лица в видео категории 18+.

В ближайшее время ожидается широкое распространение дипфейков в рекламной сфере, индустрии развлечений, кино. Вместе с тем сильно возрастет угроза создания фейковых новостей.

Специалисты говорят, что перед производителями подобных материалов рано или поздно встанет вопрос о легализации контента. Может появиться такое понятие, как «прайс на лицо знаменитостей», то есть рекламу или кино уже не нужно будет снимать с их участием, достаточно будет лишь указывать, что представленное видео ― дипфейк.

Как планируется бороться с дипфейками

Уже сейчас интернет-корпорации мирового уровня, такие как Facebook, Microsoft и Google, понимают опасность реалистичных видео, созданных с помощью дипфейк-технологии. Компании пытаются выявлять и удалять подобный контент из сети. Для этого создаются специальные программы, распознающие дипфейки. Например, руководство Facebook назначило премию 10 млн. долларов разработчикам лучшего софта в этой категории.

На государственном уровне также можно ожидать принятия законов в области кибербезопасности. Они должны будут регламентировать способы и сферы применения этой продвинутой технологии, которая заключает в себе как серьезную угрозу, так и потенциальную выгоду.

Американские политики призывают социальные сети стоять на пути распространения дипфейков. Выявленные фальшивки предлагается помечать специальными водяными знаками или удалять.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *