По сути, простое в использовании приложение можно скачать и установить на любой ПК, а затем создавать фейковые видео в любом количестве.
В 2017 пользователь Reddit опубликовал несколько порнофильмов, в которых «засветились» фейковые версии актрис Эммы Уотсон, Дейзи Ридли и Кэти Пэрри. Администрации Reddit, Pornhub и Twitter пытаются остановить этот тренд, но настойчивые юзеры не сдаются. Теперь в поле зрения новоиспеченных монтажеров попали политики.
«Идея о том, что кто-то может наложить лицо одного человека на тело другого, сразу наводит на мысль о попытках вмешаться в естественный ход жизни, – говорит сенатор от штата Вирджиния Марк Уорнер, возглавивший группу по борьбе с Deepfakes в социальных сетях. – Это новая реальность, с которой нужно бороться, потому что в противном случае к 2020 году последствия могут стать необратимыми».
Искусственный интеллект научился генерировать убедительные фотографии людей
За видео, которые любители выкладывают на YouTube, в данный момент следят эксперты, специализирующиеся на цифровой криминалистике и анализе изображений.
Искусственный интеллект стали привлекать к созданию изображений и видео в 2015 году. Тогда исследователи из Стэнфорда разработали программу Face2Face, которая следит за мимикой двух людей с помощью самой обыкновенной веб-камеры, а затем проецирует лица одно на другое. Еще один пример – приложение компании Adobe, которое позволяет редактировать аудиозаписи. С его помощью пользователи имитировали голос бывшего президента США Барака Обамы.
«То есть я, обычный человек, могу «стать» президентом Соединенных Штатов и пропагандировать все что угодно, – говорит профессор Дартмутского колледжа Хани Фарид. – Это идеальный способ манипулирования людьми, который может усугубить и без того непростую ситуацию с фейковыми новостями».
Он и его коллеги планируют бороться с новым сетевым трендом.