По суті, простий у використанні застосунок можна завантажити та встановити на будь-який ПК, а потім створювати фейкові відео в будь-якій кількості.
У 2017 користувач Reddit опублікував кілька порнофільмів, у яких «засвітилися» фейковІ версії актрис Емми Вотсон, Дейзі Рідлі та Кеті Перрі. Адміністрації Reddit, Pornhub і Twitter намагаються зупинити цей тренд, але наполегливі користувачі не здаються. Тепер в поле зору новоспечених монтажерів потрапили політики.
«Ідея про те, що хтось може накласти обличчя однієї людини на тіло іншої, відразу наводить на думку про спроби втрутитися в природний перебіг життя, – каже сенатор від штату Вірджинія Марк Ворнер, який очолив групу з боротьби з Deepfakes у соціальних мережах. – Це нова реальність, з якою потрібно боротися, тому що інакше до 2020 року наслідки можуть стати незворотними».
Искусственный интеллект научился генерировать убедительные фотографии людей
За відео, яке аматори викладають на YouTube, наразі стежать експерти, що спеціалізуються на цифровій криміналістиці й аналізі зображень.
Штучний інтелект стали залучати до створення зображень і відео в 2015 році. Тоді дослідники зі Стенфорда розробили програму Face2Face, яка стежить за мімікою двох людей за допомогою звичайнісінької веб-камери, а потім проектує обличчя одне на інше. Ще один приклад – застосунок компанії Adobe, який дає змогу редагувати аудіозаписи. З його допомогою користувачі імітували голос колишнього президента США Барака Обами.
«Тобто я, звичайна людина, можу “стати” президентом Сполучених Штатів і пропагувати все що завгодно, – каже професор Дартмутського коледжу Хані Фарід. – Це ідеальний спосіб маніпулювання людьми, який може погіршити й без того непросту ситуацію з фейковими новинами».
Він і його колеги планують боротися з новим мережевим трендом.