Исследование: Порно составляет 96% от видео, созданного благодаря технологии Deepfakes
08.10.2019
Глеб Голицын
Компания Deeptrace, занимающаяся кибербезопасностью, выпустила доклад о состоянии технологии Deepfakes. В докладе глубоко отражается, как искусственный интеллект(ИИ) может угрожать как демократии (в частности влиять на выборы), так и служить распространению фейковых новостей и видео, несущих репутационный вред.
Deepfake может быть использован для создания фальшивых порнографических видео со знаменитостями или для порно-мести. Deepfake-порнография появилась в Интернете в 2017 году, также технология Deepfake может быть использована для создания поддельных новостей. Непорнографические deepfake-ролики можно легко найти на популярных сайтах потокового видео.
Проанализировав все 14 678 deepfake-ролики, которые компания смогла найти в интернете, было выявлено, что люди, создающие клипы, похоже гораздо меньше всего озабочены манипулированием выборами. В превалирующим большинстве их интерес заключается в монтировании порно-роликов с участием знаменитых актрис и музыкантов. Согласно отчету, 96% смонтированных видео попадает в категорию «фальшивой порнографии» – другими словами, создатели роликов заменяют лицо актрисы в порнографическом видео на лицо другой женщины. Обычно мишенями становятся знаменитости. В докладе отмечалось, что во всех этих порнофильмах, за исключением 1%, женщина, занявшая место оригинальной актрисы, была женщиной-актрисой или поп-исполнительницей.
Эксперты также отметили, что такие ролики распространены на специальных ресурсах, причем, все эти веб-сайты содержали рекламу, а это говорит о явной финансовой составляющей.
Deepfake — конкатенация слов «глубинное обучение» (англ. Deep learning) и «подделка» (англ. Fake), методика синтеза изображения человека, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. Для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определенного человека и создает изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнет путать копию с оригиналом.
Фото превью / King Lip / unsplash.com