Почти два года назад, в ноябре 2017-го, на Reddit было опубликовано несколько порно-видео, сделанные с помощью нейросети DeepFake.
Отличительной особенностью данных видео было то, что нейросеть смогла достаточно правдоподобно заменить лица порно-актрис на лица актрис голливудских фильмов.
И вот новейшие исследования показывают, что даже спустя так много времени основным типом видео, которые создаются при помощи DeepFake, носят порнографический характер, пишут СМИ.
Исследователи из Startup Deeptrace провели своего рода перепись видео с использованием DeepFake, затронув временной промежуток с июня по июль.
В итоге было обнаружено почти 15 тыс видео, использующих данную нейросеть, а 96% из этих видео оказались порно-роликами. С одной стороны, данный факт сложно назвать удивительным, а с другой, результат исследования явно показывает, что все эти панические запреты DeepFake накануне президентских выборов — не более, чем пропаганда, так как основной целью использования нейросети все еще остается создание порно.