Правительство Южной Кореи призывает к принятию мер по борьбе c «deepfake», поскольку их распространение представляет собой нарушение частной жизни отдельных лиц или в крайнем случае может даже подорвать выборы, считают эксперты, сообщает ЕНВ.
Deepfake — это видео, созданное с помощью технологий машинного обучения и искусственного интеллекта, которое включает в себя изменение изображений и звука, чтобы подделать чью-то личность, слова или действия.
Эксперты считают, что за преднамеренное злоупотребление фальшивыми видео следует применять более жесткие меры наказания, поскольку с быстрым развитием технологии фальсификации становится все труднее различать реальность, а для обмана людей и организаций могут использоваться манипулятивные видеоролики.
Эксперты в том числе сказали, что правительству также необходимо разработать способ упреждающего обнаружения подделок и предотвращения распространения подобного контента, аналогично тому, как антивирусное программное обеспечение блокирует кибератаки.
Согласно недавнему исследованию, проведенному голландской компанией Deeptrace Labs, в 25% deepfake-видео порнографического содержания фигурируют женские K-pop звезды. Компания заявила, что корейские звезды все чаще появляются в подобных видео из-за их взрывной популярности по всему миру.
Чтобы защитить таких жертв, член палаты представителей партии «Свобода Кореи» Пак Дэ Чул предложил «глубоко сформированный законопроект» о пересмотре действующего Закона о сексуальных преступлениях с применением насилия, с тем чтобы он мог установить наказание в виде тюремного заключения на срок до семи лет для тех, кто распространяет поддельные видео.
Тем не менее, эксперт в области законодательства, который помог законодателям предложить законопроект о подделках, сказал, что для официального вступления закона в силу потребуется время, поскольку для этого необходимо пройти больше шагов.
«Учитывая, что законопроект о поддельных новостях, запрещающий распространение преднамеренной дезинформации, все еще находится на рассмотрении, законопроект о поддельных видео-действиях займет больше времени», — сказал эксперт.