От технологии замены лиц в порнографических роликах до нового типа цифрового оружия — по такой траектории развивается технология дипфейков. Алгоритмы позволяют менять лица актеров в фильмах и в то же время вводить в заблуждение избирателей, пишет «Хайтек+».
Предыстория: от студенческой разработки к фальшивым порнороликам
В основе большинства дипфейков лежат генеративно-состязательные нейросети (GAN) — алгоритмы на базе машинного обучения, способные генерировать контент. В 2014 году технологию разработал американец Ян Гудфеллоу — тогда еще студент Стэнфордского университета. Компьютерный инженер создавал систему, чтобы получать новые материалы — текстовые или звуковые — с помощью уже собранной базы данных. Ничего криминального Гудфеллоу не замышлял, и до 2017 года его открытием пользовались в основном его коллеги-разработчики ИИ, рассказывает Guardian.
Однако в 2017 году дипфейки просочились в сеть. На Reddit выложили видеоролики, на которых лица порноактеров были заменены лицами известных актрис, а позднее их создатель представил платформу FakeApp для создания фальшивого контента. С тех пор началась демократизация GAN-алгоритмов. Достаточно было иметь доступ к интернету и базе изображений, чтобы создать убедительную подделку.
Скрытая угроза: вмешательство в выборы и подрыв демократии
Даниэль Ситрон, профессор права из Мэрилендского университета и специалист по риторике ненависти в соцсетях, изначально восприняла дипфейки как угрозу приватности. Теперь лицо любого человека можно перенести в порнофильм.
Однако позднее эксперт осознала более серьезную угрозу — фальшивый видеоконтент способен подорвать демократические основы.
Политическая обстановка в США уже нестабильна, а волна самодельных видеороликов может еще больше усугубить ситуацию.
Пропагандисты, интернет-тролли и просто мошенники могут использовать GAN-технологии в своих целях. Эксперты начали бить тревогу, а в сентябре три члена Конгресса США направили письмо директору Национальной разведки с просьбой обратить внимание на проблему дипфейков.
Ситрон предупреждает, что накануне выборов в сети могут появиться нелицеприятные ролики с тем или иным кандидатом в главной роли, и у людей не будет времени оценить подлинность материала.
«Вовремя выпущенный дипфейк способен разрушить весь демократический процесс», — предупреждает профессор.
Однако на все эксперты с этим согласны. Специалист по вопросам этики в области ИИ Тим Хванг считает, что потенциал технологии преувеличен. Он давно изучает распространение дезинформации в сети, но пока ни разу не сталкивался с разрушительными последствиями использования дипфейков.
По мнению Хванга, разработчику фальшивого контента требуются глубокие познания в области машинного обучения, а также доступ к большой базе данных. Новичок с этой задачей не справится. Исследователь считает, что пропагандисты на станут «заморачиваться» и предпочтут использовать старый и проверенный Photoshop.
При этом Хванг допускает, что скоро процесс частично автоматизируется, а фальшивки станут более качественными.
Светлая сторона: качественный дубляж и спецэффекты
Сами разработчики GAN-технологии видят в них скорее преимущество. Так, создатель известного фальшивого видеоролика с Бараком Обамой Кристиан Теобальт считает, что нейросети будут применяться при дубляже и монтаже фильмов. Также они позволят добавлять спецэффекты.
Профессор компьютерных наук и специалист по распознаванию цифровых подделок Хани Фарид считает, что недостатки перевешивают пользу. «Разработчикам спецэффектов технология, конечно, понравится, но за пределами Голливуда, как мне кажется, негативных последствий будет больше, чем позитивных», — цитирует эксперта Guardian.
Распознавание фальшивых образов
Фарид полагает, что против ИИ надо действовать с помощью другого ИИ. Он вместе с коллегами работает над системой распознавания дипфейков. Именно ему принадлежит открытие методики, которая вычисляет фальшивый контент по нюансам цвета лица говорящего.
Летом исследователи из Университет штата Нью-Йорк в Олбани нашли способ распознавать ложный видеоконтент по характеру моргания представленного в нем человека. Facebook также работает над собственными алгоритмами определения дипфейков.
Но разработчики фальшивок постоянно совершенствуют технологии и учатся обходить системы распознавания. По словам Фарида, раньше разработки устаревали через два года, а теперь — через 2-3 месяца.
Проблема еще и в восприятии. Информация распространяется слишком быстро и человек не успевает давать адекватную оценку контенту.
Исследователь Авив Овадья называет этот феномен «апатией к реальности». Пользователи настолько привыкают к фальшивками, что перестают доверять любому контенту в принципе. Из-за этого в том числе каждый год снижается доверие к СМИ.
Ранее о проблеме говорил историк Юваль Харари. По его мнению, людьми все проще манипулировать, при этом сам человек не осознает себя марионеткой в чужих руках. Общество по-прежнему верит в концепцию свободы воли, но с появлением ИИ и биоинженерии такой взгляд уже не отражает реальность.