Казахстан ждут скандалы, интриги и опровержения

Искусственный интеллект добрался до Казахстана. Компания Тимура Бекмамбетова “Screenlife Technologies” и разработчик HR-сервиса “Робот Вера” на основе искусственного интеллекта запустили проект “Vera Voice”. Он позволяет синтезировать любой голос и использовать его при озвучивании аудиокниг, фильмов, рекламы.

Да чего угодно! Но фейк может стать оружием массового поражения. В основе “Vera Voice” лежит нейросеть, которая анализирует оригинальный голос и воспроизводит его цифровую копию, пишет «Караван».

В презентационном ролике голосами Владимира Путина, Владимира Познера и Ксении Собчакрассказывается о том, что эта технология несет не только новые возможности, но и новые риски.

Подделать теперь можно любой разговор, вплоть до президента страны, и в некоторых случаях это способно вызвать серьезные политические последствия. На этом фоне эксперты призывают развивать у казахстанцев критическое мышление и способность отличать факты от фейков.

Фейк – это подделка

Современные технологии позволяют создавать фейковые новости, фейковые фотографии, фейковые голоса и весь этот “мусор” вбрасывать в социальные сети – это самая благодатная почва для распространения фальшивок.

Так, в рассылках WhatsApp появляются предупреждения об обанкротившихся банках, падающих домах, украденных на органы детях. Когда непроверенную информацию передают дальше, о последствиях мало кто думает.

– В Индии это уже привело к человеческим жертвам. За последние 2 года мне известно как минимум о 10 убийствах, которые произошли из-за WhatsApp-рассылок. Все они были связаны с похищением детей, – говорит главный редактор проекта factcheck.kz Павел БАННИКОВ. – Дело в том, что аудитория WhatsApp в Индии – это сотни миллионов человек. И когда в маленькие городки приходит информация, что какие-то неместные похищают детей, продают их на органы, такие сообщения быстро распространяются и вызывают агрессию. По этой причине как минимум в 4 случаях из 10 забили до смерти просто случайных людей. Похожий случай в этом году произошел в Мексике.

До сих пор дезинформацию выдавали в виде текстов, фото, картинок – монтировали с помощью фотошопа, подставляли текст к другой фотографии, к нужному лицу или отрезали часть картинки. Это позволяло вполне эффективно манипулировать сознанием. Но теперь появились технологии, позволяющие подделывать голоса и даже видео, и это открывает еще большие возможности для манипуляций.

Порно с политическим уклоном

– Сейчас 90 процентов поддельного видео, именуемого дипфейком, – это порно. В порнографию начали вставлять лица известных актеров, певиц – Мадонны, Бритни Спирс и т. д., это хорошо распространяется. В Казахстане дипфейки только начали появляться. Но технологии совершенствуются. Это значит, что школьники будут создавать дипфейки про своих учителей, которые поставили им двойки, брошенные жены – про своих бывших, блогеры – про тех, кого нужно дискредитировать, политики – про своих оппонентов. И тогда последствия могут быть непредсказуемыми, – предупреждает директор международного центра журналистики “MediaNet” Адиль ДЖАЛИЛОВ.

Многие крупные корпорации сейчас работают как над созданием фальсифицированного видео, так и над возможностью распознать его.

– Facebook недавно объявил конкурс. Кто придумает программу для распознавания поддельного видео, тот получит 10 миллионов долларов. Google над этим работает, Пентагон работает. Они понимают, что это – опасность. Представьте на минуту, что кто-то создаст видео с лицом известного политика, который будет говорить жуткие вещи про другую нацию. Сам он этого не делал, но такое видео может спровоцировать сильнейшие волнения, даже войну, поэтому недооценивать риски нельзя, – считает Адиль Джалилов.

Учить нельзя блокировать

Своими опасениями эксперт не раз делился с чиновниками из министерства информации. Просил поддержки для развития в стране медиаграмотности и фактчекинга.

Другими словами, просил помочь в обучении казахстанцев критически подходить ко всем новостям, проверять их подлинность, отличать факты от сатиры. Но в профильном министерстве, говорит Джалилов, особого интереса к этой теме не проявили.

– В мининформе достаточно инертно реагируют, к сожалению. А ведь они должны понимать, что развитие дипфейков угрожает стабильности и безопасности, которой они так гордятся. Они могут вторую Руанду получить, такая же резня может начаться, когда каждый научится делать дипфейки, – полагает эксперт. – Сколько шутников дезинформацию про банки рассылали? Может, это был заказ, а может, просто обида – кредит на телевизор не дали. Причин для создания фейковой информации может быть сколько угодно. И опровергать запаритесь, и блокировать бесполезно – есть VPN. Лучше заниматься медийной грамотностью.

В самой компании “MediaNet” уже несколько лет учат базовым приемам проверки информации на подлинность. Создали сайт с бесплатным доступом для всех желающих и даже учебник для школьников выпустили. Пилотный проект по согласованию с министерством образования пройдет в Караганде и Алматы. По убеждению Адиля Джалилова, такие знания для детей – как вакцина от доверчивости, недопустимой в соцсетях. Впрочем, для взрослых учеба тоже будет полезна. Ведь мы и сейчас постоянно попадаемся на крючок дезинформации.

Поделиться