Мошенники используют фейковые видео с лицами знаменитостей для кражи денег — эксперты

В интернете появились фейковые видео с наложением лиц и голосов известных людей, с помощью которых мошенники похищают средства, рассказали СМИ в компании «Инфосистемы Джет» (работает в сфере системной интеграции, защиты информации).

«Последнее время на просторах интернета появилось относительно новое явление deep fake — это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий Deep Learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету, что, в свою очередь открывает широкие возможности для разного рода мошенников и провокаторов», — рассказали в компании.

Эксперты компании обнаружили в сети мошенническое видео с использованием образа шоумена Дмитрия Нагиева, где он якобы обещает пользователям ценный приз или денежное вознаграждение – для этого лишь надо перейти на сайт. В результате это ведет к потере денег, отметили в компании. Представитель шоумена сказал РИА Новости, что ему неизвестно о таком роде мошенничества.

Как отметили в «Инфосистемы Джет», при нажатии на ссылку пользователь попадает на портал со сгенерированным именем домена. «Такие сайты обычно перестают отвечать через пару дней, потому что попадают в черные списки мошеннических. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей», — отметили в «Инфосистемы Джет».

По словам специалиста по нейронным сетям компании «Инфосистемы Джет» Анны Олейниковой, deep fake является крайне серьезной угрозой. «Спектр зловредного применения deep fake и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике», — сказала она.

«Компании, разрабатывающие и внедряющие системы информационной безопасности, уже довольно давно применяют технологии искусственного интеллекта для противодействия таким угрозам информационной безопасности, как сетевые атаки, спам, вирусы. Но такого рода deep fake — это первые случаи, когда злоумышленники сами вооружились технологиями ИИ. Специалистам по информационной безопасности придется этому противостоять с помощью тех же технологий — придется обучать нейронные сети, чтобы они могли находить и распознавать deep fake в сети», — добавила Олейникова.

В компании отметили, что обычный пользователь может распознать такие фейки по ряду признаков: например, если на видео глаза не моргают, все время открыты или полузакрыты, то, скорее всего, это deep fake; резкое колебания четкости изображения; появление странных шлейфов вокруг контура головы при резких движениях, поворотах, наклонах; колебания освещенности и теней на лице, если положение лица относительно источника света не меняется и ряд других.

«Инфосистемы Джет» — российская ИТ-компания, работающая на рынке системной интеграции. Основные направления ее деятельности: проектирование и внедрение вычислительных комплексов, сетевой инфраструктуры, инженерных систем и мультимедиа, обеспечение информационной безопасности.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Поделиться