Deepfake-разработки, позволяющие заменять лица и голоса людей на фото, видео- и аудиозаписях, станут доступны для широкого круга пользователей уже в ближайший год, рассказал профессор университета Южной Калифорнии Хао Ли. Он считается пионером технологии и одним из ведущих экспертов в этой области, пишут СМИ.

Профессор Хао Ли вместе с коллегами создал алгоритм, позволяющий распознавать deepfake-подмены на видео с вероятностью 97%. Ученый рассказал, что возможность подменять лица и голоса на фото, видео- и аудиоматериалах развивается с невероятной скоростью. И если раньше создать подделку было достаточно сложно, то в ближайший год deepfake-программы и приложения станут доступны обычным пользователям.

Качество deepfake-подмен до сих пор «оставляет желать лучшего». Большинство фейковых материалов сегодня сможет определить обычный человеческий глаз, считает Ли. Однако уже сейчас существуют подделки такого уровня, что справится с ними сможет только искусственный интеллект.

В Китае уже существует приложение Zao, которое позволяет пользователям заменять лица известных людей своими. Причем для создания видеоролика достаточно одной фотографии — алгоритм превратит ее в полноценное динамичное изображение, которое будет выражать мимику и двигать губами во время разговора.

YouTube видео

Многие эксперты выражают обеспокоенность из-за возможного массового распространения deepfake-приложений. Они могут влиять не только на жизнь рядовых людей, но и на глобальные политические процессы. Например, хорошо сделанная deepfake-подделка с лицом какого-либо президента может нанести значительный ущерб как стране, так и международным отношениям.

Однако Хао Ли считает, что deepfake-приложения не стоит ограничивать. По его мнению, новая технология может принести множество преимуществ, например, индустрии развлечений и моды. Профессор убежден, что правительствам и разработчикам просто нужно сосредоточиться на том, чтобы суметь быстро выявлять deepfake-подделки и останавливать их распространение.

Ранее Inc. рассказывал, как deepfake-мошенники научились подделывать голоса CEO. Эксперты в области кибербезопасности уверены, что бизнес еще не готов к тому, чтобы эффективно противостоять всем возможным угрозам: «Не уверен, что корпоративная инфраструктура подготовлена ​​к реальности, в которой вы больше не можете доверять голосу вашего коллеги», — считает Генри Эйдер из Deeptrace, стартапа по обнаружению deepfake-мошенников.

Поделитесь новостью