Возрастающую обеспокоенность ЮНИСЕФ вызывают сообщения о быстром росте количества распространяемых изображений сексуального характера, созданных с помощью искусственного интеллекта, включая случаи обработки и сексуализации фотографий детей. Об этом говорится в заявлении ЮНИСЕФ.
Дипфейки – изображения, видео- или аудиофайлы, которые созданы или обработаны с помощью искусственного интеллекта (ИИ) и выглядят, как настоящие, – все чаще применяются для создания контента сексуального характера с участием детей, в том числе посредством «обнажения» ребенка, когда инструменты ИИ используются для удаления или изменения одежды на фотографиях с целью создания сфабрикованных изображений обнаженной натуры или изображений сексуального характера.
Новые данные подтверждают масштабы этой быстро растущей угрозы: согласно исследованию ЮНИСЕФ, международной организации ECPAT и Интерпола*, проведенному в 11 странах, по меньшей мере 1,2 миллиона детей рассказали о том, что в прошлом году их изображения были сфабрикованы с целью создания откровенных подделок сексуального характера. В некоторых странах пострадал каждый 25-й ребенок, что эквивалентно одному ученику в обычном классе.
Сами дети прекрасно осознают этот риск. В некоторых странах, где проводилось исследование, до двух третей детей заявили, что они обеспокоены тем, что искусственный интеллект может быть использован для создания поддельных сексуальных изображений или видеороликов. Уровни обеспокоенности значительно различаются в разных странах, что подчеркивает настоятельную необходимость повышения осведомленности, укрепления мер профилактики и защиты.
Необходимо внести ясность. Сексуализированные изображения детей, созданные или подвергаемые обработке с помощью инструментов искусственного интеллекта, являются материалами, связанными с сексуальным насилием над детьми (CSAM). Злоупотребление дипфейками – это, тем не менее, злоупотребление, и оно наносит реальный ущерб.
Когда используется изображение или личность ребенка, этот ребенок становится непосредственной жертвой. Даже в отсутствие идентифицируемой жертвы материалы о сексуальном насилии над детьми, созданные с помощью искусственного интеллекта, нормализуют сексуальную эксплуатацию детей, подпитывают спрос на контент, содержащий насилие, и создают серьезные проблемы для правоохранительных органов в выявлении и защите детей, нуждающихся в помощи.
ЮНИСЕФ приветствует усилия тех разработчиков ИИ, которые внедряют комплексные подходы к обеспечению безопасности и надежные меры защиты для предотвращения неправомерного использования своих систем. Однако ситуация остается неоднородной, и слишком многие модели ИИ разрабатываются без надлежащих гарантий. Риски могут усугубляться, когда инструменты генеративного искусственного интеллекта встраиваются непосредственно в платформы социальных сетей, где быстро распространяются обработанные изображения.
ЮНИСЕФ настоятельно призывает принять следующие мерыдля противодействиярастущей угрозе, связанной с материалами о сексуальном насилии над детьми, созданными с помощью искусственного интеллекта:
- Все правительства должны расширять квалификацию материалов о сексуальном насилии над детьми (CSAM), включая контент, созданный искусственным интеллектом, и криминализировать его создание, приобретение, хранение и распространение.
- Разработчики искусственного интеллекта должны внедрять обеспечивающие безопасность подходы на этапе разработки и надежные меры защиты, чтобы предотвратить неправомерное использование моделей ИИ.
- Цифровые компании должны предотвращать распространение материалов с изображением сексуального насилия над детьми, созданных с помощью искусственного интеллекта, а не просто удалять их после совершения злоупотребления; и должны усиливать модерацию контента за счет инвестиций в технологии обнаружения, чтобы такие материалы можно было удалять немедленно, а не через несколько дней после сообщения жертвы или ее представителя.
Ущерб от злоупотребления дипфейками реален и требует принятия срочных мер. Дети не могут ждать, когда закон вступит в силу.







