Инструменты с открытым исходным кодом позволяют любому желающему создавать искусственный интеллект. Они также использовались для создания неконсенсусного deepfake-порно, пишет Wired.
Будь то хмурое лицо шимпанзе в высоком разрешении или психоделический, розово-красный двойник самого себя, Реувен Коэн использует изображения, созданные искусственным интеллектом, чтобы привлечь внимание людей. «Я всегда интересовался искусством, дизайном и видео, и мне нравится расширять границы» — говорит он. Но консультант из Торонто, помогающий компаниям разрабатывать инструменты искусственного интеллекта, также надеется повысить осведомленность о более темных способах применения этой технологии.
«Его можно специально обучить, чтобы он был довольно жутким и плохим в самых разных отношениях» — говорит Коэн. Он является поклонником свободных экспериментов, которые стали возможны благодаря технологии генерации изображений с открытым исходным кодом. Но эта же свобода позволяет создавать откровенные изображения женщин, используемые для домогательств.
После того как на сайте X недавно распространились изображения Тейлор Свифт, компания Microsoft добавила новые элементы управления в свой генератор изображений. Модели с открытым исходным кодом могут быть использованы практически кем угодно и, как правило, не имеют защитных ограничений. Несмотря на усилия некоторых надеющихся членов сообщества, направленные на предотвращение использования в корыстных целях, свобода действий с открытым исходным кодом практически не поддается контролю, говорят эксперты.
«Открытый исходный код привел к злоупотреблению поддельными изображениями и порнографии без согласия» — отмечает Генри Адждер, который потратил годы на исследование вредного использования генеративного ИИ.
По словам Адждера, в то время как оно становится любимцем исследователей, креативщиков вроде Коэна и ученых, работающих над ИИ, программное обеспечение для генерации изображений с открытым исходным кодом стало основой для дипфейк-порно. Некоторые инструменты, основанные на алгоритмах с открытым исходным кодом, специально созданы для использования в пикантных или оскорбительных целях, как, например, приложения для «обнажения», которые в цифровом виде удаляют женскую одежду на изображениях.
Многие инструменты могут использоваться как в законных, так и в оскорбительных целях. По словам Адждера, одна из популярных программ для подмены лиц с открытым исходным кодом используется людьми в индустрии развлечений и является «инструментом выбора для плохих актеров», создающих дипфейки без согласия. Генератор изображений высокого разрешения Stable Diffusion, разработанный стартапом Stability AI, как утверждается, имеет более 10 миллионов пользователей и оснащен защитными механизмами, предотвращающими создание оскорбительных изображений, а также политиками, запрещающими злонамеренное использование. Однако в 2022 году компания выложила в открытый доступ версию генератора изображений, которую можно настраивать, а онлайн-руководства объясняют, как обойти его встроенные ограничения.
Тем временем небольшие модели ИИ, известные как LoRA, позволяют легко настроить модель на вывод изображений с определенным стилем, концепцией или позой — например, похожих на знаменитостей или определенные сексуальные акты. Они широко доступны на рынках моделей ИИ, таких как Civitai — сайт, основанный на сообществе, где пользователи обмениваются моделями и скачивают их. Там один из создателей плагина для Тейлор Свифт призвал других не использовать его «для NSFW-изображений». Однако после загрузки плагина его использование не контролируется его создателем. «То, как работает открытый исходный код, означает, что будет довольно сложно помешать кому-то потенциально взломать его» — говорит Адждер.
На 4chan есть страницы, посвященные несанкционированному дипфейк-порно, созданному с помощью общедоступных программ и моделей ИИ, предназначенных исключительно для сексуальных изображений. Доски объявлений, посвященные изображениям для взрослых, завалены сгенерированными ИИ обнаженными реальными женщинами, от порноактрис до актрис вроде Кейт Бланшетт. WIRED также наблюдал, как пользователи 4chan делились обходными путями для NSFW-изображений, созданных с помощью Dall-E 3.
Подобная активность вдохновила некоторых пользователей в сообществах, посвященных созданию изображений с помощью ИИ, в том числе на Reddit и Discord, на попытку противостоять морю вредоносной порнографии. Создатели также выражают беспокойство по поводу того, что программное обеспечение приобретает репутацию программы для создания NSFW-изображений, призывая других сообщать о изображениях, на которых изображены несовершеннолетние, на Reddit и сайтах, предоставляющих услуги хостинга моделей.
Другие создатели ИИ, включая Коэна, также обеспокоены легкостью создания дипфейк-подделок с помощью нового метода InstantID, опубликованного в январе исследователями из Пекинского университета и китайской компании Xiaohongshu, который может быть использован для подмены лиц на изображениях с помощью всего одного примера, поэтому требует меньше обработки или подготовки. В своей статье, представляющей модель, команда выразила опасения по поводу возможности создания «оскорбительных или культурно неприемлемых изображений» с человеческими лицами, но канал YouTube с более чем 143 000 подписчиков, публикующий обучающие материалы по искусственному интеллекту, рекламирует эту технику как позволяющую «бесцензурное клонирование лиц с открытым исходным кодом».
«Если вы захотите создать компрометирующий дипфейк — это легко и просто. Со временем это можно будет прикрутить к браузеру, что сделает это доступным для всех» — отмечает Коэн.
Некоторые создатели инструментов и программного обеспечения сами препятствуют вредоносному использованию. Когда Дэвид Уиддер, исследователь этики ИИ и постдокторант Корнельского технологического института, брал интервью у людей, стоящих за дипфейк-инструментом с открытым исходным кодом, они ясно дали понять, что не хотят, чтобы их программа использовалась для порнографии любого рода, как по согласию, так и без него. Однако они чувствовали себя бессильными заставить людей уважать это желание. «Им кажется, что они не могут ничего сделать, чтобы остановить это» — говорит Уиддер.
Другие создатели ИИ с открытым исходным кодом создают препятствия для нежелательных случаев использования. Исследователи из Hugging Face, онлайн-сообщества и платформы для моделей с открытым исходным кодом, продвигают этические инструменты для ИИ, включая «охрану» изображений, которая, по их словам, защищает их от генеративного редактирования ИИ, а также позволяет разработчикам контролировать доступ к моделям, загруженным на платформу. Civitai утверждает, что запрещает изображать реальных людей, а также несовершеннолетних в «зрелом контексте», и в декабре призвала сообщать о нарушениях. Однако пользователи открыто просят других на сайте создавать изображения без согласия, в основном женщин, сообщило в ноябре издание 404 Media.
Представитель Civitai предоставил заявление компании, в котором говорится, что изображения, отмеченные системой модерации сайта как потенциально соответствующие определению «зрелого» контента, отправляются на проверку человеком. Нарушение правил компании может привести к удалению изображений, приостановке доступа к генератору изображений на сайте Civitai или запрету доступа к платформе. Реальные люди, фигурирующие в моделях, также могут отправить Civitai запрос на удаление.
По словам Уиддера, «технические исправления», такие как лицензирование открытых исходных текстов и договорные обязательства для коммерческих платформ, не могут остановить все злоупотребления, но могут остановить некоторые из них. И даже если отдельным членам сообщества может казаться, что они не в силах изменить ситуацию, низовые усилия также могут стать эффективным источником перемен. «Установление норм в обществе — это недооцененный и зачастую мощный способ повлиять на поведение и на то, что считается приемлемым, крутым и некрутым» — говорит Уиддер.
Обмен интимными изображениями, созданными искусственным интеллектом, без согласия был признан незаконным в Великобритании в соответствии с законом о безопасности в Интернете, принятым в январе, а скандал со Свифтом подлил масла в огонь призывов к принятию аналогичных федеральных законов в США. По меньшей мере в 10 штатах приняты законы, связанные с deepfake. Технологические компании и социальные платформы также изучают возможность «водяных знаков» ИИ на известных инструментах, а технологические компании подписали соглашение о борьбе с ИИ во время выборов — хотя неясно, как это повлияет на поколения, сделанные с помощью нишевых моделей, и повлияет ли вообще.
Елена Майкл, директор британской группы NotYourPorn, борющейся с сексуальным насилием на основе изображений, предлагает наладить диалог между стартапами, разработчиками ИИ с открытым исходным кодом и предпринимателями, а также правительствами, женскими организациями, учеными и гражданским обществом, чтобы изучить возможные средства сдерживания неконсенсуального ИИ-порно, не препятствующие доступу к моделям с открытым исходным кодом. «Не хватает разговоров и сотрудничества между организациями, которые пытаются решить эту проблему» — говорит она.
Возможно, не существует способа полностью контролировать проблему, но правильная координация между этими группами может помочь предотвратить злоупотребления и сделать людей более ответственными.
В конечном счете злоупотребления с использованием изображений часто приводят к разрушительным последствиям для пострадавших, которые почти всегда являются женщинами. Исследование, проведенное в 2019 году компанией Sensity AI, занимающейся мониторингом дипфейков, показало, что 96 процентов глубоких подделок — это порнография без согласия, причем почти исключительно женская.