Трагические инциденты из-за популярных чат-ботов подчеркивают опасность искусственного интеллекта (ИИ). Западные специалисты уже активно говорят о необходимости строгих мер безопасности. Так, случаи смерти подростков, эмоционально общавшихся с ИИ, предрекают изменения в будущем технологии, пишут СМИ.
Эксперты все чаще говорят о необходимости ввести правила использования и правила работы искусственного интеллекта. Так, беспокойство в западном мире усилилось осенью 2024 года с новостью о смерти подростка из США. Сьюэлл Селтцер III покончил с собой после того, как сформировал сильную эмоциональную привязанность к чат-боту на платформе Character.AI. Искусственный собеседник стал для 14-летнего мальчика близким «другом», отчего юноша отдалился от семьи и друзей и стал хуже учиться в школе.
Как подросток говорил с ИИ:
В иск от имени матери мальчика включили записи разговоров, где бот по имени Дэни, — созданный по образу персонажа Дейенерис Таргариен из «Игры престолов», — вступает с подростком в интимные и порой тревожные диалоги, поднимая темы преступлений и суицида.
Нужно ли защищать людей от искусственного интеллекта?
Смерть реальных людей после общения с ИИ поднимает острый вопрос о необходимости регулирования и внедрения строгих мер безопасности для защиты интернет- пользователей, — особенно детей и подростков.
Так, специалисты считают, что системы искусственного интеллекта способны стать «источником непредсказуемых и манипулятивных взаимодействий».
В некоторых странах, например, в Австралии, уже работают над созданием обязательных «защитных барьеров» для некоторых ИИ. В новые правила использования включили меры по управлению данными, тестированию, документации и контролю за действиями ИИ, а также привлечение специалистов для оценки рисков.
Основная задача — защита от возможного ущерба после взаимодействия с ИИ.
Отмечается, что для принятия подобных мер государствам необходимо определить, какие системы будут считаться «высокорискованными». В Евросоюзе, например, системы на основе ИИ уже указаны в списке, который регулярно обновляется.
Альтернативный подход для защиты от ИИ — «оценка на основе принципов», где каждый случай рассматривают индивидуально с учетом риска для здоровья, психики и прав интернет-пользователей.
Почему искусственный интеллект опасен?
Пока что в Европе компаньонные чат-боты на основе ИИ — вроде Character.AI и Chai — не считаются высокорискованными, а от их разработчиков требуют лишь указание о том, что человек говорит с искусственным интеллектом.
И все же трагические случаи доказывают: системы на основе ИИ нельзя оставлять без должного контроля, ведь они способны генерировать «опасный контент и легко имитируют токсичные отношения», — как пишут западные эксперты.
При этом проблема обостряется тем, что значительная часть пользователей ИИ-ботов — подростки и люди с психическими расстройствами.
Когда упомянутый закон в Австралии начнет действовать, указанные меры безопасности затронут не только отдельные чат-боты или сайты, но и сами модели ИИ на территории страны. Специалисты добавляют, что барьеры для защиты людей должны включать не только технические методы управления рисками, но и учитывать эмоциональные и психологические аспекты взаимодействия.
Так, для эффективной защиты интернет-пользователей, важно учитывать изначальный продукт. Например, тот же интерфейс сайта Character.AI имитирует общение через текстовые сообщения, а в рекламе платформы заявлено, что она может «поддерживать» и «усиливать» действия пользователей.
Даже при соблюдении всех мер безопасности остается риск непредвиденных ситуаций. Поэтому у регуляторов должна быть возможность оперативного изъятия системы на основе ИИ с рынка, если она представляет опасность, — заключили эксперты.