National Interest: не говорите Голливуду: вам нечего бояться вышедшего из под контроля ИИ

Искусственный интеллект, или ИИ, становится все более распространенным в нашей повседневной жизни, но по мере того, как технология используется для применения в оружии, стоит ли нам беспокоиться о том, что он может выйти из под контроля?

В прошлом году бывший инженер компании Google Блейк Лемуан привлек внимание к ИИ своим заявлением о том, что ИИ, моделирующий язык, — чатбот под названием LaMDA — действительно достиг разумности. Другими словами, вместо того чтобы быть сложной системой, созданной для общения, он стал будто настоящим живым существом с мыслями, эмоциями и философским самоощущением… Лемуан утверждал, что LaMDA действительно является таким сознательным существом.

«Я узнаю человека, когда разговариваю с ним», — сказал инженер в интервью газете Post, которая опубликовала эту историю в июне 2022 года. «Неважно, есть ли у него в голове мозг, сделанный из мяса. Или у них миллиард строк кода. Я разговариваю с ним. Я слышу, что он говорит, и именно так я решаю, что есть человек, а что нет».

Лемуан не одинок в своих опасениях. В прошлом месяце по всему миру прогремела история о том, как управляемый искусственным интеллектом беспилотник, которому было поручено уничтожить вражеские зенитно-ракетные комплексы, ополчился на своего оператора. История была основана на комментариях полковника Такера «Синко» Гамильтона, руководителя отдела испытаний и операций ИИ в ВВС США. Но, по словам самого полковника, эпизод был вырван из контекста и никогда не происходил.

Как и утверждения Лемуана о том, что LaMDA обрел разум, эта история подтвердила свою вирусность, вызвав страх, возмущение, споры и обсуждения в СМИ и соцсетях. Но у тех, кто хорошо разбирается в современном ИИ, эти рассуждения вызвали другую реакцию: разочарование.

Потому что, как и в истории с дроном-изгоем… История Лемуана больше говорит о том, как легко можно обмануть людей в отношении ИИ, чем о реальных возможностях этих систем.

Дело в том, что искусственный интеллект, который мы сегодня используем в таких вещах, как языковые модели и даже программы военных беспилотников, далек от того ИИ, который мы давно видели в таких фильмах, как «Терминатор». Но наша врожденная человеческая тяга к антропоморфированию всего, от золотых рыбок до наших сетей WiFi, создает иллюзию внезапно возникшего разумного ИИ — и это происходит на двух фронтах: как со стороны разработчиков, так и со стороны конечных пользователей.

На стороне разработчиков те, кто создает эти сложные системы на основе алгоритмов, активно пытаются внедрить человекоподобное поведение в свои продукты, чтобы создать более увлекательный и естественный опыт.

А со стороны конечного пользователя — тот же самый человек, который называет свою машину или разговаривает со своими домашними животными (и то, и другое я делал), хочет найти человечность во всем, с чем он взаимодействует, включая ИИ.

Это врожденное желание человека найти человечность во всем настолько распространено, когда речь идет о работе с искусственным интеллектом и продвинутым компьютерным программным обеспечением, что у него даже есть название — эффект ELIZA.

По мнению большинства экспертов, именно в эту ловушку попали Лемуан и другие, когда утверждают, что современный ИИ достиг хоть какого-то уровня разумности.

ЭФФЕКТ ЭЛИЗЫ: АНТРОПОМОРФИЗАЦИЯ ИИ

Название «Эффект Элизы» — это прямая отсылка к первому в мире чатботу — программе под названием ELIZA, которую написал профессор Массачусетского технологического института Джозеф Вейценбаум еще в 1960-х годах.

ELIZA была разработана как своего рода автоматизированный психотерапевт. По сравнению с современными чат-ботами и языковыми моделями вроде LaMDA, ELIZA была очень простой. Ее возможности ограничивались повторением высказываний пользователя в форме вопроса или просто просьбой развернуть свои мысли с помощью текстовых подсказок.

Но хотя использование ELIZA было революционным, ее упрощенная природа и минимальные возможности взаимодействия, по собственному признанию Вейценбаума, были крайне ограниченными. Именно поэтому он был так потрясен, когда пользователи ELIZA начали делиться с компьютером глубоко личными мыслями, взаимодействуя с ним так, как будто он был намного сложнее и способнее, чем позволял его код.

В действительности операторы ELIZA так стремились найти человечность в его простых ответах, что вскоре спроецировали на программу достаточно своих собственных, чтобы создать личную связь.

«Я знал по собственному опыту, что сильные эмоциональные связи, которые многие программисты имеют со своими компьютерами, часто формируются после короткого опыта работы с машинами» — писал Вейценбаум в своей работе 1976 года «Компьютерная мощь и человеческий разум». «Чего я не понимал, так это того, что чрезвычайно короткое воздействие относительно простой компьютерной программы может вызвать бредовое мышление у вполне нормальных людей».

Сегодня мы продолжаем наблюдать тот же эффект, причем не только среди невежественных или безрассудных людей, но даже среди некоторых лидеров технологического сообщества. В конце концов, если ограниченные возможности ELIZA не стояли на пути этого эффекта, то современные и невероятно способные языковые модели наоборот, играют ему в плюс.

Конечно, беспилотник, управляемый искусственным интеллектом, вроде того, что был в развенчанной истории ВВС, имеет совсем другое предназначение, чем чатботы вроде ELIZA или LaMDA, но эффект Элизы не менее распространен и в других технологических дискуссиях, особенно когда мы говорим о добавлении интеллекта любого рода в систему оружия.

И это становится еще более важным, поскольку эффект Элизы, вероятно, намеренно используется многими представителями технологической индустрии для создания ажиотажа вокруг своих продуктов и стимулирования сбора средств или продаж.

«Эффект Элизы» — это форма шумихи, намеренно используемая исследователями ИИ для того, чтобы намеренно преувеличить возможности своих исследований. Он не является ни случайным, ни непреднамеренным», — пишет профессор Сара Диллон из Кембриджского университета в своей работе «Эффект Элизы и его опасности: От демистификации к гендерной критике».

У СОВРЕМЕННЫХ ИИ ЕСТЬ РЕАЛЬНЫЕ ОГРАНИЧЕНИЯ

Правда в том, что современный искусственный интеллект в большей степени искусственный, чем интеллектуальный. Это не значит, что он не способен на невероятные вещи — но невероятные они или нет, им еще далеко до того, чтобы стать мыслящими, разумными существами, способными принимать решения, не ограничиваясь данными, которые им выдают.

Как говорится в одном из отчетов Исследовательской службы Конгресса США:

«Системы ИИ в настоящее время ограничены узко определенными задачами и могут потерпеть неудачу при небольших изменениях вводных данных».

Даже те языковые модели, которые одурачивают таких инсайдеров, как Лемуан, не проходят проверку на прочность, когда их представляют экспертам в области когнитивного развития и языка.

«Диалоги, создаваемые большими языковыми моделями, не являются доказательством того, что они обладают разумом даже на уровне очень примитивных животных» — объясняет Колин Аллен, профессор Питтсбургского университета, изучающий когнитивные способности животных и машин.

И эти ограничения характерны не только для языковых моделей, но и для всех современных систем искусственного интеллекта. Эти системы иногда способны обмануть нас, благодаря огромному объему памяти и вычислительным возможностям, позволяющим быстро принимать решения — будь то выбор ответа на диалог или запуск ракеты класса «земля-воздух».

Но, как объясняет Элисон Гопник, профессор психологии, входящая в исследовательскую группу по ИИ в Калифорнийском университете в Беркли:

«Мы называем это «искусственным интеллектом», но более подходящим названием было бы «извлечение статистических закономерностей из больших массивов данных». Вычислительные возможности современных ИИ, таких как большие языковые модели, не делают их разумнее, чем камни или другие машины».

Какими бы сложными и способными ни были эти современные системы, они все равно меркнут по сравнению со сложностью настоящего разумного мышления. По сути, эти системы искусственного интеллекта все еще остаются, по большей части, чрезвычайно сложными калькуляторами, которые могут делать невероятные вещи с данными, которые мы им скармливаем, но все еще очень сильно ограничены прямым взаимодействием с человеком.

«Сознательный организм — например, человек, собака или другие животные — может научиться чему-то в одном контексте, научиться чему-то другому в другом контексте, а затем соединить эти две вещи вместе, чтобы сделать что-то в новом контексте, с которым они никогда раньше не сталкивались», — говорит доктор Аллен. «Технология генеративного ИИ еще не приблизилась к этому».

РЕШЕНИЕ ОБ УБИЙСТВЕ: ВЫДЕЛЕНИЕ КРАСНЫХ ШАРИКОВ ИЗ СИНИХ

По правде говоря, вопрос о том, может ли ИИ «пойти вразнос», сам по себе испорчен нашей врожденной потребностью спроецировать человекоподобное поведение на строчки кода ИИ. Давайте создадим гипотетический пример, чтобы проиллюстрировать этот момент.

Представьте, что мы разработали систему ИИ, способную с помощью датчиков изображения и роботизированной руки просеивать ведро с шариками и отбирать только красные. Закончив кодирование, мы включили систему для первого испытания… и она успешно отобрала все красные шарики, а также несколько синих.

Конечно, мы не считаем, что система искусственного интеллекта взбесилась. Напротив, мы бы сочли это ошибкой, которую мы допустили где-то по пути. Возможно, проблема в датчике изображения или в алгоритме, который он использует для определения правильных цветов. Мы не приписываем ошибке ИИ злой умысел. Мы признаем, что это просто ошибка, возникшая в результате неполадок в программе или системе, которые мы можем исправить.

Поделиться