Знаменитый историк и философ размышляет о том, как способность ИИ генерировать язык может сломать человеческую цивилизацию и ее перспективы. Его мнение опубликовала «Идеономика»:
Страх перед искусственным интеллектом (ИИ) преследует человечество с самого начала компьютерной эры. Но до сих пор он был сосредоточен на машинах, способных физически уничтожить людей, поработить их или заменить. Однако за последние пару лет появились новые инструменты ИИ, угрожающие выживанию человеческой цивилизации с неожиданной стороны. Искусственный интеллект приобрел удивительные способности генерировать язык – вербальный, звуковой или визуальный – и управлять им. Тем самым он взломал операционную систему нашей цивилизации.
Язык – это то, из чего состоит практически вся человеческая культура. Права человека, например, не вшиты в нашу ДНК. Нет, это культурные артефакты, которые мы создали, рассказывая истории и изобретая законы. И боги не являются физической реальностью. Нет, это культурные артефакты, которые мы создали, придумывая мифы и священные писания.
Культурным артефактом являются и деньги. Банкноты – это всего лишь разноцветные бумажки, а сейчас более 90% денег – это даже не банкноты, это просто цифровая информация в компьютерах. Что придает им ценность, так это истории, которые нам рассказывают банкиры, министры финансов и криптовалютные гуру. Сэм Бэнкман-Фрид, Элизабет Холмс и Берни Мэдофф оказались не особо хороши в создании реальной ценности, но все они – чрезвычайно талантливые рассказчики.
Что произойдет, если нечеловеческий интеллект станет лучше, чем среднестатистический человек, рассказывать истории, сочинять мелодии, рисовать картины и создавать законы или священные тексты? Когда люди думают о ChatGPT и других новых инструментах ИИ, они часто фокусируются на чем-то вроде школьных сочинений, написанных с помощью ИИ, и что будет со школьной системой, если дети начнут так делать. Однако подобные вопросы не отражают общей картины. Забудьте про школьные сочинения. Подумайте о следующей президентской гонке в 2024 году и представьте влияние ИИ-инструментов, которые можно использовать для широкого производства политического контента, фейков и сакральных текстов для новых культов.
Культ QAnon, сформировавшийся в последние годы, возник вокруг анонимных онлайн-сообщений, известных как «q drops», которые его последователи собирали, чтили и интерпретировали как священное писание. И хотя эти сообщения, насколько нам известно, были созданы людьми, а боты лишь помогали в их распространении, в будущем мы можем увидеть первые в истории культы, сакральные тексты которых написаны нечеловеческим разумом. Религии на протяжении всей истории заявляли о нечеловеческом источнике своих священных книг. Скоро это может стать реальностью.
Скоро могут стать реальностью – на более приземленном уровне – и долгие онлайн-дискуссии об абортах или изменении климата с существами, которые, как мы думаем, являются людьми, а на самом деле это ИИ. Ловушка в том, что если для нас совершенно бессмысленно тратить время, пытаясь изменить мнение бота, то искусственный интеллект способен отточить свои сообщения настолько хорошо, что имеет неплохие шансы повлиять на нас.
Благодаря своему владению языком ИИ может даже устанавливать близкие отношения с людьми и использовать силу близости для изменения их взглядов и мировоззрения. Хотя нет никаких признаков того, что ИИ обладает собственным разумом или чувствами, для создания фальшивой близости достаточно заставить людей чувствовать эмоциональную привязанность. В июне 2022 года Блейк Лемуан, инженер Google, публично заявил, что у чат-бота с искусственным интеллектом LaMDA, над которым он работал, есть разум. Это неоднозначное заявление стоило Лемуану должности. Но вовсе не оно было в данном эпизоде самым интересным, а, скорее, готовность человека рискнуть своей высокооплачиваемой работой ради чат-бота. Если ИИ может заставить людей идти на такие риски, на что еще он способен их побудить?
В политической борьбе за умы и сердца близость – самое эффективное оружие, а искусственный интеллект только что получил возможность выстраивать личные отношения с миллионами людей. Все мы знаем, что за последнее десятилетие социальные сети стали полем битвы за человеческое внимание. С новым поколением ИИ происходит переключение ее цели – с внимания на близость. Что произойдет с человеческим обществом и человеческой психологией, когда ИИ сразится с ИИ за фальшивую близость с нами, которую затем можно использовать, чтобы убедить нас голосовать за определенных политиков или покупать определенные продукты?
Даже не создавая фальшивой близости, новые инструменты ИИ способны колоссально повлиять на наши взгляды и мировоззрение. Люди могут использовать одного ИИ-консультанта как универсального всезнающего оракула. Неудивительно, что Google в ужасе. Зачем мучиться поиском, если можно просто спросить у оракула? Новостная и рекламная индустрии тоже должны быть в ужасе. Зачем читать газету или смотреть рекламу, если можно просто спросить у оракула о последних новостях или о том, что стоит купить?
И даже эти сценарии не отражают общей картины. То, о чем мы говорим, потенциально является концом человеческой истории. Не концом истории вообще, а той ее части, где доминировал человек. История – это взаимодействие между биологией и культурой; между нашими биологическими потребностями и желаниями, такими как еда и секс, и нашими культурными институциями, такими как религия и законы. История – это процесс, в котором законы и религии оформляют питание и секс.
Что произойдет с историей, когда ИИ возьмет верх над культурой и начнет создавать тексты, мелодии, законы и религии? Предыдущие инструменты, такие как печатный станок и радио, помогали распространять культурные идеи людей, но новых они сами не создавали. Искусственный интеллект может породить совершенно новые идеи и совершенно новую культуру.
Сначала ИИ, вероятно, будет имитировать созданные человеком образцы, на которых он обучался на ранних стадиях. Но с каждым годом культура ИИ будет всё дальше уходить туда, где еще человека не было. Тысячелетиями люди жили в мире, воображенном другими людьми. В ближайшие десятилетия мы можем оказаться в мире, воображенном нечеловеческим разумом.
Страх перед ИИ преследует человечество всего несколько последних десятилетий. Но на протяжении тысячелетий людей преследовал гораздо более глубокий страх. Мы всегда высоко ценили способность историй и образов управлять нашим сознанием и создавать иллюзии. Поэтому с древних времен люди боялись оказаться в ловушке иллюзорности мира.
В 17-м веке Рене Декарт опасался, что, возможно, злой демон заманил его в ловушку иллюзии, создав всё, что он видел и слышал. В Древней Греции Платон в своих диалогах использовал знаменитую аллегорию пещеры, в которой люди прикованы так, что всегда смотрят на пустую стену, которая по сути экран, отражающий лишь тени. И пленники ошибочно принимают их за реальность.
В древней Индии буддийские и индуистские мудрецы указывали на то, что все люди живут в ловушке майи – мира иллюзий. То, что мы обычно принимаем за реальность, часто является просто фикцией нашего собственного сознания. Из-за своей веры в ту или иную иллюзию, люди способны вести войны, убивая других и сами стремясь к смерти.
Революция искусственного интеллекта ставит нас лицом к лицу с демоном Декарта, пещерой Платона и майей. Если мы не будем осторожны, то можем оказаться окутанными завесой иллюзий, которую не сможем убрать – и даже осознать, что она существует.
Конечно, всю мощь ИИ можно использовать и в благих целях. И я не буду об этом говорить, потому что уже достаточно сказано теми, кто искусственный интеллект разрабатывает. Цель для историков и философов, подобных мне, состоит в том, чтобы указывать на опасности. Но, безусловно, ИИ способен помочь нам в очень многом – от поиска новых лекарств против рака до решения экологического кризиса. Вопрос, с которым мы сталкиваемся, заключается в том, как убедиться, что новые ИИ-инструменты используются не во зло, а во благо. Для этого нам сначала нужно осознать истинные возможности этих инструментов.
С 1945 года мы знаем, что ядерные технологии могут генерировать дешевую энергию на благо людей, но, кроме того, они могут физически уничтожить всю человеческую цивилизацию. Поэтому для защиты человечества и уверенности в том, что эти технологии используются, прежде всего, во благо, мы изменили весь мировой порядок. Теперь нам предстоит иметь дело с новым оружием массового поражения, способным уничтожить весь наш интеллектуальный и социальный мир.
Мы всё еще можем повлиять на новые инструменты ИИ, но действовать нужно быстро. В то время как ядерное оружие не способно изобрести более мощный вариант самого себя – ИИ на это способен. Первый важный шаг – это требовать тщательной проверки безопасности инструментов ИИ, прежде чем они появятся в общем доступе. Точно так же, как фармацевтическая компания не может выпустить новые лекарства, не проверив их краткосрочные и долгосрочные побочные эффекты, технологические компании не должны выпускать новые ИИ-инструменты, пока они не станут безопасными. Нам нужен аналог FDA (Food and Drug Administration) для новых технологий, и он нужен нам уже вчера.
Но более медленное внедрение ИИ не приведет ли к отставанию демократий от жестоких авторитарных режимов? Как раз наоборот. Нерегулируемое развертывание ИИ создаст социальный хаос, выгодный лишь автократам и разрушающий демократии. Демократия – это разговор, а разговор опирается на язык. Когда ИИ взламывает язык, он может разрушить нашу способность вести содержательные разговоры и тем самым разрушить демократию.
Мы только что столкнулись с чужим разумом здесь, на Земле. Мы мало что знаем о нем, за исключением того, что он может уничтожить нашу цивилизацию. Мы должны остановить безответственное развертывание ИИ-инструментов в социуме и начать регулировать искусственный интеллект до того, как он начнет регулировать нас. И первое, что я бы предложил, – это обязать ИИ раскрывать информацию о том, что он является ИИ. Если я разговариваю с кем-то и не могу сказать, человек это или искусственный разум, – это конец демократии.
Этот текст был сгенерирован человеком.
Или уже нет?