Технологические миллиардеры все чаще строят или покупают укромные убежища и удаленные резиденции, вместе с «страховкой на случай апокалипсиса». В списке фигурируют Марк Цукерберг, Сэм Альтман и Рид Хоффман. Это подпитывает разговоры о том, не знают ли они чего-то, что скрыто от остальных, например о близкой катастрофе из-за искусственного интеллекта, климата или войны. Однако новый материал BBC утверждает, что такие страхи в основном преувеличены и не подтверждаются фактами.
Эксперты сходятся в том, что разговоры об ИИ общего назначения, то есть системе умнее человека или хотя бы сопоставимой с ним, сегодня больше похожи на маркетинг и риторику, чем на реальность. Современные модели умеют анализировать данные и имитировать рассуждения, но не понимают и не чувствуют, они прогнозируют слова и шаблоны. Профессор Вэнди Холл из Саутгемптонского университета говорит, что до «по-настоящему человеческого» интеллекта остаются важные прорывы, и наука считает нынешние достижения впечатляющими, но далекими от уровня человека.
Это не мешает богатейшим продолжать вкладываться в безопасные дома и бункеры. Марк Цукерберг строит огромный комплекс на Гавайях, в прессе его описывают как объект с крупным подземным убежищем, хотя сам он отрицает термин «бункер на конец света». Сооснователь LinkedIn Рид Хоффман открыто говорит, что имеет «апокалиптическую страховку» в виде недвижимости, особенно в Новой Зеландии. На этом фоне неудивительно, что общество видит в таких покупках подготовку элит к коллапсу общества, климатическим потрясениям или опасному ИИ.
Опасения в Кремниевой долине подпитывают и заявления людей из ИИ-индустрии. Сооснователь OpenAI Илья Суцкевер, по сообщениям, говорил, что «мы точно построим бункер перед тем, как выпустить AGI». Часть лидеров отрасли, среди них Сэм Альтман, Демис Хассабис и Дарио Амодеи, допускают появление AGI в течение ближайшего десятилетия. Скептики отвечают, что это преждевременно и создает неверную повестку, отталкивающую внимание от насущных проблем.
Ряд ученых считает разговоры о «суперинтеллекте» отвлекающими. Намного ближе и важнее системные риски уже существующих моделей, такие как предвзятость, дезинформация, вытеснение рабочих мест и концентрация власти у крупных платформ. Профессор Нил Лоуренс называет сам термин AGI некорректным, напоминая, что интеллект всегда контекстуален. Он предлагает метафору универсального «искусственного транспортного средства», которое одинаково хорошо летает, плавает и ездит, очевидно, это нереалистичный образ. По его мнению, вместо фантазий о всеобщем интеллекте стоит внимательно разбирать, как нынешний ИИ влияет на экономику, политику и повседневную жизнь.
Государства при этом тоже разошлись в подходах. В США администрация Джо Байдена продвигала обязательные меры по тестированию безопасности ИИ, позднее курс изменили и часть требований сочли препятствием для инноваций. Великобритания запустила AI Safety Institute, который исследует риски и публикует оценки. Политическая дискуссия продолжается, но консенсус науки выглядит скромнее, чем громкие заявления индустрии.
BBC отмечает, что «апокалиптическая подготовка» богатых, вероятно, смешивает несколько мотивов, реальный страх перед мощными технологиями и элемент демонстрации статуса, когда сверхбогатые как бы показывают, что могут позволить себе осторожность. Как бы ни выглядели эти проекты, научное сообщество не ожидает скорого появления AGI и «суперинтеллекта». Гораздо разумнее сосредоточиться на том, как уже работающие алгоритмы меняют общество и кому они приносят выгоды и риски, чем готовить чемоданы в бункер.