Редкий эпизод для ИИ-индустрии: сотрудники OpenAI и Google официально (), через судебный документ, поддержали Anthropic. Под обращением подписались почти 40 человек, в том числе Джефф Дин, главный научный сотрудник Google и один из руководителей Gemini. Компании, которые обычно борются за одних клиентов, контракты и влияние, внезапно выступили единым фронтом.
Поводом стало решение Министерства обороны США признать Anthropic «фактором риска для цепочки поставок». Такой статус обычно используют против иностранных поставщиков, которых власти считают угрозой для национальной безопасности, например Huawei и ZTE. Теперь его присвоили американскому разработчику ИИ. Публичных объяснений не последовало, власти сослались лишь на засекреченные разведывательные оценки. Дополнительные вопросы вызвало и то, что вскоре после этого Пентагон заключил сделку с OpenAI.
Авторы обращения предупреждают, что опасность выходит далеко за рамки одной компании. Если государство может фактически исключить игрока из федеральной экосистемы без понятных публичных оснований, под ударом оказывается весь рынок. Сегодня это Anthropic, завтра такой механизм могут применить против любого, кто откажется от спорных условий. Тогда вопрос уже не в судьбе одной компании, а в том, какими будут отношения Вашингтона с ИИ-сектором в целом.
Заявление в суд подали в поддержку Anthropic. Такой документ подают участники процесса со стороны, когда хотят обозначить свою позицию и показать, что спор затрагивает не только истца и ответчика. Под обращением поставили подписи почти 40 сотрудников OpenAI и Google. Среди них оказался и Джефф Дин, главный научный сотрудник Google и один из руководителей направления Gemini. Уже один этот факт показывает масштаб истории: спор перестал быть локальной юридической стычкой и превратился в вопрос, который встревожил заметную часть американского ИИ-сообщества.
Повод для иска — решение Министерства обороны США признать Anthropic фактором риска для цепочки поставок. После такого статуса федеральные ведомства и подрядчики фактически теряют возможность использовать технологии компании. Обычно подобные меры применяют к иностранным поставщикам, которых власти считают угрозой для национальной безопасности. В прошлом такой подход использовали, например, против китайских компаний вроде Huawei и ZTE. В случае с Anthropic ситуация выглядит совсем иначе, ведь речь идёт о местном, американском разработчике ИИ.
Именно поэтому решение Пентагона вызвало такую нервную реакцию. Для рынка важен не только удар по одной компании, но и сам прецедент. Если государство может присвоить такой статус отечественному игроку без понятного публичного объяснения, под вопросом оказывается вся логика отношений между Вашингтоном и частными корпорациями. Сегодня мишенью стала Anthropic, завтра похожий инструмент давления может появиться и в других конфликтах.
Прокачай резюме бесплатно: митапы, вебинары, нетворкинг в ИБ
Стать экспертом
Напряжение возникло после отказа Anthropic разрешить использование своей технологии для массовой слежки за американцами или для автономных оружейных систем. Вскоре после присвоения нового статуса Министерство обороны завершило сделку с OpenAI. Такая последовательность событий только усилила подозрения вокруг решения ведомства.
Авторы обращения в суд прямо говорят, что у Пентагона были гораздо более простые способы решить спор, если ведомство действительно оказалось недовольно условиями работы с Anthropic. В таком случае власти могли просто расторгнуть контракт и выбрать другого поставщика. Вместо этого компания получила ярлык, который переводит конфликт в совсем другую плоскость.
Подобная метка может повлиять на будущие федеральные контракты, отношения с подрядчиками, доступ к государственным проектам и на само восприятие компании в отрасли. Если механизм начнут применять шире, рынок быстро получит новый источник нестабильности: любая жёсткая позиция в переговорах с государством или отказ от спорных условий может внезапно обернуться не просто потерянной сделкой, а системным ударом по бизнесу.
Опять же, Пентагон публично не раскрыл, почему принял такое решение. Власти, как сказано в тексте, ссылаются на засекреченные разведывательные оценки. Anthropic, со своей стороны, утверждает, что решение нарушает административные процедуры и принято непрозрачно. Именно непрозрачность и стала одной из главных точек конфликта. Когда обвинение звучит серьёзно, но его содержание не раскрывают, защищаться становится гораздо труднее.
Сотрудники OpenAI и Google в своём обращении предупреждают, что история может изменить не только судьбу одной компании, но и весь порядок взаимодействия государства с ИИ-сектором. По их мнению, если такой подход закрепится, он ударит по научной и промышленной конкурентоспособности США. Причина понятна: рынок, где крупного разработчика можно фактически исключить из федеральной экосистемы без внятных публичных оснований, становится менее предсказуемым для всех остальных участников.
Есть и ещё один риск, который тревожит подписантов. Подобные действия могут охладить внутреннюю дискуссию в индустрии о том, как именно следует развивать ИИ и где проводить границы допустимого. Если компания знает, что отказ от спорного применения технологий способен привести к тяжёлым санкциям со стороны государства, у разработчиков появляется стимул меньше спорить, меньше возражать и осторожнее формулировать собственную позицию.
Поддержка Anthropic со стороны исследователей из конкурирующих компаний объясняется ещё и репутацией самой компании. Многие в отрасли считают её одним из заметных игроков в области безопасного ИИ. В тексте прямо упоминаются работы Anthropic по таким направлениям, как constitutional AI, то есть подходу, где модель настраивают с опорой на заранее заданный набор принципов и ограничений.
В итоге судебный процесс может задать тон будущим отношениям между Вашингтоном и рынком искусственного интеллекта. И именно поэтому в спор внезапно вмешались те, кто обычно предпочитает держаться от конкурентов на максимально возможной дистанции.
