Microsoft представила генеративную модель искусственного интеллекта на основе GPT-4, разработанную специально для американских спецслужб, которая работает без подключения к интернету. Microsoft впервые развертывает крупную языковую модель в защищенной среде. Она позволит разведслужбам анализировать сверхсекретную информацию без риска утечек через интернет, а также безопасно общаться с чат-ботом, похожим на ChatGPT и Microsoft Copilot. Однако, если модель не использовать должным образом, она может вводить в заблуждение сотрудников служб из-за ограничений, присущих языковым моделям ИИ.
Новая модель искусственного интеллекта (название пока не разглашается) отвечает растущему интересу разведывательных служб к применению генеративного ИИ для обработки секретной информации. При этом она снижает риски утечек данных или хакерских атак. У Microsoft есть лицензия на использование GPT, поскольку она инвестировала $10 млрд в OpenAI. ChatGPT работает на облачных серверах Microsoft, что может привести к утечкам данных и их перехвату.
В прошлом году ЦРУ объявило о планах создания собственного сервиса, похожего на ChatGPT, однако проект Microsoft, по сообщениям, является отдельной инициативой.
Уильям Чаппел, директор Microsoft по перспективным проектам и технологиям, рассказал Bloomberg, что разработка новой системы заняла 18 месяцев. В процессе инженеры модифицировали суперкомпьютер с искусственным интеллектом, расположенный в штате Айова. Полученная на основе GPT-4 модель способна обрабатывать файлы, предоставленные пользователями, но не имеет доступа к открытому интернету. «Это первый случай, когда у нас появилась изолированная версия, то есть не имеющая соединения с интернетом. Она работает в специальной сети, доступ к которой есть только у правительства США, » — сообщил Чаппел.
Новая служба была активирована на прошлой неделе и теперь доступна примерно 10 000 сотрудников разведывательного сообщества для дальнейшего тестирования. По словам Чаппела, на данный момент чат-бот «отвечает на вопросы».
Одним из основных недостатков использования GPT-4 для анализа важных данных является то, что она может генерировать неточные ответы, делать неверные выводы или предоставлять пользователям некорректную информацию. Нейронные сети не являются базами данных и работают на основе статистических вероятностей. Чтобы смягчить эту проблему, можно использовать методы дополненного поиска (retrieval augmented generation, RAG), которые позволяют ИИ получать доступ к информации из внешних источников.
Учитывая это ограничение, вполне возможно, что GPT-4 может дезинформировать или ввести в заблуждение американские разведслужбы при ненадлежащем использовании. Пока нет информации о том, как будет контролироваться система, какие ограничения будут наложены на ее использование, и каким образом будет проверяться ее точность.