После недавнего запуска сервиса ChatGPT Health от OpenAI стоит учесть несколько важных факторов, прежде чем обращаться к ИИ‑чатботам за медсоветами.
По мере того как сотни миллионов людей обращаются к чат-ботам за советом, было лишь делом времени, когда технологические компании начнут предлагать программы, специально разработанные для ответов на вопросы о здоровье.
В январе компания OpenAI представила ChatGPT Health — новую версию своего чат-бота, которая, как утверждает компания, может анализировать медицинские карты пользователей, данные приложений для контроля самочувствия и носимых устройств, чтобы отвечать на вопросы о здоровье и медицине.
Сейчас на доступ к программе действует лист ожидания. Anthropic, конкурирующая компания в сфере ИИ, предлагает схожие возможности для части пользователей своего чат-бота Claude.
В обеих компаниях подчеркивают, что их программы, так называемые большие языковые модели, не являются заменой профессиональной медицинской помощи и не должны использоваться для постановки диагноза. По их словам, чат-боты могут, напротив, суммировать и объяснять сложные результаты анализов, помочь подготовиться к приему у врача или выявлять важные тенденции в состоянии здоровья, скрытые в медицинских записях и статистике приложений.
Но насколько безопасно и точно они справляются с анализом данных о здоровье и заболеваний? И стоит ли вообще на них полагаться?
Вот о чем стоит подумать, прежде чем обсуждать свое здоровье с чат-ботом:
Чат-боты могут давать более персонализированную информацию, чем поиск в Google
Некоторые врачи и исследователи, работавшие с ChatGPT Health и аналогичными программами, считают их шагом вперед по сравнению с нынешней ситуацией.
Платформы на основе ИИ не совершенны — они иногда «галлюцинируют» или дают плохие советы (источник на английском языке), — но информация, которую они выдают, зачастую более персонализирована и конкретна, чем та, что пациенты находят с помощью Google.
«Часто альтернатива — это вообще ничего, либо пациент действует наугад, — говорит доктор Роберт Вахтер, специалист по медицинским технологиям из Калифорнийского университета в Сан-Франциско. — Поэтому, если пользоваться этими инструментами ответственно, можно получить действительно полезную информацию».
В таких странах, как Великобритания и США, где ожидание приема у врача может растянуться на недели, а в отделениях неотложной помощи приходится проводить часы, чат-боты во многих случаях помогают избежать лишней паники и сэкономить время.
В то же время они могут подсказать, когда симптомы опасны и требуют срочной оценки настоящего врача.
Одно из преимуществ новейших чат-ботов в том, что они отвечают на вопросы пользователей с учетом их медицинской истории, включая назначенные препараты, возраст и записи врача.
Даже если вы не предоставляете ИИ доступ к своим медицинским данным, Вахтер и другие специалисты советуют по возможности описывать чат-боту как можно больше деталей — так ответы будут точнее.
Если у вас тревожные симптомы, не обращайтесь к ИИ
Вахтер и его коллеги подчеркивают: есть ситуации, когда нужно отказаться от чат-бота и немедленно обратиться за медицинской помощью. Такие симптомы, как одышка, боль в груди или сильная головная боль, могут свидетельствовать о неотложном состоянии.
Даже в менее острых ситуациях и пациенты, и врачи должны относиться к программам ИИ «с долей здорового скептицизма», говорит доктор Ллойд Майнор из Стэнфордского университета.
«Если речь идет о важном медицинском решении или даже о менее значимом вопросе, касающемся здоровья, нельзя полагаться только на то, что выдает большая языковая модель, — добавляет Майнор, декан медицинской школы Стэнфорда».
Даже при относительно распространенных и не самых сложных состояниях, таких как синдром поликистозных яичников (СПКЯ), зачастую лучше обратиться к настоящему врачу: заболевание может проявляться по-разному у разных людей, а это непосредственно влияет на выбор схемы лечения.
Подумайте о конфиденциальности, прежде чем загружать данные о здоровье
Многие преимущества, которые предлагают ИИ-боты, основаны на том, что пользователи делятся личной медицинской информацией. Но важно понимать: все, что вы передаете компании, разрабатывающей ИИ, не защищено федеральным законом о конфиденциальности США, который обычно регулирует обращение с чувствительными медицинскими данными.
Этот закон, известный под аббревиатурой HIPAA, предусматривает штрафы и даже тюремные сроки для врачей, больниц, страховщиков и других медучреждений, которые разглашают медицинские сведения. Но на компании, создающие чат-боты, он не распространяется.
«Когда человек загружает свою медицинскую карту в большую языковую модель, это совсем не то же самое, что передать ее новому врачу, — поясняет Майнор. — Потребители должны понимать, что стандарты конфиденциальности в этих случаях совершенно разные».
В OpenAI и Anthropic утверждают, что данные о здоровье пользователей хранятся отдельно от прочей информации и защищены дополнительными мерами. Компании не используют медицинские данные для обучения своих моделей. Пользователь должен отдельно согласиться на передачу такой информации и может в любой момент отказаться от этого.
Несмотря на ажиотаж вокруг ИИ, независимое тестирование таких технологий пока находится на самой ранней стадии. Первые исследования показывают: программы вроде ChatGPT блестяще справляются со сложными медицинскими экзаменами, но часто дают сбои при общении с живыми людьми.
Недавнее исследование Оксфордского университета с участием 1300 человек показало, что люди, которые пользовались ИИ-чат-ботами для поиска информации о гипотетических заболеваниях, не принимали более взвешенных решений, чем те, кто полагался на обычный онлайн-поиск или собственное суждение.
Когда ИИ-чат-ботам предлагали медицинские сценарии в виде подробного письменного описания, они правильно определяли основное заболевание в 95 процентах случаев.
«В этом как раз не было проблемы, — говорит ведущий автор работы Адам Махди из Института Интернета Оксфордского университета. — Все рушилось на этапе взаимодействия с реальными участниками».
Махди и его команда выявили несколько коммуникативных трудностей. Люди часто не сообщали чат-ботам достаточно данных для правильного определения проблемы со здоровьем. В свою очередь, системы ИИ нередко отвечали смесью верной и неверной информации, и пользователям было сложно отличить одно от другого.
Исследование, проведенное в 2024 году, не включало тестирование новейших версий чат-ботов, включая такие продукты, как ChatGPT Health.
Второе мнение ИИ может быть полезным
Способность чат-ботов задавать уточняющие вопросы и выуживать ключевые детали у пользователей — это область, где, по мнению Вахтера, еще есть большой потенциал для улучшений.
«Я думаю, они станут действительно хорошими, когда в их манере общения с пациентами появится больше «врачебного» подхода, когда разговор станет похож на настоящий диалог, — считает Вахтер».
Пока же один из способов чувствовать себя увереннее в получаемой информации — сверяться сразу с несколькими чат-ботами, подобно тому как пациенты иногда получают второе мнение у другого врача.
«Иногда я ввожу одни и те же данные в ChatGPT и в Gemini, — рассказывает Вахтер, имея в виду ИИ-инструмент Google. — И когда их ответы совпадают, я чувствую себя немного увереннее, что это правильный ответ».

