Спрашиваешь совет о здоровье у чат-бота? После недавнего запуска сервиса ChatGPT Health от OpenAI стоит учесть несколько важных факторов

После недавнего запуска сервиса ChatGPT Health от OpenAI стоит учесть несколько важных факторов, прежде чем обращаться к ИИ‑чатботам за медсоветами.

По мере того как сотни миллионов людей обращаются к чат-ботам за советом, было лишь делом времени, когда технологические компании начнут предлагать программы, специально разработанные для ответов на вопросы о здоровье.

В январе компания OpenAI представила ChatGPT Health — новую версию своего чат-бота, которая, как утверждает компания, может анализировать медицинские карты пользователей, данные приложений для контроля самочувствия и носимых устройств, чтобы отвечать на вопросы о здоровье и медицине.

Сейчас на доступ к программе действует лист ожидания. Anthropic, конкурирующая компания в сфере ИИ, предлагает схожие возможности для части пользователей своего чат-бота Claude.

В обеих компаниях подчеркивают, что их программы, так называемые большие языковые модели, не являются заменой профессиональной медицинской помощи и не должны использоваться для постановки диагноза. По их словам, чат-боты могут, напротив, суммировать и объяснять сложные результаты анализов, помочь подготовиться к приему у врача или выявлять важные тенденции в состоянии здоровья, скрытые в медицинских записях и статистике приложений.

Но насколько безопасно и точно они справляются с анализом данных о здоровье и заболеваний? И стоит ли вообще на них полагаться?

Вот о чем стоит подумать, прежде чем обсуждать свое здоровье с чат-ботом:

Чат-боты могут давать более персонализированную информацию, чем поиск в Google

Некоторые врачи и исследователи, работавшие с ChatGPT Health и аналогичными программами, считают их шагом вперед по сравнению с нынешней ситуацией.

Платформы на основе ИИ не совершенны — они иногда «галлюцинируют» или дают плохие советы (источник на английском языке), — но информация, которую они выдают, зачастую более персонализирована и конкретна, чем та, что пациенты находят с помощью Google.

«Часто альтернатива — это вообще ничего, либо пациент действует наугад, — говорит доктор Роберт Вахтер, специалист по медицинским технологиям из Калифорнийского университета в Сан-Франциско. — Поэтому, если пользоваться этими инструментами ответственно, можно получить действительно полезную информацию».

В таких странах, как Великобритания и США, где ожидание приема у врача может растянуться на недели, а в отделениях неотложной помощи приходится проводить часы, чат-боты во многих случаях помогают избежать лишней паники и сэкономить время.

В то же время они могут подсказать, когда симптомы опасны и требуют срочной оценки настоящего врача.

Одно из преимуществ новейших чат-ботов в том, что они отвечают на вопросы пользователей с учетом их медицинской истории, включая назначенные препараты, возраст и записи врача.

Даже если вы не предоставляете ИИ доступ к своим медицинским данным, Вахтер и другие специалисты советуют по возможности описывать чат-боту как можно больше деталей — так ответы будут точнее.

Если у вас тревожные симптомы, не обращайтесь к ИИ

Вахтер и его коллеги подчеркивают: есть ситуации, когда нужно отказаться от чат-бота и немедленно обратиться за медицинской помощью. Такие симптомы, как одышка, боль в груди или сильная головная боль, могут свидетельствовать о неотложном состоянии.

Даже в менее острых ситуациях и пациенты, и врачи должны относиться к программам ИИ «с долей здорового скептицизма», говорит доктор Ллойд Майнор из Стэнфордского университета.

«Если речь идет о важном медицинском решении или даже о менее значимом вопросе, касающемся здоровья, нельзя полагаться только на то, что выдает большая языковая модель, — добавляет Майнор, декан медицинской школы Стэнфорда».

Даже при относительно распространенных и не самых сложных состояниях, таких как синдром поликистозных яичников (СПКЯ), зачастую лучше обратиться к настоящему врачу: заболевание может проявляться по-разному у разных людей, а это непосредственно влияет на выбор схемы лечения.

Подумайте о конфиденциальности, прежде чем загружать данные о здоровье

Многие преимущества, которые предлагают ИИ-боты, основаны на том, что пользователи делятся личной медицинской информацией. Но важно понимать: все, что вы передаете компании, разрабатывающей ИИ, не защищено федеральным законом о конфиденциальности США, который обычно регулирует обращение с чувствительными медицинскими данными.

Этот закон, известный под аббревиатурой HIPAA, предусматривает штрафы и даже тюремные сроки для врачей, больниц, страховщиков и других медучреждений, которые разглашают медицинские сведения. Но на компании, создающие чат-боты, он не распространяется.

«Когда человек загружает свою медицинскую карту в большую языковую модель, это совсем не то же самое, что передать ее новому врачу, — поясняет Майнор. — Потребители должны понимать, что стандарты конфиденциальности в этих случаях совершенно разные».

В OpenAI и Anthropic утверждают, что данные о здоровье пользователей хранятся отдельно от прочей информации и защищены дополнительными мерами. Компании не используют медицинские данные для обучения своих моделей. Пользователь должен отдельно согласиться на передачу такой информации и может в любой момент отказаться от этого.

Несмотря на ажиотаж вокруг ИИ, независимое тестирование таких технологий пока находится на самой ранней стадии. Первые исследования показывают: программы вроде ChatGPT блестяще справляются со сложными медицинскими экзаменами, но часто дают сбои при общении с живыми людьми.

Недавнее исследование Оксфордского университета с участием 1300 человек показало, что люди, которые пользовались ИИ-чат-ботами для поиска информации о гипотетических заболеваниях, не принимали более взвешенных решений, чем те, кто полагался на обычный онлайн-поиск или собственное суждение.

Когда ИИ-чат-ботам предлагали медицинские сценарии в виде подробного письменного описания, они правильно определяли основное заболевание в 95 процентах случаев.

«В этом как раз не было проблемы, — говорит ведущий автор работы Адам Махди из Института Интернета Оксфордского университета. — Все рушилось на этапе взаимодействия с реальными участниками».

Махди и его команда выявили несколько коммуникативных трудностей. Люди часто не сообщали чат-ботам достаточно данных для правильного определения проблемы со здоровьем. В свою очередь, системы ИИ нередко отвечали смесью верной и неверной информации, и пользователям было сложно отличить одно от другого.

Исследование, проведенное в 2024 году, не включало тестирование новейших версий чат-ботов, включая такие продукты, как ChatGPT Health.

Второе мнение ИИ может быть полезным

Способность чат-ботов задавать уточняющие вопросы и выуживать ключевые детали у пользователей — это область, где, по мнению Вахтера, еще есть большой потенциал для улучшений.

«Я думаю, они станут действительно хорошими, когда в их манере общения с пациентами появится больше «врачебного» подхода, когда разговор станет похож на настоящий диалог, — считает Вахтер».

Пока же один из способов чувствовать себя увереннее в получаемой информации — сверяться сразу с несколькими чат-ботами, подобно тому как пациенты иногда получают второе мнение у другого врача.

«Иногда я ввожу одни и те же данные в ChatGPT и в Gemini, — рассказывает Вахтер, имея в виду ИИ-инструмент Google. — И когда их ответы совпадают, я чувствую себя немного увереннее, что это правильный ответ».

Поделитесь новостью