«Я спросил у GPT»: как врачам взаимодействовать с пациентами в эпоху ИИ

0
«Я спросил у GPT»: как врачам взаимодействовать с пациентами в эпоху ИИ

Все больше людей обращаются к врачам, вооружившись предположениями о своем здоровье, полученными не из онлайн-форумов, а с использованием генеративных нейросетей. Для медицинских работников это представляет собой не только сложность, но и стимул к переосмыслению стратегии общения и укрепления доверительных отношений с пациентами.

Все чаще врачи сталкиваются с тем, что пациенты приходят на консультацию, опираясь не на советы знакомых или информацию из интернета, а на заключения, сгенерированные ChatGPT. Эти продвинутые модели искусственного интеллекта, оперируя профессиональной терминологией и строгой логикой, уверенно выдвигают медицинские предположения. Это кардинально меняет характер общения между врачом и пациентом, вынуждая медиков не просто давать пояснения, а обосновывать выбранную стратегию лечения. Несмотря на то, что это всего лишь мнение пациента, создается впечатление возросшей осведомленности, однако последствия подобной самодиагностики могут быть непредсказуемыми и нести опасность.

Новая эра пациентской автономии

Давно никого не удивить пациентами, которые приходят на консультацию, вооружившись информацией из интернета. Однако, появление генеративного ИИ, вроде ChatGPT, внесло существенные коррективы в этот процесс. Профессиональные издания уже публикуют материалы о том, как искусственный интеллект влияет на взаимодействие врача и пациента.

В статье, опубликованной в JAMA, врач общей практики Кумара Раджа Сундар приводит пример пациентки, чьи жалобы на головокружение были сформулированы на удивление четко и профессионально – «не вертиго, скорее, предобморочное состояние». Врач даже предположил, что имеет дело с коллегой, но выяснилось, что диагноз и рекомендацию пройти тест с наклоном стола пациентка получила от ChatGPT.

Подобные ситуации становятся все более распространенными: пациенты приходят, оперируя сложными медицинскими терминами, с конкретными вопросами, подготовленными ИИ, и, все чаще, ожидают, что врач просто одобрит предложенную схему лечения.

Врачам приходится объяснять, почему назначение определенных исследований, например, теста с наклоном стола, не всегда оправдано при жалобах на головокружение, и почему чрезмерная диагностика может быть вредной. Проблема в том, как отмечает Сундар, что у ChatGPT отсутствует «функция», напоминающая о том, что запись на обследование может занять много времени, а у клиник есть ограничения по доступности лабораторных ресурсов.

Искусственный интеллект полезен для поиска терминов и формирования гипотез, но он не учитывает клинический контекст, логистику, доступность ресурсов и врачебное суждение – аспекты, которые остаются в зоне ответственности врача.

Риски советов без клинического опыта

Опасность самостоятельного лечения, опирающегося на советы искусственного интеллекта, перестает быть гипотетической. В Штатах, 60-летний гражданин, повинуясь предложению ChatGPT “заменить поваренную соль на более полезную”, начал употреблять бромид натрия. Спустя пару недель у него проявились беспокойство, проблемы со сном, кожные высыпания, видения и подозрительность. В итоге его поместили в больницу с “бромизмом” – редким, но опасным отравлением, которое некогда часто приводило к лечению в психиатрических клиниках.

Оказалось, что ChatGPT предложил бромид натрия как “более безопасную соль”, не приняв во внимание его ядовитость. Итог – психотическое состояние, лечение в стационаре и диагноз, почти забытый современной медициной. Этот случай наглядно показывает, как просто пациенты могут принять ответ ИИ за неоспоримую правду, не имея навыков критического анализа. Даже кажущиеся безвредными советы нуждаются в консультации врача.

Врач и «ИИ-пациент»: как не потерять доверие

Восприятие и отношение врачей претерпевают изменения под воздействием подготовленности пациентов. Как отмечает Сундар, тон, с которым пациент обращается, точность используемой терминологии и структурированность запроса могут создавать впечатление, что профессионализм врача ставится под сомнение. Все чаще возникает предположение, что источником знаний является искусственный интеллект, а не традиционные источники, такие как поисковые системы или консультации с другими врачами.

Это представляет собой новую проблему для медицины: пациент приходит не просто с вопросами, а с заранее разработанным планом действий, ожидая либо подтверждения, либо аргументированного опровержения.

Опыт показывает, что эффективная модель коммуникации возможна. На первом этапе важно признать вовлеченность пациента, обсудив полученную им информацию, кажущиеся убедительными аргументы и существующие опасения. Затем следует перевести разговор в клиническое русло, объясняя, как алгоритмы соотносятся с индивидуальной ситуацией, где преимущества перевешивают риски, а где это не так. Необходимо также учитывать организационные ограничения и реальную доступность исследований. Такой подход, сочетающий эмпатию и клинический анализ, позволяет снизить напряжение и восстановить роль врача как координатора, а не просто проверяющего ответы, полученные от ИИ. Сундар подчеркивает, что пациентам важен не только сам ответ, но и ощущение, что их услышали.

Явление, зародившееся в США, теперь повсеместно распространено: доктора по всей Европе и в России все чаще видят пациентов, осведомленных благодаря ИИ. Эти пациенты приходят с теориями о витамине D, гормональном балансе, дерматологическими вопросами, найденными через телефон, и запросами на онкоскрининг согласно “чек-листу”. Подход остается прежним: учитывать “ИИ-информацию” пациента при сборе анамнеза, записывать, что именно он изучил и почему это важно для него, кратко объяснять показания и противопоказания. Интеграция “ИИ-контекста” в процесс приема помогает сэкономить время и снизить риск конфликтов, в то время как игнорирование или насмешки, напротив, усугубляют ситуацию.

Генеративный ИИ сделал пациентов более информированными, но также и более восприимчивыми к убедительным, но ошибочным советам. Роль врача по-прежнему заключается в привнесении контекста: клинического, организационного и этического. Если медицинское учреждение превращает “ИИ-знания” пациента из потенциальной проблемы в ценный ресурс, то выигрывают все стороны: сокращается количество ненужных анализов, принимаются более взвешенные решения, и укрепляется доверие — важнейший элемент современной медицины, которого так не хватает.

About The Author

Добавить комментарий