ChatGPT демонстрирует многообещающие результаты в ответах на вопросы пациентов, адресованные урологам

Согласно исследованию, опубликованному в журнале Urology Practice, чат-бот ChatGPT может быть полезен для экономии времени при ответах на вопросы пациентов, направляемых в кабинет уролога.

ChatGPT: инструмент для экономии времени в кабинете уролога

Майкл Скотт (Michael Scott), уролог из Медицинской школы Стэнфордского университета (Stanford University School of Medicine), провёл исследование, в котором было показано, что инструмент искусственного интеллекта (ИИ) может генерировать «приемлемые» ответы на почти половину выборки реальных вопросов пациентов.

«Технологии генеративного искусственного интеллекта могут сыграть ценную роль в обеспечении быстрых и точных ответов на повседневные вопросы пациентов, — комментирует доктор Скотт. — Это может облегчить беспокойство пациентов и высвободить время и ресурсы клиники для решения более сложных задач».

Может ли ChatGPT точно отвечать на вопросы пациентов-урологов?

ChatGPT — это инновационная модель большого языка (LLM), которая может быть полезна в различных сферах, включая здравоохранение и медицину. В некоторых недавних исследованиях ChatGPT показал хорошие результаты при ответе на различные типы медицинских вопросов. Однако его эффективность в урологии менее известна.

Современные системы электронных медицинских карт позволяют пациентам отправлять медицинские вопросы непосредственно своим врачам. «Этот сдвиг был связан с увеличением временной нагрузки на использование EHR для врачей, большая часть которой связана с сообщениями пациентов в корзине», — пишут исследователи. По оценкам одного исследования, каждое сообщение в почтовом ящике врача добавляет более двух минут, потраченных на электронную запись медицинских записей.

Доктор Скотт и его коллеги собрали 100 электронных сообщений пациентов с просьбой о медицинской консультации у уролога в мужской клинике. Сообщения были классифицированы по типу контента и сложности, а затем введены в ChatGPT. Пять опытных урологов оценили каждый ответ, сгенерированный ИИ, с точки зрения точности, полноты, полезности и разборчивости. Оценщики также указали, будут ли они отправлять каждый ответ пациенту.

Результаты подтверждают «генеративную технологию искусственного интеллекта для повышения клинической эффективности»

Ответы, сгенерированные ChatGPT, были признаны точными со средней оценкой 4,0 по пятибалльной шкале; и доходчиво, средний балл 4,7. Оценки полноты и полезности были ниже, но потенциальный вред был незначительным или отсутствовал вообще. Результаты были сопоставимы по разным типам содержания вопросов (симптомы, послеоперационные проблемы и т. д.).

«В целом 47% ответов были сочтены приемлемыми для отправки пациентам», — пишут исследователи. На вопросы, оцененные как «лёгкие», наблюдался более высокий процент приемлемых ответов: 56% по сравнению с 34% на «сложные» вопросы.

«Эти результаты показывают перспективу использования генеративной технологии искусственного интеллекта для повышения клинической эффективности», — пишут доктор Скотт и соавторы. Результаты «предполагают возможность интеграции этой новой технологии в клиническую помощь для повышения эффективности при сохранении качества общения с пациентами».

Однако исследователи отмечают некоторые потенциальные недостатки ответов на вопросы пациентов, генерируемых ChatGPT: «Модель ChatGPT обучена на информации из Интернета в целом, а не на проверенных медицинских источниках», с «риском генерации неточных или вводящих в заблуждение ответов».

Авторы также подчёркивают необходимость принятия мер для обеспечения конфиденциальности пациентов.

«Хотя наше исследование представляет собой интересную отправную точку, потребуются дополнительные исследования для подтверждения использования LLM для ответа на вопросы пациентов как в урологии, так и в других специальностях, — комментирует доктор Скотт. — Это будет потенциально ценное приложение для здравоохранения, особенно с учётом продолжающегося развития технологий искусственного интеллекта».

Литература:
Michael Scott et al, Assessing Artificial Intelligence–Generated Responses to Urology Patient In-Basket Messages, Urology Practice (2024). DOI: 10.1097/UPJ.0000000000000637