По мнению исследовательской группы из Марбургского университета Филиппа в Германии, ChatGPT демонстрирует значительные перспективы для обучения пациентов в случаях интервенционной радиологии.

В статье, опубликованной в журнале CardioVascular and Interventional Radiology , авторы исследовали использование GPT-3 и GPT-4 для углубленного обучения пациентов перед процедурами интервенционной радиологии и обнаружили, что обе версии модели очень точны.

«Реализуемость и точность этих моделей позволяют предположить их многообещающую роль в революционном уходе за пациентами. Тем не менее, пользователи должны знать о возможных ограничениях», — написал первый автор доктор Майкл Шещеня и его коллеги.

Авторы пишут, что, несмотря на достижения и растущую популярность этой области, многие пациенты имеют ограниченное представление об интервенционных процедурах. Хотя использование Интернета для поиска медицинской информации уже является обычным явлением, использование больших языковых моделей, таких как ChatGPT, для таких целей требует проверки, добавили они.

С этой целью группа специально изучила возможность использования GPT-3 и GPT-4 для обучения пациентов перед тремя распространенными процедурами: порт-имплантацией, чрескожной транслюминальной ангиопластикой и трансартериальной химиоэмболизацией.

Исследователи задали 133 подробных вопроса на английском языке об этих процедурах, точность ответов оценивалась двумя рентгенологами с четырехлетним и семилетним опытом работы с использованием 5-балльной шкалы Лайкерта. Вопросы охватывали различные аспекты процедуры, включая общую информацию, подготовку к процедуре и саму процедуру, риски и осложнения, а также послеоперационный уход.

По данным GPT-3 и GPT-4, они были признаны «полностью правильными» (5 баллов) в 31% и 35% ответов и «очень хорошими» (4 балла) в 48% и 47% ответов. находки.

Кроме того, GPT-3 и GPT-4 давали «приемлемые» (3 балла) ответы в 15,8% и 15,0% случаев. Наконец, GPT-3 был «в основном неверным» (2 балла) в 5,3% ответов, в то время как GPT-4 имел более низкий уровень таких случаев — всего 2,3%.

В конечном итоге, как отметили исследователи, ни одна реакция не была признана потенциально вредной.

«Результаты этого исследования демонстрируют потенциал языковых моделей, управляемых искусственным интеллектом, особенно GPT-3 и GPT-4, как ресурсов для специального обучения пациентов в [интервенционной радиологии]», – написала группа.

Исследователи отметили подводные камни. Они отметили, что двусмысленности могут возникнуть, когда ChatGPT имеет дело с сокращениями, разборчивость языка может быть проблемой, а отсутствие семантического понимания чат-бота может привести к путанице между лучшими практиками и устаревшей информацией, отметили они.

«Будущие исследования должны оценить применимость этих моделей к реальным пациентам», — заключили исследователи.

Источник