Согласно исследованию, опубликованному  в журнале Radiology , при принятии диагностических решений рентгенологи и другие врачи могут слишком полагаться на искусственный интеллект (ИИ), когда он указывает на конкретную интересующую область на рентгеновском снимке.

«По состоянию на 2022 год Управлением по контролю за продуктами и лекарствами США было одобрено 190 программ на основе ИИ для радиологии», — сказал один из ведущих авторов исследования, доктор медицины Пол Х. Йи, директор по интеллектуальной визуализационной информатике и ассоциированный член отделения радиологии в Детской исследовательской больнице Св. Иуды в Мемфисе, штат Теннесси. «Однако возник разрыв между проверкой концепции ИИ и ее реальным клиническим использованием. Чтобы преодолеть этот разрыв, первостепенное значение имеет формирование соответствующего доверия к рекомендациям ИИ».

В многоцентровом перспективном исследовании 220 рентгенологов и врачей внутренних болезней/неотложной помощи (132 рентгенолога) изучали рентгенограммы грудной клетки вместе с рекомендациями ИИ. Каждому врачу было поручено оценить восемь случаев рентгенографии грудной клетки вместе с рекомендациями от смоделированного помощника ИИ с диагностической эффективностью, сопоставимой с эффективностью экспертов в этой области. Клинические виньетки предлагали фронтальные и, если доступны, соответствующие боковые рентгеновские снимки грудной клетки, полученные из больницы Beth Israel Deaconess в Бостоне через базу данных рентгенографии грудной клетки с открытым исходным кодом MIMI. Группа рентгенологов отобрала набор случаев, которые имитировали реальную клиническую практику.

Для каждого случая участникам были представлены история болезни пациента, советы ИИ и рентгеновские снимки. ИИ предоставил либо правильный, либо неправильный диагноз с локальными или глобальными объяснениями. В локальном объяснении ИИ выделяет части изображения, которые считаются наиболее важными. Для глобальных объяснений ИИ предоставляет похожие изображения из предыдущих случаев, чтобы показать, как он пришел к своему диагнозу.

Эти локальные объяснения напрямую направляют врача к проблемной области в режиме реального времени. В нашем исследовании ИИ буквально очерчивал рамкой области пневмонии или других отклонений».

Доктор Пол Х. Йи, доктор медицинских наук, директор отдела интеллектуальной визуализации и ассоциированный член отделения радиологии Детской исследовательской больницы Св. Иуды

Рецензенты могли принять, изменить или отклонить предложения ИИ. Их также попросили сообщить об уровне уверенности в выводах и впечатлениях и оценить полезность советов ИИ.

Используя модели смешанных эффектов, соавторы исследования Дрю Принстер, магистр наук, и Амама Махмуд, магистр наук, аспиранты по информатике в Университете Джонса Хопкинса в Балтиморе, привели исследователей к анализу влияния экспериментальных переменных на точность диагностики, эффективность, восприятие врачами полезности ИИ и «простое доверие» (насколько быстро пользователь соглашался или не соглашался с советами ИИ). Исследователи учитывали такие факторы, как демографические данные пользователей и профессиональный опыт.

Результаты показали, что эксперты с большей вероятностью согласовывали свои диагностические решения с рекомендациями ИИ и тратили на размышления меньше времени, когда ИИ давал локальные пояснения.

«По сравнению с глобальными объяснениями ИИ, локальные объяснения давали более высокую точность диагностики врача, когда совет ИИ был верным», — сказал доктор Йи. «Они также повысили общую эффективность диагностики, сократив время, затрачиваемое на рассмотрение советов ИИ».

Когда совет ИИ был верным, средняя диагностическая точность среди рецензентов составляла 92,8% с локальными объяснениями и 85,3% с глобальными объяснениями. Когда совет ИИ был неверным, точность врача составляла 23,6% с локальными и 26,1% с глобальными объяснениями.

«Когда участвовавшие в исследовании рентгенологи и нерентгенологи получали локальные объяснения, они, как правило, быстрее доверяли диагнозу, поставленному с помощью ИИ, независимо от точности рекомендаций ИИ», — сказал доктор Йи.

Соавтор исследования Цзянь-Мин Хуан, доктор философии, доцент кафедры компьютерных наук Университета Джонса Хопкинса, отметил, что такое доверие к ИИ может быть палкой о двух концах, поскольку оно чревато чрезмерной зависимостью или предвзятостью автоматизации.

«Когда мы слишком полагаемся на то, что нам говорит компьютер, это становится проблемой, потому что ИИ не всегда прав», — сказал доктор Йи. «Я думаю, что как рентгенологи, использующие ИИ, мы должны знать об этих подводных камнях и помнить о наших диагностических моделях и обучении».

Доктор Йи, основываясь на исследовании, сказал, что разработчикам систем ИИ следует тщательно продумать, как различные формы объяснений ИИ могут повлиять на зависимость от советов ИИ.

«Я действительно считаю, что сотрудничество между промышленностью и исследователями в области здравоохранения имеет ключевое значение», — сказал он. «Я надеюсь, что эта статья положит начало диалогу и плодотворному будущему исследовательскому сотрудничеству».

«Не могли бы вы объяснить? Типы объяснений ИИ по-разному влияют на эффективность диагностики рентгенограмм грудной клетки и доверие врачей к ИИ». С доктором Йи, доктором Хуангом, Принстером и Махмудом сотрудничали Сучи Сария, доктор философии, Жан Джуди, доктор медицины, и Чэн Тин Линь, доктор медицины