Модель нейронной сети может помочь врачам справиться с растущими рабочими нагрузками

Согласно исследованию, опубликованному в журнале Radiology , новая модель искусственного интеллекта объединяет информацию визуализации с клиническими данными пациентов для улучшения диагностических показателей при рентгенографии грудной клетки .

В то время как при диагностике заболеваний врачи учитывают как данные визуализации, так и данные без визуализации, современные подходы на основе искусственного интеллекта адаптированы для решения задач, используя только один тип данных одновременно.

Нейронные сети на основе трансформаторов, относительно новый класс моделей искусственного интеллекта, могут комбинировать данные визуализации и данные без визуализации для более точного диагноза. Эти модели трансформеров изначально были разработаны для компьютерной обработки человеческого языка. С тех пор они послужили основой для крупных языковых моделей, таких как ChatGPT и чат-сервис Google с искусственным интеллектом Bard.

«В отличие от сверточных нейронных сетей, которые настроены на обработку данных изображений, модели-трансформеры образуют более общий тип нейронной сети», — сказал ведущий автор исследования Фирас Хадер, магистр наук, аспирант отделения диагностической и интервенционной радиологии университетской больницы Ахена. в Германии. «Они полагаются на так называемый механизм внимания, который позволяет нейронной сети узнавать о взаимосвязях во входных данных».

Эта возможность идеально подходит для медицины, где в диагностику часто включаются различные переменные, такие как данные пациента и результаты визуализации.

Послушайте, как доктор Хадер обсуждает свои исследования.

Модель, обученная на данных визуализации и без визуализации от 82 тысяч пациентов

Хадер и его коллеги разработали модель трансформатора, предназначенную для медицинского использования. Они обучили его на данных пациентов с визуализацией и без визуализации из двух баз данных, содержащих информацию о более чем 82 000 пациентов.

Исследователи обучили модель диагностировать до 25 состояний, используя данные, не относящиеся к изображениям, данные изображений или их комбинацию, называемые мультимодальными данными.

По сравнению с другими моделями мультимодальная модель показала улучшенные диагностические характеристики для всех состояний.

Хадер Р.Ю. Рис. 5 AI объединяет рентгенограмму грудной клетки с данными пациента

Репрезентативные рентгенограммы (вверху), полученные в переднезадней проекции в положении лежа, и соответствующие карты внимания (внизу). (А) На изображениях показаны основные диагностические результаты набора внутренних данных у 49-летнего пациента мужского пола с застойными явлениями, пневмоническими инфильтратами и выпотом (слева); 64-летний пациент мужского пола с застойными явлениями, пневмоническими инфильтратами и выпотом (в центре); и 69-летняя пациентка с выпотом (справа). (Б)На изображениях показаны основные диагностические результаты набора данных «Медицинской информации для интенсивной терапии» у 79-летнего пациента мужского пола с кардиомегалией и пневмоническими инфильтратами в правом нижнем легком (слева); пациентка 58 лет с двусторонним ателектазом и выпотом в нижние отделы легких (средний); и пациентка 48 лет с пневмоническими инфильтратами в нижней части правого легкого (справа). Обратите внимание, что карты внимания последовательно фокусируются на наиболее важных областях изображения (например, пневмонические помутнения обозначаются непрозрачными областями изображения легких).

Модель имеет потенциал в качестве помощи врачам во время растущей рабочей нагрузки.

«Поскольку объемы данных о пациентах с годами неуклонно растут, а время, которое врачи могут потратить на одного пациента, ограничено, врачам может стать все труднее эффективно интерпретировать всю доступную информацию», — сказал Хадер. «Мультимодальные модели обещают помочь врачам в постановке диагноза, облегчая агрегирование имеющихся данных для постановки точного диагноза».

По словам Хадера, предлагаемая модель может послужить основой для плавной интеграции больших объемов данных.

Источник