ChatGPT тестируется уже целый год. Те, кто увлечен его возможностями и рисками, теперь сравнивают его с более поздними версиями GPT и отмечают улучшения.

В течение 2023 года сайт AuntMinnie.com информировал о том, как GPT был включен в различные виды исследовательской деятельности отделения радиологии. В начале нового года мы попросили рентгенологов оценить, что их больше всего впечатлило и что может быть дальше с GPT.

Резидент радиологии

Каустав Бера, доктор медицинских наук, является ординатором третьего курса Университета Кейс Вестерн Резерв и Медицинского центра университетских больниц Кливленда. Бера был ведущим автором статьи, опубликованной в октябре 2023 года в журнале «Текущие проблемы в диагностической радиологии» , в которой оценивалась литература по ChatGPT в радиологии, опубликованная в период с 26 января по 14 августа 2023 года.

Каустав Бера, доктор медицинских наук, Университетская больница Кливлендского медицинского центра.Каустав Бера, доктор медицинских наук, Университетская больница Кливлендского медицинского центра.

Бера, Грегори О’Коннор, доктор медицинских наук, и другие рецензенты сосредоточили внимание на 51 статье, в которой использовались данные ChatGPT и радиологические изображения.

«Поскольку ChatGPT является областью, богатой изображениями, исследователи и радиологи должны были определить способы, которыми ChatGPT мог бы помочь, несмотря на его неспособность анализировать изображения и зависимость от текстовых подсказок», — пишут авторы. Бера предсказал, что в 2024 году мы увидим больше мультимодальных возможностей GPT.

«Я думаю, что 2024 год будет интригующим, особенно с учетом недавно представленных мультимодальных возможностей ChatGPT», — продолжил Бера. «Однако беспокойство вызывает простота его использования в руках пациентов. Я надеюсь, что люди смогут отнестись к его интерпретации с долей скептицизма и поговорить с квалифицированным радиологом о своих изображениях и вопросах».

Основные исследовательские интересы Беры включают искусственный интеллект и визуализацию в медицине, особенно в онкологии. В качестве старшего научного сотрудника он работал над анализом радиологических и патологоанатомических изображений для диагностики, прогноза и ответа на лечение при нескольких типах рака в Университете Кейс Вестерн Резерв.

«Очевидно, существуют проблемы с конфиденциальностью. Об этом говорят люди», — также сказал Бера, добавив, что наиболее интересным приложением для радиологов или резидентов радиологии было бы использование и разработка образовательного ресурса на основе GPT через локально разработанный интерфейс прикладного программирования ( API).

«Выходя за рамки ChatGPT, эта бурная разработка нескольких крупных языковых моделей с открытым исходным кодом облегчила разработку небольших локальных моделей для некоторых тривиальных задач, которые могут быть почти полностью автоматизированы», — добавил Бера. «Например, автоматическое протоколирование исследований, при этом только самые сложные исследования требуют дальнейшей проверки рентгенологом».

Бера ожидает более широкого использования больших языковых моделей (LLM) для создания упрощенных отчетов, ориентированных на пациента, с меньшим количеством технического языка и жаргона.

Заведующий отделением радиологии

В этом духе NYU Langone Health продолжила дорабатывать свои мультимедийные отчеты по радиологии, включающие GPT, в 2023 году и с тех пор внедрила прецизионное обучение с поддержкой искусственного интеллекта, которое использует GPT для изменения способа обучения резидентов радиологии, объяснил Майкл Рехт, доктор медицинских наук, Луис. Профессор Маркса и заведующий кафедрой радиологии Нью-Йоркского университета в Лангоне.

Майкл Рехт, доктор медицинских наук, NYU Langone Health.Майкл Рехт, доктор медицинских наук, NYU Langone Health.

«То, что мы разработали, — это учебная программа, которая будет персонализирована и основана на том, что жители видели и что им нужно увидеть», — сказал Рехт AuntMinnie.com . «Мы попросили каждую специальность определить, какую патологию каждый ординатор должен видеть при каждой ротации. Затем мы создали учебные файлы по всем этим патологиям с множеством примеров. Мы использовали GPT, чтобы классифицировать патологию, которую видел каждый ординатор, просматривая их отчеты».

Однако «мы поняли, что жители не видят той патологии, которую мы хотели, чтобы они увидели», — продолжил Рехт. «То, что мы делаем сейчас, — это дополняем каждую из патологий случаями из нашего учебного файла. Это гарантирует, что каждый резидент видит всю широту патологии, которую он должен видеть в этой ротации».

Рехт сказал, что Нью-Йоркский университет также работает над разработкой собственных больших языковых моделей, которые не обязательно будут работать в тандеме с GPT. Кроме того, Рехт сказал, что есть воодушевление по поводу способности GPT поглощать изображения и ставить диагноз на основе изображений.

«Мы увидим, насколько GPT вторгнется на рынок распознавания образов ИИ», — заключил он.

Интервенционный радиолог

Как и другие, Дания Дэй, доктор медицинских наук, размышляет о том, как внедрить машинное обучение в повседневную практику. Дэй — доцент кафедры радиологии Гарвардской медицинской школы и практикует интервенционную радиологию в Массачусетской больнице общего профиля.

Дания Дэй, доктор медицинских наук, Массачусетская больница общего профиля.Дания Дэй, доктор медицинских наук, Массачусетская больница общего профиля.

«Многие из нас пробовали ChatGPT и знают, насколько мощным он может быть, но у него довольно много ограничений, с которыми нам приходится иметь дело», — сказал Дэй AuntMinnie.com . «В конечном счете, это жизнь пациентов, и здесь нет права на ошибку. Мы должны хорошо осознавать, когда это может потерпеть неудачу, и в то же время ценить все возможности, которые это может предоставить для упрощения нашего рабочего процесса и улучшения нашей связи с нашими пациентов».

Дэй руководит небольшой лабораторией, специализирующейся на применении машинного обучения в точной медицине, в частности, на вмешательствах.

«Меня очень интересует применение больших языковых моделей для оказания патентно-ориентированной помощи», — сказала она. «Недавно я выступил в RSNA с докладом о том, как нам улучшить совместное принятие решений с пациентами, и отчасти то, что может сделать ChatGPT, — это упростить или перевести медицинский жаргон на языки, доступные для наших пациентов».

В отчетах, оцененных пациентами и врачами, которые включали ChatGPT, LLM показал хорошие результаты с точки зрения обеспечения точного, удобного для пациентов языка или переводов, но она предупредила, что кривая обучения остается.

«Одна из тревожных вещей, которые мы наблюдали, заключается в том, что когда ChatGPT дает сбой, он, как правило, дает сбой при выполнении перевода очень уверенно», — добавил Дэй, подчеркнув, что существует ряд проблем с ответственностью, с которыми система здравоохранения научится справляться.

Дэй уверен, что ChatGPT изменит практику врачей-рентгенологов в ближайшие пять-десять лет.

«Я хочу отметить, что в целом эти модели так же хороши, как и данные, которые используются для их обучения», — сказала она. «Когда мы начнем обучать эти модели с помощью более целевых наборов данных, я думаю, мы увидим действительно интересные вещи».

Дэй сказала, что она наблюдает за консорциумами учреждений по всему миру, которые передают медицинские данные между учреждениями для более масштабной проверки. В конечном итоге это может ускорить разработку, адаптацию и внедрение больших языковых моделей в клиническую практику.

Предприниматель, измерение эффективности и воздействия радиологии

Рон Виану возглавляет Covera Health, компанию, которая работает с плательщиками и группами визуализации для обеспечения качества и точности в радиологии.

Рон Виану, Covera Health.Рон Виану, Covera Health.

«В целом, существует невероятный интерес к пониманию всех возможных вариантов использования LLM, но остается здоровая доза скептицизма», — сказал Виану AuntMinnie.com . «Нет недостатка в том, как люди пытаются использовать LLM интересными способами: от создания удобных для пациентов отчетов и составления впечатлений до масштабирования значимых показателей качества или, со стороны плательщика, изучения различных способов отмены предварительного разрешения».

По словам Виану, ключевой областью развития больших языковых моделей является их способность повышать качество работы.

«ИИ может и позволяет анализировать изображения и отчеты и открывать новые возможности для понимания здоровья отдельных людей и целых групп населения», — сказал он. «Когда мы объединяем эту информацию с информацией, содержащейся в электронных медицинских документах, тестах и ​​других данных здравоохранения, LLM может помочь медицинским организациям и их поставщикам лучше понять и выявить пробелы и риски для здоровья».

«Существует большая путаница относительно того, как они будут развиваться, как будет выглядеть мир, если появятся конкурирующие модели, для чего будут разрабатываться эти модели и как FDA будет подходить к одобрению этих моделей», — объяснил Виану. «Существует много шумихи по поводу трансформационного характера этих моделей, но мало подробностей о том, как и когда они повлияют на эту область».

Стэнфордский университет определяет базовые модели как модели (например, GPT-4 для OpenAI, PaLM 2 для Google, Llama 2 для Meta), обученные на обширных данных (обычно с использованием самоконтроля в масштабе), которые могут быть адаптированы для широкого спектра последующих задач. Эксперты Стэнфордского центра исследований моделей фундамента откровенно высказались по вопросам, включая отсутствие прозрачности. Среди отмеченных замечаний можно назвать то, что ни один разработчик экосистем базовой модели в настоящее время не раскрывает значительную информацию о последующем влиянии своей флагманской модели, например, о количестве пользователей, затронутых секторах рынка или о том, как пользователи могут добиваться возмещения ущерба.

В попытке добиться прозрачности 22 декабря 2023 года был представлен проект Закона о модели прозрачности Фонда искусственного интеллекта , спонсорами которого выступили представители США Дон Бейер (демократ от штата Вирджиния) и Анна Эшу (демократ от Калифорнии). Закон о модели прозрачности Фонда искусственного интеллекта предписывает Федеральной торговой комиссии (FTC) по согласованию с Национальным институтом стандартов и технологий (NIST) и Управлением научно-технической политики (OSTP) установить стандарты для того, какая информация будет иметь большое значение. Согласно заявлению офиса Эшу, модели фондов должны предоставлять FTC и какую информацию они должны предоставлять общественности. Информация, определенная для повышения прозрачности, будет включать в себя используемые данные обучения, способы обучения модели и сбор пользовательских данных для вывода.

Источник