Забудьте о докторе, забудьте о фармацевте: просто спросите ChatGPT

Это могло бы показаться достаточно тревожным, особенно для тех, кто помнит сюжет фильмов «Терминатор», но исследователи, стоящие за этой работой, говорят, что она демонстрирует потенциал чат-ботов на основе ИИ для генерации ответов пациентам, например, ответов по электронной почте на вопросы, которые могут быть просмотрены врачом перед отправкой, что снижает их рабочую нагрузку и риск выгорания.

Исследование показало, что ответы чат-ботов на 195 вопросов воспринимались пациентами и командой медиков, которые оценивали ответы, не зная их источника, гораздо лучше, чем ответы настоящих врачей.

В целом, ответы чат-ботов более чем в три раза чаще оценивались как хорошие или очень качественные и примерно в десять раз чаще считались «внимательными» или «очень внимательными».

Междисциплинарная группа, возглавляемая ученым-бихевиористом Джоном Айерсом из Калифорнийского университета в Сан-Диего, Ла-Хойя, отмечает, что это предварительная субъективная оценка, и что потребуются рандомизированные испытания, чтобы оценить, может ли использование помощников ИИ «улучшить ответы, снизить выгорание врачей и улучшить результаты лечения пациентов».

Комментаторы поспешили указать на ограничения исследования, в частности на то, что ответы были предоставлены без учета истории болезни пациента или другого соответствующего контекста. Они также выразили обеспокоенность тем, что инструменты могут использовать без вмешательства врача, что может быть опасно для жизни пациентов.

«Исходя из примеров ответов, приведенных в статье, врачи дали краткие советы, в то время как ответы ChatGPT были аналогичны тем, которые вы могли бы найти при выборе веб-сайтов в поисковой системе, но без контроля качества, который вы получили бы, выбрав, скажем, веб-сайт NHS», — прокомментировал профессор Мартин Томас, профессор информационных технологий в Грешем-колледже в Лондоне, Великобритания.

«У ChatGPT нет медицинского контроля качества или ответственности, и известно, что большие языковые модели изобретают убедительные ответы, которые не соответствуют действительности», — сказал он, — Если пациенты просто хотят сочувствия и общей информации, ChatGPT им именно это и дает».

Одно из отмеченных ключевых отличий заключалось в том, что ответы ChatGPT, как правило, были намного длиннее, чем ответы врачей, что вызывало вопросы о том, действительно ли те, кто оценивал ответы, были слепы к источнику. По словам специалиста по информационным технологиям профессора Джеймса Дэвенпорта из Университета Бата, это также могло исказить восприятие эмпатии.

Эксперт по искусственному интеллекту профессор Нелло Кристианини сказал, что исследование было «впечатляющим», хотя и со многими ограничениями, но показывает, что ChatGPT может выполнять простую функцию предоставления информации не хуже врачей.

«Тем не менее, это «только текстовое» взаимодействие является естественным режимом обучения GPT, а не естественной обстановкой для врачей-людей», — продолжил он, — оформление сравнения с точки зрения текстовой подсказки и текстового ответа означает упущение ряда важных моментов о людях-врачах. Я бы предпочел, чтобы эти инструменты использовались врачом при обращении к пациенту в отношениях между людьми, что является частью терапии».

Другие же исследователи видят в технологии возможность помочь врачам улучшить свою работу.

«Чат-боты также могут служить образовательными инструментами, помогающими специалистам находить возможности быть более внимательными к своим пациентам», — сказал доктор Хеба Сайлем, руководитель группы биомедицинского искусственного интеллекта и обработки данных в Королевском колледже Лондона.

Информация взята тут

Прокрутить вверх