Забудьте про лікаря, забудьте про фармацевта: просто запитайте ChatGPT

Це могло б здатися досить тривожним, особливо для тих, хто пам’ятає сюжет фільмів «Термінатор», але дослідники, які стоять за цією роботою, кажуть, що вона демонструє потенціал чат-ботів на основі ШІ для генерації відповідей пацієнтам, наприклад, відповідей на питання електронною поштою, які можуть бути переглянуті лікарем перед відправкою, що знижує їхнє робоче навантаження та ризик вигоряння.

Дослідження показало, що відповіді чат-ботів на 195 заданих питань сприймалися пацієнтами та командою незалежних медиків, які оцінювали відповіді, не знаючи їх джерела, набагато краще, ніж відповіді справжніх лікарів.

Загалом, відповіді чат-ботів більш ніж утричі частіше оцінювалися як хороші або дуже якісні і приблизно вдесятеро частіше вважалися «уважними» або «дуже уважними».

Міждисциплінарна група, очолювана вченим-біхевіористом Джоном Айерсом з Каліфорнійського університету в Сан-Дієго, Ла-Хойя, зазначає, що це попередня суб’єктивна оцінка, і що будуть потрібні рандомізовані випробування, щоб оцінити, чи може використання помічників ШІ «поліпшити відповіді та покращити результати лікування пацієнтів».

Коментатори поспішили вказати на обмеження дослідження, зокрема те, що відповіді були надані без урахування історії хвороби пацієнта чи іншого відповідного контексту. Вони також висловили стурбованість тим, що інструменти можуть використовувати без втручання лікаря, що може бути небезпечним для життя пацієнтів.

«Виходячи з прикладів відповідей, наведених у статті, лікарі дали короткі поради, в той час як відповіді ChatGPT були аналогічні тим, які ви могли б знайти при виборі веб-сайтів у пошуковій системі, але без контролю якості, яку ви отримали б, вибравши , скажімо, веб-сайт NHS», – прокоментував професор Мартін Томас, професор інформаційних технологій у Греш-коледжі в Лондоні, Великобританія.
“У ChatGPT немає медичного контролю якості або відповідальності, і відомо, що великі мовні моделі винаходять переконливі відповіді, які не відповідають дійсності”, – сказав він, – Якщо пацієнти просто хочуть співчуття та загальної інформації, ChatGPT їм саме це і дає.

Одна з зазначених ключових відмінностей полягала в тому, що відповіді ChatGPT, як правило, були набагато довшими, ніж відповіді лікарів, що викликало питання про те, чи справді ті, хто оцінював відповіді, були сліпі до джерела. За словами фахівця з інформаційних технологій професора Джеймса Девенпорта з Університету Бата, це також могло спотворити сприйняття емпатії.

Експерт зі штучного інтелекту професор Нелло Крістіаніні сказав, що дослідження було «вражаючим», хоч і з багатьма обмеженнями, але показує, що ChatGPT може виконувати просту функцію надання інформації не гірше за лікарів.

«Тим не менш, ця «тільки текстова» взаємодія є природним режимом навчання GPT, а не природною обстановкою для лікарів-людей», — продовжив він. лікарів. Я хотів би, щоб ці інструменти використовувалися лікарем при зверненні до пацієнта у відносинах між людьми, що є частиною терапії».
Інші ж дослідники бачать у технології можливість допомогти лікарям покращити свою роботу.

«Чат-боти також можуть служити освітніми інструментами, які допомагають фахівцям знаходити можливості бути більш уважними до своїх пацієнтів», – сказав доктор Хеба Сайлем, керівник групи біомедичного штучного інтелекту та обробки даних у Королівському коледжі Лондона.

Прокрутити вгору