Дослідження Оксфордського університету встановило, що чатботи на основі штучного інтелекту дають неточні та протирічні медичні поради. Це становить ризик для безпеки хворих через хибне тлумачення обмеженої інформації.

Вчені з Оксфордського університету з’ясували, що чат-боти, які працюють на основі штучного інтелекту, пропонують неточні та суперечливі рекомендації з питань здоров’я, що становить небезпеку для пацієнтів. Дослідження наголошує, що неспроможність моделей правильно зрозуміти неповну інформацію від користувачів робить самостійну діагностику за допомогою ШІ надзвичайно ризикованою. Про це повідомляє УНН.
Деталі
Експеримент, в якому взяли участь 1300 людей, продемонстрував, що результати взаємодії з ШІ дуже залежать від формулювання питань. Користувачам пропонували оцінити симптоми, наприклад, сильний головний біль або знесилення, але чат-боти часто надавали список діагнозів, з яких людині доводилося обирати навмання. Доктор Адам Махді, провідний автор дослідження, відзначив у коментарі для BBC: “Коли штучний інтелект перелічив три можливі стани, людям залишали вгадувати, який із них може підійти. Саме тоді все й руйнується”.
Головна лікарка дослідження, доктор Ребекка Пейн, назвала практику консультування з ШІ “небезпечною”. Вона пояснила, що користувачі, як правило, діляться інформацією поступово і можуть оминати важливі деталі, які професійний медик виявив би під час особистого огляду. В результаті люди, які використовували ШІ, отримували суміш корисних і шкідливих порад, що ускладнювало прийняття рішення про необхідність візиту до сімейного лікаря або звернення за невідкладною допомогою.
Упередженість алгоритмів та перспективи галузі
Окрім технічних недоліків, експерти вказують на системні недоліки технології. Докторка Ембер В. Чайлдс з Єльського університету підкреслила, що ШІ навчається на медичних даних, які вже містять десятилітні упередження.
Чат-бот є настільки ж добрим діагностом, наскільки добрими є досвідчені клініцисти, що також не ідеально
– додала вона.
Це створює додатковий ризик повторення помилок, закладених у поточну медичну практику.
Незважаючи на критику, експерти бачать потенціал у спеціалізованих моделях. Доктор Берталан Меско зауважив, що нові версії чат-ботів від OpenAI та Anthropic, створені спеціально для сфери охорони здоров’я, можуть продемонструвати кращі результати. Проте ключовою умовою безпеки залишається запровадження чітких національних правил, регуляторних перешкод та офіційних медичних рекомендацій для покращення таких систем.
