Аналіз Оксфордського університету засвідчив, що чат-боти з використанням штучного інтелекту генерують неточні та протирічливі медичні поради. Це формує ризик для безпеки хворих через хибне трактування обмежених даних.

Вчені з Оксфордського університету з’ясували, що чат-інструменти, базовані на штучному інтелекті, надають хибні та непослідовні поради щодо здоров’я, що становить загрозу для захисту пацієнтів. Робота підкреслює, що нездатність моделей адекватно тлумачити неповні дані від користувачів робить самостійну діагностику за допомогою ШІ вкрай ризикованою. Про це повідомляє УНН.
Деталі
Дослідження за участі 1300 осіб продемонструвало, що наслідки взаємодії з ШІ надзвичайно залежать від формулювання питань. Користувачам пропонували оцінити ознаки, такі як сильний біль голови або знесилення, однак чат-боти часто видавали перелік діагнозів, серед яких людині доводилося вибирати навмання. Доктор Адам Махді, головний автор дослідження, зауважив у коментарі для BBC: “Коли штучний інтелект запропонував три можливі умови, людям доводилось вгадувати, котра з них може підійти. Саме тут усе й руйнується”.
Провідний лікар дослідження доктор Ребекка Пейн назвала практику консультування з ШІ “небезпечною”. Вона пояснила, що користувачі зазвичай діляться інформацією поступово та можуть оминати важливі деталі, які фаховий медик виявив би під час особистого огляду. Зрештою, люди, які використовували ШІ, отримували мікс корисних і шкідливих рекомендацій, що ускладнювало ухвалення рішення про потребу у візиті до сімейного лікаря або невідкладної допомоги.
Упередження алгоритмів та перспективи галузі
Окрім технічних похибок, експерти вказують на системні вади технології. Докторка Ембер В. Чайлдс з Єльського університету наголосила, що ШІ навчається на медичних даних, які вже містять десятилітні упередження.
Чат-бот є настільки ж хорошим діагностом, наскільки хороші досвідчені клініцисти, що також не ідеально
– додала вона.
Це створює додатковий ризик повторення помилок, вбудованих у сучасну медичну практику.
Незважаючи на критику, фахівці бачать потенціал у спеціалізованих моделях. Доктор Берталан Меско зауважив, що нові версії чат-ботів від OpenAI та Anthropic, розроблені саме для галузі охорони здоров’я, можуть продемонструвати кращі результати. Однак ключовою умовою безпеки залишається запровадження чітких національних правил, регуляторних бар’єрів та офіційних медичних настанов для вдосконалення подібних систем.
