Чи можна довіряти ШІ в питаннях здоров'я? Експерти провели масштабне дослідження

Через високі ціни та інші чинники дедалі більше людей звертаються до АІ-чат-ботів на кшталт ChatGPT за медичними порадами. Але нове дослідження попереджає: повністю довіряти АІ - ризиковано.
Про це повідомляє РБК-Україна (проект Styler) з посиланням на сайт новин у сфері технологій TechCrunch.
За словами одного з авторів дослідження, директора магістратури Оксфордського інтернет-інституту Адама Махді, між людьми та ШІ відбувається "двосторонній збій комунікації".
"Ті, хто використовував чат-ботів, не ухвалювали рішень краще, ніж ті, хто спирався на традиційні методи - наприклад, пошук в інтернеті або власний досвід", - заявив Махді.
Що показало дослідження
У дослідженні брали участь близько 1300 жителів Великої Британії. Їм пропонували змодельовані лікарями медичні сценарії, де потрібно було визначити можливе захворювання і вибрати, що робити - йти до терапевта, терміново їхати в лікарню або просто спостерігати.
Учасники використовували кілька ШІ-моделей: ChatGPT (на GPT-4o), Command R+ від Cohere і Llama 3 від Meta. Але всупереч очікуванням, АІ частіше заважав правильно визначити проблему і занижував серйозність станів, навіть якщо діагноз був близький до точного.
За словами Махді, користувачі часто не помічали важливих деталей під час спілкування з АІ, а самі відповіді ботів були "важкими для інтерпретації". Деякі рекомендації містили як корисну, так і відверто невірну інформацію.
"Методи оцінки чат-ботів сьогодні не враховують складнощі взаємодії з реальними людьми", - зазначають дослідники.
Що роблять техногіганти
Проте найбільші ІТ-компанії продовжують активно просувати ШІ в медицині. Так, Apple розробляє цифрового асистента, який радитиме з питань сну, харчування та спорту. Amazon працює над інструментом аналізу соцфакторів, що впливають на здоров'я, а Microsoft навчає АІ обробляти медичні звернення від пацієнтів.
Утім, серед лікарів і пацієнтів немає єдиної думки, чи готовий ШІ до завдань із високим ступенем ризику. Американська медична асоціація рекомендує лікарям не використовувати ChatGPT для клінічних рішень, а самі розробники, включно з OpenAI, застерігають від використання ШІ для постановки діагнозів.
Вас може зацікавити:
- Штучний інтелект передбачив ім'я наступного Папи Римського
- Як ШІ сьогодні змінює правила гри в мистецтві
- Вчені провели дослідження, як ШІ може допомогти вам кинути палити
Цей матеріал призначений для загальноосвітніх цілей і його не слід використовувати для постановки медичних діагнозів чи самолікування. Наша мета - надати читачам точну інформацію про симптоми, причини і методи виявлення захворювань. РБК-Україна не несе відповідальність за будь-які діагнози, які можуть бути поставлені читачами на основі матеріалів з цього ресурсу. Ми рекомендуємо не займатися самолікуванням, і у разі будь-яких занепокоєнь стосовно здоров'я звернутися до лікаря.