Можно ли доверять ИИ в вопросах здоровья? Эксперты провели масштабное исследование
Исследование показало, что людям сложно получить полезные советы по здоровью от чат-ботов (фото: Getty Images)
Из-за высоких цен и других факторов все больше людей обращаются к ИИ-чат-ботам вроде ChatGPT за медицинскими советами. Но новое исследование предупреждает: полностью доверять ИИ - рискованно.
Об этом сообщает РБК-Украина (проект Styler) со ссылкой на сайт новостей в сфере технологий TechCrunch.
По словам одного из авторов исследования, директора магистратуры Оксфордского интернет-института Адама Махди, между людьми и ИИ происходит "двусторонний сбой коммуникации".
"Те, кто использовал чат-ботов, не принимали решений лучше, чем те, кто опирался на традиционные методы - например, поиск в интернете или собственный опыт", - заявил Махди.
Что показало исследование
В исследовании участвовали около 1300 жителей Великобритании. Им предлагали смоделированные врачами медицинские сценарии, где нужно было определить возможное заболевание и выбрать, что делать - идти к терапевту, срочно ехать в больницу или просто наблюдать.
Участники использовали несколько ИИ-моделей: ChatGPT (на GPT-4o), Command R+ от Cohere и Llama 3 от Meta. Но вопреки ожиданиям, ИИ чаще мешал правильно определить проблему и занижал серьезность состояний, даже если диагноз был близок к точному.
По словам Махди, пользователи часто упускали важные детали при общении с ИИ, а сами ответы ботов были "трудны для интерпретации". Некоторые рекомендации содержали как полезную, так и откровенно неверную информацию.
"Методы оценки чат-ботов сегодня не учитывают сложности взаимодействия с реальными людьми", - отмечают исследователи.
Что делают техногиганты
Тем не менее, крупнейшие ИТ-компании продолжают активно продвигать ИИ в медицине. Так, Apple разрабатывает цифрового ассистента, который будет советовать по вопросам сна, питания и спорта. Amazon работает над инструментом анализа соцфакторов, влияющих на здоровье, а Microsoft обучает ИИ обрабатывать медицинские обращения от пациентов.
Впрочем, среди врачей и пациентов нет единого мнения, готов ли ИИ к задачам с высокой степенью риска. Американская медицинская ассоциация рекомендует врачам не использовать ChatGPT для клинических решений, а сами разработчики, включая OpenAI, предостерегают от использования ИИ для постановки диагнозов.
Вас может заинтересовать:
- Искусственный интеллект предсказал имя следующего Папы Римского
- Как ИИ сегодня меняет правила игры в искусстве
- Ученые провели исследования, как ИИ может помочь вам бросить курить
Внимание: Этот материал носит исключительно общеобразовательный характер и не является медицинской консультацией. Информация предназначена для ознакомления с возможными симптомами, причинами и методами выявления заболеваний, но не должна использоваться для самодиагностики или самолечения. РБК-Украина не несет ответственности за диагнозы, поставленные на основе материалов сайта. В случае проблем со здоровьем обязательно обратитесь к квалифицированному врачу.