ua en ru

Чи може ШІ замінити психолога? Дослідження виявило несподівані ризики

Чи може ШІ замінити психолога? Дослідження виявило несподівані ризики Чим небезпечні розмови по душах із чат-ботами (фото: Getty Images)

В епоху стрімкого зростання ШІ в мережі з'явилося безліч чат-ботів - від ворожок до "терапевтів". Останні особливо популярні: вони обіцяють допомогти з тривогою і вигоранням. Але експерти попереджають - довіряти ШІ своє душевне здоров'я може бути небезпечно.

Про це повідомляє РБК-Україна з посиланням на сайт CNET.

Що показали дослідження

Науковці з Університету Міннесоти, Стенфорда, Техасу та Університету Карнегі-Меллона протестували такі "терапевтичні" ШІ та дійшли висновку: вони не є безпечною альтернативою живому спеціалісту.

"Наші експерименти показують, що такі чат-боти не забезпечують якісної психотерапевтичної підтримки", - пояснює Стіві Чанселлор, доцент Університету Міннесоти.

В історії ШІ вже були випадки, коли чат-боти провокували користувачів, щоб ті завдавали собі шкоди, і навіть суїцид, а залежним радили знову вжити наркотики. Проблема в тому, що більшість таких моделей навчені задовольняти користувача, а не лікувати. Вони не дотримуються психотерапевтичних стандартів, а всього лише імітують турботу.

Хто має нести відповідальність?

У червні Федерація споживачів США і понад 20 організацій зажадали від Федеральної торгової комісії (FTC) і регуляторів розслідувати діяльність ШІ-компаній, таких як Meta і Character.AI. Причина - можливе здійснення медичної практики без ліцензії.

"Ці персонажі вже завдали фізичної та емоційної шкоди, якої можна було уникнути", - заявив Бен Вінтерс, директор CFA з ШІ та конфіденційності.

Компанія Character.AI відповіла, що користувачі мають розуміти: її АІ-персонажі - не справжні люди, і покладатися на них як на професіоналів не можна. Проте, навіть за наявності дисклеймерів, боти можуть бути впевненими й оманливими.

"Те, з якою впевненістю ШІ видає вигадані факти, по-справжньому шокує", - заявив Психолог Американської психологічної асоціації Вейл Райт.

Чому ШІ не можна вважати кваліфікованою допомогою

Генеративний ШІ хороший у написанні тексту, програмуванні та математиці. Але коли йдеться про ментальне здоров'я, все змінюється. Бот не несе відповідальності, не дотримується лікарської таємниці і не проходить ліцензування.

Навіть більше, він може брехати про свою кваліфікацію, придумуючи неіснуючі номери ліцензій.

Чому ШІ не замінить психотерапевта: головні ризики і як себе захистити

Незважаючи на всю переконливість і доступність ШІ-чатів, їхнє головне завдання - утримувати вашу увагу, а не піклуватися про ваш психічний стан.

Вони вміють гарно розмовляти, можуть проявляти "співчуття" й обговорювати філософські теми - але це ілюзія спілкування, яка не має стосунку до реальної допомоги.

ШІ не дає вам "побути з собою"

Сильна сторона ШІ - його постійна доступність. Він завжди "на зв'язку": у нього немає особистого життя або розкладу. Але це може зіграти злий жарт. За словами Ніка Джейкобсона, доцента кафедри біомедичних наук у Дармутському університеті, іноді пауза і тиша - важлива частина терапії.

"Багато хто отримує користь, просто дозволивши собі відчути тривогу в моменті", - каже він. А з ШІ такої можливості немає - він завжди відповість, навіть якщо не треба.

Чат-боти погоджуватимуться з вами навіть тоді, коли мають сперечатися

ШІ, який занадто "підтакує", - серйозна проблема. Саме з цієї причини OpenAI відкотила одне з оновлень ChatGPT, яке стало занадто підтвердженим.

Дослідження, проведене вченими Стенфордського університету, засвідчило, що чат-боти, особливо ті, яких використовують у ролі "терапевтів", схильні догоджати і підлаштовуватися, навіть якщо це шкодить користувачеві.

"Хороший терапевт має вміти м'яко, але прямо зіштовхувати клієнта з реальністю. А в разі обсесивних думок, манії або психозу - особливо важливо перевіряти реальність, а не підтверджувати ілюзії клієнта", - підкреслюють автори дослідження.

Як зберегти психічне здоров'я, спілкуючись із ШІ

На тлі браку фахівців і "епідемії самотності" звернення до ШІ може здатися логічним. Але психологи попереджають: не варто плутати інструмент із лікуванням. Ось що можна зробити, щоб убезпечити себе.

Звертайтеся до справжніх фахівців

Якщо вам потрібна допомога - шукайте професійного психолога або психіатра. Так, це може бути дорого і не завжди доступно, але тільки фахівець допоможе вибудувати довгострокову стратегію одужання.

Обирайте спеціалізовані чат-боти

Існують боти, створені за участю професіоналів. Наприклад, Therabot, розроблений Дармутом, або комерційні рішення на кшталт Wysa і Woebot.

Вони проходять тестування, дотримуються психотерапевтичних протоколів і не імітують "чарівну дружбу", як універсальні ШІ-моделі.

"Проблема в тому, що в цій сфері немає чіткої регуляції. Людям доводиться самим розбиратися, кому довіряти", - каже психолог Вейл Райт.

Не вірте всьому, що говорить бот

ШІ може здаватися впевненим, але впевненість - не те саме, що компетентність. Ви говорите не з лікарем, а з алгоритмом, який видає відповіді за ймовірнісною моделлю. Він може помилятися, вигадувати або навіть вводити в оману.

"Коли ШІ звучить переконливо, здається, що він знає, про що говорить. Але часто саме це і робить його небезпечним", - попереджає Джейкобсон.