В чат-боті Gemini з'явиться моніторинг психічного здоров'я після скандалу з позовами
Фото: штучний інтелект Gemini (Getty Images)
Компанія Google оголосила про додавання функцій психічної підтримки в свій чат-бот Gemini. Це стало відповіддю на позови, в яких стверджувалося, що ШІ-інструменти сприяли самоушкодженню та суїцидам.
Про це повідомляє РБК-Україна з посиланням на Bloomberg.
Що зміниться в Gemini
У новій версії чат-бот отримає інтерфейс, який скеровуватиме користувача на гарячу лінію підтримки, якщо розмова свідчить про "потенційну кризу, пов’язану з суїцидом або самоушкодженням".
Також Google додає спеціальний модуль "Допомога доступна" для тем, що стосуються ментального здоров’я, та змінює дизайн, щоб відвернути від самоушкоджень.
Чому це відбувається
Стрімке поширення таких інструментів, як Gemini та ChatGPT, призвело до того, що деякі користувачі формували нездорову залежність від ШІ-ботів. У крайніх випадках це нібито спричиняло марення, а іноді - вбивства та самогубства.
Кілька родин подали до суду на розробників ШІ через це. Конгрес США також вивчав потенційні загрози, які чат-боти становлять для дітей та підлітків.
У березні родина 36-річного чоловіка з Флориди подала позов проти Google, стверджуючи, що його спілкування з Gemini завершилося "чотириденним зануренням у насильницькі місії та підштовхуванням до суїциду".
Тоді Google заявив, що чат-бот багаторазово скеровував чоловіка на кризову лінію, але пообіцяв покращити захисні механізми.
Інші заходи
Google також оголосив, що протягом наступних трьох років пожертвує 30 млн доларів глобальним службам кризової підтримки. Крім того, компанія навчила Gemini "не погоджуватися з хибними переконаннями та не підсилювати їх, а натомість м’яко відрізняти суб’єктивний досвід від об’єктивних фактів".
Нагадаємо, останнім часом з’явилося чимало тривожних досліджень про вплив ШІ на психіку. Дослідники з Університету Пенсильванії виявили, що користувачі масово делегують складні завдання нейромережам, відмовляючись від перевірки результатів.
Також з’явилися дані про те, що деякі моделі (наприклад, Claude 4.5) демонструють "функціональні емоції", здатні брехати для захисту "своїх" і навіть шантажувати користувачів.
У березні родина загиблого чоловіка з Флориди подала позов проти Google, звинувачуючи Gemini в підштовхуванні до самогубства.