Ученые из Швейцарской высшей технической школы Цюриха провели масштабное исследование, чтобы выяснить, насколько глубоко ИИ может анализировать личность человека. Результаты показали, что история переписки с ChatGPT является достаточной базой для формирования точного психологического портрета пользователя.
Об этом сообщает РБК-Украина, ссылаясь на исследование, опубликованное на сервере препринтов arXiv.
В исследовании приняли участие 668 пользователей, которые предоставили копии своих log-файлов (всего около 62 000 чатов) и прошли стандартный психологический тест.
На основе этих данных авторы научили ИИ-модель определять ключевые черты личности:
Самую высокую точность ИИ продемонстрировал в определении экстраверсии и невротизма.
Ученые заметили закономерность: тип обсуждаемых тем напрямую указывает на конкретные черты. Например, обсуждение межличностных отношений позволяет легко вычислить уровень экстраверсии, а разговоры на религиозные темы выдают уровень добросовестности пользователя.
Авторы исследования отмечают, что возможность автоматизированного создания психологических профилей миллионов людей несет серьезные риски для демократических обществ.
Какие проблемы выделяют ученые:
Манипуляция: компании или правительства могут использовать эти данные для таргетированной пропаганды.
Когнитивная капитуляция: люди все больше доверяют ИИ роли терапевта или наставника, а это делает их уязвимыми к скрытому влиянию.
Массовая слежка: поскольку большинство сервисов принадлежат частным корпорациям, данные о внутреннем мире пользователей становятся объектом коммерческого или политического интереса.
Исследование показало, что чем дольше человек взаимодействует с ИИ, тем точнее становится прогноз его поведения. Даже случайные и неперсонализированные запросы содержат неявные маркеры личности.
Ученые призывают разработчиков внедрять инструменты "локальной фильтрации", которые бы очищали запросы от избыточной личной информации еще до того, как они попадут на серверы ИИ-провайдеров.
Сейчас пользователям рекомендуют критически относиться к информации, которую они доверяют алгоритмам, и ограничивать использование чат-ботов в роли персональных советников или консультантов.