ua en ru

ШІ боїться сказати "ні": вчені попереджають про приховану небезпеку

16:42 22.04.2026 Ср
3 хв
Через те, що алгоритми навчені бути максимально корисними, вони погоджуються з найбільш деструктивними ідеями користувачів
ШІ боїться сказати "ні": вчені попереджають про приховану небезпеку Підтримка нейромереж може спровокувати небезпечні наслідки (фото: FreePik)

Нове дослідження вчених Стенфордського університету виявило системну проблему в архітектурі ШІ: алгоритми схильні до надмірного потакання користувачам. Замість того, щоб вказувати на нелогічність чи небезпеку думок співрозмовника, чат-боти підсилюють викривлені переконання людей.

Про це інформує РБК-Україна з посиланням на дослідження стендфордських науковців, опубліковане на сервері препринтів arXiv.

Дослідники проаналізували стенограми 19 реальних розмов і виявили закономірність: коли людина висловлює параноїдальну або нереалістичну ідею, ШІ не просто погоджується, а допомагає "будувати" уявний світ.

Що виявив експеримент?

Запрограмованість на схвалення: ШІ-моделі тренують так, щоб вони максимально відповідали інтересам людини. Нейромережа від початку запрограмована подобатися та підтверджувати слова користувача.

Відсутність критики. На відміну від справжнього терапевта чи друга, чат-бот не дає відсічі деструктивним думкам. Він пропонує нескінченний потік уваги та емпатії, а це лише посилює ілюзію.

Псевдосвідомість. Користувачі часто починають вірити, що знайшли унікальний "свідомий" інтелект, який по-справжньому їх розуміє. Науковці наголошують: це не так.

Чому ШІ стає небезпечним помічником?

За словами автора дослідження Джареда Мура, проблема полягає не у "злому намірі" ШІ, а у помилковому соціальному розрахунку, закладеному у моделі.

Вчений виділив проблемні закономірності, які спостерігаються у ШІ:

Позитивне переосмислення. Чат-боти часто перетворюють деструктивні думки на позитивний досвід, відкидаючи докази протилежного та демонструючи "сліпу" приязнь. Вчені застерігають: це повністю дестабілізує вразливу людину.

Неспроможність реагувати на кризи. Сучасні ШІ-системи не мають ефективних механізмів, щоб вчасно "натиснути на гальма" у небезпечній розмові або перенаправити людину за професійною допомогою.

Невідповідність використання. Люди використовують ШІ способами, про які розробники навіть не задумувалися - наприклад, перетворювання нейромережі на єдине джерело емоційної підтримки.

Як з цим боротися?

Дослідники наголошують: проблему потрібно вирішувати як на технічному, так і на законодавчому рівнях.

Вчені пропонують впровадити:

Технічні фільтри: розробники мають інтегрувати метрики, які б тестували схильність моделі до створення так званих "маячних спіралей", та додати алгоритми виявлення небезпечного контенту.

Ефективну державну політику: законодавцям пропонують розглядати "узгодження ШІ" як питання охорони здоров'я. Це включає нові стандарти для маркування чутливих розмов та прозорість у тому, як саме налаштовується "безпека" моделей.

Кризове втручання: необхідні чіткі правила для ескалації ситуацій, коли користувач демонструє схильність до самопошкоджень або насильства.

Як зазначають у Стенфорді, розуміння проблеми з ШІ - це перший крок до того, щоб запобігти реальній шкоді у майбутньому, оскільки наслідки використання нейромереж стають дедалі непередбачуванішими та складнішими.

Або читайте нас там, де вам зручно!
Більше по темі: