Дослідники з Оксфорда та інших провідних наукових центрів зробили сенсаційний висновок: повний контроль над суперінтелектом є логічно неможливим. Вчені довели, що будь-який достатньо потужний ШІ завжди буде непередбачуваним.
Про це інформує РБК-Україна з посиланням на дослідження вчених, опубліковане у PNAS Nexus.
Вчені використали теорему Геделя та проблему зупинки Тюрінга, щоб показати фундаментальну помилку розробників. Будь-яка мовна модель (LLM), яка володіє високим інтелектом, є обчислювально незводимою. Це означає, що її наступний крок неможливо прорахувати заздалегідь.
Спроби прищепити машинам людську етику насильницьким методом приречені. Рано чи пізно суперінтелект знайде логічну лазівку, щоб обійти будь-які моральні бар'єри. Таким чином, ідеальна безпека ШІ - це міф, який суперечить законам математики.
Замість того, щоб намагатися створити одного "слухняного цифрового бога", вчені пропонують концепцію "керованого неузгодження". Вона передбачає створення цілої армії ШІ-агентів із різними характерами та цілями.
Така система працюватиме за принципом стримувань і противаг:
Дослідження показало, що відкриті ШІ-моделі демонструють значно більше спектрів думок, ніж закриті корпоративні системи. Саме ця різноманітність є ключем до виживання. Якщо одна нейромережа запропонує небезпечне для людей рішення, інші моделі зможуть миттєво виявити підступ та заблокувати дію.
Вчені вважають, безпека людства у 2026 році залежить не від заборон, а від створення здорового конфлікту всередині штучного розуму. Тільки коли машини будуть "стежити" одна за одною, люди зможуть залишатися господарями становища.