ua en ru

Німеччина, Франція та Італія досягли згоди щодо регулювання штучного інтелекту

Німеччина, Франція та Італія досягли згоди щодо регулювання штучного інтелекту Фото: Німеччина, Франція та Італія домовились про регулювання ШІ (GettyImages)

Франція, Німеччина та Італія досягли згоди щодо того, як має регулюватися штучний інтелект, що має прискорити переговори на рівні Європейського Союзу.

Про це повідомляє РБК-Україна з посиланням на Reuters.

Єврокомісія, Європарламент і Рада ЄС домовляються про те, як блок повинен позиціонувати себе з цього приводу.

Уряди Франції, Німеччини та Італії підтримали обов’язкове саморегулювання через кодекси поведінки для так званих базових моделей штучного інтелекту, які створені для отримання широкого діапазону результатів.

"Разом ми підкреслюємо, що Закон про штучний інтелект регулює застосування ШІ, а не технологію як таку. Внутрішні ризики полягають у застосуванні систем ШІ, а не в самій технології", - йдеться у спільному документі.

У документі пояснюється, що розробникам основних моделей доведеться визначити картки моделей, які повинні включати відповідну інформацію для розуміння функціонування моделі, її можливостей і обмежень.

Міністерство економіки Німеччини, яке відповідає за цю тему разом з Міністерством цифрових справ, заявило, що закони та державний контроль повинні регулювати не сам ШІ, а радше його застосування.

Регулювання штучного інтелекту

Варто зазначити, що законодавці в усьому світі почали думати про те, як регулювати ШІ та запобігти потенційним загрозам після того, як генеративний штучний інтелект, який використовує дані для створення нового контенту, такого як ChatGPT, потрапив у заголовки газет.

Генеральний директор компанії OpenAI, яка створила ChatGPT, закликав Конгрес Сполучених Штатів регулювати штучний інтелект. Відомо, що Сенатори США проводять секретні брифінги щодо цього питання. Також, Європейський Союз готує історичний закон, який регулюватиме використання ШІ.

На початку листопада США, ЄС, Велика Британія та Китай підписали спільну декларацію у якій йдеться, що штучний інтелект потенційно має катастрофічний ризик для людства.