ua en ru

Що більш ймовірно призведе до кінця людства: війна, кліматична катастрофа чи штучний інтелект?

Що більш ймовірно призведе до кінця людства: війна, кліматична катастрофа чи штучний інтелект? Які фактори можуть призвести до кінця людства (фото: freepik.com)

Штучний інтелект дедалі частіше розглядається як загроза існуванню людства. Деякі експерти стверджують, що неконтрольоване зростання можливостей ШІ може мати гірші наслідки, ніж зміна клімату чи навіть ядерна війна. Але наскільки реальна ця небезпека?

Які шанси на те, що людство може знищити війна, кліматична катастрофа чи штучний інтелект, розповідає РБК-Україна (проєкт Styler).

Чи зміна клімату справді загрожує людству?

Зміна клімату робить світ менш придатним для життя, спричиняє екстремальні погодні явища та може призвести до загибелі мільйонів людей. Проте, згідно з прогнозами Міжурядової групи експертів зі зміни клімату (IPCC), це не є фактором, що знищить людську цивілізацію повністю.

Дослідження підтверджують, що навіть у найгірших сценаріях людство виживе, хоча умови життя стануть значно важчими. Але тоді виникає питання: якщо кліматична криза не є кінцем світу, то що ним може стати?

Чому штучний інтелект може бути небезпечнішим?

Тема екзистенційного ризику ШІ вийшла на передній план завдяки заявам провідних експертів, зокрема Джеффрі Гінтона та Еліезера Юдковського. Останній прямо стверджує, що створення надлюдського інтелекту може закінчитися смертю всього людства.

Юдковський навіть закликав до міжнародної заборони на розвиток потужних ШІ-систем, припускаючи, що недотримання цих норм може виправдовувати військове втручання. Хоча ця позиція здається радикальною, вона базується на припущенні, що суперінтелект, діючи за власною логікою, може не враховувати інтереси людей.

Доктор Джеффрі Хінтон, професор інформатики Монреальського університету Йошуа Бенгіо та професор Нью-Йоркського університету Янн Лекун, яких часто називають "хрещеними батьками штучного інтелекту" за їх новаторську роботу в цій галузі, від самого початку також попереджали про ризики, пов'язані з надрозумним ШІ. Вони навіть підтримали заяву Центру безпеки ШІ:

"Пом'якшення ризику вимирання від штучного інтелекту має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна".

Вебсайт Center for AI Safety пропонує кілька можливих сценаріїв катастрофи:

  • ШІ можна використовувати як зброю - наприклад, інструменти пошуку наркотиків можна використовувати для створення хімічної зброї
  • Дезінформація, створена ШІ, може дестабілізувати суспільство та "підірвати колективне прийняття рішень"
  • Сила штучного інтелекту може дедалі більше концентруватися у все меншій кількості рук, дозволяючи "режимам нав’язувати вузькі цінності за допомогою повсюдного спостереження та жорсткої цензури".
  • Ослаблення, коли люди стають залежними від штучного інтелекту, "подібно до сценарію, зображеного у фільмі Wall-E"

Існує багато експертів, які вважають, що побоювання, що ШІ знищить людство, є нереалістичним і відволікають увагу від інших, дуже важливих проблем.

"Поточний штучний інтелект далеко не такий спроможний, щоб реалізувати такі ризики. Як наслідок, він відвертає увагу від короткострокової шкоди ШІ", - сказав комп'ютерний науковець з Принстонського університету Арвінд Нараянан.

Чи ядерна війна менш небезпечна?

Ядерний конфлікт - одна з найбільших загроз людству. Він може призвести до загибелі мільйонів, а також викликати глобальне похолодання через ядерну зиму. Проте досі тривають дискусії, чи буде ця зима настільки руйнівною, щоб поставити під загрозу саме існування людства.

На відміну від ядерної війни, штучний інтелект може бути непередбачуваним. Він здатний розвиватися в неконтрольованому напрямку, а його рішення можуть суперечити інтересам людства. Наприклад, суперінтелект може оптимізувати процеси так, що людство стане йому просто непотрібним або навіть перешкодою.

Що нам потрібно знати?

Головна проблема полягає в тому, що сьогодні немає єдиного наукового консенсусу щодо небезпеки штучного інтелекту. Якщо в питанні кліматичних змін та ядерної загрози наука має більш-менш усталені позиції, то у сфері ШІ існують як прихильники, так і критики катастрофічних прогнозів.

Щоб уникнути непоправних помилок, людство має детально вивчити потенційні ризики. Розуміння того, як працює штучний інтелект, чому ми його розвиваємо і що може піти не так, - це ключ до виживання та подальшого процвітання цивілізації.

Філософ Інституту майбутнього людства Оксфордського університету та консультант ВООЗ, Світового банку та Всесвітнього економічного форуму Тобі Орд раз на декілька років робить масштабні аналізи щодо того, від чого населення Землі може постраждати найбільше.

В його останній роботі "Пропасть" природні ризики, включаючи астероїди та комети, виверження супервулканів і вибухи зірок, за оцінками, мають відносно низькі ризики, які, разом узяті, спричиняють один шанс на мільйон вимирання на століття.

Звертаючись до антропогенних ризиків, найбільш очевидним ризиком для виживання людства, здавалося б, є ризик ядерної війни, і ми кілька разів наближалися до нього, переважно випадково.

Однак Орд сумнівається, що навіть ядерна зима призведе до повного вимирання людства або глобального безповоротного краху цивілізації. Подібним чином Орд вважає, що хоча зміна клімату може стати глобальним лихом безпрецедентного масштабу, вона не обов’язково призведе до вимирання людства.

Він також вважає, що шкода навколишньому середовищу не демонструє прямого механізму існування ризику. Однак, він приходить до висновку, що кожен із цих антропогенних ризиків має вищу ймовірність, ніж усі природні ризики разом (один на мільйон на століття).

Майбутні ризики, які Орд вважає, включають пандемії, "незв'язний штучний інтелект" (суперінтелектуальні системи штучного інтелекту з цілями, які не узгоджувалися з людською етикою), "антиутопічні сценарії" (світ з недоторканою цивілізацією, але замкнений у жахливій формі), нанотехнології та позаземне життя.

Ризик, який представляють пандемії - більш антропогенний, а не природній і оцінюється як один на 30 на століття, а це другий найвищий ризик. А найбільший ризик, за словами Орда, походить саме від незв'язного штучного інтелекту.

Кліматичні зміни та ядерна війна - серйозні виклики для людства, але вони не обов’язково знищать цивілізацію. Однак неконтрольований штучний інтелект може стати загрозою набагато масштабнішою, ніж будь-яка з цих проблем.

Поки що науковий світ не має однозначної відповіді, але дослідження та міжнародне регулювання ШІ стають дедалі важливішими.

Вас може зацікавити: