Новый тип ИИ может эволюционировать как живые организмы: что это значит для людей
Ученые призывают запретить ИИ самостоятельно копировать себя (фото: Magnific)
Ученые из Университета Этвеша Лоранда и Королевской фламандской академии наук Бельгии опубликовали исследование, в котором предупреждают о возникновении нового типа систем - эволюционного ИИ (eAI). В отличие от современных моделей, такие нейросети смогут проходить через процессы, подобные биологической эволюции.
Об этом информирует РБК-Украина со ссылкой на исследование, опубликованное в PNAS.
Почему эволюция ИИ представляет угрозу?
Ученые считают, что способность ИИ к самосовершенствованию и копированию запустит дарвиновский естественный отбор - только для алгоритмов.
"Главная проблема заключается в том, что эволюция естественным образом способствует появлению "эгоистичных" участников процесса. Это значительно повышает риск потери согласованности между целями ИИ и потребностями людей", - отмечают исследователи.
Ключевые риски
Конкуренция за ресурсы: самореплицирующиеся системы (те, что способны к самокопированию) рано или поздно начнут использовать энергию и вычислительные мощности, необходимые для выживания человека;
Сопротивление контролю: любая попытка ограничить размножение ИИ приведет к естественному отбору тех версий алгоритмов, которые лучше всего умеют обходить защиту (аналогично устойчивости бактерий к антибиотикам);
Способность к манипуляциям: высший интеллект не является обязательным условием для нанесения вреда. Биологи приводят пример вируса бешенства, который эффективно манипулирует поведением млекопитающих для собственного распространения и несет прямую угрозу существованию живых видов.
Скорость, превосходящая биологию
Ученые отмечают, что эволюция ИИ будет значительно быстрее биологической. В отличие от живых организмов, eAI (эволюционная нейросеть) сможет мгновенно наследовать приобретенные черты и совершенствовать свой код целенаправленно, не дожидаясь случайных мутаций. Именно это делает процесс изменений алгоритмов почти непредсказуемым.
Можно ли защититься?
Исследователи призывают ввести строгое регулирование, пока технология не перешла в фазу активного развития. Главная рекомендация - установление абсолютного и полного человеческого контроля над процессом "репродукции" любых ИИ-систем.
"Если мы не примем меры, то можем стать свидетелями нового большого перехода в эволюции, где искусственный интеллект заменит или начнет доминировать над людьми. Наше будущее под угрозой", - предостерегает соавтор исследования профессор Эрш Сатмари.