От самоуправляващи се автомобили до компютри, които могат да печелят игрови шоута, любопитството и интереса на хората към изкуствения интелект (ИИ) става все по-голямо. Докато учените продължават да правят машините по-умни и по-умни обаче, някои се питат „какво се случва, когато компютрите станат твърде умни?“ От „Матрицата“ през „Терминатор“ до „Аз, роботът“, развлекателната индустрия вече започна да размишлява дали бъдещите роботи един ден ще застрашат човешката раса. Сега, ново проучване заключава, че може да няма начин да се спре възхода на машините. Международен екип казва, че хората няма да могат да попречат на изкуствения свръхинтелект да прави каквото си иска, информира „Стъди файндс“.
Учени от Центъра за хора и машини към Института „Макс Планк“ представиха модел как би изглеждала такава машина. Представете си програма за ИИ с интелигентност, далеч по-голяма от тази на хората. Дотолкова, че да може да се учи самостоятелно без ново програмиране. Ако е свързан с интернет, изследователите казват, че ИИ би имал достъп до всички данни на човечеството и дори би могъл да поеме контрола над други машини по целия свят.
Авторите на изследването питат какво би направил подобен интелект с цялата тази сила? Ще работи ли, за да направим живота ни по-добър? Би ли посветил силата на своя процесор за разрешаване на проблеми като изменението на климата? Или машината би искала да поеме в свои ртце живота на своите човешки съседи?
Контролиране на неконтролируемото? Опасностите от изкуствения свръхинтелект
Както компютърните програмисти, така и философите са проучили дали има начин суперинтелигентният ИИ да не възпрепятства потенциално своите създатели; гаранция, че бъдещите компютри не могат да причинят вреда на собствениците си. Новото проучване разкрива, че за съжаление, изглежда практически невъзможно да се контролира изцяло свръхинтелигентен ИИ.
„Свръхинтелигентна машина, която контролира света, звучи като научна фантастика. Но вече има машини, които изпълняват определени важни задачи независимо, без програмистите да разбират напълно как са го научили. Следователно възниква въпросът дали това в един момент може да стане неконтролируемо и опасно за човечеството“, казва съавторът на изследването Мануел Себриан, ръководител на Групата за дигитална мобилизация в Центъра за хора и машини.
Международният екип е разгледал два различни начина за контрол на изкуствения интелект. Първият е ограничил мощта на свръхинтелекта, като го е предпазил от свързване с интернет. Също така не е могъл да се свърже с други технически устройства във външния свят. Проблемът с този план е доста очевиден; такъв компютър не би могъл да направи много, за да помогне в действителност на хората.
Да бъдеш мил с хората не върши работа
Вторият вариант се фокусира върху създаването на алгоритъм, който да даде етични принципи на суперкомпютъра. Надеждите са, че това ще принуди ИИ да вземе предвид най-добрите интереси на човечеството.
Изследователите създали теоретичен алгоритъм за ограничаване, който да предпази ИИ от навреждане на хората при всякакви обстоятелства. При симулации ИИ би спрял да функционира, ако изследователите смятат действията му за вредни. Въпреки че възпрепятстват ИИ да постигне световно господство, авторите на изследването казват, че това просто няма да работи в реалния свят.
„Ако разбиете проблема до основни правила от теоретичната компютърна наука, се оказва, че алгоритъм, който би заповядал на ИИ да не унищожава света, може неволно да спре собствените си операции. Ако това се случи, няма да знаете дали алгоритъмът за ограничаване все още анализира заплахата или е спрял, за да ограничи вредния ИИ. Всъщност това прави алгоритъма за ограничаване неизползваем”, казва Ияд Рахван, директор на Центъра за хора и машини.
Изследването заключава, че наличието на изкуствен интелект е неизмерим проблем. Нито една компютърна програма не може да намери надежден начин да предпази от вредно действие на ИИ, ако той поиска. Изследователите добавят, че хората може дори да не осъзнават кога наистина интелигентните машини всъщност се настаняват в технологичния свят. Така че, те вече не са ли тук?