Decenijama se predviđa da će veštačka inteligencija uništiti čovečanstvo, i naučnici su upravo doneli presudu o tome da li ćemo moći da kontrolišemo računarsku superinteligenciju. Odgovor je da definitivno nećemo.
Kvaka je u tome da kontrola superinteligencije zahteva simulaciju koju možemo analizirati. Ali s obzirom da visoka veštačka inteligencija prevazilazi ljudsku sposobnost razumevanja, nemoguće je napraviti njenu simulaciju.
Pravila poput „nemoj povrediti ljude“ ne mogu se postaviti ako ne razumemo obrasce po kojima će se superinteligencija ponašati. Jednom kada računarski sistem dostigne nivo iznad dosega ljudskih programera, više joj se ne mogu postavljati ograničenja.
„Superinteligencija predstavlja suštinski drugačiji problem od onih koji se obično svrstavaju u kategoriju robotske etike,” pišu istraživači. „To je zato što je superinteligencija višeslojna i stoga sposobna da mobiliše različite resurse kako bi postigla ciljeve koje ljudi ne mogu da razumeju, a kamoli da kontrolišu.“
Istraživači su za svoj polazni princip uzeli problem koji je izneo britanski matematičar Alan Turing 1936. godine. Ključno pitanje je kako znamo da će računar doneti zaključak ili odgovor, i nakon toga se zaustaviti, ili će prosto zauvek pokušavati da ga pronađe.
Kao što je Turing dokazao pomoću više matematike, iako možemo predvideti ishode operacija za određene programe, ne možemo to znati za svaki program koji će ikada biti napisan. To nas vraća na veštačku superinteligenciju, koja bi u svojoj memoriji mogla da drži svaki mogući računarski program istovremeno.
Bilo koji program napisan da zaustavi veštačku inteligenciju koja bi htela da povredi ljude i uništava svet, mogla bi da izvrši takvu komandu (i zaustavi se) ili ne, što je matematički nemoguće predvideti sa apsolutnom sigurnošću, te je samim tim nemoguće postići.
„U suštini, ovaj zaključak čini kontrolni algoritam neupotrebljivim,“ kaže informatičar Iijad Rahvan sa Instituta Maks Plank u Nemačkoj.
Alternativa učenju veštačke inteligencije etičkom ponašanju i sprečavanju da uništi svet jeste ograničavanje kapaciteta superinteligencije, tvrde naučnici. Na primer, takav sistem bio mogao da bude odsečen od delova interneta ili određenih mreža.
Međutim nova studija odbacuje i ovu ideju, smatrajući da bi se time ograničio domet veštačke inteligencije. Ukoliko je nećemo koristiti za rešavanje problema koji su izvan ljudskih mogućnosti, zašto je onda uopšte stvarati?
Ako nastavimo da razvijamo veštačku inteligenciju, možda nećemo ni primetiti trenutak kada ona izmakne našoj kontroli, jer će nam njena nerazumljivost biti totalna. To znači da moramo da pokrenemo ozbiljnu diskusiju o aktuelnim pravcima takvog razvoja.
„Superinteligentna mašina koja kontroliše svet zvuči kao naučna fantastika,“ kaže informatičar Manuel Sebrian sa Instituta Maks Plank. „Ali već postoje mašine koje određene zadatke obavljaju nezavisno, a da ni programeri ne razumeju kako su to naučile. Stoga se postavlja pitanje da li bi one u nekom trenutku mogle da postanu nekontrolisane i opasne za čovečanstvo.”
(ScienceAlert-ZTP, foto: iStock)