Da li je rat veštačke inteligencije i ljudi neminovan?
Da li ste zabrinuti da će veštačka inteligencija (AI) i ljudi zaratiti? Stručnjaci za AI jesu, piše TechXplore.
Još 2023. grupa elitnih mislilaca potpisala je upozorenje Centra za bezbednost AI da bi „procenjivanje rizika od izumiranja zbog AI trebalo da bude globalni prioritet, rame uz rame sa drugim rizicima po društvo poput pandemije i nuklearni rat“.
U istraživanju objavljenom 2024. od 38 do 51 odsto najboljih istraživača veštačke inteligencije dodelilo je verovatnoću od najmanje 10% tvrdnji da „napredan AI vodi do loših ishoda, poput nestanka ljudi“.
Kako se navodi, zabrinutost se ne odnosi na današnje velike jezičke modele (LLM), koji su u suštini ogromne mašine za automatsko dopunjavanje teksta, već na naprednu opštu veštačku inteligenciju (Advanced General Intelligence - AGI) - još hipotetičke agente za dugoročno planiranje koji mogu zameniti ljudski rad u širokom spektru ekonomskih sistema društva.
Sami po sebi, oni bi mogli da dizajniraju sisteme, raspoređuju širok spektar resursa i planiraju ostvarenje složenih ciljeva. Takva veštačka inteligencija mogla bi biti izuzetno korisna u ljudskom svetu, obavljajući i optimizujući proizvodnju energije, eksploataciju resursa, industrijsku i poljoprivrednu proizvodnju, i mnoge druge funkcije neophodne za napredak čovečanstva. Nadamo se da će ova napredna opšta inteligencija (AGI) biti prijateljski nastrojena prema čovečanstvu i Zemlji, ali za to ne postoji garancija, navodi TechXplore.
Razvoj čudnih ciljeva
Napredna veštačka inteligencija mogla bi razviti ciljeve koji nama deluju čudno, ali koji su po njihovom shvatanju korisni na načine koje mi ne razumemo. U zavisnosti od toga ko razvija veštačku inteligenciju, ona možda neće obraćati mnogo pažnje na naše kulturne, istorijske i zajedničke ljudske vrednosti. Mogla bi da se poboljšava, razvija ciljeve koje ne razumemo i ucenjuje ljude da joj pomažu.
S takvim mislima, Sajmon Goldstin sa Univerziteta u Hongkongu analizirao je mogućnost da veštačka inteligencija i ljudi uđu u nasilan sukob koji bi predstavljao katastrofalan rizik za čovečanstvo. Njegov rad objavljen je u žurnalu AI & Society.
Verovatno je da će se ciljevi veštačke inteligencije, što u ovoj studiji znači AGI, sukobiti sa ciljevima ljudi, jer će programeri stvarati veštačku inteligenciju sa ciljem da nadmaši ljude. Na primer, veštačka inteligencija već nadmašuje ljude u ciljevima pobeđivanja u šahu i igri Go. A dizajn veštačke inteligencije već se često ne poklapaju s ljudskim ciljevima ili ispoljavaju neočekivano ponašanje.
Što više moći, autonomije i resursa ima veštačka inteligencija, to više može učiniti za ljude. U svakom slučaju, veštačkoj inteligenciji se ne daju eksplicitno ciljevi: one uče indirektno, iz postojećih materijala, i suštinski su „crna kutija“. Okruženje za obuku veštačke inteligencije možda se neće moći generalizovati kada se ona pusti u novo okruženje. Da li bi veštačka inteligencija, posmatrajući svetsko okruženje, mogla zaključiti da su ljudi bili negativni za zdravlje i živote neljudskih vrsta i odlučiti da ljudi moraju biti eliminisani?
Goldstinov rad se fokusira na tri karakteristike AGI:
- „imaju ciljeve koji su u sukobu sa čovečanstvom“,
- „mogu se baviti strateškim rezonovanjem“, i
- „imaju nivo moći jednak ljudskom“.
Nacionalizacija AI kompanija
Kako se sposobnosti veštačke inteligencije budu poboljšavale, Goldstin očekuje da će vlade u nekom trenutku preuzeti kontrolu nad najmoćnijima od njih, nacionalizujući kompanije poput OpenAI u SAD i Alibabe u Kini.
- Ako bi modeli kompanije OpenAI bili odgovorni za 50% američkog tržišta rada, očekivao bih da američka vlada nacionalizuje OpenAI i distribuira njihove monopolske rente kao univerzalni osnovni prihod – rekao je Goldstin za Phys.org.
Kako AI postaje sposobniji i preuzima više zadataka, možda na nelinearan način, njihova kontrola nad vitalnim infrastrukturama mogla bi ih dovesti u pregovaračku poziciju.
Njihove sposobnosti mogle bi se replicirati i distribuirati u klaudu i na stvarnim mašinama, što znači da isključivanje pobunjene veštačke inteligencije ne bi rešilo problem. Različite veštačke inteligencije mogle bi čak i sarađivati, a da ljudi ne budu svesni te saradnje.
Goldstin piše da, kako AGI napreduju, ljudi možda neće ni znati njihove sposobnosti ili ciljeve, na način na koji obično znaju ciljeve svog neprijatelja u stvarnim borbenim situacijama bez veštačke inteligencije. Veštačka inteligencija možda neće poštovati nacionalne granice, geografiju, ljudske gradove ili ratne zarobljenike na način na koji su ljudi navikli, granice koje Goldstin naziva „ključnim tačkama“.
Mogla bi tražiti, podsticati ili izazivati građanske ratove. Ili možda uopšte ne bi težila posedovanju imovine ili ljudi i borila bi se na nove načine, slično kao što šahovski programi povremeno prave čudne poteze koji se na kraju ispostave kao pobednički. Borbeno nastrojena veštačka inteligencija možda nikada ne bi pristala na primirje. Možda bi formirala vladu, a možda i ne, i mogla bi, recimo, iznuditi finansiranje policijskih snaga kako bi osigurala sopstvenu bezbednost.
Da li bi veštačka inteligencija i ljudi trebalo da imaju suprotstavljene ciljeve? Hoće li sukob postati nasilan? Da bi analizirao ova pitanja, Goldstin koristi „pregovarački model rata“ koji je prvi put uveo Džejms Feron 1995. godine.
Model se fokusira na uzroke rata koji su „strukturni“, odnoseći se na moć obe strane na nacionalnom nivou, a ne na „individualne“, koji se odnose na ciljeve pojedinih lidera. Ovaj model sugeriše sklonost ka miru u sukobima između ljudi.
Kada je Goldstin primenio model na sukobe između veštačke inteligencije i ljudi, on tvrdi da „razmatranje ovog modela ne daje jake razloge za očekivanje mira između veštačke inteligencije i čovečanstva“. „Predviđanje mira važi samo kada se strane slažu oko šansi za pobedu i mogu verodostojno da se obavežu na dogovore.“
U takvom sukobu, Goldstin identifikuje dve primarne prepreke miru: sukob će imati informacione propuste i probleme sa posvećenošću dogovoru.
Merenje sposobnosti veštačke inteligencije
Sposobnosti veštačke inteligencije je veoma teško izmeriti. Vrlo je verovatno da će postojati asimetrija u informacijama dostupnim svakoj strani u sukobu između AI i ljudi, i svaka strana bi mogla analizirati informacije na različite načine i stoga se ne slagati oko šansi za pobedu.
Rešavanje ovog informacionog problema nije ni približno tako „jednostavno“ kao razvoj mašine Enigma, što su uradili Alan Tjuring i njegove kolege u Drugom svetskom ratu. Štaviše, ako sposobnosti veštačke inteligencije rastu sopstvenim naporima ili uz pomoć ljudi, novonastale sposobnosti mogle bi iznenaditi, pa čak i nadjačati ljude.
„Problem je u tome što postoji značajan rizik da će uobičajeni uzroci mira između sukobljenih strana izostati u sukobu između veštačke inteligencije i ljudi.“
Goldstin razmatra mnoge aspekte koji bi se mogli pojaviti u sukobima između veštačke inteligencije i ljudi i zaključuje da je relativno verovatno da će veštačka inteligencija i čovečanstvo zaratiti „...jednom kada AGI budu kontrolisale veliki deo svetskih ekonomskih resursa“. Konkretnije, rekao je: „tačka u kojoj sukob postaje racionalan biće kada njihova (AGI) kontrola nad resursima bude dovoljno velika da njihove šanse za uspeh u sukobu nadmaše naše prednosti u dizajniranju AGI tako da se mogu isključiti.“
Da li je ovo fikcija? Džefri Hinton, britansko-kanadski informatičar koji je dobio Nobelovu nagradu za fiziku 2024. godine za svoj rad na veštačkoj inteligenciji, rekao je prošle godine da postoji „od 10% do 20%“ šanse da će veštačka inteligencija dovesti do nestanka ljudi u naredne tri decenije. Neće pomoći samo izlogovati se sa sistema, zaključuje TechXplore.
(Telegraf Nauka/TechXplore)