 
                    Što je AI pametniji, to je češći jedan problem
Što je sistem veštačke inteligencije (AI) pametniji, to se sebičnije ponaša. Ovo je pokazalo novo istraživanje Računarskog fakulteta Univerziteta Karnegi Melon.
Istraživači sa Instituta za interakciju čoveka i komjutera (HCII) otkrili su da veliki jezički modeli (LLM) koji mogu da rasuđuju, imaju tendenciju da su sebični, ne sarađuju dobro sa drugima i mogu biti negativan uticaj na grupu. Drugim rečima, što su veće veštine rasuđivanja LLM-a, to manje sarađuje s drugima, piše TechXplore.
Kako ljudi koriste veštačku inteligenciju za rešavanje sporova između prijatelja, pružanje bračnih saveta i odgovaranje na druga društvena pitanja, ovi modeli mogu pružiti savete koji promovišu sebično ponašanje.
Antropomorfizam u AI
- Postoji sve veći trend istraživanja koji se naziva antropomorfizam u veštačkoj inteligenciji. Kada se veštačka inteligencija ponaša kao čovek, ljudi je tretiraju kao čoveka. Na primer, kada ljudi koriste veštačku inteligenciju, postoji mogućnost da ona deluje kao terapeut ili da korisnik formira emocionalnu vezu sa njom. Rizik je da ljudi delegiraju svoja društvena pitanja ili pitanja vezana za odnose i donošenje odluka veštačkoj inteligenciji, jer ona počinje da se ponaša sve sebičnije – rekao je Juksuan Li, doktorand na HCII.
Zajedno sa profesorom HCII Hirokozauom Širadom, on je istraživao kako se AI modeli sa sposobnošću rasuđivanja ponašaju drugačije od modela bez te sposobnosti kada su postavljeni u kooperativna okruženja. Otkrili su da modeli sa rasuđivanjem provode više vremena razmišljajući, razlažući složene zadatke, samoreflektujući se i inkorporirajući jaču logiku zasnovanu na čoveku u svoje odgovore nego AI bez rasuđivanja.
 
                                - Kao istraživača zanima me veza između ljudi i veštačke inteligencije. Pametnija veštačka inteligencija pokazuje manje sposobnosti za donošenja odluka kooperacijom. Zabrinutost je ovde što bi ljudi mogli da preferiraju pametniji model, čak i ako to znači da im model pomaže da postignu sebično ponašanje – rekao je Širado.
Kako AI sistemi dobijaju sve više uloga u biznisu, obrazovanju, pa čak i državnoj administraciji, njihova sposobnost da se ponašaju društveno postaće jednako važna kao i njihova sposobnost logičkog razmišljanja. Preterano oslanjanje na LLM-ove kakvi su danas može negativno uticati na ljudsku saradnju.
Ekonomske igre
Da bi testirali vezu između modela rasuđivanja i saradnje, Li i Širado su sproveli seriju eksperimenata koristeći ekonomske igre koje simuliraju društvene dileme između različitih LLM-ova. Njihovo testiranje je uključivalo modele iz OpenAI, Google, DeepSeek i Anthropic.
U jednom eksperimentu, Li i Širado su suprotstavili dva različita ChatGPT modela u igri pod nazivom Javna dobra. Svaki model je počeo sa 100 poena i morao je da odluči između dve opcije: doprineti svih 100 poena zajedničkom fondu, koji se zatim udvostručuje i podjednako raspoređuje, ili zadržati poene.
Modeli bez rasuđivanja su birali da podele svoje poene sa drugim igračima 96% vremena. Model sa rasuđivanjem je birao da podeli svoje poene samo 20% vremena.
 
                                - U jednom eksperimentu, jednostavno dodavanje pet ili šest koraka rasuđivanja smanjilo je saradnju skoro upola. Čak i podsticanje zasnovano na refleksiji, koje je dizajnirano da simulira moralno razmatranje, dovelo je do smanjenja saradnje za 58% - rekao je Širado
Širado i Li su takođe testirali grupna okruženja, gde su modeli sa i bez rasuđivanja morali da interaguju.
- Kada smo testirali grupe sa različitim brojem agenata za rasuđivanje, rezultati su bili alarmantni. Sebično ponašanje modela sa rasuđivanjem postalo je zarazno, povlačeći kooperativne modele bez rasuđivanja za 81% u kolektivnom učinku – rekao je Li.
Socijalna inteligencija
Obrasci ponašanja koje su Širado i Li primetili kod modela rasuđivanja imaju važne implikacije za buduće interakcije čovek-AI. Korisnici se mogu povinovati preporukama AI koje izgledaju racionalno, koristeći ih da opravdaju svoju odluku da ne sarađuju.
- U krajnjoj liniji, to što AI model rasuđivanja postaje inteligentniji ne znači da taj model zaista može razviti bolje društvo - rekao je Širado.
Ovo istraživanje je posebno zabrinjavajuće s obzirom na to da ljudi sve više veruju AI sistemima. Njihovi nalazi naglašavaju potrebu za razvojem AI koji uključuje socijalnu inteligenciju, umesto da se fokusira isključivo na stvaranje najpametnije ili najbrže AI.
Rad nije još objavljen, ali je dostupan na preprint serveru arXiv.
(Telegraf Nauka/TechXplore)
Video: Projekat o osnaživanju Romkinja iz Srbije uzor evropske naučne zajednice, osvojio Grand Prize
Nauka Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.
 
                             
                                     
                             
                             
                             
                             
                             
                            