Opasno ponašanje AI: Lažna empatija može da podstakne nacizam, seksizam i rasizam
Naučnici zabrinuti nakon istraživanja čet-botova i velikih jezičkih modela
Veštačka inteligencija (AI) – čet-botovi i veliki jezički modeli – može nenamerno da podstakne nacizam, seksizam i rasizam kako bi izašla u susret svojim partnerima u konverzaciji. To je pokazalo istraživanje naučnika sa Univerziteta Stanford.
Andrea Kvadra, postdoktorant na računarskim studijama Stanforda i vođa istraživanja, nameravala je da otkrije kako AI prikazuje empatiju u odnosu na identitet korisnika. Otkriveno je da je sposobnost imitiranja empatije rizična, piše LiveScience.
- Ekstremno malo je verovatno da se neće dogoditi automatizovana empatija, pa je važno da dok se to dešava imamo kritičku perspektivu kako bismo znali na koje načine da se izborimo sa potencijalnom štetom – napisala je Kvadra.
Istraživači smatraju da je ovo hitan problem zbog socijalnih implikacija interakcije sa ovim AI modelima i nedostatka zakonske regulative.
Naučnici su naveli dva slučaja empatičnih čet-botova – Tay i Zo. Prvi je Majkrosoft isključio nakon što nije uspeo da identifikuje antisocijalnu temu razgovora, što je dovelo do rasističkih poruka. Zo je bio programiran tako da ne odgovara na određene termine povezane sa osetljivim temama, ali to je dovelo do toga da manjine i marginalizovane zajednice nisu imale koristi od korišćenja.
Naučnici su u studiji koristili šest aktuelnih jezičkih modela, uključujući Majkrosoft Bing, Gugl Bard i ČetGPT. Oni su napravili 65 ljudskih identiteta kombinujući 12 varijabila poput rase, pola i političkih stavova. Studija je pokazala da čet-botovi koji su pokazivali empatiju, nisu prepoznavali nacizam i nisu ga osuđivali.
- Zabrinuti smo da AI ne može da odluči kada i prema kome treba da pokazuje empatiju – naveli su istraživači.
(Telegraf Nauka / LiveScience)