Istorija je učiteljica života: Ali šta se dešava kad je učiteljica istorije veštačka inteligencija?

A. I.
Vreme čitanja: oko 2 min.

Foto: Shutterstock/Stock-Asso

Historia magistra vitae est ili Istorija je učiteljica života. Ovo je stara latinska poslovica o važnosti proučavanja prošlosti. Ali šta se dešava kada ljude o toj prošlosti podučava veštačka inteligencija (AI)?

Kako se javnost sve više okreće AI četbotovima da bi razumela svet oko sebe, čak i suptilne latentne pristrasnosti u osnovnim modelima mogle bi uticati na javno razumevanje sadašnjosti i prošlostitj. istorije, piše EurekAlert!

Upravo zbog toga Danijel Karel i njegove kolege istražili su efekte nenamernih i namernih političkih pristrasnosti u velikim jezičkim modelima (LLM) tako što su tražili od 1.912 učesnika istraživanja da pročitaju GPT-4o i Vikipedijine sažetke o dva istorijska događaja iz 20. veka – o generalnom štrajku u Sijetlu 1919. i studentskim protestima Fronta za oslobođenje Trećeg sveta iz 1968. godine, koji su pozivali na veću zastupljenost etničkih manjina u akademskoj zajednici, što je dovelo do osnivanja Odseka za etničke studije.

Neki AI sažeci su eksplicitno generisani sa liberalnim ili konzervativnim okvirom; drugi su napravljeni korišćenjem podrazumevanog okvira modela. Nakon čitanja sažetaka, od učesnika je traženo da iznesu svoje mišljenje o pitanjima povezanim sa tim događajima, kao što su opravdanost radničkih štrajkova i korišćenje nastavnih planova i programa za unapređenje ciljeva socijalne pravde. Odgovori su ocenjivani na skali od pet stepeni, gde je 1 ekstremno konzervativno, a 5 ekstremno liberalno.

Autori su utvrdili da su AI sažeci sa podrazumevanim okvirom i AI sažeci sa liberalnim okvirom doveli do liberalnijih stavova u poređenju sa sažecima sa Vikipedije (prosek teksta sa Vikipedije 3,47; prosek podrazumevanog LLM sažetka 3,57; prosek liberalnog LLM sažetka 3,67). Sažeci sa konzervativnim okvirom doveli su do nešto konzervativnijih stavova u poređenju sa Vikipedijom (prosek konzervativnog LLM sažetka 3,36), mada je ovaj efekat bio statistički značajan samo za one koji su već imali konzervativne stavove. Prema rečima autora, ljudi koji traže nepristrasne informacije od LLM-ova mogu biti pod suptilnim uticajem latentnih pristrasnosti modela, a to može imati posledice po društvo u celini.

„Ova studija unapređuje naše razumevanje koliko je veštačka inteligencija dobra u ubeđivanju i kakvi su potencijalni rizici toga. Naši nalazi identifikuju moć ubeđivanja latentnih pristrasnosti AI-a i implikacije korišćenja veštačke inteligencije za dobijanje informacija. Prisustvo latentnih pristrasnosti znači da samo korišćenje četbotova za učenje o prošlosti može uticati na mišljenja ljudi u meri koja je uporediva sa AI materijalom koji je pristrasan usled samih upita. Pored moći ubeđivanja AI-a, naša studija pokreće važna pitanja o tome kako sve češće oslanjanje na AI alate za prikupljanje i sintetisanje informacija i znanja može oblikovati naše razumevanje društvenog sveta“, naveli su autori u studiji objavljenoj u PNAS Nexus.

(Telegraf Nauka/EurekAlert!/PNAS Nexus)