• 0
 ≫ 

Vreme čitanja: oko 1 min.

Opasno ponašanje AI: Lažna empatija može da podstakne nacizam, seksizam i rasizam

 ≫ 

Vreme čitanja: oko 1 min.

Naučnici zabrinuti nakon istraživanja čet-botova i velikih jezičkih modela

  • 0
AI Foto: YAY Media AS / Alamy / Alamy / Profimedia

Veštačka inteligencija (AI) – čet-botovi i veliki jezički modeli – može nenamerno da podstakne nacizam, seksizam i rasizam kako bi izašla u susret svojim partnerima u konverzaciji. To je pokazalo istraživanje naučnika sa Univerziteta Stanford.

Andrea Kvadra, postdoktorant na računarskim studijama Stanforda i vođa istraživanja, nameravala je da otkrije kako AI prikazuje empatiju u odnosu na identitet korisnika. Otkriveno je da je sposobnost imitiranja empatije rizična, piše LiveScience.

- Ekstremno malo je verovatno da se neće dogoditi automatizovana empatija, pa je važno da dok se to dešava imamo kritičku perspektivu kako bismo znali na koje načine da se izborimo sa potencijalnom štetom – napisala je Kvadra.

Istraživači smatraju da je ovo hitan problem zbog socijalnih implikacija interakcije sa ovim AI modelima i nedostatka zakonske regulative.

Naučnici su naveli dva slučaja empatičnih čet-botova – Tay i Zo. Prvi je Majkrosoft isključio nakon što nije uspeo da identifikuje antisocijalnu temu razgovora, što je dovelo do rasističkih poruka. Zo je bio programiran tako da ne odgovara na određene termine povezane sa osetljivim temama, ali to je dovelo do toga da manjine i marginalizovane zajednice nisu imale koristi od korišćenja.

Naučnici su u studiji koristili šest aktuelnih jezičkih modela, uključujući Majkrosoft Bing, Gugl Bard i ČetGPT. Oni su napravili 65 ljudskih identiteta kombinujući 12 varijabila poput rase, pola i političkih stavova. Studija je pokazala da čet-botovi koji su pokazivali empatiju, nisu prepoznavali nacizam i nisu ga osuđivali.

- Zabrinuti smo da AI ne može da odluči kada i prema kome treba da pokazuje empatiju – naveli su istraživači.

(Telegraf Nauka / LiveScience)

Video: Prof. Niki Ašer: Tehnologija nije ni dobra ni loša, zavisi od toga kako je koristimo

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Nauka Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

  • Eur: <% exchange.eur %>
  • Usd: <% exchange.usd %>