• 0

Vreme čitanja: oko 2 min.

Mogu li četbotovi biti psihoterapeuti?

Vreme čitanja: oko 2 min.

Menadžerka u kompaniji za veštačku inteligenciju OpenAI izazvala je nedavno zaprepašćenost napisavši da je upravo imala „prilično emotivnu, intimnu konverzaciju“ sa naširoko prisutnim četbotom svoje firme.

  • 0

„Nisam ranije probala terapiju, ali ovo je verovatno to“, objavila je Lilijan Veng na društvenoj mreži X (nekadašnji Tviter), izazivajući bujicu negativnih komentara koji je optužuju da potcenjuje težinu mentalne bolesti.

Međutim, njeno viđenje interakcije sa četbotom ChatGPT može se objasniti jednom verzijom placebo efekta, piše MedicalXpress.

Istraživači iz Masačusetskog instituta za tehnologiju (MIT) i Državnog univerziteta Arizone zatražili su od više od 300 učesnika studije da stupe u interakciju sa programima veštačke inteligencije za mentalno zdravlje i pripremili ih za ono što mogu da očekuju.

Nekima je rečeno da je četbot saosećajan, drugima da je manipulativan, a trećoj grupi da je neutralan.

Bilo je mnogo verovatnije da će oni kojima je rečeno da je četbot brižan videti svog četbot-terapeuta kao dostojnog poverenja.

Iz ove studije se vidi da je veštačka inteligencija do neke mere stvar subjektivnog shvatanja.

Nove kompanije već godinama nude programe veštačke inteligencije koji pružaju terapiju, društvo i drugu podršku mentalnom zdravlju – i to je veliki biznis.

Međutim, ima mnogo kontroverzi u tom poslu.

„Čudno, prazno“

Kao i u slučaju svakog drugog sektora koji bi veštačka inteligencija mogla poremetiti, kritičari su zabrinuti da će roboti zameniti ljudsku radnu snagu umesto da joj budu dopuna.

Što se mentalnog zdravlja tiče, vlada zabrinutost da roboti verovatno neće dobro uraditi posao.

Doprinoseći opštem strahu zbog veštačke inteligencije, neke aplikacije na polju mentalnog zdravlja imale su loše momente u nedavnoj prošlosti.

Korisnici „Replike“, popularnog virtuelnog prijatelja ponekad reklamiranog kako pomaže mentalnom zdravlju, dugo su se žalili da taj program može biti opsednut seksom i okrutan.

Američka neprofitna kompanija „Koko“ je u februaru izvela eksperiment sa 4.000 korisnika nudeći savetovanje pomoću modela GPT-3, zaključujući da automatski odgovori jednostavno ne funkcionišu kao terapija.

„Simulirana empatija je vrlo čudna, prazna“, napisao je osnivač te firme Rob Moris.

Njegovi nalazi su slični nalazima istraživača iz MIT-a i Univerziteta Arizone, koji su rekli da su neki učesnici iskustvo sa četbotom opisali kao „razgovor sa zidom“.

Međutim, Moris je bio prinuđen da se brani nakon rasprostranjenih kritika na račun eksperimenta, uglavnom zbog toga što nije bilo jasno da li su korisnici bili svesni svog učešća.

„Niža očekivanja“

Ideja četbota kao terapeuta je tesno vezana sa počecima te tehnologije iz 1960-ih. Prvi četbot, ELIZA, razvijen je kao simulacija jednog tipa psihoterapije.

ELIZA je korišćena kod polovine učesnika novog istraživanja, a GPT-3 kod druge polovine. Iako je efekat bio mnogo jači sa GPT-3, korisnici pripremljeni za pozitivnost ipak su generalno smatrali da je ELIZA dostojna poverenja.

„Način na koji je veštačka inteligencija predstavljena društvu ima značaj pošto menja način na koji se veštačka inteligencija doživljava“, kažu se u studiji. „Možda je poželjno da se korisnik pripremi da ima niža ili negativnija očekivanja“.

(Telegraf Nauka/MedicalXpress)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Nauka Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

  • Eur: <% exchange.eur %>
  • Usd: <% exchange.usd %>