• 0

Vreme čitanja: oko 3 min.

Taj sadržaj je u suprotnosti sa svim ljudskim instinktima: Naučnici o temama koje forsiraju društvene mreže

Vreme čitanja: oko 3 min.

Algoritmi zloupotrebljavaju pristrasnost da poboljšaju preglede, ali to dovodi do polarizacije i dezinformacija, tvrde psiholozi društva

  • 0
792562548 Foto: TIAM SEONG YEW / Panthermedia / Profimedia

U praistorijskim društvima ljudi su uglavnom učili od članova svoje grupe ili od uglednijih pojedinaca jer su informacije naučene na taj način verovatno bile pouzdanije, a od njih bi uspeh imala cela grupa. Međutim, sa razvojem raznolikih i kompleksnih modernih zajednica, posebno onih na društvenim medijima, ova pristrasnost postala je manje efikasna. Primera radi, osoba povezana na internet ne mora nužno da bude vredna poverenja, a ljudima je lako da lažiraju prestiž i ugled na društvenim medijima. U studiji objavljenoj u žurnalu Trends in Cognitive Science, grupa naučnika objasnila je kako su algoritmi društvenih mreža potpuno neusaglašeni sa društvenim instinktima razvijenim za poboljšanje saradnje, što može da dovede do velike polarizacije i pojave dezinformacija, piše ScienceDaily.

- Nekoliko ispitivanja korisnika i Tvitera i Fejsbuka pokazuju da je većina njih umorna od političkog sadržaja koji vidi. Mnogi korisnici nisu srećni, a postoji i mnogo računarskih komponenti s kojima Tviter i Fejsbuk moraju da se suoče kada je reč o izborima i širenju dezinformacija – rekao je prvi autor studije Vilijam Brejdi, psiholog društva sa Škole menadžmenta Kelog na Nortvesternu.

- Želeli smo da napravimo sistematičan pregled kojim bismo shvatili kako ljudska psihologija i algoritmi korespondiraju i kakve su posledice. Jedna od stvari koje naša studija donosi jeste perspektiva društvenog učenja. Kao psiholozi društva, mi stalno proučavamo šta možemo da naučimo od drugih. Ovaj okvir je ključan ako želimo da shvatimo kako algoritam društvenih mreža utiče na naše socijalne interakcije – naveo je on.

Ljudi su pristrasni u učenju na način koji uobičajeno promoviše kooperaciju i kolektivno rešavanje problema, zbog čega pojedinci uobičajeno uče od pojedinaca koje smatraju delom svoje grupe ili uglednima. Uz to, kada je ta pristrasnost u učenju razvijana, prioritet su bile informacije koje su moralno i emotivno nabijene jer je od njih verovatno zavisilo uspostavljanje normi unutar grupe, kao i samo preživljavanje kolektiva.

U suprotnosti s tim, algoritam društvenih mreža obično bira informacije koje podstiču uključivanje korisnika kako bi se povećala zarada od oglasa. To znači da ovi algoritmi pojačavaju upravo informacije koje ljudi pristrasno žele da nauče, bez obzira da li je taj sadržaj tačan ili predstavlja mišljenje većine u grupi. Kao rezultat toga, kontroverzne teme ili ekstreman politički sadržaj se češće pojavljuju i ako ljudi nemaju kontakta sa drugačijim mišljenjem, mogu da poveruju u laž da razumeju većinski način razmišljanja različitih grupa.

- Nije da su algoritmi napravljeni da razaraju saradnju. Ali ciljevi su različiti. U praksi, kada se te funkcije sklope, dobijamo negativan efekat – rekao je Brejdi.

Da bismo se suočili sa ovim problemom, istraživački tim je prvo predložio da korisnici društvenih mreža moraju da budu svesniji načina na koji algoritmi rade i zašto im se stalno pojavljuje određeni sadržaj. Kompanije obično ne daju sve detalje o tome kako njihovi algoritmi biraju sadržaj, ali početak bi bilo objašnjenje za bar jedan određeni post. Da li je razlog što i neki prijatelj reaguje na sadržaj ili zato što je sadržaj generalno popularan? Istraživački tim razvio je svoj način objašnjavanja ljudima kako da budu svesniji konzumerizma društvenih mreža. Uz to, oni su predložili da kompanije iza društvenih mreža preduzmu korake i promene svoje algoritme, kako bi više jačali zajednicu.

- Kao istraživači, mi razumemo da se kompanije suočavaju sa velikim tenzijama kada je reč o ovakvim promenama. Zato mislimo da bi takve promene teoretski održavale učešće ljudi u društvenim mrežama, a da na njima ne dominiraju sadržaji koje ljudi pristrasno žele da nauče. Korisničko iskustvo bi se verovatno značajno poboljšalo nakon toga – rekao je Brejdi.

(Telegraf Nauka/ScienceDaily)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Nauka Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

  • Eur: <% exchange.eur %>
  • Usd: <% exchange.usd %>