Vreme čitanja: oko 7 min.
Veštačka inteligencija komplikuje pitanje plagijatorstva – kako bi naučnici trebalo da reaguju?
Vreme čitanja: oko 7 min.
Eksplozivna upotreba generativne veštačke inteligencije u pisanju pokreće teška pitanja o tome kad treba dozvoliti upotrebu te tehnologije.
Od optužbi koje su dovele do ostavke predsednika Hardvardskog univerziteta u januaru do otkrića plagiranog teksta u stručnim recenzijama u februaru, akademski svet je ove godine uznemiren slučajevima plagijatorstva.
Međutim, naučnom pisanju preti veći problem. Brz rast upotrebe alata generativne veštačke inteligencije (AI) – koji pišu tekst na osnovu inputa – pokreće pitanja da li to predstavlja plagijatorstvo i u kojim okolnostima treba da bude dozvoljeno.
Postoji čitav spektar upotrebe AI, od onoga što je potpuno napisao čovek do onoga što je potpuno napisala AI – a između je ogromna pustoš konfuzije, kaže konsultant za autorska prava Džonatan Bejli.
Alati generativne AI, kao što je ChatGPT, bazirani na algoritmima poznatim kao veliki jezički modeli, mogu uštedeti vreme, popraviti jasnoću i smanjiti jezičke barijere. Mnogi istraživači tvrde da su dozvoljeni u nekim okolnostima i da njihovu upotrebu treba potpuno obelodaniti, piše Nature.
Međutim, takvi alati komplikuju već napetu raspravu o nepropisnoj upotrebi tuđih radova. Veliki jezički modeli su trenirani da proizvode tekst rezimirajući ogromne količine ranije objavljenog pisanja. Zbog toga njihova upotreba može proizvesti nešto slično plagijatorstvu – ako istraživač predstavi rad mašine kao svoj, na primer, ili ako mašina proizvede tekst vrlo sličan radu neke osobe bez navođenja izvora.
Ti alati mogu takođe biti upotrebljeni da se prikrije namerno plagiran tekst i njihovu upotrebu je teško primetiti. Definisati šta smatramo akademskim nepoštenjem ili plagijatorstvom, i gde su granice, biće vrlo, vrlo teško.
U anketi iz 2023, 68% od 1.600 istraživača je izjavilo da će AI olakšati plagijatorstvo i učiniti ga težim za detekciju. Svi su zabrinuti da svi drugi koriste te sisteme, kao i da ih oni sami ne koriste kad bi trebalo, kažu stručnjaci.
Plagijatorstvo sreće AI
Plagijatorstvo kao prisvajanje ideja, procesa, rezultata ili reči druge osobe bez pridavanja odgovarajuće zasluge je poznat problem. Studija iz 2015. procenjuje da je 1,7% naučnika priznalo plagijatorstvo i da 30% zna kolege koje su ga počinile.
Veliki jezički modeli bi mogli pogoršati situaciju. Namerno plagijatorstvo teksta koji je napisao čovek može lako biti prikriveno ako se od velikog jezičkog modela zatraži da parafrazira tekst, što se može učiniti na sofisticirane načine, npr. u stilu nekog naučnog časopisa.
Centralno pitanje je da li upotreba napripisanog sadržaja koji je potpuno napisala mašina – a ne čovek – predstavlja plagijatorstvo. Ne nužno, kažu mnogi istraživači. Na primer, Evropska mreža za akademski integritet definiše nedozvoljenu i neobjavljenu upotrebu alata AI za pisanje kao „neautorizovano stvaranje sadržaja“.
Plagijatorstvo bi sadržalo stvari koje se mogu pripisati drugoj, određenoj osobi. Iako je bilo slučajeva da generativna AI proizvodi tekst gotovo identičan postojećem sadržaju koji je napisao čovek, to obično nije dovoljno identično da bi se smatralo plagijatom.
Međutim, neki ljudi tvrde da alati generativne AI krše autorska prava. I plagijatorstvo i kršenje autorskih prava su nepropisna upotreba tuđeg rada – dok plagijatorstvo predstavlja kršenje akademske etike, neautorizovana upotreba rada zaštićenog autorskim pravom može predstavljati kršenje zakona.
Sistemi AI su izgrađeni na radu miliona ili stotina miliona ljudi. Neke medijske kompanije i autori protestuju protiv onoga što smatraju kršenjem autorskih prava od strane AI. U decembru 2023, Njujork tajms je tužio Majkrosoft i OpenAI tvrdeći da su te dve kompanije kopirale i upotrebile milione novinskih članaka radi obuke velikih jezičkih modela. U tužbi se navode slučajevi kad je AI reprodukovala nekoliko paragrafa iz članaka skoro od reči do reči.
U februaru je OpenAI zatražio odbacivanje delova tužbe, tvrdeći da ChatGPT ni na koji način nije zamena za pretplatu na Njujork tajms. Majkrosoft kaže da zakonito razvijenim alatima sa AI treba dozvoliti odgovoran napredak i da takođe nisu zamena za bitnu ulogu novinara.
Ako sud odluči da je obuka AI na tekstu bez dozvole zaista kršenje autorskih prava, biće to veliki udarac za AI kompanije. Bez obimnih baza za obuku alati kao što je ChatGPT ne mogu da postoje.
Eksplozija AI
Bez obzira da li je u pitanju plagijatorstvo ili nije, upotreba AI u akademskom pisanju je eksplodirala otkako je ChatGPT pušten u promet u novembru 2022.
Istraživači procenjuju da je barem 10% sažetaka u biomedicinskim radovima tokom prvih šest meseci 2024. napisano pomoću velikih jezičkih modela – što je ekvivalent 150.000 radova godišnje.
Radovi iz zemalja među kojima su Kina i Južna Koreja pokazuju znakove veće upotrebe velikih jezičkih modela nego oni iz zemalja u kojima je engleski jezik dominantan. Međutim, autori u ovoj drugoj grupi zemalja možda koriste alate AI isto tako često, ali na načine koje je teže detektovati. Upotreba velikih jezičkih modela će sigurno nastaviti da se povećava i verovatno će biti teža za detekciju, predviđaju istraživači.
Neobelodanjena upotreba softvera u akademskom pisanju nije novost. Naučnici godinama otkrivaju nerazumljive radove softvera zvanog SCIgen i one sa „mučnim frazama“ automatskog softvera za prevođenje ili parafraziranje. Čak i pre generativne AI, ljudi su imali alate za izbegavanje detekcije.
Neka upotreba AI u akademskom pisanju, pak, ima vrednost. Može učiniti tekst i ideje jasnijim, smanjiti jezičke barijere i osloboditi vreme za eksperimente i mišljenje. Alati generativne AI pomažu istraživačima kojima je engleski drugi jezik da napišu radove i usredsrede se na istraživanje.
Međutim, konfuzija vlada u pogledu toga kad upotreba AI predstavlja plagijatorstvo ili se sukobljava sa etikom. Upotreba velikih jezičkih modela radi parafraziranja sadržaja postojećih radova je očigledno plagijatorstvo.
Ipak, upotreba velikih jezičkih modela kao pomoć u izražavanju ideja – proizvodnjom teksta na bazi detaljnog inputa ili modifikovanjem nacrta – ne bi trebalo da bude kažnjena ako je transparentna. Trebalo bi dozvoliti ljudima da koriste velike jezičke modele radi lakšeg i jasnijeg izražavanja svojih ideja, kažu naučnici.
Mnogi časopisi dozvoljavaju neki nivo upotrebe velikih jezičkih modela. Nakon prvobitne zabrane teksta koji je proizveo ChatGPT, Science je u novembru 2023. izmenio svoju politiku rekavši da upotreba AI u pisanju treba da bude potpuno obelodanjena, uključujući sistem i inpute. Autori su odgovorni za tačnost i „obezbeđivanje da nema plagijata“. Nature takođe kaže da autori istraživačkih tekstova treba u odeljku o metodama da obelodane upotrebu velikih jezičkih modela.
Analiza 100 velikih izdavača i 100 visoko rangiranih časopisa pokazala je da je do oktobra 2023. godine 24% izdavača i 87% časopisa imalo smernice za upotrebu generativne AI. Skoro svi su rekli da alat AI ne može biti uključen kao autor, ali su se pravila razlikovala u pogledu tipova dozvoljene upotrebe AI i nivoa zahtevanog obelodanjivanja.
Raširena upotreba velikih jezičkih modela u pisanju naučnih radova je zasad obuzdana njihovim ograničenjima. Korisnici moraju da naprave detaljne inpute koji opisuju čitaoce, jezički stil i polje istraživanja. Jezičkom modelu je zapravo vrlo teško da vam pruži tačno ono što želite.
Međutim, programeri prave aplikacije koje će olakšati istraživačima da generišu specijalizovani naučni sadržaj. Umesto da unosi detaljan input, korisnik bi u budućnosti mogao jednostavno izabrati neku od ponuđenih opcija i pritisnuti dugme da generiše čitav rad od samog početka.
Detektivski posao
Vrlo brzo usvajanje velikih jezičkih modela radi pisanja teksta praćeno je navalom alata za detekciju. Iako se mnogi hvale visokim nivoom preciznosti – više od 90% u nekim slučajevima – istraživanje ukazuje da većina ne dostiže svoje tvrdnje. Studija iz decembra otkriva da samo pet od 14 proučavanih alata za detekciju AI tačno identifikuje 70% ili više tekstova koje je napisala ili AI ili ljudska ruka, ali nijedan više od 80%.
Preciznost detektora je opala ispod 50% u proseku prilikom uočavanja teksta koji je generisala AI, a neko ga je neznatno modifikovao zamenjujući sinonime i menjajući redosled rečenica. Trenutni alati gotovo da ne mogu detektovati takav tekst.
Druge studije su pokazale da zahtevanje od AI da više puta parafrazira tekst drastično smanjuje preciznost detektora.
Ima još problema sa detektorima AI. Jedna studija je pokazala da je verovatnije da će pogrešno klasifikovati tekst na engleskom jeziku kao proizvod AI ako su ga napisali ljudi kojima engleski nije prvi jezik.
Detektori ne mogu pouzdano razlikovati tekst koji je u potpunosti napisala AI i slučajeve u kojima je autor koristio usluge na bazi AI koje popravljaju tekst pomažući sa gramatikom i jasnoćom rečenica. Lažne optužbe za korišćenje AI mogu naneti veliku štetu reputaciji naučnika ili studenata.
Granica između legitimne i nelegitimne upotrebe AI će verovatno postajati još nejasnija. Majkrosoft je u martu 2023. počeo da inkorporira alate generativne AI u svoje programe, uključujući Word, PowerPoint i Outlook. Neke verzije AI asistenta, zvanog Kopilot, mogu da prave nacrte sadržaja ili da ga modifikuju. U junu je i Gugl počeo da integriše svoj model generativne AI, Džemini, u alate kao što su Docs i Gmail.
AI postaje toliko ugrađena u sve što koristimo da će biti sve teže znati da li je uticala na nešto što smo uradili. Nastaviće da evoluira brže nego što možemo da je pratimo, kaže Debi Koton, stručnjak za visoko obrazovanje sa Univerziteta Mardžon u Plimutu.
(Telegraf Nauka/Nature)
Video: Gruber: Zadovoljna sam saradnjom Srbije i SAD u oblasti nauke
Nauka Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.