Kako niskokvalitetni proizvodi AI uzrokuju krizu u kompjuterskoj nauci
Arhive preliminarno objavljenih radova i organizatori konferencija moraju da se suprotstave plimi takozvanog AI slopa.
Pedeset četiri sekunde – toliko je trebalo Rafaelu Vimeru da napiše eksperiment koji zapravo nije izveo, pomoću novog alata veštačke inteligencije nazvanog Prism, koji je kompanija OpenAI objavila prošlog meseca.
"Pisanje rada nikad nije bilo lakše. Zagušenje naučnog izdavačkog toka nikad nije bilo lakše", napisao je Vimer, istraživač interakcije čoveka i kompjutera na Univerzitetu u Regenzburgu u Nemačkoj.
Veliki jezički modeli (LLM) mogu predlagati hipoteze, pisati kodove i nacrte radova, dok AI agenti automatizuju delove istraživačkog procesa. Iako ovo može ubrzati nauku, takođe olakšava kreiranje lažnih ili niskokvalitetnih radova, poznatih kao "AI slop".
Računarska nauka je bila rastuće polje pre pojave LLM, ali je sada na prelomnoj tački. Međunarodna konferencija o mašinskom učenju (ICML) 2026. primila je više od 24.000 radova — više nego duplo u odnosu na sastanak 2025. godine. Jedan od razloga ovog velikog rasta je to što usvajanje LLM povećava produktivnost istraživača, čak do 89,3%.
"To je obim daleko veći od onoga za šta je trenutni sistem analize dizajniran", i čini "temeljitu i pažljivu evaluaciju sve neizvodljivijom", kažu naučnici sa Korejskog naprednog instituta za nauku i tehnologiju u Tedžonu u Južnoj Koreji.
Obim nije jedini problem. Mnogi autori ne uspevaju da pravilno validiraju ili verifikuju sadržaje koje generiše veštačka inteligencija. Analize radova prijavljenih na istaknute AI konferencije pokazuju da su neki potpuno generisani veštačkom inteligencijom, a desetine sadrže AI izmišljotine, poznate kao halucinacije.
Otkako se ChatGPT pojavio u novembru 2022, broj mesečnih prijava u arhivu preliminarno objavljenih radova arXiv porastao je za više od 50%, a broj članaka odbijenih svakog meseca porastao je petostruko, na više od 2.400.
Jedan odgovor je "borba vatrom protiv vatre" – korišćenjem AI za recenziju ili za uklanjanje lažnih radova. Druge opcije su grublje. ArXiv je, na primer, dodao provere podobnosti za one koji prvi put podnose rad i zabranio recenzije u oblasti računarstva koje prethodno nisu prihvaćene kao stručno evaluirane.
Organizatori Međunarodne zajedničke konferencije o veštačkoj inteligenciji (IJCAI), u međuvremenu, nastoje da ograniče prijave uvođenjem politike koja zahteva od istraživača da plate 100 dolara za svaki sledeći rad nakon prvog. Ove uplate se zatim dele među recenzentima.
Ulozi su visoki. Ako se problem ne reši, "poverenje u naučno istraživanje, posebno u oblasti računarstvu, suočava se sa značajnim rizikom od propadanja“.
Moderatori više ne mogu koristiti koliko dobro se rad bavi relevantnom literaturom i metodama da bi procenili njegovu vrednost. AI slop se često ne može razlikovati samo putem sažetka, pa čak ni samo brzim prelistavanjem celog teksta, kažu stručnjaci. To ga čini "egzistencijalnom pretnjom" po sistem.
Dosad su se konferencije uglavnom snalazile tako što su povećavale broj recenzenata. Prošle godine je Međunarodna konferencija o reprezentacijama učenja (ICLR) uvela zahtev da svako ko podnosi rad takođe recenzira podnete radove drugih.
Organizatori ICML-a su uveli politiku kojom se autori sprečavaju da podnose više sličnih radova tako što od njih zahtevaju da recenzentima pošalju kopije svojih drugih podnetih članaka, sa potencijalnim odbijanjem svih radova ako dođe do kršenja pravila.
Radikalnije ideje uključuju prelazak sa objavljivanja putem konferencija na model zasnovan na časopisima. Tako bi se izbegla opterećenost u recenziranju, ali neki istraživači možda ne bi želeli da propuste prestiž i mogućnosti umrežavanja na konferencijama.
Još jedna strategija za rešavanje opterećenja je preusmeravanje radova generisanih veštačkom inteligencijom na nova mesta objavljivanja. U oktobru prošle godine, istraživači su održali prvu konferenciju na kojoj su sve radove proizvele i pregledale mašine. A u decembru je pokrenuta nova arhiva preliminarno objavljenih radova – aiXiv2– koji koristi veštačku inteligenciju za analizu i aktivno podstiče mašinski generisane radove.
Još jedan pristup za obeshrabrivanje slopa je upotreba veštačke inteligencije za detekciju. Alat kompanije GPTZero, na primer, pronašao je 100 haluciniranih citata u 4.841 radu prihvaćenom na prošlogodišnjoj NeurIPS konferenciji. Nepravilni ili lažni citati smatraju se osnovom za odbacivanje, ali to ne znači uvek da je rad lošeg kvaliteta.
Veštačka inteligencija bi se takođe mogla koristiti da pomogne recenzentima da ubrzaju proces, iako su istraživači oštro podeljeni oko toga šta smatraju prihvatljivom upotrebom AI.
ICML je najavio da će imati dva toka stručne evaluacije, jedan koji dozvoljava ograničenu upotrebu LLM u proveri radova, dok u drugom učestvuju samo ljudi.
Više od polovine istraživača je u nedavnoj anketi izjavilo da koristi veštačku inteligenciju za recenziju, iako je to često protiv smernica časopisa ili konferencija. Prepoznavanje da veštačka inteligencija može biti dodatni "recenzent" je realističan pristup, ali mora biti podržan "odgovarajućim zaštitnim merama".
Kompjuterska nauka je prvo polje koje se suočava sa poplavom slopa — pošto se istraživanje dešava in silico (putem kompjutera) i rade ga istraživači sa ekspertizom u oblasti AI. Međutim, sa usponom AI, slični izazovi će se verovatno pojaviti i na drugim poljima, uključujući discipline na bazi "mokre laboratorije", iako se mogu manifestovati na drugačije načine.
Problem uklanjanja niskokvalitetnog AI sadržaja stručnjaci porede sa problemom filtriranja neželjene elektronske pošte. Pitanje kako filtrirati niskokvalitetnu nauku potpomognutu veštačkom inteligencijom je zaista važan problem, ali takođe želimo da osiguramo ubrzanje vrhunskog rada i pomoć sjajnim naučnicima da učine više, kažu eksperti.
(Telegraf Nauka/Nature)
Video: Ključna godina za Nikolu Teslu
Nauka Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.