U NAJMANJE četiri novija znanstvena članka umjetna inteligencija navedena je kao koautor studije, upozorio je nedavno u Nature Newsu znanstveni novinar Chris Stokel-Walker.
Ovakva praksa, mada tek u začetku, pokrenula je u znanstvenoj zajednici polemike oko pitanja ima li smisla pripisivati autorstvo sustavima umjetne inteligencije i zašto nema, ako nema? Kada AI prestaje biti samo alat, neka naprednija verzija pretraživača, sakupljača informacija ili jezičnog oblikovatelja podataka u formu teksta? Koje bi uvjete trebao ispunjavati AI da bi se mogao smatrati koautorom znanstvenih radova? Hoće li akademska zajednica u nekom trenutku ipak morati prihvatiti autorstvo AI-ja?
ChatGPT kao prijetnja nastavnicima
Konkretno, riječ je o četiri znanstvena rada u kojima je kao koautor naveden sustav za obradu teksta ChatGPT, koji je prošle godine predstavio OpenAI, kalifornijska kompanija koja se bavi razvojem umjetne inteligencije. Podsjetimo, taj je sustav izazvao veliko uzbuđenje u tehnološkom svijetu jer se pokazalo da ima fascinantne sposobnosti kreiranja teksta tako da jako nalikuje tekstu koji je napisao čovjek.
Pokazalo se da može napisati toliko kvalitetne eseje na različite teme i odgovore na pitanja iz raznih testova da ih je teško razlikovati od studentskih. Štoviše, neki profesori izrazili su egzistencijalni strah jer se pokazalo da je ChatGPT uspio brže procijeniti valjanost nekih studentskih radova od njih samih, što znači da bi ih uskoro mogao zamijeniti u nekim važnim dijelovima njihovog posla.
No, s druge strane u međuvremenu se također pokazalo da ChatGPT u ovom stupnju razvoja radi brojne pogreške čak i kada rješava relativno jednostavne logičke ili matematičke zadatke. Stručnjaci ističu da je razlog tome, među ostalim, činjenica da ChatGPT ne razmišlja na isti način kao što ljudi razmišljaju, ne provjerava niti promišlja svoje odgovore, nego izbaci onaj koji se najčešće povezuje s ključnim riječima u pitanju.
Konačno, sustav bi trošio prevelike količine energije kada bi o svakom postavljenom pitanju promišljao i provjeravao svoje odgovore onako kako to ljudi rade.
>>Kad će AI postati pametniji od ljudi i što tada? Posljedice bi mogle biti ogromne
Krenule zabrane ChatGPT-ja u školama
Škole u New Yorku brzo su reagirale na izazove ChatGPT-ja i zabranile njegovo korištenje zbog straha da bi ga učenici mogli upotrijebiti za varanje.
Prema gradskom odjelu za obrazovanje, alat će biti zabranjen na svim uređajima i mrežama u javnim školama u New Yorku.
Jenna Lyle, glasnogovornica odjela, rekla je da postoji opravdana zabrinutost da bi ChatGPT mogao imati negativan utjecaj na učenje učenika te da bi mogao kreirati lažne vijesti.
"Iako alat može dati brze i jednostavne odgovore na pitanja, on kod učenika ne razvija vještine kritičkog razmišljanja i rješavanja problema, koje su ključne za akademski i cjeloživotni uspjeh", rekla je Lyle.
S druge strane neki smatraju da potencijal ChatGPT-ja kao obrazovnog alata nadmašuje njegove rizike te da se škole trebaju prilagoditi kako bi pripremile učenike za budućnost koja će obilovati raznim vrstama sposobnih AI alata. Osobito zato što će njihovo korištenje uskoro postati nemoguće otkrivati i zabranjivati.
Četiri članka u kojima se ChatGPT navodi kao autor
A što s korištenjem ChatGPT-ja u znanstvenim radovima? Kako navesti da je korišten u nekom dijelu znanstvenog rada?
U tekstu u Nature Newsu Stokel-Walker predstavlja četiri znanstvena članka u kojima je ChatGPT naveden kao koautor.
Jedan od primjera je članak o mogućnosti korištenja ChatGPT-ja za medicinsko obrazovanje, objavljen na medicinskom repozitoriju medRxiv u prosincu prošle godine. U njemu je 12 autora ocijenilo izvedbu ChatGPT-ja na ispitu za medicinsko licenciranje Sjedinjenih Država (USMLE), koji se sastoji od tri ispita.
"ChatGPT je prošao prag prolaznosti ili je bio blizu tome da prođe na sva tri ispita bez ikakve specijalizirane obuke ili poboljšanja. Osim toga, ChatGPT je pokazao visoku razinu usklađenosti i uvida u svoja objašnjenja. Ovi rezultati sugeriraju da veliki jezični modeli mogu imati potencijal za pomoć u medicinskom obrazovanju, a potencijalno i u donošenju kliničkih odluka“, zaključili su autori u studiji.
Tim koji stoji iza repozitorija medRxiv, kao i sestrinskog bioRxiva, upustio se u raspravu o tome je li prikladno koristiti alate kao što je ChatGPT pri pisanju članka te kako službeno priznati ulogu AI-ja u znanstvenom radu.
Suosnivač repozitorija Richard Sever, pomoćnik direktora Cold Spring Harbor Laboratory Pressa u New Yorku, smatra da bi se konvencije po tom pitanju s vremenom mogle mijenjati.
"Moramo razlikovati formalnu ulogu autora znanstvenog rada od općenitijeg pojma autora kao pisca dokumenta", istaknuo je Sever. Autori, kaže, preuzimaju pravnu odgovornost za svoj rad pa bi u tom svojstvu trebalo navoditi samo osobe.
"Naravno, ljudi mogu pokušati podvaliti nešto drugačije. Već se događalo u prošlosti da su ljudi na medRxivu kao autore članaka navodili kućne ljubimce, izmišljene ljude itd., no to je pitanje provjere, a ne pitanje politike”, pojasnio je.
Drugi primjer znanstvenog članka u kojem je kao autor naveden ChatGPT je uvodnik "Otvorene platforme umjetne inteligencije u obrazovanju medicinskih sestara: Alati za akademski napredak ili zloporaba?" objavljen u časopisu Nurse Education in Practice od siječnja. U njemu je glavna autorica bila Siobhan O’Connor, istraživačica zdravstvene tehnologije na Sveučilištu u Manchesteru u Velikoj Britaniji.
Roger Watson, glavni urednik časopisa, kaže da je u ovom slučaju pripisivanje autorstva prošlo greškom te da će ona uskoro biti ispravljena.
"To je bio propust s moje strane", kaže, jer uvodnici prolaze kroz drugačiji sustav upravljanja od istraživačkih radova.
Treći primjer je članak "Rapamicin u kontekstu Pascalove oklade: perspektiva GPT-ja" objavljen prošli mjesec u časopisu Oncoscience. U njemu je glavni autor Alex Zhavoronkov, izvršni direktor Insilico Medicine, tvrtke za istraživanje lijekova uz pomoć umjetne inteligencije u Hong Kongu, naveo ChatGPT kao prvog autora.
Zhavoronkov tumači da je njegova tvrtka objavila već više od 80 radova proizvedenih generativnim AI alatima.
"Nismo novi u ovom području", kaže Zhavoronkov. Najnoviji rad raspravlja o prednostima i manama uzimanja lijeka Rapamicina, u kontekstu filozofskog argumenta zvanog Pascalova oklada. ChatGPT je napisao puno bolji članak od prethodnih generacija generativnih AI alata, objasnio je za Nature News Zhavoronkov.
Četvrti primjer je članak koji je napisao chatbot GPT-3, koji je objavljen u lipnju 2022. na francuskom poslužitelju za preprint HAL. Njegova glavna autorica Almira Osmanovic Thunström, neurobiologinja sa Sveučilišta u Göteborgu u Švedskoj, kaže da je jedan časopis prihvatio GPT-3 kao koautora, ali tek nakon što je ona iznova napisala članak kako bi udovoljila zahtjevu recenzenata.
AI ne ispunjava ključne uvjete propisane za autore
Kad je riječ o autorstvu u znanstvenim radovima, bitno pitanje na koje treba odgovoriti je ispunjava li AI, odnosno ChatGPT, uvjete koji se očekuju od znanstvenika autora.
Urednici znanstvenih časopisa i repozitorija na kojima se objavljuju znanstveni radovi koje su kontaktirali novinari Nature Newsa slažu se da ih umjetna inteligencija kao što je ChatGPT ne ispunjava.
Kao jedan od glavnih razloga ističu činjenicu da AI ne može preuzeti odgovornost za sadržaj i integritet znanstvenih radova. Također napominju da je ChatGPT sklon pogreškama te da na drugačiji način postavljeno isto pitanje daje različite odgovore.
Prof. dr. sc. Livia Puljak s Hrvatskog katoličkog sveučilišta u Zagrebu, koja se bavi znanstvenom metodologijom, kaže da AI trenutno ne ispunjava neke ključne uvjete koje moraju zadovoljiti autori znanstvenih radova.
"U biomedicini je Međunarodna udruga biomedicinskih urednika (ICMJE) postavila četiri kriterija autorstva. Prvi kriterij je značajan doprinos u osmišljavanju ili oblikovanju djela; ili skupljanju, analizi ili interpretaciji podataka za djelo. Drugi kriterij je pisanje djela ili kritičko revidiranje važnog intelektualnog sadržaja u djelu. Treći kriterij je odobravanje konačne verzije djela za objavu. Četvrti kriterij je suglasnost za prihvaćanje odgovornosti za sve dijelove rada, kako bi se zajamčila mogućnost da će se pitanja koja se odnose na točnost ili integritet bilo kojeg dijela rada prikladno istražiti i riješiti.
Umjetna inteligencija sasvim sigurno ne može udovoljiti zadnjim dvama uvjetima – ne može dati suglasnost za objavu zadnje verzije djela i ne može biti odgovorna za sve dijelove rada“, ističe Puljak.
Nadalje ističe da se ChatGPT ne može koristiti za stvaranje svih vrsta znanstvenih članaka, već samo nekih.
"On se oslanja na golemu količinu znanja dostupnu na internetu, temeljem čega stvara tekst. ChatGPT ne može, primjerice, provesti istraživanja u laboratoriju, na životinjama i na čovjeku te na taj način stvoriti nova istraživanja. No, on može napraviti ne-sustavni pregled znanstvene literature na zadanu temu. Zbog toga je doseg ChatGPT-ja u znanosti vrlo ograničen“, kaže Puljak.
Također upozorava da se znanstvenici ne bi smjeli oslanjati na ChatGPT jer on na raspolaganju ima ograničene podatke o najnovijim znanstvenim probojima.
"Iako se navodi da se temelji na 570 GB podataka, odnosno 300 milijardi riječi, ima ograničene podatke o najnovijim informacijama u svijetu. Za zbivanja, primjerice, u protekloj godini, model će na raspolaganju imati ograničeno znanje i model može povremeno proizvesti lažne ili zbunjujuće informacije“, tumači Puljak.
Spomenuti AI, ali ne među autorima
Posljednjih godina razvija se sve više sustava umjetne inteligencije koji se mogu koristiti u znanstvenim istraživanjima. Primjerice, DeepMindov AlphaFold je u 2022. identificirao 3D strukturu više od 200 milijuna oblika proteina životinja i ljudi, praktički svih koji su nam poznati.
Tvrtka Wolfram Research razvila je jedan od najpoznatijih matematičkih programa, Wolfram Alphu, koji je osmišljen da pruža odgovore na širok raspon pitanja, uključujući matematička, znanstvena, povijesna i geografska. Jedna od njegovih ključnih značajki je sposobnost logičke obrade unesenog prirodnog jezika i generiranja točnog izlaznog rezultata u obliku teksta, slika i interaktivnih vizualizacija.
Ovi alati, kao i brojni drugi, u skoroj bi budućnosti mogli postati vrlo korisni u znanstvenim istraživanjima. To nameće pitanje na koji način priznati njihov važan doprinos nekom znanstvenom istraživanju.
Neki izdavači smatraju da bi se to moglo učiniti u nekim dijelovima radova, ali da se AI ne bi smio navoditi u popisu autora.
Prof. Puljak smatra da bi autori koji koriste AI kao pomoć u pisanju članaka to trebali navesti na kraju znanstvenog članka u odjeljku "Zahvale“ (engl. Acknowledgements).
"U tom dijelu članka autori obično zahvaljuju onima koji su nešto pomogli, ali nisu ispunili uvjete za autorstvo. ChatGPT mogao bi se smatrati takvom kategorijom jer je doprinio stvaranju dijela teksta, ali ne može se smatrati autorom“, poručuje Puljak.
Tako stvari stoje za sada. Što će donijeti budućnost i hoće li u nekom trenutku AI ispuniti sve navedene uvjete za autora znanstvenih članaka, pokazat će vrijeme.