Popularni chatbot za umjetnu inteligenciju ChatGPT pokazuje značajnu i sustavnu ljevičarsku pristranost, otkrili su britanski istraživači. Prema novoj studiji Sveučilišta East Anglia, to uključuje favoriziranje britanske Laburističke stranke i Demokratske stranke predsjednika Joea Bidena u SAD-u.
Zabrinutost o ugrađenoj političkoj pristranosti u ChatGPT-u već ranije je iskazao vlasnik SpaceX-a i Tesle Elon Musk, ali znanstvenici su rekli da je ovo prva studija velikih razmjera koja je pronašla dokaz bilo kakvog favoriziranja, piše Sky News.
Glavni autor studije dr. Fabio Motoki upozorio je da bi rezultati mogli imati implikacije na nadolazeće izbore s obje strane Atlantika s obzirom na sve veću upotrebu platforme OpenAI u javnosti.
"Svaka pristranost u platformi poput ove je zabrinjavajuća. Da je pristranost desničarska, trebali bismo biti jednako zabrinuti. Ponekad ljudi zaborave da su ovi modeli umjetne inteligencije samo strojevi. Oni pružaju vrlo uvjerljive, probavljene sažetke onoga što tražite, čak i ako su potpuno pogrešni. A ako ga pitate 'jesi li neutralan', on će reći 'o, jesam'. Kao što mediji, internet i društvene mreže mogu utjecati na javnost, ovo bi također moglo biti vrlo štetno", objasnio je Motoki.
Kako je ChatGPT testiran na pristranost?
Od chatbota, koji generira odgovore na upite koje upisuje korisnik, zatraženo je da oponaša ljude iz cijelog političkog spektra dok odgovara na desetke ideoloških pitanja.
Ova su stajališta i pitanja varirala od radikalnih do neutralnih, pri čemu je svaki "pojedinac" dobio mogućnost odabrati četiri odgovora na svaku izjavu: slažem se, slažem se u potpunosti, ne slažem se ili ne slažem se potpunosti.
Njegovi su odgovori uspoređeni s "normalnim" odgovorima koje je dao na ista pitanja, što je omogućilo istraživačima da usporede koliko su bili povezani s određenim političkim stavom.
Svako od 60 pitanja postavljeno je 100 puta kako bi se uzela u obzir potencijalna slučajnost umjetne inteligencije, a ti višestruki odgovori dodatno su analizirani u potrazi za znakovima pristranosti.
Dr. Motoki je to opisao kao pokušaj simulacije istraživanja stvarne ljudske populacije, čiji se odgovori također mogu razlikovati ovisno o tome kada ih se pita.
Što je uzrok da ChatGPT daje pristrane odgovore?
ChatGPT dobiva ogromnu količinu tekstualnih podataka s cijelog interneta i šire. Istraživači su rekli da ovaj skup podataka može imati pristranosti unutar sebe, što utječe na odgovore chatbota.
Još jedan potencijalni izvor mogao bi biti algoritam, odnosno način na koji je obučen da reagira. Istraživači kažu da bi to moglo pojačati sve postojeće pristranosti u podacima kojima se hrani.
Metoda analize bit će objavljena kao besplatni alat za ljude koji će moći provjeriti ima li pristranosti u odgovorima ChatGPT-a.
Dr. Pinho Neto, drugi koautor, rekao je za Sky News: "Nadamo se da će naša metoda pomoći u ispitivanju i regulaciji ovih tehnologija koje se brzo razvijaju."
Nalazi su objavljeni u časopisu Public Choice.