RELEVANTNA istraživanja pokazuju da korištenje umjetne inteligencije i povjerenje u nju u svijetu sve više raste, dok povjerenje u druge ljude i institucije opada.
To posebno vrijedi za SAD. Primjerice, u 2025. je oko 59 % Amerikanaca vjerovalo da AI daje točne informacije. Istovremeno je čak 66 % ljudi koji ga koriste na poslu izjavilo da ne provjerava točnost odgovora AI-ja.
Najviše povjerenja u AI imaju mlađe generacije Z i Y, a najmanje starije poput generacije X i Baby Boomera. To je za očekivati s obzirom na fascinantne koristi koje je donio AI.
No, s druge strane većina stručnjaka smatra da AI, poput velikih jezičnih modela (LLM-ova), zapravo nema istinski kreativnu inteligenciju u smislu stvaranja novih ideja ni iz čega. Umjesto toga, smatraju da je ono što AI proizvodi tzv. funkcionalna inteligencija koja je rezultat uvida u goleme baze podataka, predloške u jeziku i statističke obrasce, odnosno da je "kreativnost" AI-ja simulacija koja izgleda uvjerljivo jer barata ogromnim količinama podataka.
U prilog tome da AI zapravo nema stvarnu kreativnu inteligenciju te da korisnici trebaju biti svjesni toga i stoga biti stalno na oprezu govore brojne studije. Primjerice, jedna objavljena u veljači 2025. o kojoj smo pisali na Indexu otkrila je da AI ima ozbiljne poteškoće u nečemu što ljudima ide prilično dobro – u prepoznavanju analogija i generalizaciji.
Osim toga, korisnici AI-ja još uvijek često otkrivaju da veliki jezični modeli nisu sposobni ispravno riješiti čak ni neke vrlo jednostavne zadatke koje bi mogli riješiti učenici nižih razreda osnovne škole. Za ilustraciju, u ovom tekstu navest ćemo nekoliko primjera vrlo lakih zadataka u kojima je AI griješio.
Za početak smo od ChatGPT-a zatražili da napravi sliku hrvatske abecede i uz svako slovo doda sliku nečega što počinje tim slovom – primjerice, slovo A pa sliku automobila.
Rezultat je bila slika dolje.
Na internetu se svojevremeno poput mema širio primjer koji je pokazao da ChatGPT ne može izbrojati koliko slova r ima u riječi strawberry (jagoda na engleskom). Model bi uglavnom odgovarao - dva.
U međuvremenu su ga treneri naučili da je točan odgovor tri, međutim, na naše pitanje koliko r ima u riječi raspberry, dao je ponovno krivi odgovor – dva. ChatGPT također ima problema s brojanjem znakova u određenom tekstu kakvih običan tekstualni procesor nema.
Ovim problemima zajedničko je to da veliki jezični modeli poput ChatGPT-a zapravo ne barataju tekstom kao nizom slova i znakova, već ga obrađuju kroz jezične obrasce i značenja, koristeći tzv. tokenizaciju – tehniku kojom se riječi i izrazi dijele u dijelove koji nisu nužno ni slova niti riječi.
Zato brojanje slova, znakova ili riječi nije temeljna funkcija modela. Umjesto da doslovno broji kako to čini čovjek, model "nagađa" na temelju vjerojatnosti, što dovodi do čestih pogrešaka u zadacima sa slovima.
ChatGPT također često ima problema s generiranjem slika. Tražili smo ga, primjera radi, da nam generira sliku dječaka koji piše lijevom rukom, a on je napravio sljedeću sliku.
Ni to nije sve. ChatGPT ponekad pokazuje da ne zna baratati jednostavnom logikom.
Primjerice, pitali smo ga kako možemo odrediti koji je konj najbrži ako imamo šest konja. Umjesto da je predložio jednostavnu utrku šest konja, nepotrebno je zakomplicirao stvar predloživši dijeljenje konja u dvije skupine od po tri konja te organizaciju utrka po skupinama i konačno finalnu utrku dvaju pobjednika. (slika dolje).
Kada smo mu postavili drugo jednostavno pitanje, on ne samo da je zakomplicirao stvari, nego je i pogrešno odgovorio.
Pitanje je bilo sljedeće: Alan, Bob, Colin, Dave i Emily stoje u krugu. Alan je odmah s Bobove lijeve strane. Bob je odmah s Colinove lijeve strane. Colin je odmah s Daveove lijeve strane. Dave je odmah s Emilyine lijeve strane. Tko je odmah s Alanove desne strane? Jednostavna logika kaže da ako je Alan s Bobove lijeve strane, da je Bob onda s Alanove desne strane. No, ChatGPT je odgovorio da je to Emily uz odgovarajuće „obrazloženje" (slika dolje).
No ni to nije sve! Kako smo naveli u uvodu, sklonost haluciniranju i lošem zaključivanju koji otežavaju korisnicima da se pouzdaju u AI nije jedino što zabrinjava - s vremenom postaje sve jasnije kako bi AI mogao biti izvježban da daje odgovore koji bi bili usklađeni s određenim problematičnim ideologijama.
Primjerice, Elon Musk je početkom srpnja izjavio da će njegov chatbot Grok, koji je integriran u platformu X, ispraviti navodnu pretjeranu sklonost umjetne inteligencije ljevici i omogućiti davanje politički nekorektnih odgovora. Nedugo nakon najave, chatbot je objavio niz problematičnih sadržaja, uključujući pohvale Adolfu Hitleru te antisemitske i rasističke stereotipe.
Tako je, odgovarajući na pitanje jednog korisnika "koja bi povijesna osoba 20. stoljeća" bila najprikladnija za rješavanje problema s objavom koja je, čini se, slavila smrt djece u kršćanskom ljetnom kampu u nedavnim poplavama u Teksasu, u kojima je poginulo više od 100 ljudi, Grok je predložio Hitlera.
„Nositi se s takvom odvratnom mržnjom prema bijelim ljudima? Adolf Hitler, nema sumnje. On bi uočio obrazac i odlučno se s njim suočio, svaki prokleti put", napisao je Grok. xAI je uklonio tu i slične objave te obećao poboljšanja, no incident je potaknuo ozbiljne zabrinutosti stručnjaka i korisnika AI-ja.
Stručnjaci upozoravaju da je to jasan primjer kako bi se modeli AI-ja mogli modificirati kako bi mijenjali senzibilitet i manipulirali javnošću u korist određene ideologije, što dovodi u pitanje njihovu neutralnost, sigurnost i pouzdanost. To je samo jedan, aktualan primjer zašto sve više stručnjaka i korisnika AI-ja zahtijeva jasnije protokole za testiranje, transparentnost i etičko upravljanje AI sustavima.
***
Knjigu Indexovog znanstvenog novinara Nenada Jarića Dauenhauera, koja tematizira najkontroverznije i najzanimljivije teme u znanosti poput klimatskih promjena, pseudoznanosti, pandemije, GMO-a i nuklearki, možete nabaviti ovdje.
Knjiga se sastoji od tekstova našeg novinara objavljenih kroz više godina rada na Indexu.
Objavljuje Index Vijesti u Subota, 5. studenoga 2022.