U Kazneni zakon Ministarstvo pravosuđa, uprave i digitalne transformacije uvodi sasvim novo kazneno djelo. Riječ je o dovođenju u opasnost života i imovine sustavom umjetne inteligencije. Tu se, prije svega, misli na potpuno automatizirana vozila, ali i ostale sustave koji mogu izazvati opasnost za ljude i njihovu imovinu.
Tako u novom zakonskom članku stoji da kaznom od šest mjeseci do pet godina zatvora može biti kažnjen onaj tko izazove opasnost za živote i imovinu većeg opsega tijekom razvoja, testiranja, provjere, nadzora, upravljanja, uporabe sustava umjetne inteligencije ili na drugi način sustavom umjetne inteligencije. Do tri godine zatvora prijeti onome tko to učini nehajno.
Ako pak korištenjem umjetne inteligencije dođe do ozljeđivanja ili štete velikih razmjera, hrvatski Kazneni zakon, ako ga Sabor usvoji, propisivat će kaznu od jedne do 10 godina zatvora. U slučaju smrtnog ishoda prilikom uporabe umjetne inteligencije bit će zapriječena kazna od tri do 15 godina zatvora. Nešto blaže kazne predviđene su ako se to kazneno djelo počini iz nehaja.
Iz Ministarstva pravosuđa objašnjavaju kako su definiciju sustava umjetne inteligencije preuzeli iz europske uredbe koja regulira AI, a sve će biti usklađeno i sa Zakonom o umjetnoj inteligenciji koji je donesen na razini EU, a sada slijedi njegovo prihvaćanje. U Ministarstvu se nadaju da će se to dogoditi do kraja ove godine. Inače, do ljeta iduće godine rok je u kojem bi Hrvatska trebala postati članica OECD-a. Članstvo u tom globalnom forumu za gospodarsku suradnju i razvoj Hrvatskoj je bitno jer jamči gospodarski napredak. Stoga ne čudi da upravo zbog preporuka OECD-a Ministarstvo pravosuđa donosi cijeli niz zakonskih izmjena u pravosudnom sustavu.
"Vodeći računa o oblicima ugroze uvjetovanim razvojem sustava umjetne inteligencije, a posebno automatiziranih vozila, izmjenama zakona uredit će se pitanje kaznene odgovornosti kada je riječ o izazivanju opasnosti za život ili tijelo ljudi ili za imovinu većeg opsega u razvoju, testiranju, provjeri, nadzoru, upravljanju, uporabi sustava umjetne inteligencije ili na drugi način sustavom umjetne inteligencije, kao i nastupu težih posljedica u vidu teške tjelesne ozljede neke osobe, imovinske štete velikih razmjera ili smrti jedne ili više osoba. Također se u okviru članka 87. Kaznenog zakona, kojim člankom se propisuju značenja pojedinih izraza za potrebe Kaznenog zakona, predloženo je propisati značenje izraza 'sustav umjetne inteligencije'", navedeno je u službenom obrazloženju ove zakonske izmjene.
Možda najpoznatiji sustav za koji Hrvati trenutno znaju su robotaxiji koje razvija Mate Rimac. Pitali smo zato analitičara Marka Rakara kako će se kažnjavati nesreće robotaxija.
No, Rakar je otvorio brojna dodatna pitanja, iako načelno pozdravlja uvođenje AI u Kazneni zakon.
"Tko će u konačnici biti kriv - vlasnik AI sustava ili programeri? Što je to uopće umjetna inteligencija u ovom zakonskom smislu? Kako znamo da je AI nešto napravio, a ne običan softver koji je nastao uz pomoć AI-a. Pitanje je i je li umjetna inteligencija donijela neku odluku ili neki matematički algoritam. Osim autonomnih vozila, ima i drugih pitanja. Primjerice, upotreba AI u medicini. Mi u Hrvatskoj nismo u stanju kazniti liječnika koji je krivo liječio, a kamoli da utvrdimo da je AI nešto krivo napravio.
Što ako, primjerice, u nekom pravnom slučaju ChatGPT napiše krivi ugovor ili izradi pravno mišljenje koje će prouzročiti štetu.
Tko je kriv? Vi možete na portalu angažirati AI da moderira komentare. Ako mu promakne govor mržnje ili prijetnja koja se kasnije materijalizira, tko će biti kriv?
U našem domaćem kontekstu, imamo problem i što naši sudovi u pravilu nemaju dovoljno specijalizacije za sofisticirani kriminal, primjerice neki složeni gospodarski kriminal ili složene pravne poteze. Svaka aktivnost može biti zakonita, a ukupno su one nezakonite, pa već kod njihovog sankcioniranja imamo problema. Sad pak ulazimo u zonu koju treba pokriti i zaštititi se od nezakonite ili štetne uporabe AI, ali će biti iznimno komplicirano to dokazati.
Tko će biti sudski vještak koji će reći da je AI bio taj koji je donio krivu odluku? Možda je liječnik upisao neku krivu vrijednost pa je AI izradio krivu terapiju. Tko je tu pogriješio - AI ili liječnik par koraka ranije? To su jako teška pitanja", zaključio je Rakar.