Akt EU - donesen prvi pravni okvir za umjetnu inteligenciju

Naslanjajući se na svoju digitalnu strategiju Europska unija (Parlament i Vijeće od 14. 3. 2024.) je, prva u svijetu, pristupila reguliranju umjetne inteligencije (UI) donošenjem Akta o umjetnoj inteligenciji kojim se klasificiraju sustavi prema riziku te utvrđuju:

(a) zabrane određenih praksi u području umjetne inteligencije;

(b) posebni zahtjevi za visokorizične sustave UI i obveze za operatere takvih sustava;

(c) usklađena pravila o transparentnosti za sustave UI namijenjene za interakciju s pojedincima, sustave za prepoznavanje emocija i sustave za biometrijsku kategorizaciju te sustave UI za generiranje slikovnog, audio i video sadržaja te manipuliranje njime;

(d) pravila o praćenju i nadzoru tržišta.

Aktom se utvrđuju pravila za dobavljače i korisnike sustava ovisno o riziku, a posebno se smatraju rizičnima oni koji mogu biti prijetnja ljudima i takvi sustavi bit će zabranjeni;

  • kognitivno bihevioralno manipuliranje osobama, posebno djecom i ranjivim skupinama (primjerice glasovna aktivacija igračaka koje potiču opasno ponašanje),
  • klasifikacija i bodovanje ljudi na temelju ponašanja, socijalnog i ekonomskog statusa ili osobnih obilježja (primjerice klasifikacija na temelju kupovne moći),
  • biometrijska identifikacija i kategorizacija fizičkih osoba u stvarnom vremenu ili daljinski sustavi identifikacije (primjerice na osnovu prepoznavanja lica).

Od ovih slučajeva zabrane postoje određene iznimke, primjerice biometrijska identifikacija može biti dopuštena uz odobrenje suda kod počinjenja teških kaznenih djela. Visokorizični slučajevi su oni koji negativno utječu na sigurnost i temeljna prava te su podijeljeni u dvije kategorije: 1. sustavi koji će koristiti u proizvodima (igračke, automobili, zrakoplovstvo, medicina itd.) i 2. sustavi za upravljanje infrastrukturom (javne usluge, komunalije, obrazovanje, migracije itd.).

Generativna umjetna inteligencija (primjerice ChatGPT) neće biti visokorizična, ali će stvoreni sadržaj morati imati oznaku da je generiran pomoću UI, morat će imati modele da spriječi nezakoniti sadržaj te će morati imati oznake oko autorskih prava. Napredni modeli koji generiraju slike, audio ili videozapis moraju osigurati označavanje uradaka kako bi korisnici toga bili svjesni.

ZABRANJENA PRAKSA

Zabranjuje se stavljanje na tržište, stavljanje u uporabu ili korištenje sustava UI u kojem se primjenjuju subliminalne tehnike zbog kojih osoba nesvjesno bitno mijenja svoje ponašanje na način koji toj ili drugoj osobi uzrokuje ili bi mogao prouzročiti tjelesnu ili psihološku štetu. Također se zabranjuje stavljanje na tržište, stavljanje u uporabu ili korištenje sustava UI koji iskorištava bilo koju slabost određene skupine osoba zbog njihove dobi ili tjelesnog ili mentalnog oštećenja radi bitnog mijenjanja ponašanja osobe koja pripada toj skupini na način koji toj ili drugoj osobi uzrokuje ili bi mogao uzrokovati tjelesnu ili psihološku štetu.

Zabranjuje se stavljanje na tržište ili korištenje sustava UI tijelima javne vlasti ili u njihovo ime u svrhu vrednovanja ili klasifikacije vjerodostojnosti pojedinaca u određenom razdoblju na temelju njihova društvenog ponašanja ili poznatih ili predviđenih osobnih obilježja ili obilježja osobnosti te se  zabranjuje uporaba sustava za daljinsku biometrijsku identifikaciju u stvarnom vremenu na javnim mjestima za potrebe kaznenog progona, osim ako i u mjeri u kojoj je takvo korištenje nužno.

OBAVEZE TRANSPARENTNOSTI

Dobavljači sustava UI koji su namijenjeni interakciji s pojedincima moraju biti osmišljeni i razvijeni tako da pojedinci budu svjesni da su u interakciji sa sustavom UI, osim ako je to očito iz okolnosti i konteksta uporabe. Ta se obveza ne primjenjuje na sustave UI koji su zakonski odobreni za otkrivanje, sprečavanje, istragu i progon kaznenih djela, osim ako su ti sustavi dostupni javnosti za prijavu kaznenog djela.

Korisnici sustava za prepoznavanje emocija ili sustava za biometrijsku kategorizaciju informiraju pojedince koji su izloženi tom sustavu o njegovu radu. Ta se obveza ne primjenjuje na sustave UI za biometrijsku kategorizaciju koji su zakonski dopušteni za otkrivanje, sprečavanje i istragu kaznenih djela.

Korisnici sustava UI koji stvara ili manipulira slikovnim, audio ili video sadržajem, u kojem postoji znatna sličnost s postojećim osobama, predmetima, mjestima ili drugim subjektima ili događajima te koji bi se nekoj osobi netočno činio vjerodostojnim ili istinitim (engl. deep fake) moraju navesti da je taj sadržaj umjetno stvoren ili da je njime manipulirano. 

OSOBNI PODACI

Osobni podaci koji su zakonito prikupljeni u druge svrhe u regulatornom izoliranom okruženju za umjetnu inteligenciju obrađuju se za potrebe razvoja i testiranja određenih inovativnih sustava UI od znatnog javnog interesa u jednom ili više područja kao što su: sprečavanje, istraga, otkrivanje ili progon kaznenih djela ili izvršavanje kaznenopravnih sankcija, uključujući zaštitu od prijetnji javnoj sigurnosti i njihovo sprečavanje, pod kontrolom i odgovornošću nadležnih tijela i to javno zdravlje, uključujući sprečavanje, kontrolu i liječenje bolesti, visoka razina zaštite i poboljšanja kvalitete okoliša.

Svi osobni podaci koji se obrađuju u izoliranom okruženju nalaze se u funkcionalno odvojenom, izoliranom i zaštićenom okruženju za obradu podataka pod kontrolom sudionika i samo ovlaštene osobe imaju pristup tim podacima.

KODEKSI PONAŠANJA

Potiče se i olakšava izrada kodeksa ponašanja namijenjenih poticanju da se na sustave UI dobrovoljno primjenjuju zahtjevi koji se odnose primjerice na okolišnu održivost, pristupačnost za osobe s invaliditetom, sudjelovanje dionika u projektiranju i razvoju sustava UI te raznolikost razvojnih timova na temelju jasnih ciljeva i ključnih pokazatelja uspješnosti za mjerenje ostvarenja tih ciljeva.

Kodekse ponašanja mogu sastavljati pojedinačni dobavljači sustava UI i/ili organizacije koje ih zastupaju, među ostalim uz sudjelovanje korisnika i svih zainteresiranih dionika i njihovih predstavničkih organizacija. Kodeksi ponašanja mogu obuhvaćati jedan ili više sustava UI uzimajući u obzir sličnost namjene relevantnih sustava.

SANKCIJE I KAZNE

Države članice utvrđuju pravila o sankcijama, uključujući upravne novčane kazne, koja se primjenjuju na povrede Uredbe i poduzimaju sve potrebne mjere kako bi osigurale njihovu pravilnu i djelotvornu provedbu.

Za nepoštovanje zabrane praksi u području umjetne inteligencije poslovnim subjektima izriču se upravne novčane kazne u najvećem iznosu do 30 milijuna eura ili 6 % njihovog ukupnog godišnjeg prometa na svjetskoj razini za prethodnu financijsku godinu, ovisno o tome koji je iznos veći. Kazne za druge povrede su manje (2-4 % ukupnog godišnjeg prometa).

AUTORSKA PRAVA

Već su pokrenuti brojni sudski sporovi (kako u EU tako i u SAD-u) od strane zainteresiranih kreatora pojedinih autorskih djela (primjerice fotografije ili teksta) zbog neovlaštenog korištenja autorskih uradaka u primjeni alata UI. Uredbom se nije dalo konkretne odgovore na pitanja korištenja autorskih djela u primjeni sustava umjetne inteligencije i u tijeku su mnogobrojne rasprave oko uređivanja autorskih prava kako na korištenje djela autorske naravi pri primjeni sustava tako i korištenju uradaka sustava umjetne inteligencije. Tendencija je, uz brojne iznimke (rudarenje, arhiviranje, obrazovanje, sudstvo, istraživanje, znanost...) da se djela stvorena alatima UI svrstaju u javnu domenu.

Parlament i Komisija usuglasili su da dogovoreni Akt bude u potpunosti primijenjen 24 mjeseca nakon usvajanja (po objavi u Službenom listu EU), a neki dijelovi primjenjivat će se i ranije (primjerice sustavi s neprihvatljivim rizikom nakon 6 mjeseci i sustavi opće namjene nakon 12 mjeseci). Zanimljivo je kako će građani moći podnijeti pritužbe na sustave UI određenim nacionalnim tijelima koja trebaju formirati države članice EU. 

Autori: Kamilo Antolović, Mario Fraculj i Vanja Šebek, Sveučilište Algebra, Zagreb

PS/SM

Podjeli:
Tagovi:

Hosted by Mydataknox