Novi regulatorni okvir za AI u Europi
AI Act je prvi sveobuhvatni zakon o umjetnoj inteligenciji na svijetu — europski regulatorni okvir koji klasificira AI sustave prema razini rizika i nameće konkretne obveze njihovim kreatorima i korisnicima. Tvrtke koje razvijaju ili koriste AI moraju razumjeti što im nova regulativa donosi.
Za razliku od GDPR-a koji se fokusira na osobne podatke, AI Act regulira same AI sustave — njihov razvoj, stavljanje na tržište i upotrebu. Opseg je iznimno širok: od preprostih filtara neželjene pošte do naprednih sustava za prepoznavanje lica ili kreditno ocjenjivanje.
Četiri razine rizika
AI Act dijeli AI sustave u četiri kategorije:
- Neprihvatljivi rizik (zabranjeni) — AI sustavi koji ugrožavaju temeljne vrijednosti: socijalni bodovni sustavi za javne vlasti, određeni sustavi prepoznavanja emocija, manipulativni AI.
- Visoki rizik — zahtijeva stroge zahtjeve prije stavljanja na tržište. Uključuje AI u HR-u (selekcija kandidata), kreditnom ocjenjivanju, medicinskoj dijagnostici, kritičnoj infrastrukturi.
- Ograničeni rizik — obveze transparentnosti: chatboti moraju obavijestiti korisnike da razgovaraju s AI-jem.
- Minimalni rizik — bez dodatnih zahtjeva (npr. filteri neželjene pošte, preporučiteljski sustavi).
Obveze za sustave visokog rizika
Većina enterprise AI primjena — HR, kreditno ocjenjivanje, medicinsku dijagnostiku, upravljanje kritičnom infrastrukturom — svrstat će se u kategoriju visokog rizika. Zahtjevi uključuju:
- Upravljanje kvalitetom podataka — trening podaci moraju biti reprezentativni, bez diskriminatornih uzoraka
- Tehničku dokumentaciju — detaljna dokumentacija sustava dostupna regulatorima
- Transparentnost — korisnici moraju biti obaviješteni da interagiraju s AI sustavom
- Ljudski nadzor — mehanizmi koji čovjeku omogućuju praćenje, ispravak i zaustavljanje AI sustava
- Točnost i robusnost — kontinuirano praćenje performansi i točnosti
Priprema organizacije
Prv korak je inventarizacija AI sustava — popis svih AI rješenja koja organizacija koristi ili razvija i njihova klasifikacija prema AI Act kategorijama. Za sustave visokog rizika potrebno je provesti gap analizu između trenutnih praksi i zahtjeva regulative.
Ključni elementi pripreme: uspostava governance framework-a za AI, imenovanje AI Officer uloge, implementacija procesa za procjenu rizika novih AI inicijativa, i priprema tehničke dokumentacije. ESKOM.AI nudi audit AI usklađenosti koji organizacijama pomaže razumjeti trenutnu poziciju i izraditi plan prilagodbe.
Vremenski okviri i sankcije
AI Act stupa na snagu postupno — zabranjene prakse od 2024., zahtjevi za visokorizične sustave do 2026. Sankcije su značajne: do 35 milijuna EUR ili 7% globalnog godišnjeg prometa za kršenje zabrana, do 15 milijuna EUR ili 3% za ostale povrede. Kao i s GDPR-om — troškovi neprilagodbe daleko nadmašuju troškove usklađivanja.