Zpět na blog Bezpečnost

AI Act v praxi — Co musí každý podnik nasazující AI vědět

Zespół ESKOM.AI 2026-04-15 Doba čtení: 8 min

AI Act — nová regulační realita

Evropská unie se stala první jurisdikcí na světě, která vytvořila komplexní regulaci umělé inteligence. AI Act vstoupil v platnost v srpnu 2024 a je uplatňován postupně — první povinnosti jsou již vynutitelné, přičemž další požadavky jsou zaváděny v průběhu let 2025–2027. Každý podnik nasazující AI systémy ve svém provozu v EU se musí s těmito pravidly seznámit.

AI Act umělou inteligenci nezakazuje — reguluje ji na základě přístupu zahrnujícího posouzení rizik. Čím vyšší riziko, tím přísnější požadavky. Většina obchodních aplikací AI spadá do kategorií nízkého nebo omezeného rizika, což znamená relativně lehké povinnosti. Existují však oblasti, kde jsou požadavky velmi přísné.

Klasifikace rizik AI systémů

AI Act rozděluje AI systémy do čtyř kategorií rizika:

  • Nepřijatelné riziko (zakázané) — systémy manipulující lidským chováním pod prahem vědomí, sociální scoring ze strany úřadů, biometrický dohled v reálném čase (s výjimkami). Tyto systémy jsou jednoduše zakázány.
  • Vysoké riziko — AI používaná při náboru, kreditním scoringu, zdravotní péči, vzdělávání, správě spravedlnosti a kritické infrastruktuře. Nejpřísnější požadavky: dokumentace, testování, transparentnost, lidský dohled a registrace v databázi EU.
  • Omezené riziko — chatboty, deepfaky, systémy generující obsah. Povinnost transparentnosti: uživatel musí vědět, že interaguje s AI.
  • Minimální riziko — většina obchodních AI aplikací: spamové filtry, produktová doporučení, automatizace interních procesů. Minimální nebo žádné další povinnosti.

Kdo je poskytovatelem a kdo provozovatelem AI systému?

AI Act rozlišuje dvě klíčové role. Poskytovatel je subjekt, který vytváří a uvádí AI systém na trh. Provozovatel je subjekt, který AI systém používá ve svém podnikání. Povinnosti se pro každou roli liší — poskytovatelé čelí přísnějším požadavkům na technickou dokumentaci a certifikaci.

Firma, která si kupuje hotové AI řešení od poskytovatele a používá ho pro vlastní procesy, je provozovatel. Firma, která model přizpůsobuje nebo dolaďuje pro vlastní aplikace, se může stát poskytovatelem se všemi z toho plynoucími důsledky.

Povinnosti provozovatelů vysoce rizikových systémů

Pokud vaše firma používá vysoce rizikový AI systém (např. scoringový systém při úvěrových rozhodnutích, nástroj pro předběžné třídění životopisů, diagnostický podpůrný systém ve zdravotnictví), musíte:

  • Zajistit lidský dohled nad rozhodnutími AI systému
  • Udržovat provozní logy po dobu nejméně 6 měsíců
  • Provést posouzení dopadů na základní práva (FRIA)
  • Informovat zaměstnance o AI systémech, které je ovlivňují
  • Hlásit závažné incidenty a poruchy příslušnému dozorovému orgánu

Sankce a časové harmonogramy

Sankce za porušení AI Actu jsou přísné: až 35 milionů EUR nebo 7 % globálního ročního obratu za porušení týkající se zakázaných systémů. Až 15 milionů EUR nebo 3 % obratu za ostatní porušení. Časové harmonogramy jsou rozloženy — zákazy nepřijatelných systémů platí od roku 2025, zatímco požadavky na vysoce rizikové systémy se uplatňují od let 2026–2027.

Jak ESKOM.AI podporuje soulad s AI Act

ESKOM.AI pomáhá organizacím připravit se na požadavky AI Actu. Nabízíme audity stávajících AI systémů pro klasifikaci rizik, vývoj technické dokumentace, implementaci mechanismů lidského dohledu a protokolování a školení pro compliance týmy. Každé nové nasazení AI, které dodáváme, je navrženo s ohledem na soulad s AI Actem od prvního dne.

#AI Act #EU regulation #compliance #risk classification #governance