Späť na slovník Bezpečnosť

Klasifikácia rizika AI Act

EU AI Act klasifikuje AI systémy do styroch úrovní rizika — neprijatelné, vysoké, obmedzené a minimálne — každá s konkrétnymi regulacnymi požiadavkami.

Štyri úrovne rizika

EU AI Act zavádza systém klasifikácie rizík pre AI aplikácie. Systémy s neprijatelnym rizikom su uplne zakázané, vrátane sociálneho scoringu vládami. Vysoko rizikové systémy celia prísnym požiadavkám a zahrnuju AI pouzívané v kritickej infrastruktúre, vzdelávaní, zamestnaní, esenciálnych sluzbách, zdravotníctve a bezpecnostnych praktiach. Systémy s obmedzeným rizikom musia spnlat povinnosti transparentnosti.

Kritériá klasifikácie vysokého rizika

AI systém je klasifikovaný ako vysoko rizikový, ak patrí do specifickych kategórií prípadov pouzitia definovaných v prílohe III nariadenia alebo ak je bezpecnostnou komponentou produktu zahrnutého existujucimi predpismi EU o harmonizácii. Vysoko rizikové systémy musia implementovat systém riadenia rizík, udrzovat vysoko kvalitné trenovacie data, poskytovat technickú dokumentáciu a zabezpecit transparentnost a ludský dohlaD.

Podniková stratégia zhody

Organizácie by mali zacal vykonaním komplexnej inventarizácie vsetkych AI systémov a mapovaním každého do príslušnej kategórie rizika. Pre vysoko rizikové systémy zridte rámce zhody riesace všetky povinné požiadavky.