Cztery poziomy ryzyka
AI Act wprowadza piramidę klasyfikacji ryzyka systemów AI: niedopuszczalne (zakazane), wysokie, ograniczone i minimalne. Systemy o niedopuszczalnym ryzyku — social scoring, manipulacja podprogowa, zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej (z wyjątkami) — są całkowicie zakazane. Każdy kolejny poziom nakłada proporcjonalnie mniejsze wymagania.
Systemy wysokiego ryzyka
Kategoria ta obejmuje systemy AI stosowane w krytycznych sektorach: infrastruktura krytyczna, edukacja, rekrutacja, dostęp do usług publicznych, egzekwowanie prawa, zarządzanie migracją i wymiar sprawiedliwości. Wymagania obejmują: system zarządzania ryzykiem, zarządzanie danymi treningowymi, dokumentację techniczną, rejestrowanie zdarzeń (logi), transparentność, nadzór ludzki, dokładność i cyberbezpieczeństwo. Przed wprowadzeniem na rynek wymagana jest ocena zgodności.
Praktyczne implikacje
Organizacje muszą przeprowadzić klasyfikację każdego swojego systemu AI i wdrożyć odpowiednie środki. Systemy o ograniczonym ryzyku (np. chatboty) wymagają jedynie transparentności — informowania użytkownika o interakcji z AI. Systemy o minimalnym ryzyku (filtry spamu, rekomendacje) nie podlegają dodatkowym obowiązkom. Właściwa klasyfikacja na wczesnym etapie projektowania oszczędza czas i koszty dostosowania do regulacji.