Späť na slovník Podnikové riadenie a governance

Vysvetliteľná AI (XAI)

Techniky umožňujúce pochopiť, prečo AI model urobil dané rozhodnutie — kľúčové pre dôveru, audit a súlad s AI Act.

Čo je vysvetliteľná AI?

Vysvetliteľná AI (XAI) je súbor techník na pochopenie a vysvetlenie, prečo AI model urobil konkrétne rozhodnutie. Na rozdiel od „čiernej skrinky" XAI poskytuje vhľad do procesu uvažovania modelu.

Prečo AI Act vyžaduje vysvetliteľnosť?

AI Act (čl. 13) nariaďuje „transparentnosť" pre vysoko rizikové systémy — používatelia musia rozumieť, ako systém dospel k svojmu rozhodnutiu. Platí pre kreditný scoring, nábor, lekársku diagnostiku. Nedostatok vysvetliteľnosti = nesúlad s reguláciou.

Techniky XAI

SHAP — ukazuje príspevok každej vlastnosti k rozhodnutiu. LIME — lokálna aproximácia jednoduchším, interpretovateľným modelom. Attention maps — vizualizácia toho, na čo sa model „pozeral" vo vstupných dátach. Chain of Thought — explicitné krokové uvažovanie pre generatívne modely.