Čo je vysvetliteľná AI?
Vysvetliteľná AI (XAI) je súbor techník na pochopenie a vysvetlenie, prečo AI model urobil konkrétne rozhodnutie. Na rozdiel od „čiernej skrinky" XAI poskytuje vhľad do procesu uvažovania modelu.
Prečo AI Act vyžaduje vysvetliteľnosť?
AI Act (čl. 13) nariaďuje „transparentnosť" pre vysoko rizikové systémy — používatelia musia rozumieť, ako systém dospel k svojmu rozhodnutiu. Platí pre kreditný scoring, nábor, lekársku diagnostiku. Nedostatok vysvetliteľnosti = nesúlad s reguláciou.
Techniky XAI
SHAP — ukazuje príspevok každej vlastnosti k rozhodnutiu. LIME — lokálna aproximácia jednoduchším, interpretovateľným modelom. Attention maps — vizualizácia toho, na čo sa model „pozeral" vo vstupných dátach. Chain of Thought — explicitné krokové uvažovanie pre generatívne modely.