Co je vysvětlitelná AI?
Vysvětlitelná AI (XAI) je soubor technik pro pochopení a vysvětlení, proč AI model učinil konkrétní rozhodnutí. Na rozdíl od „černé skříňky" XAI poskytuje vhled do procesu uvažování modelu.
Proč AI Act vyžaduje vysvětlitelnost?
AI Act (čl. 13) nařizuje „transparentnost" pro vysoce rizikové systémy — uživatelé musí rozumět, jak systém dospěl ke svému rozhodnutí. Platí pro kreditní scoring, nábor, lékařskou diagnostiku. Nedostatek vysvětlitelnosti = nesoulad s regulací.
Techniky XAI
SHAP — ukazuje příspěvek každé vlastnosti k rozhodnutí. LIME — lokální aproximace jednodušším, interpretovatelným modelem. Attention maps — vizualizace toho, na co se model „díval" ve vstupních datech. Chain of Thought — explicitní krokové uvažování pro generativní modely.