Zpět na slovník Podnikové řízení a governance

Vysvětlitelná AI (XAI)

Techniky umožňující pochopit, proč AI model učinil dané rozhodnutí — klíčové pro důvěru, audit a soulad s AI Act.

Co je vysvětlitelná AI?

Vysvětlitelná AI (XAI) je soubor technik pro pochopení a vysvětlení, proč AI model učinil konkrétní rozhodnutí. Na rozdíl od „černé skříňky" XAI poskytuje vhled do procesu uvažování modelu.

Proč AI Act vyžaduje vysvětlitelnost?

AI Act (čl. 13) nařizuje „transparentnost" pro vysoce rizikové systémy — uživatelé musí rozumět, jak systém dospěl ke svému rozhodnutí. Platí pro kreditní scoring, nábor, lékařskou diagnostiku. Nedostatek vysvětlitelnosti = nesoulad s regulací.

Techniky XAI

SHAP — ukazuje příspěvek každé vlastnosti k rozhodnutí. LIME — lokální aproximace jednodušším, interpretovatelným modelem. Attention maps — vizualizace toho, na co se model „díval" ve vstupních datech. Chain of Thought — explicitní krokové uvažování pro generativní modely.