Wróć do słownika Enterprise & Governance

Wyjaśnialna AI (XAI)

Techniki umożliwiające zrozumienie, dlaczego model AI podjął daną decyzję — kluczowe dla zaufania, audytu i zgodności z AI Act.

Czym jest wyjaśnialna AI?

Wyjaśnialna AI (ang. Explainable AI, XAI) to zbiór technik pozwalających zrozumieć i wytłumaczyć, dlaczego model AI podjął określoną decyzję. W odróżnieniu od "czarnej skrzynki", XAI daje wgląd w proces rozumowania modelu.

Dlaczego AI Act wymaga wyjaśnialności?

Rozporządzenie AI Act (art. 13) nakłada na systemy wysokiego ryzyka obowiązek "przejrzystości" — użytkownik musi rozumieć, jak system podjął decyzję. Dotyczy to np. systemów oceny kredytowej, rekrutacji, diagnostyki medycznej. Brak wyjaśnialności = niezgodność regulacyjna.

Techniki XAI

SHAP (Shapley Additive Explanations) — pokazuje wkład każdej cechy w decyzję. LIME (Local Interpretable Model-agnostic Explanations) — lokalne przybliżenie modelu prostszym, interpretowalnym modelem. Attention maps — wizualizacja, na co model "patrzył" w danych wejściowych. Chain of Thought — jawne rozumowanie krok po kroku (dla modeli generatywnych).