Torna al glossario Enterprise e Governance

IA spiegabile (XAI)

Tecniche che consentono di comprendere perché un modello IA ha preso una determinata decisione — fondamentale per fiducia, audit e conformità all'AI Act.

Cos'è l'IA spiegabile?

L'IA spiegabile (XAI) è un insieme di tecniche per comprendere e spiegare perché un modello IA ha preso una decisione specifica. A differenza di una «scatola nera», XAI fornisce visibilità sul processo di ragionamento del modello.

Perché l'AI Act richiede la spiegabilità?

L'AI Act (Art. 13) impone «trasparenza» per i sistemi ad alto rischio — gli utenti devono capire come il sistema è arrivato alla sua decisione. Questo si applica al credit scoring, al reclutamento, alla diagnostica medica. Mancanza di spiegabilità = non conformità normativa.

Tecniche XAI

SHAP — mostra il contributo di ciascuna variabile alla decisione. LIME — approssimazione locale con un modello più semplice e interpretabile. Mappe di attenzione — visualizzazione di ciò che il modello ha «guardato» nei dati di input. Chain of Thought — ragionamento esplicito passo dopo passo per modelli generativi.