Torna al glossario Enterprise e Governance

Bias IA

Pregiudizi sistematici negli output dei modelli IA derivanti da dati di addestramento sbilanciati — rischio di discriminazione e non conformità normativa.

Cos'è il bias IA?

Il bias IA è un favoritismo o una discriminazione sistematica e ingiustificata verso determinati gruppi da parte di un modello IA. Il bias deriva da disuguaglianze nei dati di addestramento, errori di etichettatura o assunzioni progettuali dei creatori.

Tipi di bias

Bias dei dati — il dataset di addestramento non rappresenta equamente tutti i gruppi. Bias algoritmico — l'architettura del modello amplifica le disuguaglianze esistenti. Bias di deployment — il sistema viene utilizzato in contesti per cui non è stato progettato. Bias di conferma — il modello rafforza le convinzioni esistenti dell'utente.

Requisiti normativi

L'AI Act richiede valutazione e minimizzazione del bias per i sistemi ad alto rischio (Art. 10 — qualità e rappresentatività dei dati). Le aziende devono documentare: composizione del dataset di addestramento, metriche di equità, procedure di test del bias e meccanismi correttivi.