Cos'è il bias IA?
Il bias IA è un favoritismo o una discriminazione sistematica e ingiustificata verso determinati gruppi da parte di un modello IA. Il bias deriva da disuguaglianze nei dati di addestramento, errori di etichettatura o assunzioni progettuali dei creatori.
Tipi di bias
Bias dei dati — il dataset di addestramento non rappresenta equamente tutti i gruppi. Bias algoritmico — l'architettura del modello amplifica le disuguaglianze esistenti. Bias di deployment — il sistema viene utilizzato in contesti per cui non è stato progettato. Bias di conferma — il modello rafforza le convinzioni esistenti dell'utente.
Requisiti normativi
L'AI Act richiede valutazione e minimizzazione del bias per i sistemi ad alto rischio (Art. 10 — qualità e rappresentatività dei dati). Le aziende devono documentare: composizione del dataset di addestramento, metriche di equità, procedure di test del bias e meccanismi correttivi.