Was ist KI-Bias?
KI-Bias ist systematische, ungerechtfertigte Bevorzugung oder Diskriminierung bestimmter Gruppen durch ein KI-Modell. Bias entsteht durch Ungleichheiten in Trainingsdaten, Labeling-Fehler oder Designannahmen der Ersteller.
Arten von Bias
Daten-Bias — der Trainingsdatensatz repräsentiert nicht alle Gruppen gleich. Algorithmischer Bias — die Modellarchitektur verstärkt bestehende Ungleichheiten. Deployment-Bias — das System wird in Kontexten verwendet, für die es nicht konzipiert war. Bestätigungs-Bias — das Modell verstärkt bestehende Überzeugungen des Benutzers.
Regulatorische Anforderungen
Der AI Act verlangt Bias-Bewertung und -Minimierung für Hochrisikosysteme (Art. 10 — Datenqualität und Repräsentativität). Unternehmen müssen dokumentieren: Zusammensetzung des Trainingsdatensatzes, Fairness-Metriken, Bias-Testverfahren und Korrekturmechanismen.