Zurück zum Glossar Enterprise & Governance

KI-Bias

Systematische Vorurteile in KI-Modellausgaben aufgrund ungleicher Trainingsdaten — Diskriminierungsrisiko und regulatorische Nichtkonformität.

Was ist KI-Bias?

KI-Bias ist systematische, ungerechtfertigte Bevorzugung oder Diskriminierung bestimmter Gruppen durch ein KI-Modell. Bias entsteht durch Ungleichheiten in Trainingsdaten, Labeling-Fehler oder Designannahmen der Ersteller.

Arten von Bias

Daten-Bias — der Trainingsdatensatz repräsentiert nicht alle Gruppen gleich. Algorithmischer Bias — die Modellarchitektur verstärkt bestehende Ungleichheiten. Deployment-Bias — das System wird in Kontexten verwendet, für die es nicht konzipiert war. Bestätigungs-Bias — das Modell verstärkt bestehende Überzeugungen des Benutzers.

Regulatorische Anforderungen

Der AI Act verlangt Bias-Bewertung und -Minimierung für Hochrisikosysteme (Art. 10 — Datenqualität und Repräsentativität). Unternehmen müssen dokumentieren: Zusammensetzung des Trainingsdatensatzes, Fairness-Metriken, Bias-Testverfahren und Korrekturmechanismen.

Verwandte Dienstleistungen und Produkte