Terug naar woordenlijst Enterprise & Governance

AI-bias

Systematische vooroordelen in AI-modeluitvoer als gevolg van ongelijke trainingsdata — discriminatierisico en niet-naleving van regelgeving.

Wat is AI-bias?

AI-bias is systematische, ongerechtvaardigde bevoordeling of discriminatie van specifieke groepen door een AI-model. Bias komt voort uit ongelijkheden in trainingsdata, fouten bij labeling of ontwerpkeuzes van makers.

Soorten bias

Databias — trainingsset vertegenwoordigt niet alle groepen gelijkwaardig. Algoritmische bias — modelarchitectuur versterkt bestaande ongelijkheden. Implementatiebias — systeem wordt gebruikt in contexten waarvoor het niet is ontworpen. Bevestigingsbias — model versterkt bestaande overtuigingen van de gebruiker.

Regelgevingsvereisten

De AI Act vereist biasbeoordeling en -minimalisering voor hoog-risicosystemen (Art. 10 — datakwaliteit en representativiteit). Bedrijven moeten documenteren: samenstelling van de trainingsset, fairnessmetrieken, biastestprocedures en corrigerende mechanismen.

Gerelateerde diensten en producten