Wróć do słownika Enterprise & Governance

Stronniczość AI (AI Bias)

Systematyczne uprzedzenia w wynikach modeli AI wynikające z nierównych danych treningowych — ryzyko dyskryminacji i niezgodności regulacyjnej.

Czym jest bias AI?

Stronniczość AI (ang. AI bias) to systematyczne, nieuzasadnione faworyzowanie lub dyskryminowanie określonych grup przez model sztucznej inteligencji. Bias wynika z nierówności w danych treningowych, błędów w etykietowaniu lub założeń projektowych twórców modelu.

Rodzaje biasu

Bias danych — zbiór treningowy nie reprezentuje równo wszystkich grup (np. CV głównie mężczyzn → model preferuje mężczyzn). Bias algorytmiczny — architektura modelu wzmacnia istniejące nierówności. Bias wdrożeniowy — system stosowany w kontekście, do którego nie był zaprojektowany. Bias potwierdzenia — model wzmacnia istniejące przekonania użytkownika.

Wymogi regulacyjne

AI Act wymaga oceny i minimalizacji biasu dla systemów wysokiego ryzyka (art. 10 — jakość i reprezentatywność danych). Firmy muszą dokumentować: skład zbiorów treningowych, metryki fairness (równość szans, parytety demograficzne), procedury testowania biasu i mechanizmy korygujące.