Wróć do słownika Bezpieczeństwo

Differential privacy (prywatność różnicowa)

Matematyczna metoda ochrony prywatności danych osobowych w zbiorach treningowych i wynikach modeli AI.

Czym jest differential privacy?

Prywatność różnicowa (differential privacy) to matematycznie udowodniona technika ochrony prywatności, która gwarantuje, że wyniki analizy danych nie ujawnią informacji o żadnym konkretnym jednostkowym rekordzie. Osiąga się to przez dodanie kontrolowanego szumu statystycznego do danych lub wyników zapytań. Formalna definicja zapewnia, że obecność lub brak dowolnego pojedynczego rekordu w zbiorze danych ma minimalny wpływ na wynik — parametr epsilon (ε) określa poziom ochrony.

Zastosowania w AI

W kontekście uczenia maszynowego differential privacy stosuje się podczas treningu modeli (DP-SGD), agregacji danych z wielu źródeł, uczenia federacyjnego oraz generowania syntetycznych datasetów. Technika ta pozwala organizacjom trenować modele na wrażliwych danych — medycznych, finansowych, osobowych — bez ryzyka wycieku informacji o konkretnych osobach, nawet wobec zaawansowanych ataków rekonstrukcji.

Wdrożenie w przedsiębiorstwie

Implementacja wymaga kompromisu między prywatnością a dokładnością modelu (privacy-utility tradeoff). Niższe epsilon oznacza lepszą ochronę, ale potencjalnie niższą jakość predykcji. Organizacje powinny dobrać parametry w zależności od wrażliwości danych i wymogów regulacyjnych. Differential privacy jest uznawana przez RODO i AI Act jako jedna z rekomendowanych technik ochrony prywatności w systemach AI.