Retour au glossaire Sécurité

Confidentialité différentielle

Cadre mathématique permettant aux systèmes IA d'apprendre à partir de jeux de données tout en offrant des garanties formelles pour protéger la vie privée individuelle.

Qu'est-ce que la confidentialité différentielle ?

La confidentialité différentielle (CD) est un cadre mathématiquement rigoureux pour quantifier et limiter le risque de vie privée dans le traitement des données. Un algorithme est différentiellement privé si sa sortie ne change pas significativement selon qu'un individu particulier est inclus dans le jeu de données ou non. Cela signifie qu'un attaquant observant la sortie de l'algorithme ne peut pas obtenir de connaissance significative sur la présence d'un individu.

Applications dans l'entraînement IA

La CD est appliquée aux processus d'entraînement IA en ajoutant du bruit soigneusement calibré aux gradients pendant l'entraînement. Cela empêche le modèle de mémoriser avec précision des points de données d'entraînement individuels. Le compromis est l'utilité du modèle : plus de confidentialité nécessite plus de bruit, ce qui réduit les performances.

Applications en entreprise

La confidentialité différentielle permet aux entreprises de publier des résultats analytiques et d'entraîner des modèles sur des données sensibles sans risquer de violer les réglementations sur la vie privée. Les cas d'usage incluent : analyses salariales avec confidentialité, recherche médicale avec garanties de confidentialité des patients.