Torna al glossario Sicurezza

Privacy Differenziale

Framework matematico che consente ai sistemi IA di imparare dai dataset offrendo garanzie formali per proteggere la privacy individuale.

Cos'è la Privacy Differenziale?

La privacy differenziale (PD) è un framework matematicamente rigoroso per quantificare e limitare il rischio di privacy nell'elaborazione dei dati. Un algoritmo è differenzialmente privato se il suo output non cambia significativamente a seconda che un individuo particolare sia incluso nel dataset o meno. Ciò significa che un attaccante che osserva l'output dell'algoritmo non può ottenere conoscenza significativa sulla presenza di un individuo.

Applicazioni nell'Addestramento IA

La PD viene applicata ai processi di addestramento IA aggiungendo rumore attentamente calibrato ai gradienti durante l'addestramento. Questo impedisce al modello di memorizzare con precisione singoli punti dati di addestramento. Il compromesso è l'utilità del modello: più privacy richiede più rumore, riducendo le prestazioni del modello.

Applicazioni Aziendali

La privacy differenziale consente alle aziende di pubblicare risultati analitici e addestrare modelli su dati sensibili senza rischiare violazioni delle normative sulla privacy. I casi d'uso includono: analisi salariali con privacy, ricerca sanitaria con garanzie di privacy dei pazienti e analisi del comportamento degli utenti.