Cos'è la Privacy Differenziale?
La privacy differenziale (PD) è un framework matematicamente rigoroso per quantificare e limitare il rischio di privacy nell'elaborazione dei dati. Un algoritmo è differenzialmente privato se il suo output non cambia significativamente a seconda che un individuo particolare sia incluso nel dataset o meno. Ciò significa che un attaccante che osserva l'output dell'algoritmo non può ottenere conoscenza significativa sulla presenza di un individuo.
Applicazioni nell'Addestramento IA
La PD viene applicata ai processi di addestramento IA aggiungendo rumore attentamente calibrato ai gradienti durante l'addestramento. Questo impedisce al modello di memorizzare con precisione singoli punti dati di addestramento. Il compromesso è l'utilità del modello: più privacy richiede più rumore, riducendo le prestazioni del modello.
Applicazioni Aziendali
La privacy differenziale consente alle aziende di pubblicare risultati analitici e addestrare modelli su dati sensibili senza rischiare violazioni delle normative sulla privacy. I casi d'uso includono: analisi salariali con privacy, ricerca sanitaria con garanzie di privacy dei pazienti e analisi del comportamento degli utenti.