Volver al glosario Seguridad

Privacidad Diferencial

Marco matemático que permite a los sistemas de IA aprender de conjuntos de datos proporcionando garantías formales para proteger la privacidad individual.

¿Qué es la Privacidad Diferencial?

La privacidad diferencial (PD) es un marco matemáticamente riguroso para cuantificar y limitar el riesgo de privacidad en el procesamiento de datos. Un algoritmo es diferencialmente privado si su salida no cambia significativamente dependiendo de si un individuo particular está incluido en el conjunto de datos o no. Esto significa que un atacante que observe la salida del algoritmo no puede obtener conocimiento significativo sobre la presencia de un individuo.

Aplicaciones en el Entrenamiento de IA

La PD se aplica a los procesos de entrenamiento de IA añadiendo ruido cuidadosamente calibrado a los gradientes durante el entrenamiento. Esto evita que el modelo memorice con precisión puntos de datos de entrenamiento individuales, haciendo posible su reconstrucción mediante ataques. La compensación es la utilidad del modelo: más privacidad requiere más ruido, lo que reduce el rendimiento del modelo.

Aplicaciones Empresariales

La privacidad diferencial permite a las empresas publicar resultados analíticos y entrenar modelos en datos sensibles sin arriesgar el incumplimiento de las regulaciones de privacidad. Los casos de uso incluyen: análisis salariales con privacidad, investigación sanitaria con garantías de privacidad de los pacientes y análisis del comportamiento de los usuarios para mejoras de productos.