Volver al glosario Seguridad

Shadow AI

Uso no autorizado de herramientas de IA por empleados — sin conocimiento ni control del departamento de TI, con riesgo de filtración de datos.

¿Qué es el Shadow AI?

El Shadow AI es el fenómeno en el que los empleados utilizan de forma independiente herramientas de IA (ChatGPT, Gemini, Claude, Copilot) sin conocimiento, consentimiento ni control del departamento de TI. Según estudios de 2025, hasta el 78 % de los empleados corporativos admiten usar herramientas de IA no autorizadas en el trabajo.

¿Qué riesgos genera?

El Shadow AI amenaza en múltiples niveles: filtración de datos (los empleados pegan documentos confidenciales en chatbots públicos), violaciones del RGPD (datos personales de clientes enviados a APIs externas), lagunas en el control de calidad (decisiones empresariales basadas en respuestas de IA no verificadas), riesgo regulatorio (el AI Act exige documentación y supervisión).

¿Cómo abordarlo?

La solución no es prohibir (los empleados usarán IA de todas formas) sino desplegar una infraestructura de IA controlada: herramientas autorizadas con anonimización de datos, políticas de uso aceptable, monitorización y guardrails, formación en alfabetización de IA y auditorías regulares.