Retour au glossaire Sécurité

Shadow AI

Utilisation non autorisée d'outils IA par les employés — sans connaissance ni contrôle du département informatique, avec risque de fuite de données.

Qu'est-ce que le Shadow AI ?

Le Shadow AI est le phénomène où les employés utilisent indépendamment des outils IA (ChatGPT, Gemini, Claude, Copilot) sans connaissance, consentement ou contrôle du département informatique. Selon les études de 2025, jusqu'à 78 % des employés d'entreprise admettent utiliser des outils IA non autorisés au travail.

Quels risques génère-t-il ?

Le Shadow AI menace sur plusieurs niveaux : fuites de données (les employés collent des documents confidentiels dans des chatbots publics), violations du RGPD (les données personnelles des clients sont envoyées à des API externes), lacunes de contrôle qualité (décisions métier basées sur des réponses IA non vérifiées), risque réglementaire (l'AI Act exige documentation et supervision).

Comment y remédier ?

La solution n'est pas l'interdiction (les employés utiliseront l'IA de toute façon) mais le déploiement d'une infrastructure IA contrôlée : outils autorisés avec anonymisation des données, politiques d'utilisation acceptable, monitoring et guardrails, formations en littératie IA et audits réguliers.

Services et produits associés