Torna al glossario Sicurezza

Shadow AI

Uso non autorizzato di strumenti IA da parte dei dipendenti — senza conoscenza o controllo del dipartimento IT, con rischio di fuga di dati.

Cos'è lo Shadow AI?

Lo Shadow AI è il fenomeno in cui i dipendenti utilizzano autonomamente strumenti IA (ChatGPT, Gemini, Claude, Copilot) senza conoscenza, consenso o controllo del dipartimento IT. Secondo ricerche del 2025, fino al 78 % dei dipendenti aziendali ammette di utilizzare strumenti IA non autorizzati al lavoro.

Quali rischi genera?

Lo Shadow AI minaccia su più livelli: fughe di dati (i dipendenti incollano documenti riservati in chatbot pubblici), violazioni GDPR (dati personali dei clienti inviati ad API esterne), lacune nel controllo qualità (decisioni aziendali basate su risposte IA non verificate), rischio normativo (l'AI Act richiede documentazione e supervisione).

Come affrontarlo?

La soluzione non è vietare (i dipendenti useranno l'IA comunque) ma implementare un'infrastruttura IA controllata: strumenti autorizzati con anonimizzazione dei dati, policy di uso accettabile, monitoraggio e guardrails, formazione sulla literacy IA e audit regolari.

Servizi e prodotti correlati