Tilbage til ordlisten Sikkerhed

Shadow AI

Uautoriseret brug af AI-værktøjer af medarbejdere — uden IT-afdelingens viden eller kontrol, med risiko for datalæk.

Hvad er Shadow AI?

Shadow AI er fænomenet, hvor medarbejdere selvstændigt bruger AI-værktøjer (ChatGPT, Gemini, Claude, Copilot) uden IT-afdelingens viden, samtykke eller kontrol. Ifølge forskning fra 2025 indrømmer op til 78% af virksomhedsmedarbejdere at bruge uautoriserede AI-værktøjer på arbejdet.

Hvilke risici medfører det?

Shadow AI truer på flere niveauer: datalæk (medarbejdere indsætter fortrolige dokumenter i offentlige chatbots), GDPR-overtrædelser (kunders personoplysninger sendes til eksterne API'er), kvalitetskontrolsvigt (forretningsbeslutninger baseret på uverificerede AI-svar), regulatorisk risiko (AI Act kræver dokumentation og tilsyn).

Hvordan håndterer man det?

Løsningen er ikke et forbud (medarbejdere vil bruge AI alligevel), men at implementere kontrolleret AI-infrastruktur: autoriserede værktøjer med dataanonymisering, politikker for acceptabel brug, overvågning og guardrails, AI-kompetenceuddannelse og regelmæssige revisioner.

Relaterede tjenester og produkter