Tillbaka till ordlistan Säkerhet

Shadow AI

Obehörig användning av AI-verktyg av anställda — utan IT-avdelningens vetskap eller kontroll, med risk för dataläckor.

Vad är Shadow AI?

Shadow AI är fenomenet där anställda självständigt använder AI-verktyg (ChatGPT, Gemini, Claude, Copilot) utan IT-avdelningens vetskap, samtycke eller kontroll. Enligt forskning från 2025 erkänner upp till 78% av företagsanställda att de använder obehöriga AI-verktyg på jobbet.

Vilka risker medför det?

Shadow AI hotar på flera nivåer: dataläckor (anställda klistrar in konfidentiella dokument i offentliga chattbotar), GDPR-överträdelser (kunders personuppgifter skickas till externa API:er), kvalitetskontrollbrister (affärsbeslut baserade på overifierade AI-svar), regelefterlevnadsrisk (AI Act kräver dokumentation och tillsyn).

Hur hanterar man det?

Lösningen är inte ett förbud (anställda kommer att använda AI ändå) utan att implementera kontrollerad AI-infrastruktur: auktoriserade verktyg med dataanonymisering, policyer för acceptabel användning, övervakning och guardrails, AI-kompetensutbildning och regelbundna revisioner.

Relaterade tjänster och produkter