Zurück zum Glossar Sicherheit

Shadow AI

Unautorisierte Nutzung von KI-Tools durch Mitarbeiter — ohne Wissen oder Kontrolle der IT-Abteilung, mit dem Risiko von Datenlecks.

Was ist Shadow AI?

Shadow AI bezeichnet das Phänomen, dass Mitarbeiter eigenständig KI-Tools (ChatGPT, Gemini, Claude, Copilot) ohne Wissen, Zustimmung oder Kontrolle der IT-Abteilung nutzen. Laut Studien aus 2025 geben bis zu 78 % der Unternehmensangestellten zu, unautorisierte KI-Tools bei der Arbeit zu verwenden.

Welche Risiken entstehen?

Shadow AI bedroht auf mehreren Ebenen: Datenlecks (Mitarbeiter fügen vertrauliche Dokumente in öffentliche Chatbots ein), DSGVO-Verstöße (personenbezogene Kundendaten gelangen an externe APIs), Qualitätskontrolllücken (Geschäftsentscheidungen basierend auf unverifizierten KI-Antworten), regulatorisches Risiko (der AI Act verlangt Dokumentation und Aufsicht).

Wie geht man damit um?

Die Lösung ist kein Verbot (Mitarbeiter werden KI ohnehin nutzen), sondern der Aufbau einer kontrollierten KI-Infrastruktur: autorisierte Tools mit Datenanonymisierung, Nutzungsrichtlinien, Monitoring und Guardrails, KI-Literacy-Schulungen und regelmäßige Audits.

Verwandte Dienstleistungen und Produkte