Was ist Shadow AI?
Shadow AI bezeichnet das Phänomen, dass Mitarbeiter eigenständig KI-Tools (ChatGPT, Gemini, Claude, Copilot) ohne Wissen, Zustimmung oder Kontrolle der IT-Abteilung nutzen. Laut Studien aus 2025 geben bis zu 78 % der Unternehmensangestellten zu, unautorisierte KI-Tools bei der Arbeit zu verwenden.
Welche Risiken entstehen?
Shadow AI bedroht auf mehreren Ebenen: Datenlecks (Mitarbeiter fügen vertrauliche Dokumente in öffentliche Chatbots ein), DSGVO-Verstöße (personenbezogene Kundendaten gelangen an externe APIs), Qualitätskontrolllücken (Geschäftsentscheidungen basierend auf unverifizierten KI-Antworten), regulatorisches Risiko (der AI Act verlangt Dokumentation und Aufsicht).
Wie geht man damit um?
Die Lösung ist kein Verbot (Mitarbeiter werden KI ohnehin nutzen), sondern der Aufbau einer kontrollierten KI-Infrastruktur: autorisierte Tools mit Datenanonymisierung, Nutzungsrichtlinien, Monitoring und Guardrails, KI-Literacy-Schulungen und regelmäßige Audits.