Pillar Page

Multi-Agenten-KI-Systeme

Ein Team spezialisierter KI-Agenten statt eines einzelnen Allzweck-Chatbots. Orchestrierung, mehrstufiges LLM-Routing, episodisches Gedächtnis, Kostenkontrolle und vollständiger Audit-Trail. Intern nutzen wir die Plattform HybridCrew, um Dienstleistungen für Kunden zu erbringen.

Ein einzelner Chatbot im Stil von ChatGPT ist ein Allzweckwerkzeug. Er versteht Sprache, erzeugt Texte und beantwortet Fragen — sobald eine Aufgabe aber eine Sequenz von Aktionen, Zugriff auf Firmendatenbanken, Erinnerung an frühere Interaktionen oder Qualitätsverifikation erfordert, zeigen sich seine Grenzen.

Ein Multi-Agenten-KI-System ist eine andere Architektur: ein Team spezialisierter Agenten, jeder mit eigener Rolle, eigenen Werkzeugen, eigenem Gedächtnis und eigener Handlungsstrategie. Der CEO-Assistent klassifiziert E-Mails. Der Finanzcontroller erstellt Berichte. Der Security Reviewer scannt Code. Der Content Writer schreibt Marketing-Drafts. Alles wird von einem Orchestrator koordiniert, der entscheidet, wer welche Aufgabe erhält.

Woher der Vorsprung von Multi-Agenten-Systemen

Spezialisierung in der KI funktioniert genauso wie im Business. Statt einer Person, die „von allem ein wenig kann", liefert ein Team aus Spezialisten bessere Ergebnisse. Ein auf einen Aufgabentyp fokussierter Agent — mit optimierten Prompts, dem passenden LLM-Modell, Zugang zu den richtigen Werkzeugen — erledigt die Arbeit besser und günstiger als ein Allround-Modell, das den Kontext von null erraten muss.

Der zweite Vorteil: Kostenkontrolle. Die meisten Aufgaben erfordern nicht das leistungsstärkste LLM-Modell. Einfache Klassifikationen, Erzeugung von Vorlageninhalten, Extraktion von Daten aus strukturierten Dokumenten — all das können lokale, kostenlose Modelle auf der GPU des Kunden erledigen. Nur die komplexesten Entscheidungen gehen an die stärksten Cloud-Modelle. Typische Betriebskosten: ein Bruchteil dessen, was bei einheitlicher Nutzung der stärksten Modelle anfiele.

Der dritte: Compliance und Sicherheit. Jeder Agent hat Least-Privilege-Berechtigungen. Jede Interaktion wird geloggt (Audit-Trail). Personenbezogene Daten werden vor dem Versand an externe Modelle anonymisiert (Anoxy-Microservice). Die gesamte Architektur ist ab der ersten Codezeile konform zur DSGVO und zum EU AI Act ausgelegt.

Komponenten eines Multi-Agenten-Systems der Enterprise-Klasse

Neun Elemente, die zusammen funktionieren müssen, damit ein Multi-Agenten-System für den produktiven Einsatz im Unternehmen taugt.

Spezialisierte Agenten

Jeder Agent hat eine Verantwortung: CEO-Assistent, Finanzcontroller, Security Reviewer, Backend-Entwickler, Content Writer. Spezialisierung liefert bessere Ergebnisse als ein einziger Allzweck-Chatbot.

Orchestrator

Die zentrale Schicht, die entscheidet, welcher Agent welche Aufgabe erhält. Basiert auf Intent-Klassifikation, Agentenverfügbarkeit, LLM-Kosten und Geschäftskontext.

Mehrstufiges LLM-Routing

Kleine Aufgaben → lokales Modell (Ollama, Kosten 0 $). Mittlere → günstigeres Cloud-Modell. Komplexe → stärkste Cloud-Modelle. Drastische Kostenreduktion ohne Qualitätsverlust.

Episodisches Gedächtnis

Agenten merken sich, was sie früher getan haben, welche Ergebnisse herauskamen, was funktioniert hat. Mit der Zeit werden sie bei wiederholbaren Aufgaben besser — sie lernen aus jeder Interaktion.

Semantisches Gedächtnis

Vektordatenbank für Domänenwissen (Qdrant, pgvector). Agenten können schnell ähnliche Fälle aus der Vergangenheit, Referenzdokumente und Unternehmensrichtlinien finden.

PII-Anonymisierung (Anoxy)

Bevor Inhalte externe LLMs erreichen, scannt und anonymisiert der dedizierte Anoxy-Microservice personenbezogene Daten. DSGVO-Konformität ohne funktionale Kompromisse.

Audit-Trail

Jede Interaktion zwischen Agenten wird protokolliert: wer, an wen, was wurde gefragt, welche Antwort wurde gegeben, welche LLMs wurden verwendet, welche Kosten entstanden. Vollständige Observability.

Monitoring und Kostenkontrolle

Limits pro Agent, pro Nutzer, pro Organisation. Echtzeit-Kosten-Dashboard. Alerts bei ungewöhnlichen Verbrauchsspitzen. Routing-Optimierung auf Datenbasis.

Eskalation an Menschen

Niedriger Confidence Score, kritische finanzielle oder rechtliche Entscheidung, Sonderfall → automatische Eskalation an einen menschlichen Operator mit vollem Kontext.

Anwendungen im Unternehmen

Sechs Bereiche, in denen Multi-Agenten-KI-Systeme messbaren Geschäftswert liefern. Jeder wird als 4-8-wöchiges Pilotprojekt ausgerollt.

CEO-Assistent

Klassifiziert und beantwortet E-Mails, terminiert Meetings, bereitet Briefings vor Gesprächen vor, fasst lange Dokumente zusammen, überwacht Deadlines. Spart dem CEO typischerweise 10-15 Stunden Verwaltungsarbeit pro Woche.

Compliance- und Rechts-Monitoring

Kontinuierliches Monitoring rechtlicher Änderungen, Klassifikation der Auswirkung auf das Unternehmen, Alerts bei neuen Pflichten. Erstellung erster DSGVO-, EU-AI-Act- und ISO-27001-Berichte. Drafts von Richtlinien und Verfahren.

Softwareentwicklung

Code Review, Testgenerierung, Dokumentationserstellung, Refactoring, Erzeugung von Datenbankmigrationen. Zwei bis drei Personen mit Agenten liefern den Wert eines 8-10-köpfigen Teams.

Kundenservice

Ticket-Klassifikation, automatische Antworten auf wiederkehrende Fragen (basierend auf der Wissensdatenbank), Eskalation an Menschen bei komplexen Fällen. Verkürzung der Antwortzeit von Stunden auf Minuten.

Dokumentenanalyse

Extraktion von Daten aus Verträgen, Rechnungen, Angeboten. Vergleich von Handelsbedingungen. Erkennung von Inkonsistenzen und Risiken. Erzeugung von Zusammenfassungen und Berichten für das Legal-Team.

Vertrieb und Marketing

Monitoring von Social Media und Markenerwähnungen, Sentiment-Klassifikation, Erzeugung von Antworten (vor Veröffentlichung durch Menschen geprüft), Entwurf von Marketinginhalten.

Chatbot vs. Multi-Agenten-System

AspektEinzelner Chatbot (ChatGPT/Copilot)Multi-Agenten-System
SpezialisierungAllgemeines Modell, „kann von allem ein wenig"Spezialisierte Agenten pro Domäne
Zugriff auf FirmendatenEingeschränkt (Kopieren ins Chatfenster)Nativ (Integration mit CRM, ERP, Datenbanken)
GedächtnisChatsitzung (typisch 1-2 Std.)Episodisches + semantisches Gedächtnis (persistent)
KostenroutingEin Modell für alle AufgabenMehrstufig (lokal → Cloud → Premium)
AktionsausführungErzeugt Text, führt keine Aktionen ausRuft APIs auf, schreibt in Datenbanken, versendet E-Mails
Audit-TrailKeiner (oder rudimentär)Vollständig — jede Interaktion protokolliert
PII-AnonymisierungHängt vom Nutzer abErzwungen, automatisch (Anoxy)
Compliance (DSGVO, EU AI Act)Schwer nachweisbarIn die Architektur eingebaut

Referenzplattform: HybridCrew

HybridCrew ist eine interne ESKOM-AI-Plattform, die wir nutzen, um Dienstleistungen für Kunden zu erbringen. Sie orchestriert dutzende spezialisierte KI-Agenten — jeder mit eigener Rolle (z. B. Organisationsassistent, Finanzcontroller, Project Manager, Backend-Entwickler, Security Reviewer), einer polnischsprachigen Oberfläche, Zugang zu Werkzeugen und Integrationen mit Geschäftssystemen.

Wichtige technische Merkmale:

  • Mehrstufiges LLM-Routing — von kostenlosen lokalen Modellen (Ollama) bis hin zu den stärksten Cloud-Modellen. Die Modellauswahl erfolgt automatisch auf Basis der Aufgabenkomplexität.
  • Breite Integrationen — Gmail, Slack, Jira, Confluence, Microsoft Graph, Salesforce, Airtable und viele weitere. Wir können beliebige Kunden-APIs anbinden.
  • Email Intelligence — automatische Klassifikation der CEO-Post, Intent-Erkennung, Erzeugung von Antworten zur Freigabe.
  • Anoxy — PII-Anonymisierung — ein dedizierter Microservice, der personenbezogene Daten anonymisiert, bevor sie an externe Modelle gesendet werden. DSGVO-Konformität ohne Kompromisse.
  • Episodisches und semantisches Gedächtnis — Agenten lernen aus Erfahrung und können auf Domänenwissen in der Vektordatenbank zugreifen.
  • Kostenmonitoring — Echtzeit-Kosten-Dashboard pro Agent, pro Nutzer, pro Organisation. Limits und Alerts bei ungewöhnlichen Anstiegen.
  • EU-AI-Act-Konformität — das System ist als KI mit begrenztem Risiko klassifiziert, mit den vollständigen Transparenzpflichten von Art. 50: KI-Banner, Kennzeichnung erzeugter Inhalte, Export-Metadaten.

Häufig gestellte Fragen

Was ist ein Multi-Agenten-System?
Ein Multi-Agenten-KI-System ist eine Architektur, in der mehrere oder mehrere Dutzend spezialisierte KI-Agenten zusammenarbeiten, um Aufgaben zu lösen. Jeder Agent hat seine Rolle (z. B. CEO-Assistent, Finanzcontroller, Security Reviewer, Backend-Entwickler), eigene Werkzeuge (APIs, Datenbankzugriff, Internet), Gedächtnis (episodisch — was er zuvor getan hat, semantisch — Domänenwissen) und Handlungsstrategie. Statt eines einzelnen Allzweck-Chatbots erhält das Unternehmen ein KI-Team mit klarer Verantwortungsteilung.
Wie unterscheidet sich das von einem einzelnen Chatbot wie ChatGPT?
Ein einzelner Chatbot bewältigt einfache Textaufgaben gut, doch sobald eine Aufgabe Folgendes erfordert: Zugriff auf Firmendatenbanken, Integration mit Geschäftssystemen (CRM, ERP, E-Mail), Ausführung einer Schrittfolge, Erinnerung an frühere Interaktionen, Qualitätsverifikation — reicht der Chatbot nicht mehr. Ein Multi-Agenten-System löst das durch Spezialisierung (der Finanzagent kennt Buchhaltung, der Rechtsagent kennt die DSGVO), Zusammenarbeit (Agenten können sich gegenseitig konsultieren) und Orchestrierung (Mechanismus, der entscheidet, welcher Agent welche Aufgabe erhält).
Welche Aufgaben kann man an ein Multi-Agenten-System delegieren?
In der Praxis: Verwaltung von Kalender und Postfach des CEOs, Klassifikation und Beantwortung von Kunden-E-Mails, Monitoring rechtlicher Änderungen, Erstellung von Finanzberichten, Code Review von Pull Requests, Generierung von Dokumentation, Automatisierung des Mitarbeiter-Onboardings, Bearbeitung von Support-Tickets, Dokumentenanalyse (Verträge, Rechnungen, Angebote), Monitoring von Social Media und Markenerwähnungen, Erzeugung von Marketinginhalten. Je wiederholbarer und prozessbeschreibbarer — desto besser zur Automatisierung geeignet.
Sind Multi-Agenten-Systeme teuer im Betrieb?
Das hängt von der Kostenarchitektur ab. Verwendet jeder Agent für jede Aufgabe das stärkste LLM-Modell, steigen die monatlichen Kosten schnell. Deshalb setzen wir mehrstufiges LLM-Routing ein: kleine Aufgaben gehen an lokale Modelle (Ollama auf der GPU in der Kundeninfrastruktur — Betriebskosten nahe null), mittlere Aufgaben an günstigere Cloud-Modelle, nur die komplexesten Entscheidungen an die stärksten Modelle. Dadurch zahlt ein typischer Kunde einen Bruchteil dessen, was bei einheitlicher Nutzung der stärksten Modelle anfiele.
Wie kommunizieren Agenten miteinander?
Zwei Hauptwege: synchron (Agent A stellt Agent B eine Frage und wartet auf die Antwort) und asynchron (Agent A wirft eine Aufgabe in eine Warteschlange, Agent B verarbeitet sie im eigenen Tempo, Agent A wird über das Ergebnis benachrichtigt). Die zentrale Orchestrierungsplattform verwaltet das Routing, bewahrt die Konversationshistorie (Audit-Trail) und kontrolliert die Kosten (Token-Limits pro Agent, pro Nutzer). Die gesamte Kommunikation wird geloggt — jede Interaktion zwischen Agenten lässt sich wiedergeben und der Weg zu einer konkreten Entscheidung nachvollziehen.
Wie sieht es mit der Datensicherheit in einem Multi-Agenten-System aus?
Drei Schutzschichten. Erstens: PII-Anonymisierung (personenbezogene Daten, Kontonummern, Steuer-IDs, Adressen) vor dem Senden an externe LLM-Modelle — dafür nutzen wir den dedizierten Anoxy-Microservice, der Inhalte vor dem Verlassen prüft. Zweitens: Agentenisolation — jeder Agent hat Least-Privilege-Berechtigungen und sieht keine Daten außerhalb seiner Domäne. Drittens: die Option, auf der Kundeninfrastruktur zu laufen — LLM-Modelle können lokal laufen (Ollama auf GPU), ohne dass Daten das Kundennetz verlassen. DSGVO-konform und im Einklang mit den Vorgaben des EU AI Act.
Können Agenten Fehler machen? Was dann?
Ja — jedes LLM kann halluzinieren, logische Fehler machen oder Kontext falsch interpretieren. Mitigationsstrategien: 1) Ergebnisvalidierung (z. B. der Finanzagent muss Zahlen in einem definierten Format liefern, ein Validator prüft die Einhaltung); 2) Double-Checking bei kritischen Entscheidungen (ein zweiter Agent verifiziert das Ergebnis des ersten unabhängig); 3) Eskalation an Menschen (bei niedrigem Confidence Score oder Sonderfällen); 4) Audit-Trail (jede Entscheidung protokolliert — rückgängig machbar, analysierbar, Prompt verbesserbar). Kritische finanzielle und rechtliche Entscheidungen sind nie autonom — sie erfordern menschliche Freigabe.
Wie sieht ein Multi-Agenten-Rollout in einem Unternehmen aus?
Typischerweise vier Phasen. 1) Discovery (2-4 Wochen): Identifikation von Prozessen zur Automatisierung, ROI-Bewertung pro Prozess, Auswahl von 2-3 Pilotkandidaten. 2) Pilot (4-8 Wochen): Rollout der ersten Agenten für ausgewählte Prozesse, Wirkungsmessung, Feinabstimmung. 3) Skalierung (3-6 Monate): Ausweitung auf weitere Prozesse und Abteilungen, Integration mit bestehenden Systemen. 4) Optimierung (kontinuierlich): Verfeinerung der Agenten auf Basis von Produktivdaten, Hinzufügen neuer Rollen, Reduktion der LLM-Modellkosten.
Wird ein Multi-Agenten-System Mitarbeiter ersetzen?
Es ersetzt konkrete Aufgaben, nicht Menschen. Häufigster Effekt: Mitarbeiter gewinnen Zeit zurück (typischerweise 30-50% in Verwaltungsabteilungen), die sie für Aufgaben einsetzen können, die menschliches Urteilsvermögen, Kreativität und Beziehungsaufbau erfordern. Unternehmen entlassen nicht — im Gegenteil, sie wachsen häufiger schneller (mehr Projekte vom selben Team bearbeitet). Ausnahme: wiederholbare Aufgaben mit niedrigem Wert (z. B. manuelles Kopieren von Daten zwischen Systemen) — die verschwinden, und niemand vermisst sie.
Welche Technologien stecken hinter Multi-Agenten-Systemen?
Häufigste Frameworks: Microsoft AutoGen, CrewAI, LangGraph, Haystack Agents. LLM-Modelle: Anthropic Claude, OpenAI GPT, lokale Llama, Mistral, polnisches Bielik. Vektordatenbanken für semantisches Gedächtnis: Qdrant, Weaviate, pgvector. Message Queues für asynchrone Kommunikation: Redis, RabbitMQ, Kafka. Monitoring: Prometheus + Grafana, Sentry, OpenTelemetry. Bei ESKOM AI verbinden wir das alles in einer einzigen internen Plattform (HybridCrew) mit vollständiger Observability, Kostenkontrolle und Compliance.

Erstes Pilotprojekt in 4-8 Wochen

Wir wählen 2-3 Geschäftsprozesse mit dem höchsten ROI-Potenzial aus und rollen Pilot-Agenten aus. Wir messen die Wirkung, justieren nach und entscheiden über die Skalierung.