Pillar page

Multi-agent-system

Ett team av specialiserade AI-agenter istället för en enskild allmän chatbot. Orkestrering, flerlagers LLM-routing, episodiskt minne, kostnadskontroll och fullständig revisionsspårning. Internt använder vi HybridCrew-plattformen för att leverera tjänster till kunder.

En enskild chatbot i ChatGPT-stil är ett verktyg för allmänt bruk. Den förstår språk bra, genererar text, svarar på frågor — men i samma stund som en uppgift kräver en sekvens av åtgärder, åtkomst till företagsdatabaser, minne av tidigare interaktioner eller kvalitetsverifiering blir dess gränser synliga.

Ett multi-agent-system är en annan arkitektur: ett team av specialiserade agenter, var och en med sin egen roll, verktyg, minne och arbetsstrategi. VD-assistenten klassificerar e-post. Finanskontrollern genererar rapporter. Security reviewer skannar kod. Content writer skriver marknadsföringsutkast. Allt koordineras av en orkestrerare som beslutar vem som får vilken uppgift.

Varför multi-agent-system vinner

Specialisering inom AI fungerar på samma sätt som i affärsverksamhet. Istället för en person som „kan lite av allt" levererar ett team av specialister bättre resultat. En agent fokuserad på en uppgiftstyp — med optimerade prompts, rätt LLM-modell, åtkomst till rätt verktyg — gör jobbet bättre och billigare än en universalmodell som försöker gissa kontexten från grunden.

Den andra fördelen: kostnadskontroll. De flesta uppgifter kräver inte den kraftfullaste LLM-modellen. Enkla klassificeringar, generering av mallstyrt innehåll, extraktion av data från strukturerade dokument — allt detta kan utföras av lokala, gratis modeller som körs på kundens GPU. Endast de mest komplexa besluten går till de kraftfullaste molnmodellerna. Typisk driftskostnad: en bråkdel av vad enhetlig användning av de kraftfullaste modellerna skulle kosta.

Den tredje: compliance och säkerhet. Varje agent har minimala behörigheter (least privilege). Varje interaktion loggas (revisionsspårning). Personuppgifter anonymiseras innan de skickas till externa modeller (mikrotjänsten Anoxy). Hela arkitekturen är utformad i linje med GDPR och EU AI Act från första kodraden.

Komponenter i ett enterprise-klassat multi-agent-system

Nio element som måste fungera tillsammans för att ett multi-agent-system ska vara produktionsklart i ett företag.

Specialiserade agenter

Varje agent har ett ansvar: VD-assistent, finanskontroller, security reviewer, backend-utvecklare, content writer. Specialisering ger bättre resultat än en enskild allmän chatbot.

Orkestrerare

Det centrala lagret som beslutar vilken agent som får vilken uppgift. Bygger på intentionsklassificering, agenttillgänglighet, LLM-kostnader och affärskontext.

Flerlagers LLM-routing

Små uppgifter → lokal modell (Ollama, $0 kostnad). Medelstora → billigare molnmodell. Komplexa → de kraftfullaste molnmodellerna. Drastisk kostnadsreduktion utan kvalitetsförlust.

Episodiskt minne

Agenter kommer ihåg vad de gjort tidigare, vad resultaten var, vad som fungerade. Med tiden blir de bättre på repetitiva uppgifter — de lär sig av varje interaktion.

Semantiskt minne

Vektordatabas med domänkunskap (Qdrant, pgvector). Agenter kan snabbt hitta liknande tidigare fall, referensdokument, företagspolicyer.

PII-anonymisering (Anoxy)

Innan innehåll når externa LLM-modeller skannar och anonymiserar den dedikerade mikrotjänsten Anoxy personuppgifter. GDPR-efterlevnad utan funktionella kompromisser.

Revisionsspårning

Varje interaktion mellan agenter registreras: vem, till vem, vad som frågades, vilket svar som gavs, vilka LLM-modeller som användes, vilken kostnad. Full observability.

Övervakning och kostnadskontroll

Limiter per agent, per användare, per organisation. Kostnadsdashboard i realtid. Larm vid ovanliga användningstoppar. Routingoptimering baserad på data.

Eskalering till människa

Låg confidence score, kritiskt finansiellt eller juridiskt beslut, gränsfall → automatisk eskalering till en mänsklig operatör med fullständig kontext.

Tillämpningar i företaget

Sex områden där multi-agent-system levererar mätbart affärsvärde. Var och ett rullas ut som en 4-8 veckors pilot.

VD-assistent

Klassificerar och besvarar e-post, bokar möten, förbereder briefer inför samtal, sammanfattar långa dokument, övervakar deadlines. Sparar typiskt VD:n 10-15 timmars administration per vecka.

Compliance och juridisk övervakning

Kontinuerlig övervakning av lagändringar, klassificering av påverkan på företaget, larm vid nya skyldigheter. Generering av inledande GDPR-, EU AI Act- och ISO 27001-rapporter. Utkast till policyer och rutiner.

Mjukvaruutveckling

Kodgranskning, testgenerering, dokumentationsskrivande, refaktorering, generering av databasmigreringar. Två eller tre personer med agenter levererar samma värde som ett team på 8-10 personer.

Kundtjänst

Ärendeklassificering, automatiska svar på repetitiva frågor (baserat på kunskapsbasen), eskalering till människor vid komplexa fall. First-response time kortat från timmar till minuter.

Dokumentanalys

Extraktion av data från avtal, fakturor, offerter. Jämförelse av kommersiella villkor. Detektion av inkonsekvenser och risker. Generering av sammanfattningar och rapporter för juridikteamet.

Försäljning och marknadsföring

Övervakning av sociala medier och varumärkesnämningar, sentimentklassificering, generering av svar (granskade av människor före publicering), utkast till marknadsföringsinnehåll.

Chatbot vs. multi-agent-system

AspektEnskild chatbot (ChatGPT/Copilot)Multi-agent-system
SpecialiseringAllmän modell, „kan lite av allt"Specialiserade agenter per domän
Åtkomst till företagsdataBegränsad (klistra in i chatfönstret)Native (integration med CRM, ERP, databaser)
MinneChatsession (typiskt 1-2 timmar)Episodiskt + semantiskt minne (varaktigt)
KostnadsroutingEn modell för alla uppgifterFlerlagers (lokal → moln → premium)
ÅtgärdsutförandeGenererar text, utför inga åtgärderAnropar API:er, skriver till databaser, skickar e-post
RevisionsspårningIngen (eller rudimentär)Komplett — varje interaktion registrerad
PII-anonymiseringBeror på användarenPåtvingad, automatisk (Anoxy)
Compliance (GDPR, EU AI Act)Svår att bevisaInbyggd i arkitekturen

Referensplattform: HybridCrew

HybridCrew är en intern plattform från ESKOM AI som vi använder för att leverera tjänster till kunder. Den orkestrerar dussintals specialiserade AI-agenter — var och en med sin egen roll (t.ex. organisationsassistent, finanskontroller, projektledare, backend-utvecklare, security reviewer), ett polskspråkigt gränssnitt, åtkomst till verktyg och integrationer med affärssystem.

Nyckelfunktioner i tekniken:

  • Flerlagers LLM-routing — från gratis lokala modeller (Ollama) till de kraftfullaste molnmodellerna. Modellval automatiskt, baserat på uppgiftens komplexitet.
  • Breda integrationer — Gmail, Slack, Jira, Confluence, Microsoft Graph, Salesforce, Airtable och många fler. Vi kan koppla in vilket kund-API som helst.
  • Email Intelligence — automatisk klassificering av VD:ns e-post, intentigenkänning, generering av svar för godkännande.
  • Anoxy — PII-anonymisering — en dedikerad mikrotjänst som anonymiserar personuppgifter innan de skickas till externa modeller. GDPR-efterlevnad utan kompromisser.
  • Episodiskt och semantiskt minne — agenter lär sig av erfarenhet och kan nå domänkunskap i vektordatabasen.
  • Kostnadsövervakning — kostnadsdashboard i realtid per agent, per användare, per organisation. Limiter och larm vid ovanliga toppar.
  • EU AI Act-efterlevnad — systemet är klassificerat som AI med begränsad risk, med fullständiga transparensskyldigheter (Art. 50): en AI-banner, märkning av genererat innehåll, exportmetadata.

Vanliga frågor

Vad är ett multi-agent-system?
Ett multi-agent-system är en arkitektur där några eller flera dussin specialiserade AI-agenter samarbetar för att lösa uppgifter. Varje agent har sin egen roll (t.ex. VD-assistent, finanskontroller, security reviewer, backend-utvecklare), sina egna verktyg (API:er, databasåtkomst, internet), minne (episodiskt — vad den gjort tidigare, semantiskt — domänkunskap) och arbetsstrategi. Istället för en enskild allmän chatbot får företaget ett AI-team med tydlig ansvarsfördelning.
Hur skiljer sig detta från en enskild chatbot som ChatGPT?
En enskild chatbot klarar enkla textuppgifter bra, men när en uppgift kräver: åtkomst till företagsdatabaser, integration med affärssystem (CRM, ERP, e-post), utförande av en sekvens av steg, minne av tidigare interaktioner, kvalitetsverifiering — då räcker inte chatboten längre. Ett multi-agent-system löser detta genom specialisering (finansagenten kan bokföring, juristagenten kan GDPR), samarbete (agenter kan konsultera varandra) och orkestrering (en mekanism som beslutar vilken agent som får vilken uppgift).
Vilka uppgifter kan delegeras till ett multi-agent-system?
I praktiken: hantering av VD:ns kalender och inkorg, klassificering och besvarande av kund-e-post, övervakning av lagändringar, förberedelse av finansrapporter, kodgranskning av pull requests, generering av dokumentation, automatisering av medarbetar-onboarding, hantering av supportärenden, dokumentanalys (avtal, fakturor, offerter), övervakning av sociala medier och varumärkesnämningar, generering av marknadsföringsinnehåll. Ju mer repetitiv och proceduriellt beskrivbar — desto bättre lämpad för automatisering.
Är multi-agent-system dyra att driva?
Det beror på kostnadsarkitekturen. Om varje agent använder den kraftfullaste LLM-modellen för varje uppgift skjuter månadskostnaden snabbt i höjden. Därför tillämpar vi flerlagers LLM-routing: små uppgifter går till lokala modeller (Ollama på kundens GPU — driftskostnad nära noll), medelstora uppgifter går till billigare molnmodeller, endast de mest komplexa besluten går till de kraftfullaste modellerna. Tack vare det betalar en typisk kund en bråkdel av vad enhetlig användning av de kraftfullaste modellerna skulle kosta.
Hur kommunicerar agenter med varandra?
Två huvudvägar: synkront (agent A ställer en fråga till agent B och väntar på svaret) och asynkront (agent A pushar en uppgift till en kö, agent B bearbetar den i sin egen takt, agent A får besked om resultatet). Den centrala orkestreringsplattformen hanterar routing, bevarar konversationshistorik (revisionsspårning) och kontrollerar kostnaden (tokengränser per agent, per användare). All kommunikation loggas — varje interaktion mellan agenter kan spelas upp och vägen till ett specifikt beslut kan inspekteras.
Hur är det med datasäkerheten i ett multi-agent-system?
Tre skyddslager. Först: PII-anonymisering (personuppgifter, kontonummer, momsregistreringsnummer, adresser) innan de skickas till externa LLM-modeller — vi använder den dedikerade mikrotjänsten Anoxy som skannar innehåll innan det lämnar. Sedan: agentisolering — varje agent har minimala behörigheter (least privilege) och kan inte se data utanför sin domän. Slutligen: möjligheten att köra på kundens infrastruktur — LLM-modeller kan köras lokalt (Ollama på GPU), utan att data lämnar kundens nätverk. GDPR-kompatibel och i linje med EU AI Act-vägledning.
Kan agenter göra misstag? Vad händer då?
Ja — varje LLM kan hallucinera, göra logiska fel eller misstolka kontext. Mitigeringsstrategier: 1) resultatvalidering (t.ex. finansagenten måste returnera siffror i ett specifikt format, en validator kontrollerar efterlevnad); 2) double-checking för kritiska beslut (en andra agent verifierar oberoende den första agentens resultat); 3) eskalering till människa (vid låg confidence score eller ovanliga fall); 4) revisionsspårning (varje beslut registrerat — kan ångras, analyseras, prompt förbättras). Kritiska finansiella och juridiska beslut är aldrig autonoma — de kräver mänskligt godkännande.
Hur ser en utrullning av ett multi-agent-system i ett företag ut?
Typiskt fyra faser. 1) Discovery (2-4 veckor): identifiering av processer för automatisering, ROI-bedömning för var och en, val av 2-3 piloter. 2) Pilot (4-8 veckor): utrullning av de första agenterna för utvalda processer, mätning av effekt, finjustering. 3) Skalning (3-6 månader): expansion till fler processer och avdelningar, integration med befintliga system. 4) Optimering (kontinuerligt): finjustering av agenter baserat på produktionsdata, tillägg av nya roller, minskning av LLM-modellkostnader.
Kommer ett multi-agent-system att ersätta anställda?
Det ersätter specifika uppgifter, inte människor. Det vanligaste utfallet: anställda återtar tid (typiskt 30-50% i administrativa avdelningar) som de kan spendera på uppgifter som kräver mänskligt omdöme, kreativitet, relationsbyggande. Företag säger inte upp — tvärtom, de växer oftare snabbare (fler projekt hanterade av samma team). Undantaget: repetitiva, lågvärdesuppgifter (t.ex. att manuellt kopiera data mellan system) — de försvinner, och ingen saknar dem.
Vilka teknologier driver multi-agent-system?
De vanligaste ramverken: Microsoft AutoGen, CrewAI, LangGraph, Haystack Agents. LLM-modeller: Anthropic Claude, OpenAI GPT, lokala Llama och Mistral, polska Bielik. Vektordatabaser för semantiskt minne: Qdrant, Weaviate, pgvector. Meddelandeköer för async: Redis, RabbitMQ, Kafka. Övervakning: Prometheus + Grafana, Sentry, OpenTelemetry. På ESKOM AI kombinerar vi allt detta till en intern plattform (HybridCrew) med full observability, kostnadskontroll och compliance.

Första piloten på 4-8 veckor

Vi väljer 2-3 affärsprocesser med högst ROI-potential och rullar ut pilotagenter. Vi mäter effekten, finjusterar och beslutar om skalning.