Pillar page

Sisteme multi-agent AI

O echipă de agenți AI specializați în loc de un singur chatbot generic. Orchestrare, rutare multi-nivel a modelelor LLM, memorie episodică, control al costurilor și audit trail complet. Intern folosim platforma HybridCrew pentru a livra servicii clienților.

Un singur chatbot în stilul ChatGPT este un instrument de uz general. Înțelege limbajul, generează texte, răspunde la întrebări — dar în momentul în care o sarcină necesită o secvență de acțiuni, acces la bazele de date ale companiei, memorie a interacțiunilor anterioare sau verificarea calității, limitele sale ies la iveală.

Un sistem multi-agent AI este o arhitectură diferită: o echipă de agenți specializați, fiecare cu propriul rol, instrumente, memorie și strategie de operare. Asistentul CEO clasifică e-mailurile. Controllerul financiar generează rapoarte. Security reviewer-ul scanează codul. Content writer-ul scrie schițe de marketing. Totul este coordonat de un orchestrator care decide cine primește care sarcină.

De ce câștigă sistemele multi-agent

Specializarea în AI funcționează la fel ca în business. În locul unei singure persoane care „știe câte puțin din toate", o echipă de specialiști livrează rezultate mai bune. Un agent concentrat pe un singur tip de sarcină — cu prompt-uri optimizate, modelul LLM potrivit, acces la instrumentele potrivite — face treaba mai bine și mai ieftin decât un model generalist care încearcă să ghicească contextul de la zero.

Al doilea avantaj: control al costurilor. Majoritatea sarcinilor nu necesită cel mai puternic model LLM. Clasificări simple, generarea de conținut șablonat, extragerea datelor din documente structurate — toate acestea pot fi făcute de modele locale, gratuite, care rulează pe GPU-ul clientului. Doar deciziile cele mai complexe ajung la cele mai puternice modele cloud. Cost operațional tipic: o fracțiune din ce ar costa utilizarea uniformă a celor mai puternice modele.

Al treilea: conformitate și securitate. Fiecare agent are permisiuni minime (least privilege). Fiecare interacțiune este logată (audit trail). Datele personale sunt anonimizate înainte de a fi trimise către modele externe (microserviciul Anoxy). Întreaga arhitectură este proiectată în conformitate cu GDPR și EU AI Act din prima linie de cod.

Componentele unui sistem multi-agent de nivel enterprise

Nouă elemente care trebuie să funcționeze împreună pentru ca un sistem multi-agent să fie gata pentru utilizare în producție într-o companie.

Agenți specializați

Fiecare agent are o responsabilitate: asistent CEO, controller financiar, security reviewer, backend developer, content writer. Specializarea produce rezultate mai bune decât un singur chatbot generic.

Orchestrator

Stratul central care decide care agent primește care sarcină. Bazat pe clasificarea intenției, disponibilitatea agenților, costul LLM și contextul de business.

Rutare LLM multi-nivel

Sarcini mici → model local (Ollama, cost $0). Medii → model cloud mai ieftin. Complexe → cele mai puternice modele cloud. Reducere drastică a costurilor fără pierderea calității.

Memorie episodică

Agenții își amintesc ce au făcut înainte, care au fost rezultatele, ce a funcționat. În timp devin mai buni la sarcinile repetitive — învață din fiecare interacțiune.

Memorie semantică

Bază de date vectorială de cunoștințe de domeniu (Qdrant, pgvector). Agenții pot găsi rapid cazuri similare din trecut, documente de referință, politici de companie.

Anonimizare PII (Anoxy)

Înainte ca conținutul să ajungă la LLM-urile externe, microserviciul dedicat Anoxy scanează și anonimizează datele personale. Conformitate GDPR fără compromisuri funcționale.

Audit trail

Fiecare interacțiune între agenți este înregistrată: cine, către cine, ce a întrebat, ce răspuns a primit, ce LLM-uri au fost folosite, care a fost costul. Observabilitate completă.

Monitorizare și control al costurilor

Limite per agent, per utilizator, per organizație. Dashboard real-time al costurilor. Alerte la vârfuri neobișnuite de utilizare. Optimizare a rutării pe baza datelor.

Escaladare către om

Scor de încredere scăzut, decizie financiară sau juridică critică, caz limită → escaladare automată către un operator uman cu context complet.

Aplicații în companie

Șase zone în care sistemele multi-agent AI livrează valoare măsurabilă de business. Fiecare este implementată ca un pilot de 4-8 săptămâni.

Asistent CEO

Clasifică și răspunde la e-mailuri, programează întâlniri, pregătește brief-uri înainte de apeluri, sintetizează documente lungi, monitorizează deadline-urile. Tipic economisește CEO-ului 10-15 ore de administrație pe săptămână.

Conformitate și monitorizare juridică

Monitorizare continuă a modificărilor legislative, clasificarea impactului asupra companiei, alerte la noi obligații. Generarea de rapoarte inițiale GDPR, EU AI Act, ISO 27001. Schițe de politici și proceduri.

Dezvoltare software

Code review, generare de teste, scrierea documentației, refactorizare, generarea migrărilor de bază de date. Două sau trei persoane cu agenți livrează valoarea unei echipe de 8-10 persoane.

Serviciul clienți

Clasificare tichete, răspunsuri automate la întrebări repetitive (bazate pe baza de cunoștințe), escaladare către om pentru cazuri complexe. Timp de primul răspuns redus de la ore la minute.

Analiză documente

Extragerea datelor din contracte, facturi, oferte. Compararea termenilor comerciali. Detectarea inconsistențelor și a riscurilor. Generarea de rezumate și rapoarte pentru echipa juridică.

Vânzări și marketing

Monitorizarea social media și a mențiunilor de brand, clasificarea sentimentului, generarea răspunsurilor (revizuite de oameni înainte de publicare), schițarea conținutului de marketing.

Chatbot vs. sistem multi-agent

AspectChatbot unic (ChatGPT/Copilot)Sistem multi-agent
SpecializareModel generic, „știe câte puțin din toate"Agenți specializați per domeniu
Acces la datele companieiLimitat (copy-paste în fereastra de chat)Nativ (integrare cu CRM, ERP, baze de date)
MemorieSesiune chat (tipic 1-2 ore)Memorie episodică + semantică (persistentă)
Rutare costUn model pentru toate sarcinileMulti-nivel (local → cloud → premium)
Execuție de acțiuniGenerează text, nu execută acțiuniApelează API-uri, scrie în baze de date, trimite e-mailuri
Audit trailInexistent (sau rudimentar)Complet — fiecare interacțiune înregistrată
Anonimizare PIIDepinde de utilizatorImpusă, automată (Anoxy)
Conformitate (GDPR, EU AI Act)Greu de demonstratIntegrată în arhitectură

Platformă de referință: HybridCrew

HybridCrew este o platformă internă ESKOM AI pe care o folosim pentru a furniza servicii clienților. Orchestrează zeci de agenți AI specializați — fiecare cu propriul rol (de exemplu asistent de organizație, controller financiar, project manager, backend developer, security reviewer), interfață în limba poloneză, acces la instrumente și integrări cu sisteme de business.

Caracteristici tehnice cheie:

  • Rutare LLM multi-nivel — de la modele locale gratuite (Ollama) până la cele mai puternice modele cloud. Selecția modelului este automată, pe baza complexității sarcinii.
  • Integrări extinse — Gmail, Slack, Jira, Confluence, Microsoft Graph, Salesforce, Airtable și multe altele. Putem conecta orice API al clientului.
  • Email Intelligence — clasificare automată a e-mailurilor CEO, recunoaștere de intenție, generare de răspunsuri pentru aprobare.
  • Anoxy — anonimizare PII — un microserviciu dedicat care anonimizează datele personale înainte de a fi trimise către modele externe. Conformitate GDPR fără compromisuri.
  • Memorie episodică și semantică — agenții învață din experiență și pot accesa cunoștințe de domeniu în baza de date vectorială.
  • Monitorizare costuri — dashboard real-time al costurilor per agent, per utilizator, per organizație. Limite și alerte la vârfuri neobișnuite.
  • Conformitate EU AI Act — sistemul este clasificat ca AI cu risc limitat, cu toate obligațiile de transparență de la Art. 50: un banner AI, marcarea conținutului generat, metadate la export.

Întrebări frecvente

Ce este un sistem multi-agent?
Un sistem multi-agent AI este o arhitectură în care câțiva sau câteva zeci de agenți AI specializați lucrează împreună pentru a rezolva sarcini. Fiecare agent are propriul rol (de exemplu asistent CEO, controller financiar, security reviewer, backend developer), propriile instrumente (API-uri, acces la baze de date, internet), memorie (episodică — ce a făcut înainte, semantică — cunoștințe de domeniu) și strategie de operare. În locul unui singur chatbot generic, compania primește o echipă AI cu o diviziune clară a responsabilităților.
Cu ce diferă acest sistem de un singur chatbot precum ChatGPT?
Un singur chatbot se descurcă bine cu sarcini text simple, dar în momentul în care o sarcină necesită acces la bazele de date ale companiei, integrare cu sisteme de business (CRM, ERP, email), execuția unei secvențe de pași, memorie a interacțiunilor anterioare sau verificarea calității — chatbot-ul nu mai este suficient. Un sistem multi-agent rezolvă acest lucru prin specializare (agentul financiar cunoaște contabilitatea, agentul juridic cunoaște GDPR), colaborare (agenții se pot consulta reciproc) și orchestrare (un mecanism care decide care agent primește care sarcină).
Ce sarcini pot fi delegate către un sistem multi-agent?
În practică: gestionarea calendarului și inbox-ului CEO, clasificarea și răspunsul la e-mailurile clienților, monitorizarea modificărilor legislative, pregătirea rapoartelor financiare, code review al pull request-urilor, generarea documentației, automatizarea onboarding-ului angajaților, gestionarea tichetelor de suport, analiza documentelor (contracte, facturi, oferte), monitorizarea social media și a mențiunilor de brand, generarea conținutului de marketing. Cu cât este mai repetitivă și procedurală — cu atât este mai potrivită pentru automatizare.
Sunt sistemele multi-agent costisitoare de operat?
Depinde de arhitectura de cost. Dacă fiecare agent folosește cel mai puternic LLM pentru fiecare sarcină, costul lunar crește rapid. De aceea aplicăm rutare LLM multi-nivel: sarcinile mici merg la modele locale (Ollama pe GPU-ul clientului — cost operațional aproape de zero), sarcinile medii merg la modele cloud mai ieftine, doar deciziile cele mai complexe merg la cele mai puternice modele. Datorită acestui fapt, un client tipic plătește o fracțiune din ce ar costa utilizarea uniformă a celor mai puternice modele.
Cum comunică agenții între ei?
Două căi principale: sincronă (agentul A pune agentului B o întrebare și așteaptă răspunsul) și asincronă (agentul A pune o sarcină într-o coadă, agentul B o procesează în propriul ritm, agentul A este notificat de rezultat). Platforma centrală de orchestrare gestionează rutarea, păstrează istoricul conversațiilor (audit trail) și controlează costul (limite de tokeni per agent, per utilizator). Toată comunicarea este logată — fiecare interacțiune între agenți poate fi redată și calea către o decizie specifică poate fi inspectată.
Cum stă treaba cu securitatea datelor într-un sistem multi-agent?
Trei straturi de protecție. În primul rând: anonimizarea PII (date personale, numere de cont, CNP-uri, adrese) înainte de trimiterea către modele LLM externe — folosim microserviciul dedicat Anoxy care scanează conținutul înainte de plecare. În al doilea rând: izolarea agenților — fiecare agent are permisiuni cu privilegii minime și nu poate vedea date din afara domeniului său. În al treilea rând: opțiunea de a rula pe infrastructura clientului — modelele LLM pot rula local (Ollama pe GPU), fără ca datele să părăsească rețeaua clientului. Conformitate GDPR și aliniere cu Regulamentul UE privind IA.
Pot agenții să facă greșeli? Ce se întâmplă atunci?
Da — fiecare LLM poate halucina, face erori logice sau interpreta greșit contextul. Strategii de mitigare: 1) validarea rezultatului (de exemplu agentul financiar trebuie să returneze numere într-un format specific, un validator verifică conformitatea); 2) double-checking pentru decizii critice (un al doilea agent verifică independent rezultatul primului); 3) escaladare către om (la scor de încredere scăzut sau cazuri neobișnuite); 4) audit trail (fiecare decizie înregistrată — poate fi anulată, analizată, prompt-ul îmbunătățit). Deciziile financiare și juridice critice nu sunt niciodată autonome — necesită aprobarea unui om.
Cum arată implementarea unui sistem multi-agent într-o companie?
Tipic patru faze. 1) Discovery (2-4 săptămâni): identificarea proceselor pentru automatizare, evaluare ROI pentru fiecare, alegerea a 2-3 candidați pilot. 2) Pilot (4-8 săptămâni): implementarea primilor agenți pentru procesele selectate, măsurarea impactului, fine-tuning. 3) Scalare (3-6 luni): extinderea la mai multe procese și departamente, integrare cu sistemele existente. 4) Optimizare (continuă): rafinarea agenților pe baza datelor de producție, adăugarea de roluri noi, reducerea costului modelelor LLM.
Va înlocui un sistem multi-agent angajații?
Înlocuiește sarcini specifice, nu oameni. Cel mai comun rezultat: angajații recâștigă timp (tipic 30-50% în departamentele administrative), pe care îl pot dedica sarcinilor care necesită judecată umană, creativitate, construirea de relații. Companiile nu fac disponibilizări — dimpotrivă, mai des cresc mai rapid (mai multe proiecte gestionate de aceeași echipă). Excepția: sarcini repetitive de valoare mică (de exemplu copierea manuală a datelor între sisteme) — acestea dispar, și nimeni nu le regretă.
Ce tehnologii stau în spatele sistemelor multi-agent?
Cele mai comune framework-uri: Microsoft AutoGen, CrewAI, LangGraph, Haystack Agents. Modele LLM: Anthropic Claude, OpenAI GPT, Llama și Mistral locale, Bielik polonez. Baze de date vectoriale pentru memoria semantică: Qdrant, Weaviate, pgvector. Cozi de mesaje pentru async: Redis, RabbitMQ, Kafka. Monitorizare: Prometheus + Grafana, Sentry, OpenTelemetry. La ESKOM AI combinăm toate acestea într-o singură platformă internă (HybridCrew) cu observabilitate completă, control al costurilor și conformitate.

Primul pilot în 4-8 săptămâni

Alegem 2-3 procese de business cu cel mai mare potențial ROI și implementăm agenți pilot. Măsurăm impactul, facem fine-tuning și decidem despre scalare.