Pillar page

Systemy wieloagentowe AI

Zespół wyspecjalizowanych agentów AI zamiast jednego ogólnego chatbota. Orkiestracja, wielopoziomowy routing modeli LLM, pamięć epizodyczna, kontrola kosztów i audit trail. Wewnętrznie używamy platformy HybridCrew do realizacji usług dla klientów.

Pojedynczy chatbot w stylu ChatGPT to narzędzie ogólnego użytku. Świetnie rozumie język, generuje teksty, odpowiada na pytania — ale gdy zadanie wymaga sekwencji działań, dostępu do firmowych baz danych, pamięci o poprzednich interakcjach lub weryfikacji jakości, jego ograniczenia stają się widoczne.

System wieloagentowy AI to inna architektura: zespół wyspecjalizowanych agentów, każdy z własną rolą, narzędziami, pamięcią i strategią działania. Asystent CEO klasyfikuje pocztę. Controller finansowy generuje raporty. Security reviewer skanuje kod. Content writer pisze drafty marketingowe. Wszystko skoordynowane przez orkiestrator, który decyduje, kto dostanie które zadanie.

Skąd przewaga systemów wieloagentowych

Specjalizacja w AI działa tak samo jak w biznesie. Zamiast jednej osoby, która „umie wszystko po trochu", lepsze efekty osiąga zespół specjalistów. Agent skoncentrowany na jednym typie zadań — z optymalizowanymi promptami, odpowiednim modelem LLM, dostępem do właściwych narzędzi — wykonuje pracę lepiej i taniej niż uniwersalny model próbujący odgadnąć kontekst od zera.

Druga przewaga: kontrola kosztów. Większość zadań nie wymaga najmocniejszego modelu LLM. Drobne klasyfikacje, generowanie szablonowych treści, wyciąganie danych ze strukturyzowanych dokumentów — wszystko to mogą wykonać lokalne, darmowe modele uruchomione na GPU klienta. Tylko najbardziej złożone decyzje trafiają do najmocniejszych modeli chmurowych. Typowy koszt operacyjny: ułamek tego, co przy jednolitym używaniu najmocniejszych modeli.

Trzecia: compliance i bezpieczeństwo. Każdy agent ma minimalne uprawnienia (least privilege). Każda interakcja jest logowana (audit trail). Dane osobowe są anonimizowane przed wysłaniem do modeli zewnętrznych (mikroserwis Anoxy). Cała architektura projektowana zgodnie z RODO i EU AI Act od pierwszej linii kodu.

Komponenty systemu wieloagentowego klasy enterprise

Dziewięć elementów, które muszą działać razem, by system wieloagentowy nadawał się do produkcyjnego użytku w firmie.

Agenty wyspecjalizowane

Każdy agent ma jedną odpowiedzialność: asystent CEO, controller finansowy, security reviewer, backend developer, content writer. Specjalizacja daje lepsze wyniki niż jeden ogólny chatbot.

Orkiestrator

Centralna warstwa decydująca, który agent dostanie które zadanie. Bazuje na klasyfikacji intencji, dostępności agentów, kosztach modeli LLM i kontekście biznesowym.

Wielopoziomowy routing LLM

Drobne zadania → lokalny model (Ollama, koszt $0). Średnie → tańszy model chmurowy. Złożone → najmocniejsze modele chmurowe. Drastyczna redukcja kosztów bez utraty jakości.

Pamięć epizodyczna

Agenty zapamiętują, co zrobiły wcześniej, jakie były wyniki, co działało. Z czasem stają się lepsze w powtarzalnych zadaniach — uczą się z każdej interakcji.

Pamięć semantyczna

Wektorowa baza wiedzy dziedzinowej (Qdrant, pgvector). Agenty mogą szybko znaleźć podobne przypadki z przeszłości, dokumenty referencyjne, polityki firmowe.

Anonimizacja danych (Anoxy)

Przed wysłaniem treści do zewnętrznych modeli LLM, dedykowany mikroserwis Anoxy skanuje i anonimizuje dane osobowe. Zgodność z RODO bez kompromisów funkcjonalnych.

Audit trail

Każda interakcja między agentami zapisana: kto, do kogo, co zapytał, jaką dostał odpowiedź, jakie modele LLM użyte, jaki koszt. Pełna obserwowalność.

Monitoring i kontrola kosztów

Limity per agent, per użytkownik, per organizacja. Dashboard z kosztami real-time. Alerty przy nietypowych wzrostach zużycia. Optymalizacja routingu na podstawie danych.

Eskalacja do człowieka

Niski confidence score, krytyczna decyzja finansowa lub prawna, nietypowy przypadek → automatyczna eskalacja do operatora ludzkiego z pełnym kontekstem.

Zastosowania w firmie

Sześć obszarów, w których systemy wieloagentowe AI dostarczają mierzalną wartość biznesową. Każdy z nich jest wdrażany jako pilotaż 4-8 tygodni.

Asystent CEO

Klasyfikuje i odpowiada na e-maile, umawia spotkania, przygotowuje briefy przed rozmowami, streszcza długie dokumenty, monitoruje deadline'y. Typowo oszczędza CEO 10-15 godzin tygodniowo administracji.

Compliance i monitoring prawny

Stały monitoring zmian w prawie, klasyfikacja wpływu na firmę, alerty przy nowych obowiązkach. Generowanie wstępnych raportów RODO, EU AI Act, ISO 27001. Drafty polityk i procedur.

Wytwarzanie oprogramowania

Code review, generowanie testów, pisanie dokumentacji, refaktoring, generowanie migracji bazy danych. Dwie-trzy osoby z agentami dostarczają wartość zespołu 8-10 osób.

Obsługa klienta

Klasyfikacja zgłoszeń, automatyczne odpowiedzi na pytania powtarzalne (oparte o bazę wiedzy), eskalacja do człowieka przy złożonych przypadkach. Skrócenie czasu odpowiedzi z godzin do minut.

Analiza dokumentów

Ekstrakcja danych z umów, faktur, ofert. Porównywanie warunków handlowych. Detekcja niezgodności i ryzyk. Generowanie streszczeń i raportów dla zespołu prawnego.

Sprzedaż i marketing

Monitoring social media i wzmianek o marce, klasyfikacja sentymentu, generowanie odpowiedzi (sprawdzanych przez człowieka przed publikacją), tworzenie wstępnych treści marketingowych.

Chatbot vs. system wieloagentowy

AspektPojedynczy chatbot (ChatGPT/Copilot)System wieloagentowy
SpecjalizacjaOgólny model, „umie wszystko po trochu"Wyspecjalizowani agenty per domena
Dostęp do firmowych danychOgraniczony (kopiowanie do okna chatu)Natywny (integracja z CRM, ERP, bazami)
PamięćSesja chatu (typowo 1-2 godz.)Pamięć epizodyczna + semantyczna (trwała)
Routing kosztówJeden model dla wszystkich zadańWielopoziomowy (lokalny → chmura → premium)
Wykonywanie akcjiGeneruje tekst, nie wykonuje akcjiWywołuje API, zapisuje do baz, wysyła e-maile
Audit trailBrak (lub szczątkowy)Pełny — każda interakcja zapisana
Anonimizacja PIIZależy od użytkownikaWymuszona, automatyczna (Anoxy)
Compliance (RODO, EU AI Act)Trudna do udowodnieniaWbudowana w architekturę

Platforma referencyjna: HybridCrew

HybridCrew to wewnętrzna platforma ESKOM AI, której używamy do realizacji usług dla klientów. Orkiestruje dziesiątki wyspecjalizowanych agentów AI — każdy z własną rolą (np. asystent organizacji, controller finansowy, project manager, backend developer, security reviewer), polskojęzycznym interfejsem, dostępem do narzędzi i integracjami z systemami biznesowymi.

Kluczowe cechy techniczne:

  • Wielopoziomowy routing LLM — od darmowych lokalnych modeli (Ollama) po najmocniejsze modele chmurowe. Dobór modelu automatyczny, na podstawie złożoności zadania.
  • Szerokie integracje — Gmail, Slack, Jira, Confluence, Microsoft Graph, Salesforce, Airtable i wiele innych. Możemy podłączyć dowolne API klienta.
  • Email Intelligence — automatyczna klasyfikacja poczty CEO, rozpoznawanie intencji, generowanie odpowiedzi do zatwierdzenia.
  • Anoxy — anonimizacja PII — dedykowany mikroserwis anonimizujący dane osobowe przed wysłaniem do modeli zewnętrznych. Zgodność z RODO bez kompromisów.
  • Pamięć epizodyczna i semantyczna — agenty uczą się z doświadczeń, mogą sięgać do wiedzy dziedzinowej w bazie wektorowej.
  • Monitoring kosztów — dashboard z kosztami real-time per agent, per użytkownik, per organizacja. Limity i alerty przy nietypowych wzrostach.
  • EU AI Act compliance — system klasyfikowany jako AI ograniczonego ryzyka, z pełnymi obowiązkami transparentności (Art. 50): baner informujący o AI, oznaczenie treści generowanych, metadane eksportu.

Najczęstsze pytania

Czym jest system wieloagentowy?
System wieloagentowy AI to architektura, w której kilka lub kilkadziesiąt wyspecjalizowanych agentów AI współpracuje przy rozwiązaniu zadań. Każdy agent ma swoją rolę (np. asystent CEO, controller finansowy, security reviewer, backend developer), własne narzędzia (API, dostęp do baz danych, internet), pamięć (epizodyczną — co zrobił wcześniej, semantyczną — wiedza dziedzinowa) i strategię działania. Zamiast jednego ogólnego chatbota, firma dostaje zespół AI z jasnym podziałem odpowiedzialności.
Czym to się różni od pojedynczego chatbota w stylu ChatGPT?
Pojedynczy chatbot świetnie radzi sobie z prostymi zadaniami tekstowymi, ale gdy zadanie wymaga: dostępu do firmowych baz danych, integracji z systemami biznesowymi (CRM, ERP, email), wykonania sekwencji kroków, pamięci o poprzednich interakcjach, weryfikacji jakości — chatbot przestaje wystarczać. System wieloagentowy rozwiązuje to przez specjalizację (agent finansowy zna księgowość, agent prawny zna RODO), współpracę (agenty potrafią się konsultować) i orkiestrację (mechanizm wyboru, który agent dostanie które zadanie).
Jakie zadania można delegować do systemu wieloagentowego?
W praktyce: zarządzanie kalendarzem i pocztą CEO, klasyfikacja i odpowiadanie na e-maile klientów, monitorowanie zmian prawnych, przygotowywanie raportów finansowych, code review pull requestów, generowanie dokumentacji, automatyzacja onboardingu pracowników, obsługa zgłoszeń wsparcia, analiza dokumentów (umów, faktur, ofert), monitoring social media i wzmianek o marce, generowanie treści marketingowych. Im bardziej powtarzalne i opisywalne procedurą — tym lepiej nadaje się do automatyzacji.
Czy systemy wieloagentowe są drogie w utrzymaniu?
Zależy od architektury kosztów. Jeśli każdy agent używa najmocniejszego modelu LLM dla każdego zadania, miesięczny koszt szybko rośnie. Dlatego stosujemy wielopoziomowy routing modeli LLM: drobne zadania trafiają do lokalnych modeli (Ollama na GPU w infrastrukturze klienta — koszt operacyjny zbliżony do 0), średnie zadania do tańszych modeli chmurowych, tylko najbardziej złożone decyzje do najmocniejszych modeli. Dzięki temu typowy klient płaci ułamek tego, co przy jednolitym użyciu najmocniejszych modeli.
Jak agenty się ze sobą komunikują?
Dwie główne ścieżki: synchroniczna (agent A zadaje pytanie agentowi B i czeka na odpowiedź) i asynchroniczna (agent A wrzuca zadanie do kolejki, agent B przetwarza w swoim tempie, agent A dostaje powiadomienie o wyniku). Centralna platforma orkiestracji zarządza routingiem, zachowuje historię konwersacji (audit trail), kontroluje koszty (limity tokenów per agent, per użytkownik). Cała komunikacja jest logowana — można odtworzyć każdą interakcję między agentami i sprawdzić, jak doszło do konkretnej decyzji.
Co z bezpieczeństwem danych w systemie wieloagentowym?
Trzy warstwy zabezpieczeń. Po pierwsze: anonimizacja PII (dane osobowe, numery kont, NIP-y, adresy) przed wysłaniem do zewnętrznych modeli LLM — używamy do tego mikroserwisu Anoxy, który skanuje treść przed wysłaniem. Po drugie: izolacja agentów — każdy agent ma minimalne uprawnienia (least privilege), nie widzi danych spoza swojej domeny. Po trzecie: opcja działania na infrastrukturze klienta — modele LLM mogą działać lokalnie (Ollama na GPU), bez wychodzenia danych poza sieć klienta. Zgodność z RODO i wytycznymi EU AI Act.
Czy agenty mogą popełniać błędy? Co wtedy?
Tak, każdy model LLM może halucynować, popełniać błędy logiczne lub niepoprawnie zinterpretować kontekst. Strategie minimalizacji: 1) walidacja wyników (np. agent finansowy musi zwrócić liczby w określonym formacie, walidator sprawdza zgodność); 2) double-checking dla krytycznych decyzji (drugi agent niezależnie sprawdza wynik pierwszego); 3) eskalacja do człowieka (przy niskim confidence score lub nietypowym przypadku); 4) audit trail (każda decyzja zapisana — można cofnąć, przeanalizować, ulepszyć prompt). Krytyczne decyzje finansowe i prawne nigdy nie są autonomiczne — wymagają zatwierdzenia człowieka.
Jak wygląda wdrożenie systemu wieloagentowego w firmie?
Typowo cztery fazy. 1) Discovery (2-4 tygodnie): identyfikacja procesów do automatyzacji, ocena ROI dla każdego, wybór 2-3 pilotażowych. 2) Pilotaż (4-8 tygodni): wdrożenie pierwszych agentów dla wybranych procesów, mierzenie wpływu, dopracowanie. 3) Skalowanie (3-6 miesięcy): rozszerzanie na kolejne procesy i działy, integracja z istniejącymi systemami. 4) Optymalizacja (continuous): doskonalenie agentów na podstawie danych z produkcji, dodawanie nowych ról, redukcja kosztów modeli LLM.
Czy system wieloagentowy zastąpi pracowników?
Zastąpi konkretne zadania, ale nie ludzi. Najczęstszy efekt: pracownicy odzyskują czas (typowo 30-50% w działach administracyjnych), który mogą poświęcić na zadania wymagające ludzkiego osądu, kreatywności, budowania relacji. Firmy nie zwalniają — przeciwnie, częściej rosną szybciej (więcej projektów obsłużonych przez ten sam zespół). Wyjątek: powtarzalne zadania niskiej wartości (np. ręczne kopiowanie danych między systemami) — te znikają i nikt za nimi nie tęskni.
Jakie technologie stoją za systemami wieloagentowymi?
Najczęstsze frameworki: Microsoft AutoGen, CrewAI, LangGraph, Haystack Agents. Modele LLM: Anthropic Claude, OpenAI GPT, lokalne modele Llama, Mistral, polski Bielik. Vector databases dla pamięci semantycznej: Qdrant, Weaviate, pgvector. Message queues dla async: Redis, RabbitMQ, Kafka. Monitoring: Prometheus + Grafana, Sentry, OpenTelemetry. W ESKOM AI łączymy to wszystko w jedną wewnętrzną platformę (HybridCrew) z pełną obserwowalnością, kontrolą kosztów i compliance.

Pierwszy pilotaż w 4-8 tygodni

Wybieramy 2-3 procesy biznesowe z największym potencjałem ROI i wdrażamy pilotażowe agenty. Mierzymy wpływ, dopracowujemy i decydujemy o skalowaniu.