Pillar page

Sistemas multi-agente de IA

Uma equipa de agentes de IA especializados em vez de um único chatbot generalista. Orquestração, routing multi-tier de modelos LLM, memória episódica, controlo de custo e audit trail completo. Internamente usamos a plataforma HybridCrew para entregar serviços aos clientes.

Um único chatbot ao estilo do ChatGPT é uma ferramenta de uso geral. Compreende bem a linguagem, gera texto, responde a perguntas — mas no momento em que uma tarefa exige uma sequência de ações, acesso a bases de dados da empresa, memória de interações anteriores ou verificação de qualidade, os seus limites tornam-se visíveis.

Um sistema multi-agente de IA é uma arquitetura diferente: uma equipa de agentes especializados, cada um com o seu papel, ferramentas, memória e estratégia de atuação. O assistente do CEO classifica e-mail. O controller financeiro gera relatórios. O security reviewer analisa o código. O content writer escreve rascunhos de marketing. Tudo coordenado por um orquestrador que decide quem recebe que tarefa.

Porque vencem os sistemas multi-agente

A especialização em IA funciona como no negócio. Em vez de uma pessoa que „sabe um pouco de tudo", uma equipa de especialistas entrega melhores resultados. Um agente focado num tipo de tarefa — com prompts otimizados, o modelo LLM certo, acesso às ferramentas adequadas — faz o trabalho melhor e mais barato do que um modelo generalista que tenta adivinhar o contexto do zero.

Segunda vantagem: controlo de custo. A maioria das tarefas não exige o modelo LLM mais potente. Classificações simples, geração de conteúdo a partir de templates, extração de dados de documentos estruturados — tudo isso pode ser feito por modelos locais e gratuitos a correr na GPU do cliente. Só as decisões mais complexas vão para os modelos cloud mais fortes. Custo operacional típico: uma fração do que custaria a utilização uniforme dos modelos mais potentes.

Terceira: conformidade e segurança. Cada agente tem permissões mínimas (least privilege). Cada interação é registada (audit trail). Os dados pessoais são anonimizados antes do envio para modelos externos (microsserviço Anoxy). Toda a arquitetura é desenhada em conformidade com o RGPD e o EU AI Act desde a primeira linha de código.

Componentes de um sistema multi-agente de nível enterprise

Nove elementos que têm de funcionar em conjunto para que um sistema multi-agente esteja apto a utilização produtiva numa empresa.

Agentes especializados

Cada agente tem uma responsabilidade: assistente do CEO, controller financeiro, security reviewer, backend developer, content writer. A especialização produz melhores resultados do que um único chatbot generalista.

Orquestrador

A camada central que decide qual o agente que recebe que tarefa. Baseia-se em classificação de intenção, disponibilidade dos agentes, custo dos modelos LLM e contexto de negócio.

Routing multi-tier de LLM

Tarefas simples → modelo local (Ollama, custo zero). Médias → modelo cloud mais barato. Complexas → modelos cloud mais potentes. Redução drástica de custo sem perda de qualidade.

Memória episódica

Os agentes lembram-se do que fizeram antes, dos resultados, do que funcionou. Com o tempo tornam-se melhores em tarefas repetitivas — aprendem em cada interação.

Memória semântica

Base vetorial de conhecimento de domínio (Qdrant, pgvector). Os agentes podem encontrar rapidamente casos semelhantes do passado, documentos de referência, políticas da empresa.

Anonimização de PII (Anoxy)

Antes de o conteúdo chegar a LLMs externos, o microsserviço dedicado Anoxy analisa e anonimiza os dados pessoais. Conformidade com o RGPD sem trade-offs funcionais.

Audit trail

Cada interação entre agentes é registada: quem, a quem, o que perguntou, que resposta deu, que LLMs foram usados, qual o custo. Total observabilidade.

Monitorização e controlo de custo

Limites por agente, por utilizador, por organização. Dashboard com custos em tempo real. Alertas em picos invulgares de utilização. Otimização do routing com base em dados.

Escalonamento para humano

Baixa pontuação de confiança, decisão financeira ou jurídica crítica, caso atípico → escalonamento automático para um operador humano com contexto completo.

Aplicações dentro da empresa

Seis áreas em que os sistemas multi-agente de IA entregam valor de negócio mensurável. Cada uma é implementada como um piloto de 4-8 semanas.

Assistente do CEO

Classifica e responde a e-mails, marca reuniões, prepara briefings antes de conversas, resume documentos longos, monitoriza prazos. Tipicamente poupa ao CEO 10-15 horas de administração por semana.

Conformidade e monitorização jurídica

Monitorização contínua de alterações legais, classificação do impacto na empresa, alertas em novas obrigações. Geração de relatórios iniciais de RGPD, EU AI Act, ISO 27001. Rascunhos de políticas e procedimentos.

Desenvolvimento de software

Revisão de código, geração de testes, escrita de documentação, refactor, geração de migrações de base de dados. Duas ou três pessoas com agentes entregam o valor de uma equipa de 8-10 pessoas.

Apoio ao cliente

Classificação de tickets, respostas automáticas a perguntas repetitivas (com base na base de conhecimento), escalonamento para humano em casos complexos. Tempo de primeira resposta reduzido de horas para minutos.

Análise de documentos

Extração de dados de contratos, faturas, propostas. Comparação de condições comerciais. Deteção de inconsistências e riscos. Geração de resumos e relatórios para a equipa jurídica.

Vendas e marketing

Monitorização de redes sociais e menções à marca, classificação de sentimento, geração de respostas (revistas por humano antes da publicação), criação de rascunhos de conteúdo de marketing.

Chatbot vs. sistema multi-agente

AspetoChatbot único (ChatGPT/Copilot)Sistema multi-agente
EspecializaçãoModelo generalista, „sabe um pouco de tudo"Agentes especializados por domínio
Acesso a dados da empresaLimitado (copy-paste para a janela do chat)Nativo (integração com CRM, ERP, bases de dados)
MemóriaSessão de chat (tipicamente 1-2 horas)Memória episódica + semântica (persistente)
Routing de custosUm modelo para todas as tarefasMulti-tier (local → cloud → premium)
Execução de açõesGera texto, não executa açõesChama APIs, escreve em bases de dados, envia e-mails
Audit trailInexistente (ou rudimentar)Completo — cada interação registada
Anonimização de PIIDepende do utilizadorForçada e automática (Anoxy)
Conformidade (RGPD, EU AI Act)Difícil de demonstrarIncorporada na arquitetura

Plataforma de referência: HybridCrew

O HybridCrew é a plataforma interna da ESKOM AI utilizada para fornecer serviços aos clientes. Orquestra dezenas de agentes de IA especializados — cada um com o seu papel (ex. assistente de organização, controller financeiro, project manager, backend developer, security reviewer), interface em polaco, acesso a ferramentas e integrações com sistemas de negócio.

Principais características técnicas:

  • Routing multi-tier de LLM — desde modelos locais gratuitos (Ollama) até aos modelos cloud mais potentes. Seleção de modelo automática, com base na complexidade da tarefa.
  • Integrações abrangentes — Gmail, Slack, Jira, Confluence, Microsoft Graph, Salesforce, Airtable e muitas outras. Podemos ligar qualquer API do cliente.
  • Email Intelligence — classificação automática do e-mail do CEO, reconhecimento de intenção, geração de respostas para aprovação.
  • Anoxy — anonimização de PII — microsserviço dedicado que anonimiza dados pessoais antes do envio para modelos externos. Conformidade com o RGPD sem compromissos.
  • Memória episódica e semântica — os agentes aprendem com a experiência e podem aceder a conhecimento de domínio numa base vetorial.
  • Monitorização de custos — dashboard com custos em tempo real por agente, por utilizador, por organização. Limites e alertas em picos invulgares.
  • Conformidade com o EU AI Act — o sistema é classificado como IA de risco limitado, com as obrigações plenas de transparência (Art. 50): banner a informar sobre IA, marcação de conteúdos gerados, metadados de exportação.

Perguntas frequentes

O que é um sistema multi-agente?
Um sistema multi-agente de IA é uma arquitetura na qual alguns ou várias dezenas de agentes de IA especializados cooperam na resolução de tarefas. Cada agente tem o seu papel (ex. assistente do CEO, controller financeiro, security reviewer, backend developer), as suas ferramentas (APIs, acesso a bases de dados, Internet), memória (episódica — o que fez antes, semântica — conhecimento de domínio) e estratégia de atuação. Em vez de um único chatbot generalista, a empresa fica com uma equipa de IA com clara divisão de responsabilidades.
Em que se distingue de um único chatbot ao estilo do ChatGPT?
Um único chatbot lida bem com tarefas de texto simples, mas quando a tarefa exige: acesso a bases de dados da empresa, integração com sistemas de negócio (CRM, ERP, e-mail), execução de uma sequência de passos, memória de interações anteriores, verificação de qualidade — o chatbot deixa de ser suficiente. Um sistema multi-agente resolve isto através de especialização (o agente financeiro percebe de contabilidade, o agente jurídico percebe de RGPD), colaboração (os agentes podem consultar-se) e orquestração (o mecanismo que escolhe qual o agente que recebe que tarefa).
Que tarefas podem ser delegadas a um sistema multi-agente?
Na prática: gerir o calendário e a caixa de entrada do CEO, classificar e responder a e-mails de clientes, monitorizar alterações legais, preparar relatórios financeiros, fazer revisão de código de pull requests, gerar documentação, automatizar o onboarding de colaboradores, tratar tickets de apoio, analisar documentos (contratos, faturas, propostas), monitorizar redes sociais e menções à marca, gerar conteúdo de marketing. Quanto mais repetitiva e procedimental — melhor se presta à automatização.
Os sistemas multi-agente são caros de operar?
Depende da arquitetura de custos. Se cada agente usa o modelo LLM mais potente em cada tarefa, o custo mensal aumenta rapidamente. É por isso que aplicamos routing multi-tier de LLM: as tarefas simples vão para modelos locais (Ollama na GPU do cliente — custo operacional próximo de zero), as tarefas médias para modelos cloud mais baratos, só as decisões mais complexas para os modelos mais potentes. Assim, um cliente típico paga uma fração do que custaria utilizar uniformemente os modelos mais potentes.
Como comunicam os agentes entre si?
Dois caminhos principais: síncrono (o agente A faz uma pergunta ao agente B e espera pela resposta) e assíncrono (o agente A coloca uma tarefa numa fila, o agente B processa ao seu ritmo, o agente A é notificado do resultado). A plataforma central de orquestração gere o routing, preserva o histórico de conversação (audit trail) e controla o custo (limites de tokens por agente, por utilizador). Toda a comunicação é registada — qualquer interação entre agentes pode ser reproduzida e o caminho até uma decisão específica pode ser inspecionado.
E a segurança dos dados num sistema multi-agente?
Três camadas de proteção. Primeira: anonimização de PII (dados pessoais, números de conta, números de contribuinte, moradas) antes do envio para modelos LLM externos — usamos para isso o microsserviço Anoxy, que analisa o conteúdo antes de sair. Segunda: isolamento dos agentes — cada agente tem permissões mínimas (least privilege), não vê dados fora do seu domínio. Terceira: opção de correr na infraestrutura do cliente — os modelos LLM podem correr localmente (Ollama em GPU), sem que os dados saiam da rede do cliente. Conforme com o RGPD e alinhado com a orientação do EU AI Act.
Os agentes podem cometer erros? E nesse caso?
Sim — cada modelo LLM pode alucinar, cometer erros lógicos ou interpretar mal o contexto. Estratégias de mitigação: 1) validação de resultados (ex. o agente financeiro tem de devolver números num formato específico, um validador verifica a conformidade); 2) double-checking para decisões críticas (um segundo agente verifica de forma independente o resultado do primeiro); 3) escalonamento para humano (em baixa pontuação de confiança ou em casos atípicos); 4) audit trail (cada decisão registada — pode ser revertida, analisada, o prompt melhorado). Decisões financeiras e jurídicas críticas nunca são autónomas — exigem aprovação humana.
Como decorre a implementação de um sistema multi-agente numa empresa?
Tipicamente quatro fases. 1) Discovery (2-4 semanas): identificação dos processos para automatizar, avaliação de ROI para cada um, seleção de 2-3 candidatos a piloto. 2) Piloto (4-8 semanas): implementação dos primeiros agentes nos processos selecionados, medição de impacto, afinação. 3) Escalonamento (3-6 meses): expansão para mais processos e departamentos, integração com sistemas existentes. 4) Otimização (contínua): refinamento dos agentes com base em dados de produção, adição de novos papéis, redução de custos de modelos LLM.
Um sistema multi-agente vai substituir colaboradores?
Substitui tarefas específicas, não pessoas. O resultado mais comum: os colaboradores recuperam tempo (tipicamente 30-50% em departamentos administrativos), que podem dedicar a tarefas que exigem julgamento humano, criatividade, construção de relações. As empresas não despedem — pelo contrário, crescem mais depressa (mais projetos servidos pela mesma equipa). Exceção: tarefas repetitivas de baixo valor (ex. cópia manual de dados entre sistemas) — essas desaparecem e ninguém tem saudades delas.
Que tecnologias suportam os sistemas multi-agente?
Frameworks mais comuns: Microsoft AutoGen, CrewAI, LangGraph, Haystack Agents. Modelos LLM: Anthropic Claude, OpenAI GPT, Llama e Mistral locais, Bielik polaco. Bases vetoriais para memória semântica: Qdrant, Weaviate, pgvector. Filas de mensagens para assíncrono: Redis, RabbitMQ, Kafka. Monitorização: Prometheus + Grafana, Sentry, OpenTelemetry. Na ESKOM AI combinamos tudo isto numa única plataforma interna (HybridCrew) com total observabilidade, controlo de custo e conformidade.

Primeiro piloto em 4-8 semanas

Escolhemos 2-3 processos de negócio com maior potencial de ROI e lançamos agentes piloto. Medimos o impacto, afinamos e decidimos sobre o escalonamento.