Pillar page

Systèmes multi-agents IA

Une équipe d'agents IA spécialisés au lieu d'un chatbot généraliste unique. Orchestration, routage multi-niveaux de modèles LLM, mémoire épisodique, contrôle des coûts et audit trail complet. En interne, nous utilisons la plateforme HybridCrew pour livrer des services aux clients.

Un chatbot de type ChatGPT est un outil généraliste. Il comprend très bien le langage, génère du texte, répond aux questions — mais dès qu'une tâche exige une séquence d'actions, un accès aux bases de données de l'entreprise, une mémoire des interactions précédentes ou une vérification qualité, ses limites apparaissent.

Un système multi-agents IA est une architecture différente : une équipe d'agents spécialisés, chacun avec son propre rôle, ses outils, sa mémoire et sa stratégie d'action. L'assistant CEO classifie les e-mails. Le contrôleur financier génère les rapports. Le security reviewer scanne le code. Le content writer rédige les drafts marketing. Tout est coordonné par un orchestrateur qui décide qui reçoit quelle tâche.

Pourquoi les systèmes multi-agents l'emportent

La spécialisation en IA fonctionne comme dans le business. Au lieu d'une seule personne qui « sait un peu de tout », une équipe de spécialistes obtient de meilleurs résultats. Un agent concentré sur un type de tâche — avec des prompts optimisés, le bon modèle LLM, l'accès aux bons outils — fait le travail mieux et moins cher qu'un modèle généraliste qui essaie de deviner le contexte à partir de zéro.

Deuxième avantage : le contrôle des coûts. La plupart des tâches n'exigent pas le modèle LLM le plus puissant. Petites classifications, génération de contenu modélisé, extraction de données depuis des documents structurés — tout cela peut être fait par des modèles locaux et gratuits tournant sur le GPU du client. Seules les décisions les plus complexes vont vers les modèles cloud les plus puissants. Coût d'exploitation typique : une fraction de ce que coûterait un usage uniforme des modèles les plus puissants.

Troisième : conformité et sécurité. Chaque agent a des permissions au moindre privilège. Chaque interaction est journalisée (audit trail). Les données personnelles sont anonymisées avant d'être envoyées aux modèles externes (microservice Anoxy). Toute l'architecture est conçue conformément au RGPD et à l'EU AI Act dès la première ligne de code.

Composants d'un système multi-agents de classe enterprise

Neuf éléments qui doivent fonctionner ensemble pour qu'un système multi-agents soit prêt pour la production en entreprise.

Agents spécialisés

Chaque agent a une seule responsabilité : assistant CEO, contrôleur financier, security reviewer, backend developer, content writer. La spécialisation produit de meilleurs résultats qu'un chatbot généraliste unique.

Orchestrateur

La couche centrale qui décide quel agent reçoit quelle tâche. Basée sur la classification d'intention, la disponibilité des agents, le coût des modèles LLM et le contexte métier.

Routage LLM multi-niveaux

Petites tâches → modèle local (Ollama, coût $0). Moyennes → modèle cloud moins cher. Complexes → modèles cloud les plus puissants. Réduction drastique des coûts sans perte de qualité.

Mémoire épisodique

Les agents se souviennent de ce qu'ils ont fait auparavant, des résultats obtenus, de ce qui a fonctionné. Avec le temps, ils s'améliorent sur les tâches répétitives — ils apprennent de chaque interaction.

Mémoire sémantique

Base vectorielle de connaissances domaine (Qdrant, pgvector). Les agents peuvent rapidement trouver des cas similaires passés, des documents de référence, des politiques d'entreprise.

Anonymisation des données (Anoxy)

Avant que le contenu n'atteigne les LLM externes, le microservice dédié Anoxy scanne et anonymise les données personnelles. Conformité RGPD sans compromis fonctionnel.

Audit trail

Chaque interaction entre agents est enregistrée : qui, à qui, ce qui a été demandé, quelle réponse, quels LLM utilisés, quel coût. Observabilité complète.

Monitoring et contrôle des coûts

Limites par agent, par utilisateur, par organisation. Tableau de bord des coûts en temps réel. Alertes en cas de pic d'usage inhabituel. Optimisation du routage basée sur les données.

Escalade humaine

Score de confiance bas, décision financière ou juridique critique, cas atypique → escalade automatique vers un opérateur humain avec contexte complet.

Applications dans l'entreprise

Six domaines où les systèmes multi-agents IA délivrent une valeur métier mesurable. Chacun est déployé en pilote de 4 à 8 semaines.

Assistant CEO

Classifie et répond aux e-mails, planifie les réunions, prépare des briefs avant les appels, résume les longs documents, surveille les deadlines. Économise typiquement au CEO 10 à 15 heures d'administration par semaine.

Conformité et monitoring juridique

Veille continue des changements légaux, classification de l'impact sur l'entreprise, alertes sur les nouvelles obligations. Génération de rapports préliminaires RGPD, EU AI Act, ISO 27001. Drafts de politiques et procédures.

Développement logiciel

Revue de code, génération de tests, rédaction de documentation, refactoring, génération de migrations de base de données. Deux ou trois personnes avec des agents délivrent la valeur d'une équipe de 8 à 10 personnes.

Service client

Classification des tickets, réponses automatiques aux questions répétitives (basées sur la base de connaissances), escalade aux humains pour les cas complexes. Réduction du temps de première réponse d'heures à minutes.

Analyse de documents

Extraction de données depuis les contrats, factures, devis. Comparaison des conditions commerciales. Détection d'incohérences et de risques. Génération de résumés et de rapports pour l'équipe juridique.

Vente et marketing

Monitoring des réseaux sociaux et des mentions de la marque, classification du sentiment, génération de réponses (vérifiées par un humain avant publication), création de contenus marketing préliminaires.

Chatbot vs. système multi-agents

AspectChatbot unique (ChatGPT/Copilot)Système multi-agents
SpécialisationModèle général, « sait un peu de tout »Agents spécialisés par domaine
Accès aux données d'entrepriseLimité (copier-coller dans la fenêtre de chat)Natif (intégration avec CRM, ERP, bases de données)
MémoireSession de chat (typiquement 1-2 h)Mémoire épisodique + sémantique (persistante)
Routage des coûtsUn seul modèle pour toutes les tâchesMulti-niveaux (local → cloud → premium)
Exécution d'actionsGénère du texte, n'exécute pas d'actionsAppelle des API, écrit dans des bases, envoie des e-mails
Audit trailAucun (ou rudimentaire)Complet — chaque interaction enregistrée
Anonymisation PIIDépend de l'utilisateurImposée, automatique (Anoxy)
Conformité (RGPD, EU AI Act)Difficile à prouverIntégrée à l'architecture

Plateforme de référence : HybridCrew

HybridCrew est une plateforme interne d'ESKOM AI que nous utilisons pour livrer des services aux clients. Elle orchestre des dizaines d'agents IA spécialisés — chacun avec son propre rôle (par ex. assistant d'organisation, contrôleur financier, project manager, backend developer, security reviewer), une interface en polonais, l'accès aux outils et des intégrations avec les systèmes métier.

Principales caractéristiques techniques :

  • Routage LLM multi-niveaux — des modèles locaux gratuits (Ollama) jusqu'aux modèles cloud les plus puissants. Sélection automatique du modèle, basée sur la complexité de la tâche.
  • Intégrations larges — Gmail, Slack, Jira, Confluence, Microsoft Graph, Salesforce, Airtable et bien d'autres. Nous pouvons connecter n'importe quelle API client.
  • Email Intelligence — classification automatique des e-mails CEO, reconnaissance d'intention, génération de réponses pour validation.
  • Anoxy — anonymisation PII — microservice dédié qui anonymise les données personnelles avant leur envoi vers les modèles externes. Conformité RGPD sans compromis.
  • Mémoire épisodique et sémantique — les agents apprennent de l'expérience et peuvent puiser dans les connaissances domaine en base vectorielle.
  • Monitoring des coûts — tableau de bord des coûts en temps réel par agent, par utilisateur, par organisation. Limites et alertes en cas de pic inhabituel.
  • Conformité EU AI Act — le système est classé IA à risque limité, avec les obligations de transparence complètes de l'Art. 50 : bannière informant de l'IA, marquage des contenus générés, métadonnées d'export.

Questions fréquentes

Qu'est-ce qu'un système multi-agents ?
Un système multi-agents IA est une architecture dans laquelle plusieurs ou plusieurs dizaines d'agents IA spécialisés collaborent pour résoudre des tâches. Chaque agent a son rôle (par ex. assistant CEO, contrôleur financier, security reviewer, backend developer), ses propres outils (API, accès aux bases de données, internet), sa mémoire (épisodique — ce qu'il a fait auparavant, sémantique — connaissance domaine) et sa stratégie d'action. Au lieu d'un chatbot généraliste unique, l'entreprise obtient une équipe IA avec un partage clair des responsabilités.
En quoi cela diffère-t-il d'un chatbot unique de type ChatGPT ?
Un chatbot unique gère bien les tâches textuelles simples, mais dès qu'une tâche exige : accès aux bases de données de l'entreprise, intégration avec les systèmes métier (CRM, ERP, email), exécution d'une séquence d'étapes, mémoire des interactions précédentes, vérification qualité — le chatbot ne suffit plus. Un système multi-agents résout cela par la spécialisation (l'agent finance connaît la comptabilité, l'agent juridique connaît le RGPD), la collaboration (les agents peuvent se consulter) et l'orchestration (un mécanisme qui décide quel agent reçoit quelle tâche).
Quelles tâches peut-on déléguer à un système multi-agents ?
En pratique : gestion du calendrier et de la boîte mail du CEO, classification et réponse aux e-mails clients, monitoring des changements légaux, préparation de rapports financiers, revue de code des pull requests, génération de documentation, automatisation de l'onboarding des employés, gestion des tickets de support, analyse de documents (contrats, factures, devis), monitoring des réseaux sociaux et des mentions de la marque, génération de contenus marketing. Plus c'est répétitif et procédural — mieux cela se prête à l'automatisation.
Les systèmes multi-agents sont-ils chers à exploiter ?
Cela dépend de l'architecture de coûts. Si chaque agent utilise le modèle LLM le plus puissant pour chaque tâche, le coût mensuel monte vite. C'est pourquoi nous appliquons un routage multi-niveaux des modèles LLM : les petites tâches vont vers des modèles locaux (Ollama sur le GPU du client — coût d'exploitation proche de zéro), les tâches moyennes vers des modèles cloud moins chers, seules les décisions les plus complexes vers les modèles les plus puissants. Grâce à cela, un client typique paie une fraction de ce que coûterait un usage uniforme des modèles les plus puissants.
Comment les agents communiquent-ils entre eux ?
Deux chemins principaux : synchrone (l'agent A pose une question à l'agent B et attend la réponse) et asynchrone (l'agent A pousse une tâche dans une file d'attente, l'agent B la traite à son rythme, l'agent A reçoit une notification du résultat). La plateforme centrale d'orchestration gère le routage, conserve l'historique des conversations (audit trail) et contrôle les coûts (limites de tokens par agent, par utilisateur). Toute la communication est journalisée — chaque interaction entre agents peut être rejouée et le chemin vers une décision spécifique peut être inspecté.
Et la sécurité des données dans un système multi-agents ?
Trois couches de protection. Premièrement : anonymisation des PII (données personnelles, numéros de compte, identifiants fiscaux, adresses) avant l'envoi aux modèles LLM externes — nous utilisons le microservice dédié Anoxy qui scanne le contenu avant sa sortie. Deuxièmement : isolation des agents — chaque agent a des permissions au moindre privilège et ne voit pas les données hors de son domaine. Troisièmement : option d'exécution sur l'infrastructure du client — les modèles LLM peuvent tourner localement (Ollama sur GPU), sans que les données ne quittent le réseau du client. Conforme au RGPD et aligné avec les orientations de l'EU AI Act.
Les agents peuvent-ils faire des erreurs ? Que se passe-t-il alors ?
Oui — chaque LLM peut halluciner, faire des erreurs logiques ou mal interpréter le contexte. Stratégies d'atténuation : 1) validation des résultats (par ex. l'agent finance doit retourner des nombres dans un format spécifique, un validateur vérifie la conformité) ; 2) double vérification pour les décisions critiques (un second agent vérifie indépendamment le résultat du premier) ; 3) escalade humaine (sur score de confiance bas ou cas atypique) ; 4) audit trail (chaque décision enregistrée — peut être annulée, analysée, prompt amélioré). Les décisions financières et juridiques critiques ne sont jamais autonomes — elles exigent l'approbation humaine.
À quoi ressemble le déploiement d'un système multi-agents en entreprise ?
Typiquement quatre phases. 1) Discovery (2-4 semaines) : identification des processus à automatiser, évaluation du ROI pour chacun, choix de 2-3 candidats au pilote. 2) Pilote (4-8 semaines) : déploiement des premiers agents pour les processus sélectionnés, mesure de l'impact, fine-tuning. 3) Scaling (3-6 mois) : extension à plus de processus et de départements, intégration avec les systèmes existants. 4) Optimisation (continu) : raffinement des agents basé sur les données de production, ajout de nouveaux rôles, réduction du coût des modèles LLM.
Un système multi-agents va-t-il remplacer les employés ?
Il remplace des tâches spécifiques, pas des personnes. Effet le plus courant : les employés regagnent du temps (typiquement 30-50% dans les services administratifs), qu'ils peuvent consacrer à des tâches exigeant jugement humain, créativité, construction de relations. Les entreprises ne licencient pas — au contraire, elles croissent plus souvent plus vite (plus de projets traités par la même équipe). Exception : tâches répétitives à faible valeur (par ex. copier manuellement des données entre systèmes) — celles-là disparaissent, et personne ne les regrette.
Quelles technologies se cachent derrière les systèmes multi-agents ?
Frameworks les plus courants : Microsoft AutoGen, CrewAI, LangGraph, Haystack Agents. Modèles LLM : Anthropic Claude, OpenAI GPT, Llama et Mistral locaux, Bielik polonais. Bases vectorielles pour la mémoire sémantique : Qdrant, Weaviate, pgvector. Files de messages pour l'async : Redis, RabbitMQ, Kafka. Monitoring : Prometheus + Grafana, Sentry, OpenTelemetry. Chez ESKOM AI nous combinons tout cela dans une plateforme interne unique (HybridCrew) avec observabilité complète, contrôle des coûts et conformité.

Premier pilote en 4 à 8 semaines

Nous choisissons 2-3 processus métier au plus fort potentiel de ROI et déployons des agents pilotes. Nous mesurons l'impact, peaufinons et décidons du scaling.