Retour au glossaire Technologie

Mixture of Experts (MoE)

Une architecture IA dans laquelle différents sous-réseaux spécialisés sont activés sélectivement pour différentes entrées.

Qu'est-ce que Mixture of Experts ?

Mixture of Experts (MoE) est une architecture de réseau de neurones qui combine plusieurs sous-réseaux "experts" spécialisés. Un réseau de passerelle (routeur) décide dynamiquement quels experts sont activés pour une entrée donnée. Au lieu d'utiliser tous les paramètres pour chaque entrée, MoE n'active qu'un sous-ensemble d'experts, ce qui augmente considérablement l'efficacité.

Avantages et implémentation

MoE permet de construire des modèles avec beaucoup plus de paramètres sans augmenter proportionnellement le coût de calcul. GPT-4 et Mixtral utilisent des architectures MoE et atteignent de hautes performances à des coûts d'inférence réduits. Typiquement, dans les modèles MoE, seuls 2 à 8 des nombreux experts sont activés par token.

Pertinence pour les entreprises

Pour les entreprises, MoE offre la possibilité d'exploiter une IA puissante à des coûts d'inférence significativement réduits. Les modèles MoE peuvent développer une expertise spécialisée pour différents types de tâches, ce qui est particulièrement avantageux pour les applications d'entreprise polyvalentes.