Zurück zum Glossar Technologie

Mixture of Experts (MoE)

Eine KI-Architektur, bei der verschiedene spezialisierte Teilnetzwerke selektiv für verschiedene Eingaben aktiviert werden.

Was ist Mixture of Experts?

Mixture of Experts (MoE) ist eine neuronale Netzwerkarchitektur, die mehrere spezialisierte "Experten"-Teilnetzwerke kombiniert. Ein Gating-Netzwerk (Router) entscheidet dynamisch, welche Experten für eine gegebene Eingabe aktiviert werden. Statt alle Parameter für jede Eingabe zu nutzen, aktiviert MoE nur eine Teilmenge der Experten, was Effizienz erheblich steigert.

Vorteile und Implementierung

MoE ermöglicht es, Modelle mit wesentlich mehr Parametern zu bauen, ohne den Rechenaufwand proportional zu erhöhen. GPT-4 und Mixtral verwenden MoE-Architekturen und erreichen starke Leistung bei niedrigeren Inferenzkosten. Typischerweise werden bei MoE-Modellen nur 2-8 von vielen Experten pro Token aktiviert.

Unternehmensrelevanz

Für Unternehmen bietet MoE die Möglichkeit, leistungsstarke KI zu deutlich reduzierten Inferenzkosten zu betreiben. MoE-Modelle können für unterschiedliche Aufgabentypen spezialisierte Expertise entwickeln, was besonders für vielseitige Enterprise-Anwendungen vorteilhaft ist.