Wróć do słownika Technologia

Mixture of Experts (MoE)

Architektura AI aktywująca tylko podzbiór parametrów dla każdego zapytania, łącząca dużą pojemność modelu z efektywnym wykorzystaniem zasobów.

Czym jest Mixture of Experts?

Mixture of Experts (MoE) to architektura sieci neuronowej, w której model składa się z wielu wyspecjalizowanych podsieci ("ekspertów") oraz mechanizmu bramkującego (gating network), który dla każdego tokenu wybiera jedynie kilku najodpowiedniejszych ekspertów. Dzięki temu model może mieć ogromną liczbę parametrów, ale dla każdego zapytania aktywuje tylko ich niewielki ułamek — co drastycznie obniża koszt obliczeniowy inferencji.

Jak działa routing ekspertów?

Sieć bramkująca analizuje dane wejściowe i przypisuje każdy token do najlepiej dopasowanych ekspertów (zazwyczaj 2 z 8 lub więcej). Każdy ekspert specjalizuje się w innym typie wiedzy — np. rozumowaniu matematycznym, generowaniu kodu czy analizie języka naturalnego. Mechanizm równoważenia obciążeń (load balancing) zapobiega sytuacji, w której jeden ekspert byłby przeciążony, a inne niewykorzystane.

Znaczenie dla wdrożeń AI

Architektura MoE (stosowana m.in. w Mixtral i GPT-4) jest szczególnie istotna dla organizacji, które potrzebują modeli o szerokich kompetencjach przy ograniczonym budżecie obliczeniowym. Koncepcja specjalizacji ekspertów ma analogię w wieloagentowych systemach korporacyjnych, gdzie dziesiątki wyspecjalizowanych agentów AI obsługują różne domeny biznesowe, a inteligentny routing kieruje każde zadanie do najbardziej kompetentnego agenta.