Vissza a szójegyzékhez Technológia

Mixture of Experts (MoE)

Neurális hálózat architektúra, amely specializált "szakértő" almodellekből áll, ahol kapuátvevők döntik el, hogy az egyes bemenetekre melyik szakértőt alkalmazzák.

A MoE architektúra megértése

A Mixture of Experts (MoE) egy neurális hálózat architektúra, amelyben a hálózat egy nagyobb szakértői almodellek gyűjteményéből áll, és egy kapu (gating) mechanizmus dönti el, hogy az egyes bemenetekre melyik szakértő(k)et alkalmaz. Ahelyett, hogy minden paramétert minden bemeneten aktiválnának, a MoE modellek ritkán aktiválnak (sparse activation) — csak a releváns szakértők részvételét igénylő számításokat hajtják végre.

MoE előnyei

A ritka aktiválás lehetővé teszi a nagyon nagy összmodell-méreteket anélkül, hogy arányosan növekedne az egy inferenciás lépés számítási költsége. A GPT-4 és más frontier modellek feltehetően MoE architektúrát alkalmaznak. A specializáció azt jelenti, hogy a különböző szakértők különböző típusú bemeneti mintázatokra specializálódnak.

Kihívások és megfontolások

A terheléselosztás kritikus a MoE modellekben: ha a kapuátvevő mindig ugyanazokat a szakértőket választja, a modell hatékonyan egyetlen sűrű modellé alakul. A szakértők eloszlása a tárolási és memória-komplexitást vonja maga után az inferencia során. A hibrid MoE-dense megközelítések néha jobb teljesítményt nyújtanak.