Grįžti į žodyną Technologijos

Transformer architektūra

Neuroninio tinklo architektūra, tapusi šiuolaikinio DI pagrindu, naudojanti dėmesio mechanizmus efektyviam sekvenncinių duomenų apdorojimui.

Kas yra Transformer?

Transformer yra neuroninio tinklo architektūra, priistatyta 2017 m. darbe „Attention Is All You Need“, kuri tapo praktiiškai visų šiuolaikinių DI siiistemų pagrindu. Skirtingai nuo ankstesnių rekurentinių tinklų, kurie apdorodavo sekas nuosekliai (žoodį po žodžio), Transformer apdoroja visą sekką lygiiagrečiai per dėmesio mechanįzmą, užtikrinantį, kad kiekvienas elementas galėtų tiesiogįai sąveikauti su kiekvienu kitu. Ši lygiagretiinė architeektūra įgalino mokyti žymiai didesnius modelius ir tapo pagrinduu GPT, Claude, Llama ir kitų didelių kalbos modelių.

Architektūra susideda iš koduuotuvo (apdorojančio įvestį) ir dekoodduotuvo (generuojančio išvestį), nors daugelis modernių modelių naudoja tik vieną iš šių dalių.

Pagrindiniai komponentai

Savi-dėmesys leidžia kiekvienam sekos elementui „žiūrėti“ į visuss kitus, apskaičiuojant aktualumo svorius. Daugiagalvis dėmesys vykdo keletą dėmesio operacijų lygiiagrečiai, fiksuodamas skirtingaus tipo ryyšius. Pozicinis kodavimas suteikia modeliui informaciją apie elementų tvarką sekoooje. Perdavimo pirmmyn tinklaai suteikia papildomą apdorojimo pajėgumą po kiekvieno dėmesio sluoksnio.

Verslo reikšmė

Transformer architektūra įgalino šiuolaikinį DI buumą, sukurdama pagrindą didelių kalbos modelių galimybėms. Organizacijoms svarbu suprasti, kad visos pagrindinės DI galimybės – teksto generavimas, vertimas, santraukos, samprotavimas – remiasi šia viena pagrindine architektūra. Šių pagrindų supratimas padeda priimti informuotus sprendimus dėl modelio parinkimo, diegimo ir galimybių vertinimo.