Înapoi la glosar Tehnologie

Arhitectura Transformer

Arhitectura de rețea neurală cea mai influentă a AI-ului modern, bazată pe mecanisme de atenție, care permite dezvoltarea modelelor de bază actuale de NLP, viziune și multimodale.

Înțelegerea arhitecturii Transformer

Arhitectura Transformer a fost introdusă în lucrarea "Attention is All You Need" din 2017 și de atunci a devenit cel mai răspândit și mai influent fundament al deep learning-ului modern. Spre deosebire de modelele bazate pe RNN și LSTM care procesau secvențial textul, arhitectura Transformer permite procesarea paralelă a întregii secvențe.

Componente Transformer

Mecanismul de auto-atenție permite fiecărui element de intrare să interacționeze cu toate celelalte elemente simultan. Multi-head attention rulează mai multe blocuri de atenție în paralel. Codificarea pozițională adaugă informații de poziție. Structura encoder-decoder este arhitectura originală, urmată de variantele decoder-only și encoder-only.

De ce este important pentru AI enterprise?

Modelele bazate pe Transformer (GPT, Claude, Gemini) conduc aproape toate modelele de limbaj mari moderne. Înțelegerea arhitecturii Transformer ajută la interpretarea direcției de evoluție a capabilităților AI.