Voltar ao glossário Tecnologia

Arquitetura Transformer

A arquitetura de rede neural fundamental por detrás dos grandes modelos de linguagem modernos, baseada em mecanismos de auto-atenção.

O que é o Transformer?

O Transformer é uma arquitetura de rede neural profunda introduzida no paper seminal do Google de 2017 "Attention Is All You Need". Substituiu as redes neurais recorrentes (RNNs) como a arquitetura dominante para tarefas de processamento de linguagem natural ao eliminar a recorrência em favor de mecanismos de atenção que podem ser executados em paralelo. Praticamente todos os grandes modelos de linguagem modernos — GPT, Claude, Gemini, Llama — são construídos sobre variantes da arquitetura Transformer.

Por que os Transformers Dominam

Os Transformers superam as RNNs em vários aspectos críticos. A paralelização permite o treino em hardware de GPU/TPU moderno de forma muito mais eficiente do que arquiteturas sequenciais. A auto-atenção captura dependências de longo alcance em texto mais eficazmente do que RNNs que têm dificuldade com gradientes desvanecentes em sequências longas. O escalamento funciona dramaticamente bem para Transformers — aumentar o tamanho do modelo e os dados de treino continua a melhorar o desempenho de formas previsíveis.

Variantes Arquiteturais

O Transformer original era uma arquitetura encoder-decoder. Os Transformers encoder-only (como BERT) são excelentes para tarefas de compreensão como classificação e extração de entidades. Os Transformers decoder-only (como GPT, Claude, Llama) são otimizados para geração. Os Transformers encoder-decoder (como T5, BART) são usados para tarefas de sequência para sequência como tradução e sumarização. Compreender estas variantes ajuda a selecionar o modelo base adequado para diferentes tarefas empresariais.