Lura lejn il-glossarju Teknoloġija

Arkitettura Transformer

L-arkitettura ta' netwerk newrali li tikkostitwixxi l-bażi tal-mudelli moderni tal-AI, inkluż il-mudelli kbar kollha tal-lingwa.

X'Inhu t-Transformer?

It-Transformer huwa arkitettura ta' netwerk newrali introdotta fl-artiklu "Attention Is All You Need" (Vaswani et al., 2017) li rrivoluzzjonat il-qasam tal-AI. Qabel it-Transformers, in-netwerks newrali rikorrenti (RNNs) kienu d-default għall-ipproċessar ta' sekwenzi, iżda kienu bilmod biex jitħarrġu u kellhom diffikultà jaqbdu dipendenzi fit-tul. It-Transformer reġa d-disinn kollu madwar il-mekkaniżmu tal-attenzjoni, li ppermettilu jipproċessa tokens kollha b'mod parallel u jaqbad relazzjonijiet bejn kwalunkwe żewġ pożizzjonijiet fis-sekwenza direttament.

L-arkitettura tikkonsisti minn encoder (jipproċessa l-input) u decoder (jiġġenera l-output), kull wieħed magħmul minn saffi ta' self-attention u feed-forward networks. Mudelli moderni spiss jużaw biss parti tal-arkitettura — encoder-only (BERT), decoder-only (GPT, Llama, Claude) jew encoder-decoder (T5, BART).

Għaliex it-Transformers Jiddominaw

Tliet fatturi jagħmlu t-Transformers dominanti: parallelizzazzjoni (il-tokens kollha jiġu pproċessati simultanjament, li jagħmel it-taħriġ effiċjenti fuq GPUs), scalability (il-prestazzjoni tkompla titjieb b'mudelli akbar u aktar data, kif muri mil-liġijiet tal-iskalar), u versatilità (l-istess arkitettura taħdem għal test, immaġini, awdjo, kodiċi u aktar).

Rilevanza għall-Intrapriżi

Kull mudell kbir tal-lingwa li l-intrapriżi jużaw illum — GPT-4, Claude, Llama, Mistral — huwa bbażat fuq l-arkitettura Transformer. Il-fehim ta' din l-arkitettura jgħin lid-deċiżjonarji jifhmu l-kapaċitajiet u l-limitazzjonijiet tal-AI moderna: għaliex il-windows tal-kuntest huma importanti, għaliex mudelli akbar jiswa aktar, għaliex il-latenza tikber ma' outputs itwal, u għaliex ċerti kompiti (raġunament multi-step) huma aktar diffiċli minn oħrajn (ġenerazzjoni ta' test).