Wróć do słownika Technologia

Mechanizm uwagi (Attention)

Technika pozwalająca sieciom neuronowym selektywnie skupiać się na najistotniejszych fragmentach danych wejściowych podczas przetwarzania informacji.

Czym jest mechanizm uwagi?

Mechanizm uwagi (attention mechanism) to technika w sieciach neuronowych, która pozwala modelowi dynamicznie określać, które fragmenty danych wejściowych są najistotniejsze dla danego zadania. Zamiast przetwarzać wszystkie informacje z jednakową wagą, model przypisuje różne poziomy "uwagi" poszczególnym elementom — podobnie jak człowiek czytający dokument koncentruje się na kluczowych fragmentach.

Rodzaje mechanizmów uwagi

Wyróżniamy kilka wariantów: samo-uwaga (self-attention) analizuje relacje wewnątrz jednej sekwencji, uwaga krzyżowa (cross-attention) łączy informacje z dwóch różnych sekwencji, a wielogłowicowa uwaga (multi-head attention) równolegle oblicza uwagę w wielu podprzestrzeniach. Każdy "głowic" może uchwycić inny typ zależności — składniową, semantyczną czy kontekstową.

Zastosowania w praktyce

Mechanizm uwagi jest fundamentem architektury Transformer i wszystkich opartych na niej modeli językowych. W zastosowaniach korporacyjnych umożliwia precyzyjną analizę długich dokumentów prawnych, automatyczne wyodrębnianie kluczowych informacji z korespondencji biznesowej oraz inteligentne routowanie zapytań do odpowiednich agentów AI na podstawie kontekstu i treści żądania.