Späť na slovník Technológie

Tokenizácia AI

Proces prevodu textu na tokeny (fragmenty slov/znakov) zrozumiteľné AI modelu — priamo ovplyvňuje náklady a kvalitu.

Čo je tokenizácia?

Tokenizácia je proces prevodu textu (reťazca znakov) na sekvenciu tokenov — jednotiek, ktoré AI model spracúva. Token je typicky fragment slova (3–4 znaky v európskych jazykoch).

Prečo na tokenizácii záleží?

Tokenizácia priamo ovplyvňuje: náklady (API účtujú podľa tokenov), limity kontextu (kontextové okná sa merajú v tokenoch) a kvalitu (modely trénované primárne na angličtine tokenizujú ostatné jazyky menej efektívne, vyžadujú viac tokenov a zhoršujú výsledky).

Optimalizácia nákladov

V podnikoch optimalizácia tokenizácie prináša reálne úspory: stručné prompty namiesto rozvláčnych, cachovanie opakujúcich sa dotazov, voľba modelov s efektívnymi tokenizérmi pre váš jazyk a smerovanie jednoduchých úloh na lacnejšie modely s nižšou spotrebou tokenov.