Înapoi la glosar Tehnologie

Tokenizarea AI

Procesul de convertire a textului în tokeni (fragmente de cuvinte/caractere) înțeleși de modelul AI — afectează direct costurile și calitatea.

Ce este tokenizarea?

Tokenizarea este procesul de convertire a textului (șir de caractere) într-o secvență de tokeni — unități pe care modelul AI le procesează. Un token este de obicei un fragment de cuvânt (3–4 caractere în limbile europene).

De ce contează tokenizarea?

Tokenizarea afectează direct: costurile (API-urile facturează per token), limitele de context (ferestrele de context se măsoară în tokeni) și calitatea (modelele antrenate predominant pe engleză tokenizează alte limbi mai puțin eficient, necesitând mai mulți tokeni și degradând rezultatele).

Optimizarea costurilor

În mediul enterprise, optimizarea tokenizării aduce economii reale: prompturi concise în loc de cele verbose, cache-uirea interogărilor repetitive, alegerea modelelor cu tokenizatoare eficiente pentru limba dvs. și rutarea sarcinilor simple către modele mai ieftine cu consum mai mic de tokeni.