Povratak na rječnik Tehnologija

AI tokenizacija

Proces pretvaranja teksta u tokene (fragmente riječi/znakova) koje AI model razumije — izravno utječe na troškove i kvalitetu.

Što je tokenizacija?

Tokenizacija je proces pretvaranja teksta (niza znakova) u niz tokena — jedinica koje AI model obrađuje. Token je obično fragment riječi (3-4 znaka u europskim jezicima).

Zašto je tokenizacija važna?

Tokenizacija izravno utječe na: trošak (API-ji naplaćuju po tokenu), ograničenja konteksta (kontekstualni prozori mjere se u tokenima) i kvalitetu (modeli trenirani primarno na engleskom tokeniziraju druge jezike manje učinkovito, zahtijevajući više tokena i pogoršavajući rezultate).

Optimizacija troškova

U poslovnom okruženju, optimizacija tokenizacije donosi stvarne uštede: sažeti promptovi umjesto opširnih, keširanje ponavljajućih upita, odabir modela s učinkovitim tokenizatorima za vaš jezik i usmjeravanje jednostavnih zadataka na jeftinije modele s manjom potrošnjom tokena.

Povezane usluge i proizvodi