Terug naar woordenlijst Technologie

AI-tokenisatie

Proces van het omzetten van tekst in tokens (woord-/tekenfragmenten) die het AI-model begrijpt — beïnvloedt rechtstreeks kosten en kwaliteit.

Wat is tokenisatie?

Tokenisatie is het proces van het omzetten van tekst (tekenreeks) in een reeks tokens — eenheden die het AI-model verwerkt. Een token is doorgaans een woordfragment (3-4 tekens in Europese talen).

Waarom is tokenisatie belangrijk?

Tokenisatie beïnvloedt rechtstreeks: kosten (API's rekenen per token), contextlimieten (contextvensters worden gemeten in tokens) en kwaliteit (modellen die voornamelijk op Engels zijn getraind, tokeniseren andere talen minder efficiënt, waardoor meer tokens nodig zijn en resultaten verslechteren).

Kostenoptimalisatie

In enterprise levert tokenisatie-optimalisatie echte besparingen op: beknopte prompts in plaats van uitgebreide, caching van repetitieve queries, kiezen van modellen met efficiënte tokenizers voor uw taal, en routering van eenvoudige taken naar goedkopere modellen met lager tokenverbruik.

Gerelateerde diensten en producten