Tillbaka till ordlistan Teknik

AI-tokenisering

Processen att konvertera text till tokens (ord-/teckenfragment) som AI-modellen förstår — påverkar direkt kostnader och kvalitet.

Vad är tokenisering?

Tokenisering är processen att konvertera text (teckensträng) till en sekvens av tokens — enheter som AI-modellen bearbetar. En token är vanligtvis ett ordfragment (3–4 tecken i europeiska språk).

Varför spelar tokenisering roll?

Tokenisering påverkar direkt: kostnad (API:er debiterar per token), kontextbegränsningar (kontextfönster mäts i tokens) och kvalitet (modeller som primärt tränats på engelska tokeniserar andra språk mindre effektivt, vilket kräver fler tokens och försämrar resultaten).

Kostnadsoptimering

I företag ger tokeniseringsoptimering verkliga besparingar: koncisa prompter istället för utförliga, cachning av repetitiva frågor, val av modeller med effektiva tokeniserare för ditt språk och dirigering av enkla uppgifter till billigare modeller med lägre tokenförbrukning.

Relaterade tjänster och produkter