Zurück zum Glossar Technologie

KI-Tokenisierung

Prozess der Umwandlung von Text in Token (Wort-/Zeichenfragmente), die das KI-Modell versteht — beeinflusst direkt Kosten und Qualität.

Was ist Tokenisierung?

Tokenisierung ist der Prozess der Umwandlung von Text (Zeichenkette) in eine Sequenz von Token — Einheiten, die das KI-Modell verarbeitet. Ein Token umfasst typischerweise ein Wortfragment (3–4 Zeichen in europäischen Sprachen).

Warum ist Tokenisierung wichtig?

Tokenisierung beeinflusst direkt: Kosten (APIs berechnen pro Token), Kontextlimits (Kontextfenster werden in Token gemessen) und Qualität (Modelle, die primär auf Englisch trainiert wurden, tokenisieren andere Sprachen weniger effizient, benötigen mehr Token und verschlechtern die Ergebnisse).

Kostenoptimierung

Im Unternehmenseinsatz bringt Tokenisierungsoptimierung echte Einsparungen: prägnante statt ausschweifende Prompts, Caching repetitiver Anfragen, Auswahl von Modellen mit effizienten Tokenizern für Ihre Sprache und Routing einfacher Aufgaben an günstigere Modelle mit geringerem Token-Verbrauch.

Verwandte Dienstleistungen und Produkte