Wróć do słownika Technologia

Okno kontekstowe

Maksymalna ilość tekstu (tokenów), którą model AI może przetworzyć w jednym zapytaniu — kluczowe ograniczenie wydajności LLM.

Czym jest okno kontekstowe?

Okno kontekstowe (ang. context window) to maksymalna ilość tekstu (mierzona w tokenach), którą model AI może "widzieć" jednocześnie — obejmuje zarówno wejście (prompt, dokumenty, historię konwersacji), jak i wygenerowaną odpowiedź.

Rozmiary okien kontekstowych

Modele z 2024-2026 oferują coraz większe okna: GPT-4o — 128K tokenów (~300 stron tekstu), Claude — 200K tokenów, Gemini — do 2M tokenów. Mimo to okno kontekstowe to wciąż ograniczenie: im więcej tekstu, tym wyższy koszt, dłuższa latencja i potencjalnie gorsza jakość ("lost in the middle").

Strategie zarządzania kontekstem

W systemach enterprise kluczowe jest mądre zarządzanie oknem kontekstowym: RAG (dostarczaj tylko relevantne fragmenty, nie całe dokumenty), kompresja kontekstu (streszczanie historii konwersacji), hierarchia agentów (każdy agent operuje na swoim, mniejszym kontekście) i memory systems (persystentna pamięć poza oknem kontekstowym).