Home / Glossary / Context Window
Context Window
Een context window is het maximale aantal tokens (woorden, codetekens en symbolen) dat een AI-model in een enkele interactie kan verwerken. Het definieert de bovengrens van hoeveel informatie — inclusief je prompt, code en het antwoord van het model — de AI tegelijk in het geheugen kan houden.
Waarom context windows belangrijk zijn voor codering
Bij het gebruik van AI voor codering bepaalt het context window hoeveel van je codebase het model tegelijk kan "zien." Een klein context window betekent dat de AI slechts een paar bestanden tegelijk kan verwerken, wat leidt tot suggesties die afhankelijkheden missen of integraties breken. Grotere context windows stellen de AI in staat je project holistisch te begrijpen — architectuur, tests en gerelateerde modules te lezen voordat er wijzigingen worden gemaakt.
Context window-afmetingen in 2026
- +Claude (Anthropic): 200K tokens — genoeg voor de meeste volledige codebases
- +GPT-4o (OpenAI): 128K tokens
- +Gemini 2.5 (Google): 1M tokens
- +Typisch codebestand: 500-2.000 tokens per bestand
Tokenaantallen zijn niet hetzelfde als tekenaantallen. In code is een enkele token ruwweg 3-4 tekens. Een context window van 200K tokens kan ongeveer 150.000 regels code bevatten — genoeg voor de meeste projecten. Het gebruik van het volledige context window verhoogt echter de kosten en latentie, dus AI-tools gebruiken strategieen zoals selectief bestanden lezen om efficient te blijven.
Claude Code beheert context automatisch. Het leest bestanden op aanvraag in plaats van je hele codebase vooraf te laden, waardoor tokengebruik efficient blijft terwijl het projectbreed bewustzijn behoudt via strategische bestandstoegang.
Wat gebeurt er wanneer je het context window overschrijdt?+
Hoe verhouden tokens zich tot code?+
Betekent een groter context window altijd betere resultaten?+
Master Claude Code in days, not months
37 hands-on lessons from beginner to CI/CD automation. Module 1 is free.
START FREE →