Home / Glossary / Context Window

Definition

Context Window

Een context window is het maximale aantal tokens (woorden, codetekens en symbolen) dat een AI-model in een enkele interactie kan verwerken. Het definieert de bovengrens van hoeveel informatie — inclusief je prompt, code en het antwoord van het model — de AI tegelijk in het geheugen kan houden.

Waarom context windows belangrijk zijn voor codering

Bij het gebruik van AI voor codering bepaalt het context window hoeveel van je codebase het model tegelijk kan "zien." Een klein context window betekent dat de AI slechts een paar bestanden tegelijk kan verwerken, wat leidt tot suggesties die afhankelijkheden missen of integraties breken. Grotere context windows stellen de AI in staat je project holistisch te begrijpen — architectuur, tests en gerelateerde modules te lezen voordat er wijzigingen worden gemaakt.

Context window-afmetingen in 2026

  • +Claude (Anthropic): 200K tokens — genoeg voor de meeste volledige codebases
  • +GPT-4o (OpenAI): 128K tokens
  • +Gemini 2.5 (Google): 1M tokens
  • +Typisch codebestand: 500-2.000 tokens per bestand

Tokenaantallen zijn niet hetzelfde als tekenaantallen. In code is een enkele token ruwweg 3-4 tekens. Een context window van 200K tokens kan ongeveer 150.000 regels code bevatten — genoeg voor de meeste projecten. Het gebruik van het volledige context window verhoogt echter de kosten en latentie, dus AI-tools gebruiken strategieen zoals selectief bestanden lezen om efficient te blijven.

Claude Code beheert context automatisch. Het leest bestanden op aanvraag in plaats van je hele codebase vooraf te laden, waardoor tokengebruik efficient blijft terwijl het projectbreed bewustzijn behoudt via strategische bestandstoegang.

Wat gebeurt er wanneer je het context window overschrijdt?+
Wanneer de totale invoer het context window overschrijdt, worden oudere delen van het gesprek afgekapt of samengevat. Bij coderingstools kan dit ervoor zorgen dat de AI eerdere instructies vergeet of bestanden kwijtraakt die het eerder heeft gelezen. Effectief contextbeheer is cruciaal voor lange coderingssessies.
Hoe verhouden tokens zich tot code?+
Een token is ruwweg 3-4 tekens in code. Een JavaScript-bestand van 100 regels gebruikt doorgaans 500-1.500 tokens, afhankelijk van de complexiteit. Commentaren, witruimte en variabelenamen verbruiken allemaal tokens.
Betekent een groter context window altijd betere resultaten?+
Niet per se. Hoewel grotere windows meer informatie toelaten, kunnen modellen moeite hebben met "lost in the middle"-effecten waarbij informatie in het midden van een lange context minder aandacht krijgt. Kwaliteit van context is belangrijker dan kwantiteit.

Related terms

Agentic CodingClaude CodePrompt Engineering voor Code

Master Claude Code in days, not months

37 hands-on lessons from beginner to CI/CD automation. Module 1 is free.

START FREE →
← ALL TERMS