Home / Glossary / Kontextfenster

Definition

Kontextfenster

Ein Kontextfenster ist die maximale Anzahl von Token (Woerter, Code-Zeichen und Symbole), die ein KI-Modell in einer einzelnen Interaktion verarbeiten kann. Es definiert die Obergrenze dessen, wie viel Information – einschliesslich Ihres Prompts, Codes und der Antwort des Modells – die KI gleichzeitig im Gedaechtnis halten kann.

Warum Kontextfenster beim Programmieren wichtig sind

Wenn Sie KI zum Programmieren nutzen, bestimmt das Kontextfenster, wie viel von Ihrer Codebasis das Modell gleichzeitig "sehen" kann. Ein kleines Kontextfenster bedeutet, dass die KI nur wenige Dateien gleichzeitig verarbeiten kann, was zu Vorschlaegen fuehrt, die Abhaengigkeiten uebersehen oder Integrationen zerstoeren. Groessere Kontextfenster ermoeglichen der KI, Ihr Projekt ganzheitlich zu verstehen – Architektur, Tests und verwandte Module zu lesen, bevor Aenderungen vorgenommen werden.

Kontextfenster-Groessen 2026

  • +Claude (Anthropic): 200K Token – ausreichend fuer die meisten gesamten Codebasen
  • +GPT-4o (OpenAI): 128K Token
  • +Gemini 2.5 (Google): 1M Token
  • +Typische Code-Datei: 500-2.000 Token pro Datei

Die Token-Anzahl ist nicht identisch mit der Zeichenanzahl. In Code entspricht ein einzelner Token ungefaehr 3-4 Zeichen. Ein 200K-Token-Kontextfenster kann etwa 150.000 Codezeilen fassen – genug fuer die meisten Projekte. Die Nutzung des vollen Kontextfensters erhoeht jedoch Kosten und Latenz, weshalb KI-Tools Strategien wie selektives Dateilesen verwenden, um effizient zu bleiben.

Claude Code verwaltet den Kontext automatisch. Es liest Dateien bei Bedarf, anstatt Ihre gesamte Codebasis vorab zu laden, und haelt die Token-Nutzung effizient, waehrend es durch strategischen Dateizugriff projektweites Bewusstsein aufrechterhaelt.

Was passiert, wenn Sie das Kontextfenster ueberschreiten?+
Wenn die Gesamteingabe das Kontextfenster ueberschreitet, werden aeltere Teile der Konversation abgeschnitten oder zusammengefasst. Bei Coding-Tools kann dies dazu fuehren, dass die KI fruehere Anweisungen vergisst oder den Ueberblick ueber zuvor gelesene Dateien verliert. Effektives Kontextmanagement ist entscheidend fuer lange Coding-Sitzungen.
Wie verhalten sich Token zu Code?+
Ein Token entspricht ungefaehr 3-4 Zeichen in Code. Eine 100-zeilige JavaScript-Datei verbraucht typischerweise 500-1.500 Token, je nach Komplexitaet. Kommentare, Leerzeichen und Variablennamen verbrauchen alle Token.
Bedeutet ein groesseres Kontextfenster immer bessere Ergebnisse?+
Nicht unbedingt. Groessere Fenster ermoeglichen zwar mehr Information, aber Modelle koennen unter "Lost in the Middle"-Effekten leiden, bei denen Informationen in der Mitte eines langen Kontexts weniger Aufmerksamkeit erhalten. Die Qualitaet des Kontexts ist wichtiger als die Quantitaet.

Related terms

Agentic CodingClaude CodePrompt Engineering fuer Code

Master Claude Code in days, not months

37 hands-on lessons from beginner to CI/CD automation. Module 1 is free.

START FREE →
← ALL TERMS