Home / Glossary / Context Window

Definition

Context Window

Context window वह अधिकतम tokens (शब्द, code characters और symbols) की संख्या है जो एक AI model एक single interaction में process कर सकता है। यह उस information की upper limit define करता है — आपका prompt, code और model की response सहित — जो AI एक बार में memory में रख सकती है।

Coding के लिए context windows क्यों महत्वपूर्ण हैं

Coding के लिए AI use करते समय, context window यह निर्धारित करती है कि model एक बार में आपके codebase का कितना हिस्सा "देख" सकता है। एक छोटी context window का मतलब है AI एक बार में केवल कुछ files process कर सकती है, जिससे ऐसे suggestions आते हैं जो dependencies miss करते हैं या integrations तोड़ते हैं। बड़ी context windows AI को आपके project को holistically समझने देती हैं — बदलाव करने से पहले architecture, tests और related modules पढ़ना।

2026 में Context window sizes

  • +Claude (Anthropic): 200K tokens — अधिकांश complete codebases के लिए पर्याप्त
  • +GPT-4o (OpenAI): 128K tokens
  • +Gemini 2.5 (Google): 1M tokens
  • +Typical code file: प्रति file 500-2,000 tokens

Token count, character count के समान नहीं है। Code में, एक single token लगभग 3-4 characters होता है। एक 200K-token context window लगभग 150,000 lines of code hold कर सकती है — अधिकांश projects के लिए पर्याप्त। हालांकि, full context window use करने से cost और latency बढ़ती है, इसलिए AI टूल्स efficient रहने के लिए selective file reading जैसी strategies use करते हैं।

Claude Code context automatically manage करता है। यह पूरे codebase को upfront load करने के बजाय on-demand files पढ़ता है, strategic file access के माध्यम से project-wide awareness बनाए रखते हुए token usage को efficient रखता है।

Context window exceed होने पर क्या होता है?+
जब total input context window से अधिक हो जाती है, तो conversation के पुराने हिस्से truncate या summarize हो जाते हैं। Coding टूल्स में, इससे AI पहले के निर्देश भूल सकती है या पहले पढ़ी गई files track खो सकती है। लंबे coding sessions के लिए context effectively manage करना critical है।
Tokens का code से क्या संबंध है?+
Code में एक token लगभग 3-4 characters होता है। एक 100-line JavaScript file complexity के आधार पर typically 500-1,500 tokens use करती है। Comments, whitespace और variable names सभी tokens consume करते हैं।
क्या बड़ी context window हमेशा बेहतर results देती है?+
जरूरी नहीं। जबकि बड़ी windows अधिक information allow करती हैं, models "lost in the middle" effects से struggle कर सकते हैं जहाँ long context के center में information को कम attention मिलती है। Context की quantity से अधिक quality मायने रखती है।

Related terms

Agentic CodingClaude CodePrompt Engineering for Code

Master Claude Code in days, not months

37 hands-on lessons from beginner to CI/CD automation. Module 1 is free.

START FREE →
← ALL TERMS