Home / Glossary / Context Window
Context Window
Context window वह अधिकतम tokens (शब्द, code characters और symbols) की संख्या है जो एक AI model एक single interaction में process कर सकता है। यह उस information की upper limit define करता है — आपका prompt, code और model की response सहित — जो AI एक बार में memory में रख सकती है।
Coding के लिए context windows क्यों महत्वपूर्ण हैं
Coding के लिए AI use करते समय, context window यह निर्धारित करती है कि model एक बार में आपके codebase का कितना हिस्सा "देख" सकता है। एक छोटी context window का मतलब है AI एक बार में केवल कुछ files process कर सकती है, जिससे ऐसे suggestions आते हैं जो dependencies miss करते हैं या integrations तोड़ते हैं। बड़ी context windows AI को आपके project को holistically समझने देती हैं — बदलाव करने से पहले architecture, tests और related modules पढ़ना।
2026 में Context window sizes
- +Claude (Anthropic): 200K tokens — अधिकांश complete codebases के लिए पर्याप्त
- +GPT-4o (OpenAI): 128K tokens
- +Gemini 2.5 (Google): 1M tokens
- +Typical code file: प्रति file 500-2,000 tokens
Token count, character count के समान नहीं है। Code में, एक single token लगभग 3-4 characters होता है। एक 200K-token context window लगभग 150,000 lines of code hold कर सकती है — अधिकांश projects के लिए पर्याप्त। हालांकि, full context window use करने से cost और latency बढ़ती है, इसलिए AI टूल्स efficient रहने के लिए selective file reading जैसी strategies use करते हैं।
Claude Code context automatically manage करता है। यह पूरे codebase को upfront load करने के बजाय on-demand files पढ़ता है, strategic file access के माध्यम से project-wide awareness बनाए रखते हुए token usage को efficient रखता है।
Context window exceed होने पर क्या होता है?+
Tokens का code से क्या संबंध है?+
क्या बड़ी context window हमेशा बेहतर results देती है?+
Related terms
Master Claude Code in days, not months
37 hands-on lessons from beginner to CI/CD automation. Module 1 is free.
START FREE →