Home / Glossary
AI Coding Glossary
Key terms in AI-assisted development, explained clearly with practical context.
Agentic Coding
Agentic Coding은 AI 에이전트가 코드베이스를 자율적으로 읽고, 코드를 작성하고, 명령을 실행하고, 수동 복사·붙여넣기 없이 결과를 반복 개선하는 소프트웨어 개발 방식입니다. 챗 기반 AI와 달리, 에이전트는 개발 환경에서 직접 행동을 취해 다단계 작업을 완료합니다.
Claude Code
Claude Code는 개발 환경에서 직접 작동하는 Anthropic의 터미널 기반 AI 코딩 에이전트입니다. 전체 프로젝트를 읽고, 여러 파일에 걸쳐 코드를 작성하고, 셸 명령을 실행하고, git 워크플로를 관리하며, 모두 커맨드라인에서 오류를 자율적으로 반복 수정합니다.
Model Context Protocol (MCP)
Model Context Protocol(MCP)은 Anthropic이 만든 개방형 표준으로, AI 모델을 외부 도구, 데이터 소스, API에 연결하는 범용 방법을 제공합니다. AI용 USB처럼 표준화된 인터페이스 역할을 하여 MCP 호환 도구라면 모두 MCP 호환 AI 에이전트와 함께 작동할 수 있습니다.
CLAUDE.md
CLAUDE.md는 프로젝트 루트에 배치하는 마크다운 설정 파일로, Claude Code에 영구적인 프로젝트별 지침을 제공합니다. 에이전트에게 코딩 규칙, 아키텍처, 일반 명령, 규칙에 대해 알려주며, 해당 프로젝트의 모든 세션에 적용되는 장기 메모리 형태로 작동합니다.
AI 페어 프로그래밍
AI 페어 프로그래밍은 사람 개발자가 AI 도구와 나란히 실시간으로 협력하여 코드를 작성하는 개발 워크플로입니다. 개발자는 방향, 컨텍스트, 판단력을 제공하고, AI는 코드 제안을 기여하고, 버그를 잡고, 반복적인 구현 작업을 처리합니다.
컨텍스트 윈도우
컨텍스트 윈도우는 AI 모델이 단일 상호작용에서 처리할 수 있는 최대 토큰(단어, 코드 문자, 기호) 수입니다. 프롬프트, 코드, 모델의 응답을 포함하여 AI가 한 번에 메모리에 보유할 수 있는 정보의 상한선을 정의합니다.
코딩 에이전트
코딩 에이전트는 프로그래밍 작업을 완료하기 위해 파일을 자율적으로 읽고, 코드를 작성하고, 터미널 명령을 실행하고, 결과를 반복 개선하는 AI 기반 도구입니다. 수동적인 코드 제안 도구와 달리, 코딩 에이전트는 명시된 목표를 달성하기 위해 개발 환경에서 독립적으로 행동을 취합니다.
Vibe Coding
Vibe Coding은 개발자가 자연어로 원하는 것을 설명하고 AI 도구가 구현 세부 사항을 처리하도록 하는 비형식적인 소프트웨어 개발 접근법입니다. 정확한 사양을 작성하는 대신, 개발자는 편안한 대화를 통해 의도를 전달하고 결과를 기반으로 반복합니다.
AI 코드 리뷰
AI 코드 리뷰는 인공지능을 사용하여 버그, 보안 취약성, 스타일 불일치, 품질 문제에 대해 소스 코드를 자동으로 분석하는 프로세스입니다. AI 리뷰어는 풀 리퀘스트를 검토하고, 개선 사항을 제안하고, 피로나 시간 압박으로 인해 인간 리뷰어가 놓칠 수 있는 문제를 잡아낼 수 있습니다.
코드를 위한 프롬프트 엔지니어링
코드를 위한 프롬프트 엔지니어링은 AI 코딩 도구가 정확하고 관련성 높은 출력을 생성하도록 돕는 명확하고 구체적인 지침을 작성하는 실천입니다. 올바른 수준의 컨텍스트, 제약 조건, 예시를 포함하여 요청을 구조화하여 AI가 원하는 것과 원하는 방식을 이해하도록 합니다.
헤드리스 AI 에이전트
헤드리스 AI 에이전트는 사람이 대면하는 인터페이스나 실시간 상호작용 없이 실행되는 코딩 에이전트입니다. 백그라운드 프로세스, CI/CD 파이프라인, 예약 작업에서 자율적으로 작업을 실행하며, 어떤 단계에서도 인간 입력을 기다리지 않고 코드를 읽고, 변경하고, 테스트를 실행하고, 결과를 보고합니다.
서브 에이전트
서브 에이전트는 복잡한 작업의 독립적인 부분을 동시에 처리하기 위해 메인 AI 코딩 에이전트가 생성하는 병렬 자식 프로세스입니다. 모든 것을 순차적으로 처리하는 대신, 메인 에이전트는 하위 작업을 병렬로 실행하여 결과를 상위 에이전트에 보고하는 전문화된 자식 에이전트에 위임합니다.
AI Code Completion
AI code completion is a feature in development tools that uses machine learning models to predict and suggest code as you type. It ranges from single-line autocomplete to multi-line function generation, analyzing the surrounding code context to offer relevant suggestions that match your intent and coding style.
Large Language Model (LLM)
A large language model (LLM) is a deep learning system with billions of parameters, trained on vast datasets of text and code to understand, generate, and reason about natural language and programming languages. LLMs like Claude, GPT-4, and Gemini are the foundation of modern AI coding tools.
Retrieval-Augmented Generation (RAG)
Retrieval-augmented generation (RAG) is an AI architecture that improves the accuracy of language model responses by retrieving relevant information from external knowledge sources before generating an answer. Instead of relying solely on what the model memorized during training, RAG fetches up-to-date, domain-specific data and includes it in the model's context.
Tool Use
Tool use (also called tool calling) is the capability of a large language model to invoke external functions, APIs, or system commands as part of generating a response. Instead of being limited to producing text, a model with tool use can read files, run code, query databases, and interact with services—making it the foundation of agentic AI systems.
Function Calling
Function calling is an AI model capability where the model generates structured JSON arguments to invoke external functions instead of producing plain text. This enables LLMs to interact with APIs, databases, file systems, and other tools in a reliable, programmatic way—turning a conversational model into one that can take real-world actions.
System Prompt
A system prompt is a set of instructions provided to an AI model before the user's message that defines the model's behavior, persona, constraints, and capabilities. It acts as a configuration layer that shapes every response the model produces, without the user needing to repeat these instructions in each message.
Temperature
Temperature is a parameter in large language models that controls the randomness of the output. A temperature of 0 makes the model deterministic, always choosing the most probable next token. Higher temperatures (up to 1.0 or 2.0) increase randomness, making less probable tokens more likely to be selected. For coding tasks, lower temperatures generally produce more reliable, consistent code.
Token
A token is the fundamental unit of text that a large language model processes. Tokenization splits text into chunks—sometimes whole words, sometimes subwords, sometimes individual characters—that the model can work with. In English text, one token is roughly 3-4 characters or 0.75 words. In code, tokens map to keywords, operators, variable names, and whitespace.
Fine-Tuning
Fine-tuning is the process of further training a pre-trained large language model on a smaller, task-specific dataset to adapt its behavior for a particular use case. The model's weights are updated to specialize in a domain—such as a specific programming language, codebase, or output format—while retaining its general capabilities from pre-training.
Code Generation
AI code generation is the process of using artificial intelligence to produce source code from natural language descriptions, specifications, or existing code context. Modern code generation powered by LLMs can write entire functions, classes, tests, and even full applications from high-level instructions, across virtually any programming language.
AI Refactoring
AI refactoring is the use of artificial intelligence to automatically restructure, simplify, and improve existing source code without changing its external behavior. AI refactoring tools analyze code for complexity, duplication, poor naming, and anti-patterns, then apply transformations that make the code cleaner, more maintainable, and easier to understand.
AI Testing
AI testing is the application of artificial intelligence to software testing workflows—including generating unit tests, integration tests, and end-to-end tests from source code; identifying untested edge cases; analyzing test failures; and suggesting fixes. AI testing tools understand code semantics to write meaningful tests that go beyond basic coverage.
Multi-Modal AI
Multi-modal AI refers to artificial intelligence systems that can process, understand, and generate multiple types of data—text, images, audio, video, and code—within a single model. Unlike single-modal models that only handle text, multi-modal models can analyze a screenshot of a UI, read the associated code, and generate modifications based on both visual and textual understanding.
Chain-of-Thought
Chain-of-thought (CoT) prompting is a technique that encourages a large language model to break down complex problems into intermediate reasoning steps before producing a final answer. Instead of jumping to a conclusion, the model "thinks out loud," explaining each step of its logic. This significantly improves accuracy on tasks that require multi-step reasoning, including debugging, algorithm design, and code architecture decisions.
Few-Shot Prompting
Few-shot prompting is a technique where you include a small number of example input-output pairs in your prompt to demonstrate the pattern you want the AI to follow. By showing the model 2-5 examples of the desired behavior, it learns the format, style, and logic you expect—without any model training or fine-tuning. This is one of the most effective techniques for getting consistent, formatted output from LLMs.
Zero-Shot Prompting
Zero-shot prompting is a technique where you instruct an AI model to perform a task without providing any examples of the desired input-output format. You describe what you want in natural language, and the model relies entirely on its pre-trained knowledge to produce the output. It is the most natural way to interact with AI—just tell it what to do.
Embeddings
Embeddings are dense numerical vectors (arrays of floating-point numbers) that represent text, code, or other data in a high-dimensional space where semantically similar items are positioned close together. They enable AI systems to measure similarity between pieces of code, search codebases by meaning rather than keywords, and power retrieval-augmented generation (RAG) systems.
Vector Database
A vector database is a specialized database designed to store, index, and search high-dimensional embedding vectors efficiently. Unlike traditional databases that match exact values or keywords, vector databases find the most similar vectors to a query vector—enabling semantic search, recommendation systems, and the retrieval component of RAG (retrieval-augmented generation) architectures.
Technical Debt
Technical debt is the implied cost of future rework caused by choosing a quick, expedient solution now instead of a better approach that would take longer. Like financial debt, it accumulates interest: the longer it remains unaddressed, the more time and effort future changes require. Common sources include rushed features, skipped tests, outdated dependencies, and inconsistent architecture.