Home / Glossary
AI Coding Glossary
Key terms in AI-assisted development, explained clearly with practical context.
Lập Trình Agentic
Lập trình agentic là phương pháp phát triển phần mềm trong đó một AI agent tự động đọc codebase, viết code, chạy lệnh và lặp lại kết quả mà không cần copy-paste thủ công. Khác với AI dạng chat, agent thực hiện hành động trực tiếp trong môi trường phát triển của bạn để hoàn thành các tác vụ nhiều bước.
Claude Code
Claude Code là AI coding agent chạy trên terminal của Anthropic, hoạt động trực tiếp trong môi trường phát triển của bạn. Nó đọc toàn bộ dự án, viết code trên nhiều file, chạy lệnh shell, quản lý quy trình git và tự lặp lại khi gặp lỗi - tất cả từ dòng lệnh.
Model Context Protocol (MCP)
Model Context Protocol (MCP) là tiêu chuẩn mở do Anthropic tạo ra, cung cấp cách thức phổ quát để kết nối các mô hình AI với công cụ bên ngoài, nguồn dữ liệu và API. Nó hoạt động như một giao diện tiêu chuẩn hóa - giống như USB cho AI - để bất kỳ công cụ tương thích MCP nào cũng có thể hoạt động với bất kỳ AI agent tương thích MCP nào.
CLAUDE.md
CLAUDE.md là file cấu hình markdown đặt trong thư mục gốc dự án, cung cấp cho Claude Code các hướng dẫn lâu dài theo dự án. Nó cho agent biết về quy ước lập trình, kiến trúc, lệnh thông dụng và quy tắc - đóng vai trò như một dạng bộ nhớ dài hạn áp dụng cho mọi phiên làm việc trong dự án đó.
Lập Trình Cặp Đôi với AI
Lập trình cặp đôi với AI là quy trình phát triển trong đó nhà phát triển làm việc cùng một công cụ AI để viết code cộng tác theo thời gian thực. Nhà phát triển cung cấp định hướng, ngữ cảnh và phán đoán trong khi AI đóng góp gợi ý code, phát hiện lỗi và xử lý các tác vụ triển khai lặp đi lặp lại.
Cửa Sổ Ngữ Cảnh
Cửa sổ ngữ cảnh là số lượng token tối đa (từ, ký tự code và ký hiệu) mà một mô hình AI có thể xử lý trong một tương tác. Nó xác định giới hạn trên của lượng thông tin - bao gồm prompt, code và phản hồi của mô hình - mà AI có thể giữ trong bộ nhớ cùng lúc.
Coding Agent
Coding agent là công cụ được hỗ trợ bởi AI có khả năng tự động đọc file, viết code, thực thi lệnh terminal và lặp lại kết quả để hoàn thành các tác vụ lập trình. Khác với các công cụ gợi ý code thụ động, coding agent thực hiện hành động độc lập trong môi trường phát triển của bạn để đạt được mục tiêu đã đặt ra.
Vibe Coding
Vibe coding là cách tiếp cận phát triển phần mềm không chính thức trong đó nhà phát triển mô tả điều họ muốn bằng ngôn ngữ tự nhiên và để công cụ AI xử lý chi tiết triển khai. Thay vì viết đặc tả chính xác, nhà phát triển truyền đạt ý định qua hội thoại thông thường và lặp lại dựa trên kết quả.
AI Code Review
AI code review là quá trình sử dụng trí tuệ nhân tạo để tự động phân tích code nguồn về lỗi, lỗ hổng bảo mật, sự không nhất quán phong cách và vấn đề chất lượng. Bộ xem xét AI có thể kiểm tra pull request, đề xuất cải tiến và phát hiện vấn đề mà người xem xét có thể bỏ lỡ do mệt mỏi hoặc áp lực thời gian.
Kỹ Thuật Prompt Cho Code
Kỹ thuật prompt cho code là thực hành soạn thảo các hướng dẫn rõ ràng, cụ thể giúp công cụ lập trình AI tạo ra kết quả chính xác và phù hợp. Nó liên quan đến việc cấu trúc yêu cầu với mức độ ngữ cảnh, ràng buộc và ví dụ phù hợp để AI hiểu cả điều bạn muốn lẫn cách bạn muốn thực hiện.
Headless AI Agent
Headless AI agent là coding agent chạy không có giao diện người dùng hoặc tương tác thời gian thực. Nó thực thi các tác vụ tự động trong các tiến trình nền, pipeline CI/CD hoặc công việc theo lịch - đọc code, thực hiện thay đổi, chạy test và báo cáo kết quả mà không chờ đầu vào từ người dùng ở bất kỳ bước nào.
Sub-Agent
Sub-agent là các tiến trình con song song được tạo ra bởi AI coding agent chính để xử lý các phần độc lập của tác vụ phức tạp đồng thời. Thay vì xử lý mọi thứ tuần tự, agent chính ủy thác các tác vụ con cho các agent con chuyên biệt chạy song song và báo cáo kết quả về cho agent cha.
AI Code Completion
AI code completion is a feature in development tools that uses machine learning models to predict and suggest code as you type. It ranges from single-line autocomplete to multi-line function generation, analyzing the surrounding code context to offer relevant suggestions that match your intent and coding style.
Large Language Model (LLM)
A large language model (LLM) is a deep learning system with billions of parameters, trained on vast datasets of text and code to understand, generate, and reason about natural language and programming languages. LLMs like Claude, GPT-4, and Gemini are the foundation of modern AI coding tools.
Retrieval-Augmented Generation (RAG)
Retrieval-augmented generation (RAG) is an AI architecture that improves the accuracy of language model responses by retrieving relevant information from external knowledge sources before generating an answer. Instead of relying solely on what the model memorized during training, RAG fetches up-to-date, domain-specific data and includes it in the model's context.
Tool Use
Tool use (also called tool calling) is the capability of a large language model to invoke external functions, APIs, or system commands as part of generating a response. Instead of being limited to producing text, a model with tool use can read files, run code, query databases, and interact with services—making it the foundation of agentic AI systems.
Function Calling
Function calling is an AI model capability where the model generates structured JSON arguments to invoke external functions instead of producing plain text. This enables LLMs to interact with APIs, databases, file systems, and other tools in a reliable, programmatic way—turning a conversational model into one that can take real-world actions.
System Prompt
A system prompt is a set of instructions provided to an AI model before the user's message that defines the model's behavior, persona, constraints, and capabilities. It acts as a configuration layer that shapes every response the model produces, without the user needing to repeat these instructions in each message.
Temperature
Temperature is a parameter in large language models that controls the randomness of the output. A temperature of 0 makes the model deterministic, always choosing the most probable next token. Higher temperatures (up to 1.0 or 2.0) increase randomness, making less probable tokens more likely to be selected. For coding tasks, lower temperatures generally produce more reliable, consistent code.
Token
A token is the fundamental unit of text that a large language model processes. Tokenization splits text into chunks—sometimes whole words, sometimes subwords, sometimes individual characters—that the model can work with. In English text, one token is roughly 3-4 characters or 0.75 words. In code, tokens map to keywords, operators, variable names, and whitespace.
Fine-Tuning
Fine-tuning is the process of further training a pre-trained large language model on a smaller, task-specific dataset to adapt its behavior for a particular use case. The model's weights are updated to specialize in a domain—such as a specific programming language, codebase, or output format—while retaining its general capabilities from pre-training.
Code Generation
AI code generation is the process of using artificial intelligence to produce source code from natural language descriptions, specifications, or existing code context. Modern code generation powered by LLMs can write entire functions, classes, tests, and even full applications from high-level instructions, across virtually any programming language.
AI Refactoring
AI refactoring is the use of artificial intelligence to automatically restructure, simplify, and improve existing source code without changing its external behavior. AI refactoring tools analyze code for complexity, duplication, poor naming, and anti-patterns, then apply transformations that make the code cleaner, more maintainable, and easier to understand.
AI Testing
AI testing is the application of artificial intelligence to software testing workflows—including generating unit tests, integration tests, and end-to-end tests from source code; identifying untested edge cases; analyzing test failures; and suggesting fixes. AI testing tools understand code semantics to write meaningful tests that go beyond basic coverage.
Multi-Modal AI
Multi-modal AI refers to artificial intelligence systems that can process, understand, and generate multiple types of data—text, images, audio, video, and code—within a single model. Unlike single-modal models that only handle text, multi-modal models can analyze a screenshot of a UI, read the associated code, and generate modifications based on both visual and textual understanding.
Chain-of-Thought
Chain-of-thought (CoT) prompting is a technique that encourages a large language model to break down complex problems into intermediate reasoning steps before producing a final answer. Instead of jumping to a conclusion, the model "thinks out loud," explaining each step of its logic. This significantly improves accuracy on tasks that require multi-step reasoning, including debugging, algorithm design, and code architecture decisions.
Few-Shot Prompting
Few-shot prompting is a technique where you include a small number of example input-output pairs in your prompt to demonstrate the pattern you want the AI to follow. By showing the model 2-5 examples of the desired behavior, it learns the format, style, and logic you expect—without any model training or fine-tuning. This is one of the most effective techniques for getting consistent, formatted output from LLMs.
Zero-Shot Prompting
Zero-shot prompting is a technique where you instruct an AI model to perform a task without providing any examples of the desired input-output format. You describe what you want in natural language, and the model relies entirely on its pre-trained knowledge to produce the output. It is the most natural way to interact with AI—just tell it what to do.
Embeddings
Embeddings are dense numerical vectors (arrays of floating-point numbers) that represent text, code, or other data in a high-dimensional space where semantically similar items are positioned close together. They enable AI systems to measure similarity between pieces of code, search codebases by meaning rather than keywords, and power retrieval-augmented generation (RAG) systems.
Vector Database
A vector database is a specialized database designed to store, index, and search high-dimensional embedding vectors efficiently. Unlike traditional databases that match exact values or keywords, vector databases find the most similar vectors to a query vector—enabling semantic search, recommendation systems, and the retrieval component of RAG (retrieval-augmented generation) architectures.
Technical Debt
Technical debt is the implied cost of future rework caused by choosing a quick, expedient solution now instead of a better approach that would take longer. Like financial debt, it accumulates interest: the longer it remains unaddressed, the more time and effort future changes require. Common sources include rushed features, skipped tests, outdated dependencies, and inconsistent architecture.