懂这 14 个概念,AI 开发不再靠猜

最后更新:2026 年 3 月。面向希望系统了解 AI 工程基础的读者,从语言模型本身到工程应用层逐层拆解。所有数据均来自原始文档或论文,文末附参考来源。


目录


LLM — 大语言模型

LLM(Large Language Model,大语言模型)是在海量文本数据上训练的神经网络模型,核心任务是:给定一段文本,预测下一个 Token 最可能是什么。

这个目标听起来简单,但在足够大的模型规模和足够多的训练数据下,会涌现出推理、翻译、编程、总结等几乎覆盖所有文字类任务的能力。这种现象被称为涌现能力(Emergent Abilities),在 Wei et al.(2022)的论文《Emergent Abilities of Large Language Models》中被系统研究。

截至 2026 年 3 月的主流模型

模型开发方Context Window特点
GPT-5 / GPT-5.4OpenAI400K tokens当前 OpenAI 旗舰,推理与编码双强
o3 / o4-miniOpenAI200K tokenso 系列推理模型,擅长数学与科学
GPT-4.1OpenAI1M tokens高性价比,指令遵循强
Claude Opus 4.6Anthropic1M tokens旗舰级,长上下文性能出色
Claude Sonnet 4.6Anthropic1M tokens接近 Opus 性能,价格为 Opus 的 60%
Gemini 2.5 ProGoogle DeepMind1M tokens编码与多模态推理领先
Gemini 3.1 ProGoogle DeepMind1M tokens最新一代,已取代 2.5 系列
Llama 3.3Meta128K tokens开源,可本地部署
DeepSeek-V3深度求索128K tokens高性价比,MoE 架构,开源

数据来源:OpenAI API 文档(2025~2026)、Anthropic 官方发布公告(2026)、Google DeepMind Gemini 模型页面(2026)


Transformer — 驱动 LLM 的架构

几乎所有现代 LLM 的底层架构都是 Transformer,出自 2017 年 Google 的论文:

Attention Is All You Need Vaswani et al., Google Brain / Google Research, NeurIPS 2017

论文提出的核心机制是 Self-Attention(自注意力):模型在处理一个词时,会同时”看”序列中所有其他词并计算相关性权重,而不是像 RNN 那样只能逐词顺序处理。这使得 Transformer 天然支持并行训练,可以扩展到数千亿参数。

简化架构

graph TD
A["输入文本\n'The cat sat'"]
B["Tokenizer\n分词 & 编码"]
C["Embedding\n将 Token 映射为向量"]
D["Positional Encoding\n注入位置信息"]
E1["Multi-Head Self-Attention\n每个 Token 关注所有其他 Token"]
E2["Add & Norm\n残差连接 + 层归一化"]
E3["Feed-Forward Network\n逐位置全连接层"]
E4["Add & Norm"]
F["Linear + Softmax\n输出下一个 Token 的概率分布"]
G["采样输出\n例如:'on'"]
A --> B --> C --> D --> E1 --> E2 --> E3 --> E4 --> F --> G

E1→E4 的结构称为一个 Transformer Block,在实际模型中会堆叠几十乃至上百层。

Self-Attention 的直觉

以句子 The animal didn't cross the street because it was too tired 为例:模型在处理 it 时,Self-Attention 会自动将较高权重分配给 animal 而非 street,从而正确理解代词指向。这正是 Transformer 擅长捕捉长距离语义依赖的原因。


Token — 模型的最小处理单元

模型不直接处理字符或完整单词,而是处理 Token。Tokenizer(分词器)负责将原始文本切分为 Token,并映射到整数 ID;解码时再将整数 ID 还原为文本。

分词的基本规律

根据 OpenAI 的官方说明,英文文本中 1000 个 Token 大约对应 750 个英文单词,即 1 个 Token 约等于 0.75 个英文单词,换算过来 1 个英文单词平均消耗约 1.3 个 Token。常见词可能恰好是 1 个 Token,罕见词或长词则会被拆成多个 Token。中文每个汉字通常对应 1~2 个 Token,具体取决于分词器实现。

Token 的完整流程

flowchart LR
T["原始文本\n'Hello 你好'"]
A["Tokenizer\n分词 & 编码"]
B["Token ID 序列\n[9906, 220, 57668, 43773]"]
C["Transformer 处理"]
D["输出 Token ID 序列"]
E["Decoder\n解码"]
F["输出文本\n'Hi 你好'"]
T --> A --> B --> C --> D --> E --> F

实际 Token 计数参考

输入内容约消耗 Token 数
Hello world2
你好世界4~6
Supercalifragilistic(罕见长词)6
def calculate():5
1000 个英文单词的文章~1300
1000 个中文字的文章~1500~2000

可以在 OpenAI Tokenizer 工具 中直观看到任意文本的分词结果。


Context 与 Context Window — 模型的工作记忆

Context

Context(上下文) 是模型在生成回复时能”看到”的所有内容,包括 System Prompt、历史对话、用户输入、工具返回结果等。

一个关键认知前提:模型没有跨会话的持久记忆。每次 API 请求,模型只能看到本次传入的 Context,上一次会话的内容如果不显式传入就完全不存在。

Context Window

Context Window(上下文窗口) 是模型单次能处理的最大 Token 数量上限,同时涵盖输入(Prompt)和输出(Completion)。

graph LR
subgraph "Context Window(总 Token 数上限)"
direction LR
SP["System Prompt"]
H["历史对话"]
UI["用户输入"]
TR["工具返回结果"]
OUT["模型输出"]
SP --> H --> UI --> TR --> OUT
end

主流模型 Context Window 对比(2026 年)

模型Context Window备注
Claude Opus 4.61M tokens标准价格,无长上下文溢价
Claude Sonnet 4.61M tokens标准价格,无长上下文溢价
GPT-4.11M tokensOpenAI API,2025 年 4 月发布
Gemini 2.5 Pro1M tokens(2M 实验性)Google AI Studio / Vertex AI
GPT-5400K tokens旗舰推理,128K 最大输出
o3 / o4-mini200K tokensOpenAI 推理模型
Llama 3.3 70B128K tokensMeta 开源

数据来源:Anthropic 官方发布公告(2026-02)、OpenAI API 文档(2025-04)、Google DeepMind Gemini 模型页面

Anthropic 在 Claude Opus 4.6 和 Sonnet 4.6 发布时明确宣布,标准价格适用于完整的 1M token 窗口,不再有长上下文溢价——相比 Gemini 和 GPT-5 系列在超出一定阈值后收取更高费率的做法,这是一个显著的差异化策略。


Prompt — 与模型对话的语言

Prompt 是发送给模型的完整输入,通常由三类角色(Role)组成:

graph TD
P["完整 Prompt"]
P --> S["system\n定义模型的角色、行为规则、背景知识\n例如:你是一个专业的法律顾问,回答时需引用具体法条"]
P --> U["user\n用户的实际输入\n例如:劳动合同可以口头签订吗?"]
P --> As["assistant(历史轮次)\n之前对话中模型的回复\n用于维持多轮对话上下文"]

Chain-of-Thought(思维链)

在提示中要求模型逐步推导,可以显著提升推理类任务的准确率:

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models Wei et al., Google Research, NeurIPS 2022

不加 CoT:
用户:一个班有 30 人,其中 40% 是女生,女生中 25% 戴眼镜,戴眼镜的女生有多少人?
模型:3 人(错误)
加 CoT:
用户:一个班有 30 人,其中 40% 是女生,女生中 25% 戴眼镜,请一步步计算。
模型:女生人数 = 30 × 40% = 12 人。戴眼镜的女生 = 12 × 25% = 3 人。答案:3 人。

Few-Shot(少样本示例)

在 Prompt 中提供 2~5 个示例,引导模型按特定格式或风格输出,无需微调模型权重:

Language Models are Few-Shot Learners(GPT-3 论文) Brown et al., OpenAI, NeurIPS 2020

System:以下是情感分析任务。
示例:"今天天气真好" -> 正面
示例:"服务太差了" -> 负面
示例:"还行吧" -> 中性
User:"这家餐厅的菜真的绝了!"
Assistant:正面

Tool / Function Calling — 模型的手脚

LLM 本身只能处理文本,无法直接访问外部系统。Tool 机制让模型可以调用外部 API、执行代码、读写文件、查询数据库等。

工作流程

sequenceDiagram
participant U as 用户
participant M as LLM
participant T as 外部工具
U->>M: 北京今天天气怎么样?
M->>M: 判断需要调用天气工具
M->>T: get_weather(city="北京")
T-->>M: {"temp": 22, "condition": "晴", "humidity": 45}
M->>M: 结合工具结果生成回复
M-->>U: 北京今天晴天,气温 22°C,湿度 45%。

工具定义示例

OpenAI 与 Anthropic 的工具描述格式基本一致,均为 JSON Schema:

{
"name": "get_weather",
"description": "获取指定城市的当前天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "城市名称,例如:北京、上海"
}
},
"required": ["city"]
}
}

OpenAI 将此功能称为 Function Calling,Anthropic 称为 Tool Use,两者概念相同,格式略有差异。


MCP — 工具接入的统一标准

背景:工具接入的碎片化问题

MCP 出现之前,每个 AI 应用都需要为每个外部工具单独写集成代码,形成 M × N 的集成组合——M 个 AI 应用乘以 N 个工具。

graph LR
subgraph "没有 MCP(M × N 集成)"
A1["Claude"] --> T1["GitHub"]
A1 --> T2["Notion"]
A1 --> T3["Slack"]
A2["其他 AI 应用"] --> T1
A2 --> T2
A2 --> T3
end
graph LR
subgraph "有 MCP(M + N 集成)"
A3["Claude"] --> MCPL["MCP 协议层"]
A4["其他 AI 应用"] --> MCPL
MCPL --> S1["GitHub MCP Server"]
MCPL --> S2["Notion MCP Server"]
MCPL --> S3["Slack MCP Server"]
end

MCP 是什么

MCP(Model Context Protocol,模型上下文协议) 由 Anthropic 于 2024 年 11 月开源发布,定义了 LLM 应用与外部工具、数据源之间的标准通信格式。

MCP is an open protocol that standardizes how applications provide context to LLMs. Anthropic MCP 官方文档,2024

MCP 架构

graph TD
subgraph "Host(Claude Desktop / IDE / 应用)"
HC["MCP Client"]
end
subgraph "MCP Servers"
S1["文件系统 Server"]
S2["数据库 Server"]
S3["GitHub Server"]
S4["浏览器 Server"]
end
HC <-->|"JSON-RPC over stdio / SSE"| S1
HC <-->|MCP 协议| S2
HC <-->|MCP 协议| S3
HC <-->|MCP 协议| S4

MCP Server 对外暴露三类能力:Tools(模型可调用的函数)、Resources(模型可读取的数据)、Prompts(预定义的提示词模板)。

规范与 SDK 已在 GitHub 开源:https://github.com/modelcontextprotocol


Agent — 自主行动的 AI

Agent(智能体) 是能够自主感知环境、制定计划、调用工具,并循环执行直到完成目标的 AI 系统。与普通单次问答不同,Agent 遵循一个感知 → 思考 → 行动的循环。

flowchart TD
G["目标\n帮我分析竞争对手官网并写报告"]
G --> T["思考:拆解任务步骤"]
T --> A1["行动 1:调用浏览器工具\n抓取竞对官网内容"]
A1 --> O1["观察结果 1:获得网页文本"]
O1 --> A2["行动 2:调用搜索工具\n查找竞对最新新闻"]
A2 --> O2["观察结果 2:获得新闻列表"]
O2 --> A3["行动 3:综合以上内容生成报告"]
A3 --> DONE["任务完成"]

ReAct 框架

目前主流的 Agent 推理范式是 ReAct(Reasoning + Acting),在每步中交替进行推理(Thought)和行动(Action),并观察结果(Observation):

ReAct: Synergizing Reasoning and Acting in Language Models Yao et al., Princeton / Google Research, ICLR 2023

Thought: 我需要先了解用户提到公司的最新营收数据
Action: search("Apple Q3 2024 revenue")
Observation: 苹果 2024 年 Q3 营收为 857 亿美元...
Thought: 已有数据,继续获取对比方数据
Action: search("Microsoft Q3 2024 revenue")
Observation: 微软 2024 年 Q3 营收为 647 亿美元...
Thought: 数据收集完毕,开始撰写分析
Action: finish("苹果 Q3 营收 857 亿美元,同比增长 5%;微软...")

多 Agent 协作

复杂任务可以拆给多个专职 Agent 并行处理,由一个 Orchestrator 统筹:

graph TD
O["Orchestrator Agent\n任务拆解与分配"]
O --> R["Research Agent\n负责信息收集"]
O --> W["Writing Agent\n负责内容生成"]
O --> C["Review Agent\n负责质量检查"]
R --> O
W --> O
C --> O

Anthropic 在 Claude 的 API 文档中明确描述了多 Agent 系统的构建方式,包括每个子 Agent 拥有独立的上下文和工具权限。Claude Code 中的 agent team 功能(随 Opus 4.6 一同发布)正是这一架构的产品化体现。


Skills — Agent 的说明书

Skills(技能文档) 是专门写给 Agent 的操作手册,指导 Agent 在面对特定类型任务时如何处理。

核心结构

Skill
├── name 技能名称(短标识符,用于索引)
├── description 功能描述(决定 Agent 是否加载此 Skill)
└── content 详细操作步骤、示例、注意事项

延迟加载机制

大模型的上下文只会加载 namedescription,不会加载 content。只有在任务匹配到某个 Skill 的描述时,才将其 content 注入上下文执行。

flowchart LR
subgraph "常驻于 Context(极小开销)"
N["name"]
D["description"]
end
subgraph "按需加载(节省 Token)"
C["content(完整内容)"]
end
M["Agent 处理任务"] -->|"description 匹配"| N & D
N & D -->|"相关时才加载"| C
C -->|"注入 Context 执行"| E["执行任务"]

这样设计的目的是节省 Context Window——如果同时加载所有 Skill 的完整内容,会迅速消耗大量 Token 配额,并干扰模型对当前任务的专注度。


多模态 — 不止于文字

多模态(Multimodal) 指模型能够同时理解和生成多种类型的数据,而不仅限于文本。

graph TD
subgraph "输入模态"
I1["文本"]
I2["图片"]
I3["音频"]
I4["视频"]
I5["文档 / PDF"]
I6["代码"]
end
subgraph "多模态模型"
M["统一编码器\n将各模态映射为\n统一的向量表示"]
end
subgraph "输出模态"
O1["文本回答"]
O2["生成图片"]
O3["生成音频"]
O4["生成视频"]
end
I1 & I2 & I3 & I4 & I5 & I6 --> M --> O1 & O2 & O3 & O4

各模态代表模型(2025~2026)

能力代表模型说明
图像理解GPT-5、Claude Opus 4.6、Gemini 2.5 Pro识别图片内容、OCR、图表解析
图像生成GPT-image-1(OpenAI)、Imagen 3(Google)文字生成图片,支持图片编辑
语音识别Whisper(OpenAI)、gpt-4o-transcribe音频转文字
语音合成OpenAI TTS、Gemini 2.5 Flash TTS、ElevenLabs文字转语音
视频理解Gemini 2.5 Pro、GPT-5理解视频内容
视频生成Sora(OpenAI)、Veo 3(Google)文字生成视频

Robust Speech Recognition via Large-Scale Weak Supervision(Whisper 论文) Radford et al., OpenAI, ICML 2023


RAG — 给模型装上外部记忆

LLM 有两个天然局限:训练数据有截止日期,无法知道最新信息;Context Window 有限,无法将所有私有文档塞入上下文。RAG(Retrieval-Augmented Generation,检索增强生成) 是目前解决这两个问题的主流工程方案。

Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks Lewis et al., Facebook AI Research, NeurIPS 2020

RAG 工作流程

flowchart TD
subgraph "索引阶段(预处理,一次性)"
D["原始文档\nPDF、网页、数据库..."]
D --> CH["分块(Chunking)\n切成 512~1024 Token 的片段"]
CH --> EM["Embedding 编码\n每块文本 → 高维向量"]
EM --> VDB["向量数据库\nPinecone、Weaviate、Chroma..."]
end
subgraph "查询阶段(实时)"
Q["用户提问\nQ3 销售额是多少?"]
Q --> QEM["对问题做 Embedding"]
QEM --> RET["相似度检索\n从向量库找 Top-K 相关片段"]
RET --> CTX["将检索片段注入 Prompt 上下文"]
CTX --> LLM["LLM 基于上下文回答"]
LLM --> ANS["有依据的回答(可标注来源)"]
end

有无 RAG 的效果对比

维度无 RAG有 RAG
知识来源仅训练数据训练数据 + 实时检索
私有数据访问不支持支持检索私有文档
知识时效受截止日期限制可实时更新
回答可溯源难以验证可标注原文来源

上下文窗口的扩大(如 Claude 4.6 的 1M tokens)并不能完全取代 RAG。当文档总量远超窗口大小,或需要精确检索特定段落时,RAG 仍然是更高效的选择。


Embedding — 意义的数学表达

Embedding(嵌入) 是将文本映射为高维向量的技术,语义相似的文本在向量空间中距离更近。

"猫" → [0.21, -0.45, 0.88, ...] (1536 维向量)
"猫咪" → [0.22, -0.43, 0.86, ...] (与上面非常接近)
"汽车" → [-0.67, 0.31, -0.12, ...] (与上面差距很大)

两个向量之间通常用余弦相似度衡量语义相近程度,值域 [-1, 1],越接近 1 表示语义越相似:

similarity(A,B)=ABAB\text{similarity}(A, B) = \frac{A \cdot B}{|A| \cdot |B|}

Embedding 是 RAG、语义搜索、推荐系统等应用场景的技术基础。常用的 Embedding 模型包括 OpenAI text-embedding-3-large、Google text-embedding-004、开源的 BGE 系列等。


Temperature 与采样 — 控制模型的创造力

Temperature

Temperature 控制模型输出的随机程度,取值通常在 [0, 2] 之间:

graph LR
T0["Temperature = 0\n总是选概率最高的 Token\n输出稳定、确定性强\n适合:代码生成、结构化数据提取"]
T1["Temperature = 0.5~1\n平衡创造力与准确性\n适合:通用对话、写作"]
T2["Temperature > 1\n高度随机,输出多样\n适合:头脑风暴、创意写作\n可能产生无意义输出"]
T0 --> T1 --> T2

Top-P(核采样)

Top-P(Nucleus Sampling) 只从累计概率达到 P 的候选 Token 中采样,是另一种控制随机性的参数。

The Curious Case of Neural Text Degeneration Holtzman et al., University of Washington, ICLR 2020

参数组合推荐场景
temperature=0代码生成、数据提取、填表
temperature=0.7, top_p=0.9通用对话、问答
temperature=1.0, top_p=0.95创意写作、头脑风暴

推理模型(如 OpenAI o3、Claude 4.6 的 extended thinking 模式)通常不直接暴露 Temperature 参数,而是通过 thinking budget(Anthropic)或内置推理控制来调节输出质量与速度的权衡。


幻觉 — 模型最大的陷阱

幻觉(Hallucination) 指模型生成看起来合理但实际上是错误或捏造的内容——如不存在的论文引用、虚假的历史事件、错误的代码逻辑。

根本原因:LLM 的训练目标是预测”下一个 Token 最可能是什么”,而非”是否真实”。模型并不区分”知道的事”和”听起来合理的事”。

幻觉的分类

graph TD
H["幻觉 Hallucination"]
H --> F["事实性错误\n引用不存在的论文\n捏造具体数字"]
H --> C["推理错误\n数学计算出错\n逻辑链断裂"]
H --> S["自相矛盾\n前后两段话结论相悖"]

缓解策略

策略原理
RAG让模型基于检索到的真实文档回答,而非凭训练记忆
降低 Temperature减少随机性,倾向选择概率最高的 Token
要求引用来源在 Prompt 中要求模型标注信息出处,便于核查
Self-Consistency多次采样,取一致性最高的答案
RLHF / RLAIF通过人类或 AI 反馈进行强化学习微调,降低错误输出概率

Survey of Hallucination in Natural Language Generation Ji et al., ACM Computing Surveys, 2023


参考资料

论文

  1. Vaswani et al. Attention Is All You Need. NeurIPS 2017. https://arxiv.org/abs/1706.03762
  2. Brown et al. Language Models are Few-Shot Learners (GPT-3). NeurIPS 2020. https://arxiv.org/abs/2005.14165
  3. Wei et al. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS 2022. https://arxiv.org/abs/2201.11903
  4. Wei et al. Emergent Abilities of Large Language Models. TMLR 2022. https://arxiv.org/abs/2206.07682
  5. Yao et al. ReAct: Synergizing Reasoning and Acting in Language Models. ICLR 2023. https://arxiv.org/abs/2210.03629
  6. Lewis et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. NeurIPS 2020. https://arxiv.org/abs/2005.11401
  7. Radford et al. Robust Speech Recognition via Large-Scale Weak Supervision (Whisper). ICML 2023. https://arxiv.org/abs/2212.04356
  8. Holtzman et al. The Curious Case of Neural Text Degeneration. ICLR 2020. https://arxiv.org/abs/1904.09751
  9. Ji et al. Survey of Hallucination in Natural Language Generation. ACM Computing Surveys 2023. https://arxiv.org/abs/2202.03629

官方文档

  1. Anthropic. Introducing Claude Opus 4.6. 2026-02. https://www.anthropic.com/news/claude-opus-4-6
  2. Anthropic. Introducing Claude Sonnet 4.6. 2026-02. https://www.anthropic.com/news/claude-sonnet-4-6
  3. Anthropic. Models overview. https://docs.anthropic.com/en/docs/about-claude/models/overview
  4. OpenAI. Models. https://platform.openai.com/docs/models
  5. OpenAI. Introducing OpenAI o3 and o4-mini. 2025-04. https://openai.com/index/introducing-o3-and-o4-mini/
  6. OpenAI. Tokenizer tool. https://platform.openai.com/tokenizer
  7. Google DeepMind. Gemini 2.5: Our newest Gemini model with thinking. 2025-03. https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/
  8. Google. Gemini API Release notes. https://ai.google.dev/gemini-api/docs/changelog
  9. Anthropic. Model Context Protocol. https://github.com/modelcontextprotocol