本教程系统梳理大语言模型(LLM)的核心原理、Agentic AI 架构与工程实践,面向希望深入理解并落地 LLM 应用的开发者。
| 章节 | 主题 | 核心内容 |
|---|---|---|
| 第一章 | 大模型底层原理与架构演进 | Transformer 架构演进、训练范式(预训练/后训练)、Scaling Laws 与能力涌现 |
| 第二章 | Agentic AI 架构与多智能体协同范式 | 单智能体 vs 多智能体、Supervisor/Peer/Hierarchical 架构、通信协议与协同机制 |
| 第三章 | 上下文压缩技术 | Lost in the Middle、滑动窗口、滚动摘要、RAG 检索、结构化上下文工程 |
| 第四章 | 记忆系统 | 记忆分层架构、向量数据库、跨会话记忆、隐私合规 |
| 第五章 | Token 经济学与推理生命周期 | 上下文通胀、输入输出不对称性、Prefill/Decode 阶段、KV Cache 与显存优化 |
| 第六章 | 工程落地与最佳实践 | 三阶段演进路径、Prompt 工程化、评估体系、可观测性、成本优化 |
| 第七章 | 大模型 API 协议的演进与架构设计 | 协议乱象起源、OpenAI/Anthropic/DashScope 三大阵营、多协议系统工程架构(ILLMClient 抽象 + 工厂路由 + 协议转换隔离) |
| 第八章 | AI 时代的浏览器自动化 | Selenium→Playwright 演进史、Chrome DevTools MCP、Playwright MCP、Token 消耗优化、agent-browser、OpenCLI、CLI-Anything |
- 希望系统理解 LLM 底层原理的开发者
- 正在构建 AI Coding 工具或 Agent 系统的工程师
- 关注模型成本、性能与工程落地的技术负责人
建议按章节顺序阅读,每章末尾附有开发者 Checklist 和实操建议,可直接应用于项目实践。
持续更新中,欢迎交流讨论