你有没有这种体验:一个 Agent demo 看起来无所不能——会查资料、会写代码、会调用工具、还会自己决定下一步。但一到真要上线,你就突然开始焦虑:它会不会胡说?会不会慢到让人崩溃?会不会一不小心越权操作?
LangChain 的《State of Agent Engineering》就是一份“行业体检报告”:在2025 年末、迈入 2026 之际,它试图回答——大家到底把 Agent 用到哪一步了?最痛的坑在哪里?工程团队又在用什么办法把它从“能演示”养成“能交付”?这份报告基于一次为期两周的公开调查(2025/11/18–12/2),共收集1340份回复,覆盖从小团队到 10,000+ 的组织规模;行业分布以科技为主(63%),其次为金融服务(10%)与医疗健康(6%),教育(4%)及消费品、制造业(各 3%)。
另外也要提醒一句:这份调查虽然覆盖了多个行业,但它是由 LangChain 发起并传播的。换句话说,受访者大概率本来就关注 LangChain,或所在团队正在接触/评估 Agent 技术,因此样本天然更偏向“对 AI 更敏感、更愿意尝试”的人群。这会带来一个可预期的偏差:报告呈现的“上线比例”“工具成熟度”等指标,可能比全行业平均水平更乐观一些。把它当作“Agent 早期采用者(early adopters)的现状快照”会更贴切。
所以你可以把它当成:“别人家是怎么做 Agent 工程”的现实样本来看,不是空想。
报告围绕7 个核心主题展开,接下来我们一起来逐一解读。
1)最重要的信号:Agent 已经不是玩具了
报告最硬的结论之一是:Agent 上生产这件事已经发生了。
- 57.3%的受访组织已经有 Agent 在生产环境跑了
- 另有30.4%正在开发、并且明确计划上线
而且“大公司更快”:
- 10,000+ 员工的组织里,67% 已上线
- <100 人的小公司也不低,50% 已上线(但更多还在开发中)
可以把它理解成:
Agent 已经不是“玩玩看”,而是“真有人在扛业务”。以前大家在讨论“要不要上 Agent”,现在更像在讨论“怎么让它稳定上岗、别翻车”。
图源:LangChain《State of Agent Engineering》
2)大家最常用 Agent 干什么?一句话:要么对外接客,要么对内提效
在“主要用例”上,前两名很集中:
- 客户服务(26.5%)
- 研究与数据分析(24.4%)
再往下就是内部工作流自动化(报告提到 18%)——让员工更省事、更快。
有个挺有意思的分化:
超大企业(10k+)里,“内部效率”反而是第一(26.8%),客户服务和研究紧随其后。
这很像大厂的真实路径:先让它帮内部团队省时间、控风险,再考虑走到台前直接面对用户。
图源:LangChain《State of Agent Engineering》
3)为什么很多 Agent 上不了线?第一杀手不是成本,是“质量”
用大白话讲:
成本变便宜了,但 Agent 仍然会“胡说八道 / 不稳定 / 说话不合规 / 风格飘”,这些才是真正把团队卡住的东西。
报告里,“质量”仍是头号阻碍:32%认为这是上线最大阻碍。
第二大挑战是延迟(20%):Agent 多步推理 + 多次工具调用,能力上去的同时,响应也容易变慢;一旦开始做客户服务,慢就直接变成体验问题。
企业侧还有一个更“老板视角”的痛点:在 2000+ 员工企业里,安全跃升为第二大担忧(24.9%)。
图源:LangChain《State of Agent Engineering》
一句话总结:成本下降了,真正要命的是“靠谱不靠谱 + 快不快 + 能不能守规矩”。
4)行业共识:不做“可观测性”,就别谈 Agent 工程
这里报告用词很重:Observability is table stakes(基本门槛/入场券)。
- 89%的组织已经做了某种形式的可观测性
- 62%做到了“细粒度 tracing”,能看到每一步推理链和工具调用
- 只看“已上生产”的团队,这个数字更夸张:94%做了可观测性,71.5%有完整 tracing
**如果把 Agent 当实习生:**可观测性就像工单系统 + 监控摄像头 + 操作日志。不装这些,让它去“动手做事”,出事时你连“它从哪一步开始跑偏”都不知道,更别说修。
5)评估(eval)还在追赶:大家先离线,再慢慢上线上
这部分很“工程味”,但很关键:
- 52.4%会做离线评估(测试集上跑,防回归)
- 37.3%做线上评估(盯真实用户/真实流量)
上了生产之后,团队会更认真:
- “完全不做评估”的比例从29.5%降到22.8%
- 线上评估上升到44.8%
评估方法上,主流是“混合裁判”:
- 人审(59.8%)负责高风险、细腻判断
- LLM-as-judge(53.3%)负责规模化覆盖(质量、事实性、合规/风格)
一句话总结:人负责深度,模型负责广度。
6)模型与工具生态:没有人只押一个模型;微调也没成为主流
报告的描述非常明确:
- OpenAI 的 GPT 系列使用最广(“超过三分之二”)。
- 但“多模型”是常态:超过四分之三的组织在生产或开发中会用多个模型,按复杂度/成本/延迟做路由,而不是锁死一家。
- 仍有约三分之一的组织在投入自建/自托管模型能力,背后常见驱动是成本、数据主权、监管等。
- 57% 不做微调,更多靠 base model + prompt + RAG;微调被视为投入重、维护重的“少数派技能”。
7)大家日常最常用的 Agent 是谁?答案很现实:写代码第一名
在“你每天最常用什么 Agent?”的开放题里,最突出的模式是:
- Coding Agents统治日常:Claude Code、Cursor、Copilot、Amazon Q、Windsurf 等被反复提到
- 研究/深度研究 Agents其次:ChatGPT、Claude、Gemini、Perplexity 等
- 还有一类是基于 LangChain/LangGraph 的内部自建 Agent(QA、知识库检索、Text-to-SQL、客服、自动化等)
这其实透露了一个现实:
“最先被 Agent 改造的工作台”,就是开发者的工作台。
小结:Agent 工程是一门“把不确定性关进笼子”的手艺
报告里对“Agent engineering”的定义,我特别喜欢:
“Agent engineering is the iterative process of harnessing LLMs into reliable systems.”
翻成更接地气的话:
Agent 的本质是非确定的——所以工程的本质不是“写出一个聪明的 Agent”,而是建立一套机制,让它可解释、可评估、可迭代、可上线。
如果你准备做 Agent(或正在做),这份报告给的现实路线大概是:
先把可观测性补齐 → 再用离线/线上评估去稳质量 → 最后用多模型路由与安全控制把成本和风险一起压住。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。