引言 (Introduction)
随着我们步入 2026 年,组织不再询问“是否”需要构建 Agent(智能体),而是关注“如何”可靠、高效且规模化地部署它们。我们调研了 1,300 多名专业人士,以了解他们如何演进 AI Agent 的用例以及如何应对 Agent 工程化方面的挑战。
核心发现:
- 生产环境势头强劲:57% 的受访者已经在生产环境中拥有运行中的 Agent,其中大型企业在采用率上处于领先地位。
- 质量是投产的“杀手”:32% 的受访者将其列为首要障碍。与此同时,对成本的担忧较去年有所下降。
- 可观测性(Observability)已成标配:近 89% 的受访者为其 Agent 实施了某种形式的可观测性,普及率超过了占比 52% 的评估(Evals)。
- 多模型并用是常态:OpenAI 的 GPT 模型处于领先地位,但 Gemini、Claude 和开源模型也获得了显著的采用。微调(Fine-tuning)尚未被广泛采用。
深度洞察 (Insights)
什么是 Agent 工程化?
Agent 工程化是将 LLM(大语言模型)驾驭为可靠系统的迭代过程。由于 Agent 具有非确定性,我们认为工程师需要快速迭代以提炼和提高 Agent 的质量。
大型企业正在引领采用
超过一半的受访者(57.3%)现在拥有在生产环境中运行的 Agent,另有 30.4% 的受访者正在积极开发并有具体的部署计划。
这标志着较去年的调研有了明显的增长,当时只有 51% 的人报告有 Agent 在生产环境中运行。各组织正在跨越概念验证(POC)阶段进入生产阶段——对于大多数组织来说,问题不再是“是否”会发布 Agent,而是“如何”发布以及“何时”发布。
**规模化带来的变化?**在万人以上规模(10k+)的组织中,67% 拥有生产环境中的 Agent,24% 正在积极开发并计划投产——相比之下,百人以下规模(<100)的组织中,这一比例分别为 50%(已投产)和 36%(开发中)。这表明大型组织正更快地从试点项目转向持久的系统,这可能是由在平台团队、安全和可靠性基础设施方面更大的投入所驱动的。
领先的 Agent 用例
客户服务成为最常见的 Agent 用例(26.5%),研究与数据分析紧随其后(24.4%)。这两大类合计占所有主要 Agent 部署的一半以上。
客户服务的强劲表现表明,团队正转向将 Agent 直接置于客户面前,而不仅仅是在内部使用。与此同时,Agent 继续在内部提供明确的价值,18% 的受访者表示使用 Agent 进行内部工作流自动化以提高员工效率。
研究与数据分析用例的流行进一步加强了 Agent 如今的闪光点:综合大量信息、跨源推理以及加速知识密集型任务。
值得注意的是,今年受访者选择的用例分布更加广泛(受访者只能选择一个主要用例),因此 Agent 的采用可能正在从早期的一小部分应用向多元化发展。
**规模化带来的变化?**在拥有 10k+ 员工的组织中,内部生产力是首选从用例(26.8%),客户服务(24.7%)和研究与数据分析(22.2%)紧随其后。大型企业可能倾向于首先关注提高内部团队的效率,然后(或同时)再向最终用户部署 Agent。
投产的最大障碍
质量仍然是投产的最大障碍,这与去年的发现一致。今年,三分之一的受访者将质量列为首要阻碍。这涵盖了准确性、相关性、一致性,以及 Agent 保持正确语气并遵守品牌或政策准则的能力。
**延迟(Latency)**已成为第二大挑战(20%)。随着 Agent 进入客户服务和代码生成等面向客户的用例,响应时间成为用户体验的关键部分。这也反映了团队在质量和速度之间的权衡,因为能力更强、多步骤的 Agent 可以提供更高质量的输出,但往往响应较慢。
相比之下,成本被提及的频率低于往年。模型价格的下降和效率的提高似乎已将注意力从单纯的支出上转移开,组织现在优先考虑让 Agent 运行得既好又快。
规模化带来的变化?在企业级(2k+ 员工)组织中,质量仍然是头号阻碍,但安全成为第二大担忧,有 24.9% 的受访者提及——超过了延迟,而延迟在较小的组织中更为常见。
对于拥有 10k+ 员工的组织,书面回复指出,Agent 产生的幻觉(Hallucinations)和输出一致性是确保 Agent 质量的最大挑战。许多人还提到了在**上下文工程(Context Engineering)**和大规模管理上下文方面持续存在的困难。
Agent 的可观测性 (Observability)
追踪多步推理链和工具调用的能力已成为 Agent 的入场券(Table stakes)。89% 的组织为其 Agent 实施了某种形式的可观测性,62% 拥有详细的追踪功能,允许他们检查单个 Agent 步骤和工具调用。
在已经拥有生产环境 Agent 的受访者中,采用率甚至更高:94% 拥有某种形式的可观测性,71.5% 拥有完整的追踪能力。这说明了 Agent 工程化的一个基本真理:如果无法透视 Agent 如何推理和行动,团队就无法可靠地调试故障、优化性能或与内部和外部利益相关者建立信任。
Agent 的评估与测试 (Evaluation and testing)
虽然可观测性已被广泛采用,但 Agent 评估(Evals)仍在追赶并获得更多关注。仅超过一半的组织(52.4%)报告在测试集上运行离线评估(Offline evaluations),这表明许多团队看到了在部署前捕捉回归错误(Regressions)和验证 Agent 行为的重要性。**在线评估(Online evals)**的采用率较低(37.3%),但随着团队开始监控现实世界中的 Agent 表现,这一比例正在增长。
对于已经拥有生产环境 Agent 的团队来说,评估实践可能更为成熟,因为整体评估采用率显著更高(“不评估”的比例从 29.5% 降至 22.8%)。我们还看到更多的组织运行在线评估(44.8%),这表明一旦 Agent 面对真实用户,团队需要观察生产数据以实时检测问题。
大多数团队仍然从离线评估开始,这可能是因为其门槛较低且设置更清晰,但许多团队正在分层采用多种方法。在运行任何评估的组织中,近四分之一结合了离线和在线评估。
这些运行评估的组织还依赖人工和自动化相结合的方法进行评估,实施“LLM 作为裁判”(LLM-as-judge)以实现广度,并进行人工审查以实现深度。更广泛地说,人工审查(59.8%)在微妙或高风险的情况下仍然至关重要,而“LLM 作为裁判”的方法(53.3%)正越来越多地用于规模化评估质量、事实准确性和准则遵守情况。相比之下,传统的机器学习指标如 ROUGE 和 BLEU 采用率有限。这些指标可能不太适合存在多种有效回复的开放式 Agent 交互。
模型与工具格局
OpenAI 模型在采用率上占据主导地位,但很少有团队将赌注押在单一供应商上。
超过三分之二的组织报告使用 OpenAI 的 GPT 模型,但模型多样化是常态——超过四分之三的组织在生产或开发中使用多个模型。团队越来越多地根据复杂性、成本和延迟等因素将任务路由到不同的模型,而不是追求平台锁定。
尽管商业 API 很方便,但在内部运行模型仍是许多组织的重要策略。三分之一的组织报告投资于部署自有模型所需的基础设施和专业知识。这种开源模型的采用可能是由大批量的成本优化、数据驻留和主权要求或敏感行业的监管限制所驱动的。
与此同时,微调(Fine-tuning)仍然是专业化的,而非标准化的。大多数组织(57%)不微调模型,而是依赖基础模型结合提示工程(Prompt Engineering)和 RAG(检索增强生成)。由于微调需要在数据收集、标记、训练基础设施和持续维护方面投入巨资,它似乎主要保留给高影响力或专业化的用例。
哪些 Agent 被日常使用?
当我们问到“你在日常生活中使用最多的 Agent 是什么?”时,书面回复中出现了一些清晰的模式。
**1. 编码 Agent 主导日常工作流。**到目前为止,最常被提及的 Agent 是编码助手。受访者反复引用像Claude Code, Cursor, GitHub Copilot, Amazon Q, Windsurf 和 Antigravity这样的工具作为他们日常开发循环的一部分,无论是用于代码生成、调试、测试创建还是浏览大型代码库。
2. 研究与深度研究 Agent 是第二大常用工具。第二种最常见的模式是由 ChatGPT, Claude, Gemini, Perplexity 和类似工具驱动的研究和深度研究 Agent。这些 Agent 用于探索新领域、总结长文档以及综合跨源信息。它们通常在同一个工作流中作为编码 Agent 的伴侣使用。
3. 基于 LangChain 和 LangGraph 构建的自定义 Agent 也很受欢迎。第三组明显的答案指向自定义 Agent,许多受访者基于 LangChain 和 LangGraph 进行构建。受访者描述了用于 QA 测试、内部知识库搜索、SQL/Text-to-SQL、需求规划、客户支持和工作流自动化等方面的内部 Agent。
相当一部分少数派也指出,除了 LLM 聊天或编码辅助之外,他们尚未使用其他 Agent,这强调了虽然 Agent 的使用很广泛,但更广泛的“万物皆 Agent(agentic everything)”仍处于早期阶段。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。