本文介绍 Claude 模型的研发公司 Anthropic 的一篇博文(https://www.anthropic.com/engineering/building-effective-agents)。在该文章,Anthropic 分享从客户合作及自身构建智能体过程中积累的经验,并为开发者提供构建高效智能体的实用建议,值得开发者学习。
Anthropic 认为,AI 应用开发,应从简单的方案着手。当简单的方案无法满足场景需求时,再考虑采用更复杂的方案。从简单到复杂,基于 LLM 的智能应用的三层解决方案:
- 增强型LLM
- 工作流(workflow)
- 智能体(Agent)
本文主要内容如下:
- workflow 与 Agent 的区别比较
- 从简单到复杂的三层解决方案:增强型LLM、workflow、Agent
- 智能体系统的开发经验总结
在过去一年中,我们与数十个跨行业团队合作构建大语言模型(LLM)智能体。始终可见的是,最成功的实施方案并未使用复杂框架或专用库,而是采用简单、可组合的模式构建。
workflow 与 Agent 的区别比较
不同的人对智能体有不同的定义。有人将智能体定义为完全自主的系统,能够长期独立运行,并使用各种工具完成复杂任务;有人则用该术语描述遵循预定义工作流的规范性实施方案。Anthropic 将所有这些变体归类为智能体系统,但在架构上对工作流 workflows 和 agents 进行了重要区分:
- Agents(智能体):能够自主决策的AI系统,能动态规划任务、使用工具,并根据环境反馈调整行动(如修复错误)。
- Workflow(工作流):通过预定义代码路径编排LLM和工具的系统,流程固定且可预测。
关键区别:
- 工作流:适用于结构化的、可预测的任务(如,按步骤处理数据)。
- 智能体:适用于需灵活决策的开放性问题(如,多轮对话或复杂问题解决)。
构建模块:增强型LLM
智能体系统(agentic systems)的基本构建模块是一个通过检索、工具和记忆等增强功能得到提升的LLM。LLLM 可以自主地生成搜索查询、选择合适的工具,并决定哪些信息保留在上下文窗口:
实现增强型 LLM 的两个关键点:
- 定制化能力:根据特定用例场景来定制开发功能(检索、工具、记忆)。
- 清晰接口:为 LLM 提供简单、文档齐全的功能接口。让 LLM 识别并自主调用。
推荐的实现途径:通过 MCP 协议,让 LLM 连接外部世界。基于 MCP 协议,开发者通过简单的 MCP 客户端实现与不断增长的第三方工具生态系统集成。
工作流(workflow)的五种设计模式
我们可以通过组合多个构建模块(增强型LLM),形成工作流,以完成更复杂的任务。以下是工作流(workflow)的五种设计模式:
提示链 (Prompt chaining)
将任务分解为一系列步骤,其中每个LLM调用处理前一个的输出。
提示链 (Prompt chaining)是最基础的线性工作流。提示链像一条工厂流水线,一个环节的产出直接成为下一个环节的输入,简单直接,易于调试。
- 核心思想:将复杂任务串行化,通过将大问题拆解成小问题,降低单个步骤的复杂度,从而提高最终输出的质量和准确性。
- 适用场景:适用于任何具有清晰前后逻辑顺序的任务,特别是需要层层递进、逐步求精的场景,如信息提取、内容改写、格式转换等。
- 应用示例:一个“新闻分析与翻译”流程。
- 第一步 (LLM):输入一篇新闻文章,提示:“请将这篇文章总结为三个要点。”
- 第二步 (LLM):将上一步生成的三个要点作为输入,提示:“请将这些内容翻译成日语。”
路由 (Routing)
对输入进行分类,并将其引导至一个专门的后续任务。
如果说提示链是单行道,那么路由就是一个智能交通枢纽。路由 (Routing)首先判断输入的意图,然后像一个交换机一样,将任务导向最合适的处理流程(通常是另一个专门的 Workflow)。
- 核心思想:专业分工。将不同类型的请求,精确地导向最擅长处理它的“专家”流程。
- 适用场景:需要根据输入类型进行不同处理的场景。常用于智能客服、意图识别、以及成本优化(例如,简单问题路由给更便宜、更快的模型,复杂问题才路由给昂贵的高级模型)
- 应用示例:一个多功能“客户服务机器人”。
- 用户提问:“我的订单为什么还没发货?”
- 路由 (LLM):分析用户输入,将其意图分类为“订单状态查询”。
- 分发:将任务和订单号,转发给专门处理物流查询的“提示链”或“工具调用”工作流。
并行化 (Parallelization)
将子任务同时分发给多个并行的LLM实例进行处理,并以编程方式聚合它们的输出。
当一个大任务可以被分解为多个相互独立的子任务时,此模式会将这些子任务同时分发给多个并行的LLM实例进行处理,最后再将所有结果汇总。
核心思想:分而治之,齐头并进。通过并行处理,极大地缩短处理海量数据或耗时任务所需的总时长。
适用场景:批量数据处理和分析。例如,分析成百上千份用户评论、处理一个大型文档的不同章节、对多张图片进行描述生成等。
应用示例:一个“产品对比报告生成器”。
用户请求:“请对比分析A产品和B产品的优缺点。”
并行处理:
工作者1 (LLM):被指派研究并总结A产品的优缺点。
工作者2 (LLM):在同一时间,被指派研究并总结B产品的优缺点。
聚合:当两个工作者都完成后,一个最终的LLM或程序将两份总结合并,形成一份完整的对比报告。
编排器-工作者 (Orchestrator-workers)
一个中央LLM动态地分解任务,将它们委托给工作者LLM,并综合它们的结果。
一个“编排器”(Orchestrator)LLM作为总指挥,它负责理解一个宏大而复杂的目标,然后自主地将目标分解为一系列子任务,并动态地将这些任务分配给不同的“工作者”(Worker)LLM或工具去执行。
- 核心思想:统筹规划与动态调度。模拟一个项目经理或团队领导,不仅负责任务分解,还可能根据执行结果动态调整后续计划。
- 适用场景:适用于需要多步骤、多工具协作,且具体执行路径事先难以完全确定的复杂项目(区别于并行化),如自动化科学研究、市场分析报告撰写、软件功能开发等。
- 应用示例:“开放式课题研究”。
- 用户请求:“研究一下“多模态大模型”的最新进展。”
- 编排器LLM: “好的,我需要先了解它的基本定义。” 于是它调用“学术搜索引擎Worker”。
- 动态决策: Worker返回几篇关键论文后,编排器阅读摘要,发现“视觉语言对齐”是核心技术,于是决定下一步是调用另一个“论文深度分析Worker”来专门研究这个技术点。
- 这个“决策-委派-综合”的循环持续进行,直到课题研究完毕。
评估器-优化器 (Evaluator-optimizer)
一个LLM调用生成响应,而另一个则在循环中提供评估和反馈。
建立一个“生成-反馈-修改”的迭代循环。通常由两个角色的LLM组成:一个“生成者”负责初步创作,一个“评估者”负责根据一套标准进行批判和审查,并给出优化建议。
- 核心思想:持续改进。通过引入批判性反馈,模拟人类世界中“草稿-评审-定稿”的创作过程,从而不断打磨和提升输出质量。
- 适用场景:适用于那些没有唯一正确答案,但有明确质量评判标准的任务,如创意写作、代码优化、复杂的文案翻译、法律合同草拟等。
- 应用示例:“生成一段高安全标准的银行交易代码”。
- 生成器LLM: 生成第一版交易处理代码。
- 评估器LLM (安全专家): 检查代码后反馈:“代码未处理并发请求下的竞态条件,存在风险。”
- 优化器LLM: 根据反馈,为代码加入了“事务锁”,生成第二版。
- 再次评估: 评估器再次检查,确认代码已符合安全标准,流程结束。
智能体 (Agents)
LLM 动态地指导自己的流程和工具使用,保持对如何完成任务的控制。
与 Workflow 相对的是智能体(Agent)。Agent是动态的、自主的,它自己决定思考什么、调用什么工具、下一步做什么。控制权在LLM本身,而不是在预定义的代码逻辑里。
- 特点:长期运行、动态规划、工具调用、错误恢复、支持人工干预。
- 挑战:高成本、错误累积风险,需沙盒测试和严格防护栏(Guardrails)。
何时使用智能体(Agent)
Agent 适用于那些没有固定解决路径的、开放式的问题。它需要在不确定的环境中自主探索,并根据实时反馈动态调整计划。Agent 的自主性意味着更高的成本和潜在的复合错误,需要在沙盒环境中进行广泛测试,并配备适当的防护栏。
- 应用场景1:自主Web导航。例如,给定一个目标“帮我预订下周五纽约JFK机场附近评分最高的希尔顿酒店”,Agent需要自己浏览网站、处理登录、填写表单、比较价格和评论。
- 应用场景2:自动化软件开发。类似Devin的工具,可以理解一个软件需求,然后自主地编写代码、调试、测试、甚至部署。这个过程无法预先用Workflow写死。
示例,一个编程智能体(coding agent)的工作流程:
开发经验总结
Workflow 还是 Agent?
能用Workflow就不要用Agent。从最简单的方案开始,只在绝对必要时才增加系统的复杂性。
- 选择 Workflow:当任务流程清晰、可预测,且对可靠性和稳定性的要求很高时。
- 选择 Agent:当任务是开放式的,解决路径未知,需要系统具备动态规划和自主决策能力时。
关于框架(Frameworks)的思考
像 LangChain、LlamaIndex 这样的框架,极大地降低了入门门槛。它们提供了现成的组件,可以快速搭建起Workflow和 Agent。
什么时候使用框架?
- 快速原型验证:当需要快速验证一个想法时,框架是极好的加速器。
- 学习与探索:对于初学者,框架是理解各种模式如何工作的优秀实践平台。
如何正确使用框架?
过度依赖或滥用框架可能会带来问题。框架的抽象有时会隐藏底层的提示词和逻辑,使得调试变得困难(“黑盒化”)。因此,即使使用框架,也强烈建议去理解其底层的实现原理。对于追求极致性能和稳定性的生产级系统,有时用几行原生代码实现一个简单的模式,可能比引入一个庞大的框架更明智。
构建高效Agent的原则
在LLM领域的成功不在于构建最复杂的系统,而在于构建适合需求的正确系统。从简单的提示开始,通过全面的评估来优化它们,并且只有在更简单的解决方案不足时才添加多步骤的智能体系统。
在实施智能体时,我们尝试遵循三个核心原则:
- 保持智能体设计的简单性。
- 通过明确显示智能体的规划步骤来优先考虑透明度。
- 通过详尽的工具文档和测试,精心打造您的智能体-计算机接口(ACI)。
框架可以帮助快速入门,但在转向生产时,不要犹豫,减少抽象层并使用基本组件进行构建。通过遵循这些原则,可以创建不仅功能强大,而且可靠、可维护并受其用户信任的智能体。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01教学内容
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
0690+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发