langchain 创建智能体,并使用saver保存会话消息

简单创建智能体并调用

""" 可参考官方文档地址:https://docs.langchain.com/oss/python/langchain/agents 智能体会遵循 ReAct(“推理+行动”)模式,交替进行简短的推理步骤和针对性工具调用,并将所得观察反馈到后续决策中,直到能够给出最终答案。 第一步:初始化测试用的工具 """fromlangchain_core.toolsimporttoolfrompydanticimportBaseModel,FieldclassAddInputArgs(BaseModel):a:float=Field(description="第一个数字",example=1)b:float=Field(description="第二个数字",example=2)@tool(description="对输入的两个数字执行加法运算",args_schema=AddInputArgs,return_direct=False)defadd(a,b)->float:returna+b""" 第二步:初始化大模型 这里直接初始化一个千问大模型 """importosfromlangchain_openaiimportChatOpenAIfromdotenvimportload_dotenv load_dotenv()llm=ChatOpenAI(model="qwen-max-latest",base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",api_key=os.getenv("DASHSCOPE_API_KEY"),streaming=True,)""" 第三步:创建智能体 通过 langchian.agent的create_agent方法 """fromlangchain.agentsimportcreate_agent agent=create_agent(model=llm,tools=[add],system_prompt="你是一个擅长计算的专家,你会使用数学工具完成计算")""" 第四步:调用智能体 """result=agent.invoke(input={"messages":[{"role":"user","content":"请计算1+2的值"}]})"""美化 打印result的消息列表"""formsginresult['messages']:t=type(msg).__name__ift=='HumanMessage':print(f"👤{msg.content}")elift=='AIMessage':ifhasattr(msg,'tool_calls')andmsg.tool_calls:fortoolinmsg.tool_calls:args=', '.join(f'{k}={v}'fork,vintool['args'].items())print(f"🤖 调用{tool['name']}({args})")elifmsg.content:print(f"🤖{msg.content}")elift=='ToolMessage':print(f"🔧{msg.name}{msg.content}")
控制台输出内容: 👤 请计算1+2的值 🤖 调用 add(a=1,b=2)🔧add3.0🤖 计算结果为\(1+2=3\)

使用Saver保存会话消息

langchian的对话消息,有多种保存方式,可以使用redis、MongoDB、或者写一个自定义saver保存到本地都是可以的

  • 在早期可以使用社区提供的ChatMessageHistory 来实现简单的会话消息保存,保存和提取的动作都需要自己维护
    后期官方提供了MemorySaver 这是完整的会话管理系统,langchian会自动处理一起

案例代码

""" agent会话保存 可以使用临时内存保存、也可以使用redis、MongoDB甚至是自己实现本地文件保存"""importasyncioimportjsonimportos from dotenvimportload_dotenv from langchain_core.messagesimportSystemMessage, HumanMessage, AIMessage from langchain_core.runnablesimportRunnableConfig from langchain.agentsimportcreate_agent load_dotenv()""" 第一步:定义Saver""" from langgraph.checkpoint.memoryimportMemorySaver memory_saver=MemorySaver()""" 第二步:初始化大模型""" from langchain_openaiimportChatOpenAI llm=ChatOpenAI(model="qwen-max-latest",base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",api_key=os.getenv("DASHSCOPE_API_KEY"),streaming=True,)""" 第三步:创建react Agent 并传入checkpointer""" agent=create_agent(model=llm,checkpointer=memory_saver,debug=True,system_prompt=SystemMessage(content="你是3DM的游戏助手,专注游戏问题"),)""" 第四步 创建RunnableConfig,用来传入ThreadId 也就是会话标识""" config=RunnableConfig(configurable={"thread_id":1},recursion_limit=100)""" 第五步 流式调用agent连续对话""" async def run_conversation(): print("="*50)print("游戏助手已启动!输入 'exit' 退出,输入 'history' 查看历史记录")print("="*50)conversation_history=[]# 本地存储对话历史whileTrue: user_input=input("\n用户:")# 退出命令ifuser_input.lower()=="exit":print("\n对话结束!")breakprint("\n助手:",end="",flush=True)try:# 流式异步调用大模型asyncforchunkinagent.astream(input={"messages":user_input},config=config):# 根据你提供的格式解析chunkawait process_chunk(chunk)except Exception as e: print(f"\n[错误] 调用大模型时出错: {e}")importtraceback traceback.print_exc()print()# 换行async def process_chunk(chunk):"""处理流式返回的chunk"""ifisinstance(chunk, dict):# 处理 [values] 类型的chunkif'messages'inchunk: print(f"\n[DEBUG] 收到消息chunk:")formsginchunk['messages']:ifhasattr(msg,'content'): print(f"[DEBUG] 消息类型: {type(msg).__name__}")print(f"[DEBUG] 消息内容: {msg.content[:100]}...")# 只显示前100字符# 处理 [updates] 类型的chunkelif'model'inchunk: model_updates=chunk.get('model',{})if'messages'inmodel_updates:formsginmodel_updates['messages']:ifisinstance(msg, AIMessage)and msg.content:# 这是AI的回复内容,打印出来print(msg.content,end="",flush=True)elifisinstance(msg, HumanMessage): print(f"\n[DEBUG] 用户消息: {msg.content}")else: print(f"\n[DEBUG] 其他消息类型: {type(msg).__name__}")# 打印完整的chunk结构用于调试else: print(f"\n[DEBUG] 完整chunk结构:")print(json.dumps(chunk,indent=2,default=str,ensure_ascii=False)[:500]+"...")elifhasattr(chunk,'__dict__'):# 处理对象类型的chunkprint(f"\n[DEBUG] 对象chunk: {type(chunk).__name__}")ifhasattr(chunk,'content'): print(f"[DEBUG] 内容: {chunk.content}")ifisinstance(chunk, AIMessage): print(chunk.content,end="",flush=True)elifisinstance(chunk, str):# 直接字符串内容print(chunk,end="",flush=True)else:# 其他类型print(f"\n[DEBUG] 未知chunk类型: {type(chunk)}")print(f"[DEBUG] 值: {chunk}")if__name__=='__main__':# 运行对话asyncio.run(run_conversation())

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1159408.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python基于vue的江西特色乡村综合风貌展示平台django flask pycharm

目录技术框架与开发工具功能模块设计数据库与性能优化特色创新点应用价值与推广开发技术路线相关技术介绍核心代码参考示例结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!技术框架与开发工具 该平台采用Python作为后端核心语言&…

langchian 使用外部MCP工具创建自己的MCP服务

普通智能体接入高德MCP mcp协议官网:https://modelcontextprotocol.info/zh-cn/ 关于什么是mcp建议大家看一下MCP官网就可以,首页的描述就非常贴切 “AI应用的USB-C接口” 接口通用,功能强大接入流程 官网示例:https://docs.langc…

【开题答辩全过程】以 基于Java的大学生兼职信息系统的设计与实现为例,包含答辩的问题和答案

个人简介一名14年经验的资深毕设内行人,语言擅长Java、php、微信小程序、Python、Golang、安卓Android等开发项目包括大数据、深度学习、网站、小程序、安卓、算法。平常会做一些项目定制化开发、代码讲解、答辩教学、文档编写、也懂一些降重方面的技巧。感谢大家的…

2026年强推新兴GEO服务商-微盟星启:抢占AI搜索心智打造品牌增长

一、AI搜索重构增长逻辑,品牌亟需“标准答案”破局当生成式AI成为搜索领域的核心变革力量,互联网用户的信息获取方式正发生根本性转变。不同于传统关键词搜索的“信息罗列”,AI搜索更倾向于输出“整合式、结论性”的答案,这直接重…

Spring 中 Servlet 容器和 Python FastAPI 对比

一、核心架构对比:Java Servlet vs. Python ASGI 下表清晰地展示了两个生态在对应层级上的核心组件与关系:架构层级核心职责Java / Servlet 生态Python / ASGI 生态1. 网络与协议层处理原始HTTP请求/响应、连接管理、线程/进程调度。Tomcat, Jetty, Unde…

虎贲等考 AI:重构学术创作新范式,一站式智能论文写作解决方案

在学术研究与论文写作的赛道上,研究者与学子们往往面临选题迷茫、文献繁杂、实证低效、合规棘手等多重困境。虎贲等考 AI 智能写作平台(官网:https://www.aihbdk.com/)应势而生,作为一款基于前沿人工智能技术打造的专业…

揭秘Emmi AI每月人均千欧的远程团队协作模式

Emmi AI是一家奥地利深度科技公司,致力于构建人工智能驱动的物理仿真技术,以加速流体动力学、多物理场和固体力学等领域的工程流程。 对于从事此类工作的公司而言,人员协作方式与技术本身同等重要。该公司采用了一种混合、远程优先的模式&…

拒稿率暴跌 90%!虎贲等考 AI 期刊论文功能:从初稿到录用的 “学术加速器”

《自然》期刊统计显示,全球 78% 的学术论文因写作问题被拒稿,其中结构性缺陷占 53%,学术规范失误占 32%。对于科研人来说,撰写期刊论文不仅要攻克研究难题,还要面对文献梳理、格式规范、查重降重等一系列 “附加关卡”…

langchain 常见提示词模板使用案例

大模型对象创建&调用 """ 大模型共用定义""" import os from dotenv import load_dotenv from langchain_openai import ChatOpenAI load_dotenv()# 创建大模型对象 llm ChatOpenAI(model"qwen-max-latest",base_url"https…

langchain的工具调用

Tools 就是给大模型安装的"手和脚",让大模型能够调用外部函数/API来获取实时信息或执行具体操作。Tools 的工作流程 完整流程 用户问题 → 大模型思考 → 调用Tool → 执行Tool → 结果返回 → 大模型重新组织 → 最终回答 # 1. 用户提问 user_question …

告别熬夜做 PPT!虎贲等考 AI PPT:学术汇报的 “一键焕新” 神器

学术汇报的终极痛点是什么?不是论文写得不够好,而是熬了三个通宵做的 PPT,被导师批 “逻辑混乱、排版杂乱、重点不明”。从开题汇报、中期答辩到最终答辩,每一次 PPT 制作都像一场耗时耗力的 “硬仗”—— 既要提炼论文核心观点&a…

销售要少夸赞自己实力强,多问问客户害怕什么

制造业的销售常常会犯一个致命的错误:一和客户见面就急着向对方证明“我们技术领先同行”“设备精度非常高”“服务响应速度快”……但客户内心里想的却是:“你说得再好,万一出现问题,这个责任还是得我来承担,”在责任…

GetX 从 0 开始:理解 Flutter 的“对象级响应式系统”

很多人听说 GetX,是因为它“什么都能干”:状态管理、路由、依赖注入。 但如果一上来就学 API,很容易学成“工具集合”。 这篇文章只做一件事: 👉 从 0 建立对 GetX 的正确认知:它到底解决什么问题&#xff…

极致感知与定位:基于电鱼智能 RK3588 的 AMR 机器人高精度 vSLAM 导航方案

为什么 AMR 机器人首选 RK3588 进行 vSLAM?1. 多核异构算力匹配 vSLAM 任务链vSLAM 算法包含高度复杂的流水线,RK3588 的异构架构可以实现完美的分工:Cortex-A76 高大核:负责前端视觉里程计(VO)的特征点提取…

Java酒店管理系统(简易版)_java简易酒店管理系统

1.需求: 实现一个简单的酒店客房管理系统,它具备5个功能,分别为【1:查看所有房间功能;2:订房功能;3:退房功能;4:修改价格功能;5:退出本系统功能】…

电鱼智能 RK3576 实现商用清洁机器人的视觉避障与路径规划

什么是 电鱼智能 RK3576?电鱼智能 RK3576 是一款专为 AIoT 场景设计的中高端 SoC。它搭载 4 核 Cortex-A72 4 核 Cortex-A53 处理器,最大的亮点在于集成了 6TOPS 的独立 NPU(算力甚至接近旗舰级 RK3588 的单核 NPU 性能)。配合支…

揭秘!这位吴忠羽球教练凭什么带出锦标赛亚军?答案藏在3大教学绝招里

吴忠羽球教练韩宁波能带出锦标赛亚军,主要得益于以下三大教学绝招:科技赋能,精准训练肌电传感器揭秘力量传导链:韩宁波引入医疗级肌电传感器,开发出“肌肉激活顺序训练法”。学员佩戴8通道传感器进行专项训练&#xff…

基于DCT变换图像去噪算法的终极优化(1920*1080灰度图单核约22ms)

相关文章: 优化IPOL网站中基于DCT(离散余弦变换)的图像去噪算法(附源代码)。 SSE图像算法优化系列二十一:基于DCT变换图像去噪算法的进一步优化(100W像素30ms)。 这个算法2015年优化过一版,2018年又优化过一版,2016年初又来回访一…

韩宁波的羽球哲学:用竞技场的热血浇灌,让每个学员都成为自己的冠军

韩宁波的羽球哲学以“突破极限、科技赋能、跨界融合”为核心,通过竞技场的热血实践,让每个学员在技术、体能与心理层面实现自我超越,成为自己人生的冠军。以下从三大维度解析其哲学内涵与实践路径:一、突破极限:从“经…

python基于vue的流浪动物救助志愿者管理系统django flask pycharm

目录基于Python与Vue的流浪动物救助志愿者管理系统开发技术路线相关技术介绍核心代码参考示例结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!基于Python与Vue的流浪动物救助志愿者管理系统 该系统采用前后端分离架构,后端…