解锁AI记忆新范式:人类情景记忆如何提升大模型性能

本文探讨了如何借鉴人类情景记忆机制改进记忆增强型大语言模型。当前AI记忆系统在数据使用上低效且不符合人类认知直觉。文章对比了LLM与人脑记忆系统的五大关键差异:动态更新、事件分割、选择性、时间连续性和检索竞争。通过引入类人记忆机制,不仅能让AI更接近人类思维方式,还能直接提升其在长文本处理和复杂推理中的性能,为AI未来发展指明了生物启发方向。


这是一篇发表于 2025 年 10 月《Trends in Cognitive Sciences》上的文章。文章的核心在于探讨如何利用认知神经科学(Cognitive Neuroscience)中关于人类“情景记忆”(Episodic Memory, EM)的研究成果,来改进现有的记忆增强型大语言模型(Memory-Augmented LLMs, MA-LLMs)。

AI 的“记忆”瓶颈与人类的启示

在过去几年中,大语言模型(LLM)展现了惊人的语义理解能力,仿佛拥有了博学的“大脑皮层”(语义记忆)。为了解决 LLM 无法记住长周期信息的问题,工业界广泛采用了**检索增强生成(RAG)**或超长上下文窗口技术,给模型外挂了一个“硬盘”。

然而,这篇论文指出,现有的 AI 记忆系统虽然能“存”海量数据,但在“用”数据的方式上,不仅低效,而且极度违反人类的认知直觉 。人类的情景记忆(Episodic Memory)——即我们对过去独特经历的回忆——并非简单的数据库查询。我们在理解世界时,会自动对连续的体验进行切分,只在关键时刻记录或回忆,并且记忆会随着时间动态重组

相比之下,目前的 AI 往往机械地每隔 K 个 Token 检索一次,或者把记忆当作静态的文本块。这篇综述发出了强有力的呼吁:为了让 LLM 真正理解复杂的真实世界,我们需要从计算机工程转向认知仿生,构建具有“类人情景记忆”的 AI。

一、基石:LLM 的记忆架构 vs 人脑记忆系统

为了理解如何改进,作者首先建立了一个清晰的映射框架,将 LLM 的组件与人类记忆系统对应起来 :

  1. **语义记忆 (Semantic Memory) 模型权重 (Weights):**就像人类的大脑皮层通过反复学习积累通用知识一样,LLM 通过预训练将世界知识压缩在神经网络的权重中。这是一种累积的、缓慢变化的知识。
  2. **工作记忆 (Working Memory) 上下文窗口 (Context Window):**人类的工作记忆负责在短时间内维持和操作信息。对于 LLM,这就是它的 Context Window(上下文窗口)。通过自注意力机制(Self-Attention),模型可以在这个窗口内灵活地组合信息。
  3. **情景记忆 (Episodic Memory) 外部存储 (External Memory):**这是本论文的主角。人类通过海马体(Hippocampus)快速记录一次性的经历。对于 MA-LLMs(记忆增强型 LLM),这对应于外部的键值对(Key-Value)数据库或文档库。

技术细节:Transformer 中的记忆原理

为了深入理解这层对应关系,我们需要看一眼 Transformer 的核心计算——自注意力机制。这其实就是一个记忆检索过程。

其核心数学形式可以理解为查询(Query)与键(Key)的匹配,进而提取值(Value):

  • Q (Query):你当前想找什么(比如当前的对话)。
  • K (Key):记忆库里的索引标签。
  • V (Value):实际存储的记忆内容。

作者指出,现有的长上下文模型(Long-context models)实际上是试图强行把所有记忆都塞进“工作记忆”(Context Window)中 。但这非常低效且昂贵。更符合人类直觉的做法是:建立一个独立的、类似海马体的快速存储系统,只在需要时将相关记忆“调入”工作记忆 。

下图展示了这种基于 Transformer 自注意力机制的记忆检索原理,它不仅是工作记忆的基础,也是外部情景记忆的接口。

如图所示,(A) 展示了标准注意力机制如何在窗口内工作;(B) 展示了这套机制如何扩展到长期记忆检索——通过计算当前输入与过去潜在记忆的匹配度来激活相关信息。

二、核心差异:MA-LLMs 哪里“不像”人?(五大关键错位)

这是全篇论文最精华的部分。作者详细剖析了当前主流 MA-LLMs(如 RAG 系统)与人类情景记忆的五个根本性差异。

1. 动态更新 (Dynamic Memory Updating)

  • AI 的做法:典型的“只读不改”或“只增不改”。一旦信息被写入向量数据库,它通常就静态地躺在那里。
  • **人类的做法:**记忆是活的。我们的记忆在存储后会被不断修饰。
  • 重构与遗忘:新的信息会更新旧的记忆,无关的细节会被遗忘。

离线重放 (Replay):就像做梦一样,海马体会重放情景记忆,将其“教”给大脑皮层,从而转化为长期语义知识(Consolidation) 。

启示:AI 需要引入“重放”机制,利用空闲时间优化记忆库,甚至利用情景记忆来微调模型权重。

2. 事件分割 (Event Segmentation)

  • **AI 的做法:**机械切分。大多数 RAG 系统将长文本简单粗暴地按固定长度(例如每 256 个 token)切成块(Chunk)。这导致语义被截断,上下文丢失。
  • **人类的做法:**按“事件”切分。当我们从“走进餐厅”变成“坐下点菜”时,大脑会感知到一个“事件边界”(Event Boundary)。这种边界通常对应着预测误差的飙升(Surprise) 。

启示:AI 应当基于“惊奇度”(Surprise/Prediction Error)来切分记忆块,而不是字数。研究表明,基于事件切分的模型能显著减少检索干扰 。

3. 选择性 (Selective Encoding and Retrieval)

  • **AI 的做法:**全覆盖。为了不漏掉信息,模型往往倾向于把所有东西都存下来,并且每生成一句话都去检索一次。
  • **人类的做法:**极其“吝啬”。

编码选择性:我们主要在事件结束(边界)时进行强烈的记忆编码,而不是每时每刻都在记 。

检索选择性:只有当当前信息不足以预测未来(即出现认知缺口或不确定性高)时,我们才会去调用情景记忆 。如果当前很顺畅,我们根本不会去翻旧账。

启示:引入“门控机制”。只有当模型对下一个词的预测不确定时,才触发检索。这能大幅降低计算成本并减少错误记忆的干扰 。

4. 时间连续性 (Temporal Contiguity)

  • **AI 的做法:**点状检索。检索出的通常是散落在不同时间点的 Top-K 个片段,彼此孤立。

**人类的做法:**时间流。当我们回忆起某个时刻(如“去年生日”),我们不仅通过语义关联回忆,还会自然地顺着时间线想起“接下来发生了什么” 。

  • 启示:记忆检索应当包含时间索引,允许模型在检索到一个片段后,自动预加载该片段随后的内容。

5. 检索竞争 (Competition at Retrieval)

  • **AI 的做法:**并行堆叠。检索出 5 个或 10 个相关文档,全部塞进 Prompt 给模型看。

**人类的做法:**赢家通吃。记忆检索是高度竞争的。通常只有一个最佳匹配的记忆会浮现到意识中,其他的会被抑制 。

  • 启示:过多的检索结果(特别是包含错误信息的)会产生误导。AI 需要更强的过滤机制,只让最相关的那一个记忆进入工作流程。

下图生动地对比了这种差异。

(A) 典型的 MA-LLM:机械切块、静态存储、一次性检索一堆碎片。(B) 人类情景记忆:连续输入被分割成有意义的事件(Event Segmentation),只有在特定时刻(如感到困惑或事件切换时)才进行选择性编码和检索,且记忆会动态更新和重放。

三、评估与测试:如何证明模型拥有了“人类灵魂”?

目前的 AI 评估大多基于简单的问答(QA),比如“权力的游戏第二季有几集?”。这种问题目标明确,答案就在库里。但真实世界并非如此。

新的测试范式:真实世界的模拟

作者提出了一个极具创新性的基准任务设计,旨在模拟真实生活的连续性不确定性

TV Show Summary Task(电视剧剧情摘要任务):

  1. 编码阶段:给模型看大量它没见过的电视剧剧本(一次性阅读)。
  2. 测试阶段:逐句展示剧情摘要。
  3. 核心机制:模型需要自己决定是“继续看下一句摘要”(获取更多信息),还是“接管(Take Over)”并预测接下来的剧情。
  • 如果过早接管:可能因为线索太少检索到错误的剧集(记忆混淆),导致预测错误(扣分)。
  • 如果太晚接管:错失了预测机会(不得分)。
  • 如果根本没看过该剧:模型应该意识到自己没印象,选择保持沉默而不是胡编乱造。

这个任务完美捕捉了真实记忆的挑战:不仅要记对,还要知道“何时回忆”以及“何时闭嘴”。

如图所示,模型在接收剧情摘要流时,必须权衡“等待更多线索”与“主动预测”的风险,这迫使模型学会人类那样的选择性检索策略。

脑神经匹配 (Neural Alignment)

除了行为测试,作者还提议直接看“脑子”。利用**编码模型(Encoding Model)**方法,将 AI 模型的内部激活状态(Embeddings)映射到人类大脑在观看同样视频时的 fMRI(功能性磁共振成像)信号 。如果一个 MA-LLM 的内部状态能更准确地预测海马体和大脑皮层的活动,说明它更接近人类的思维方式。

该图展示了如何使用编码模型对比 AI 与大脑。通过让 AI 和人类“看”同一个故事,计算二者神经活动的相似度,从而量化 AI 的“拟人化”程度。

四、结论与展望

这篇论文不仅仅是对现状的批评,它为 AI 的未来指明了一条**生物启发(Bio-inspired)**的道路。

结论核心:

  1. 效率至上:人类记忆的“怪癖”(如遗忘、选择性检索)并非缺陷,而是为了在复杂、嘈杂的世界中实现计算效率和预测准确性最大化的进化结果。
  2. 双赢局面:将这些机制引入 LLM,不仅能让 AI 更像人(Cognitive Modeling 的胜利),更能直接提升 AI 在长文本处理、复杂推理中的性能(AI Engineering 的胜利) 。

未来展望:

  • 多模态记忆:未来的记忆不应只有文本,还应包含视觉和听觉线索,因为非语言线索(如语气变化)往往是触发事件分割的关键 。
  • 记忆巩固 (Consolidation):真正实现“夜间做梦”般的离线学习,让情景记忆逐渐转化为模型直觉(权重),解决灾难性遗忘问题 。

通过模仿人类大脑处理过去的方式,我们或许终将造出不仅能“检索”过去,更能真正“理解”时间的人工智能。

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)





第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1190842.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

人工智能应用-机器视觉:绘画大师 05.还原毕加索的隐藏画

在艺术史上,一些大画家也曾经历过艰难时刻。例如,毕加索在 1901—1904 年间经历了极度的经济困境。 为了节省开支,他不得不在已经使用过的画布上创作新作品。如图 26.7所示,通过 X 射线扫描,人们发现毕加索在这一时期…

揭秘!提示工程架构师优化提示系统用户参与策略的关键技巧

揭秘!提示工程架构师优化提示系统用户参与策略的关键技巧 一、引言:为什么你精心设计的AI系统,用户只用了一次? 上周,我朋友小A的吐槽让我印象深刻——他花了一个月搭建的AI旅游助手,上线3天用户留存率只…

【教程4>第10章>第25节】基于FPGA的图像Robert变换开发——理论分析与matlab仿真

目录 1.软件版本 2.图像Robert变换理论概述 3.图像Robert变换提取的matlab仿真测试 欢迎订阅FPGA/MATLAB/Simulink系列教程 《★教程1:matlab入门100例》 《★教程2:fpga入门100例》 《★教程3:simulink入门60例》 《★教程4:FPGA/MATLAB/Simulink联合开发入门与进阶X例》

学霸同款2026继续教育AI论文平台TOP10:毕业论文写作全测评

学霸同款2026继续教育AI论文平台TOP10:毕业论文写作全测评 2026继续教育AI论文平台测评:选对工具,提升写作效率 在当前学术环境日益严格的背景下,继续教育群体在撰写毕业论文时面临诸多挑战,如选题困难、文献检索繁琐、…

AAAI 2025论文分享|Agent4Edu:基于大语言模型生成式智能体的个性化学习模拟器

本推文介绍了AAAI 2025收录的一篇论文《Agent4Edu: Generating Learner Response Data by Generative Agents for Intelligent Education Systems》。Agent4Edu是一种基于大语言模型的个性化学习模拟器,旨在解决智能教育系统中高质量学习者响应数据稀缺、传统模拟方…

空气能十大领军品牌盘点:绿色能源时代的创新力量 - 资讯焦点

在“双碳”目标全面推进和清洁能源转型的浪潮中,空气能行业正迎来前所未有的发展机遇。作为高效、环保、可再生的能源利用方式,空气能技术已在采暖、制冷、热水等多个领域展现出强大的竞争力和市场潜力。本文盘点当前…

2025 AI大模型薪资狂欢:小白程序员入行最后黄金时机,年薪百万不是梦!非常详细建议收藏

文章分析了2025年AI大模型领域高薪就业趋势,指出供需失衡和政策支持导致AI岗位薪资暴涨,大模型算法工程师平均月薪7万。文章介绍五大高薪岗位及所需技能,提供提升竞争力的方法,并强调技术红利窗口期正在关闭,现在是入行…

Node.js代码统计神器

统计代码行数使用Node.js编写一个脚本,统计指定目录下所有文件的代码行数。const fs require(fs); const path require(path);function countLinesInFile(filePath) {const content fs.readFileSync(filePath, utf-8);return content.split(\n).length; }functio…

大数据毕设选题推荐:基于django的菜价可视化系统蔬菜销售分析与预测可视化系统【附源码、mysql、文档、调试+代码讲解+全bao等】

java毕业设计-基于springboot的(源码LW部署文档全bao远程调试代码讲解等) 博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、…

存储技术全解:从基础到前沿

系统存储机制深度剖析技术文章大纲存储基础概念存储介质的分类(HDD、SSD、NVMe、NVM)存储层次结构(寄存器、缓存、主存、外存)数据存取的基本原理(寻址、读写、延迟)文件系统与存储管理文件系统的核心组件&…

基于广义Benders分解法的综合能源系统优化规划Matlab代码

✅作者简介:热爱数据处理、建模、算法设计的Matlab仿真开发者。🍎更多Matlab代码及仿真咨询内容点击 🔗:Matlab科研工作室🍊个人信条:格物致知,完整Matlab代码获取及仿真咨询内容私信。👇 关注我…

基于多目标粒子群算法冷热电联供综合能源系统运行优化Matlab实现

✅作者简介:热爱数据处理、建模、算法设计的Matlab仿真开发者。🍎更多Matlab代码及仿真咨询内容点击 🔗:Matlab科研工作室🍊个人信条:格物致知,完整Matlab代码获取及仿真咨询内容私信。👇 关注我…

洛谷 P10962:Computer ← 换根DP

​【题目来源】https://www.luogu.com.cn/problem/P10962http://acm.hdu.edu.cn/showproblem.php?pid=2196【题目描述】某学校在一段时间前购买了第一台计算机(因此这台计算机的编号是 1)。在最近几年中,学校又购买…

activiti7的强制绑定角色问题

角色强绑定问题及解决方案 在使用若依的基础上,本打算将activiti7集成进去,结果在测试调用activiti的api时返回前端"没有权限,请联系管理员授权" 本来还以为是若依的权限校验,结果通过debug发现日志中报…

SCADA与数字孪生(Digital Twin)系统的异同点在哪里?

SCADA(Supervisory Control and Data Acquisition,监控与数据采集系统)和数字孪生(Digital Twin)系统都是工业自动化、智能制造和基础设施管理中的关键技术,但它们在目标、功能、技术架构和应用场景上存在显…

AI狂飙与冷思考:一个准码农的2026开年观察

AI狂飙与冷思考:一个准码农的2026开年观察* { margin: 0; padding: 0; box-sizing: border-box } body { font-family: -apple-system, BlinkMacSystemFont, "Segoe UI", Roboto, "Helvetica Neue&quo…

完整教程:人机交互(如 VR 手柄追踪、光标移动、手势识别)的滤波算法

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

生成式软件制造--AI驱动的软件开发 - 教程

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

【读书笔记】《稻盛和夫自传》

《稻盛和夫自传》:敬天爱人的人生与经营哲学 稻盛和夫的自传是一本全面记录其创业经历、经营哲学与方法论的著作。这本书不仅适用于企业家,更适合所有职场人士阅读。在当下内卷化严重的社会环境中,它帮助我们树立正确的工作观:不仅…

《把脉行业与技术趋势》-65-当你的人生轨迹与民族复兴的长波、技术革命的中波、行业爆发的短波同频共振时,平凡的努力,也会被时代放大成非凡的成就——这,便是“着道”的现代诠释。

民族的生命的周期、国家宏观政策的生命周期、行业发展的生命周期、技术发展生命周期、企业发展的周期、产品的发展生命周期、个人的职业操作周期,傅里叶级数的可视化用图示的方式展现了小周期要顺应大周期,多周期共振带来的杠杆效应。一、核心思想&#…