上下文直接暴增 16 倍!Meta 惊人操作揭秘:这才是 RAG Context Engineering 的天花板!

最近一段时间,Context Engineering(上下文工程)的热度已无需多言,而 Meta 超级智能实验室发布的首篇论文,便聚焦于该领域的核心议题——模型上下文智能压缩,展开了深度研究。

相信在开发 RAG与 Agent时,上下文太长导致输出效果崩掉,几乎做AI 应用人的家常便饭。

其具体体现有二:

长上下文导致了更高内存成本,模型的首 token 生成时间(TTFT)会随之呈二次方增加。

冗余计算严重:RAG 与 Agent 的上下文一般是多个检索段落的组合,段落间的关联几乎为零。但大模型的注意力机制会对所有token 间的关联做计算,导致了大量冗余计算。

在此背景下,Meta团队提出了REFRAG 框架,在仅保留核心内容的原始token情况下,对RAG提供的低相关chunk内容做智能压缩,从而在不损失性能的前提下,实现 30.85 倍 TTFT 加速、将 LLMs 上下文处理长度扩展 16 倍。

经过实测,该方案在 RAG、多轮对话、智能体及 Web 级检索等 高吞吐量、低延迟场景中表现尤为突出 。

01

如何智能压缩上下文

以下是整个策略的核心流程图演示,整体可以分为三部分:

第一步:上下文分块与压缩

RAG 检索到的长文档,通常动辄几千上万 token,直接丢进 LLM 会让显存和计算成本爆炸。 REFRAG 的做法是:

  • 先把文档切成固定大小的 块(chunk)。
  • 每个块经过一个轻量级编码器(比如 RoBERTa)得到 块嵌入(chunk embedding)。
  • 再用一个投影层,把这些嵌入映射到与解码器 token embedding 相同的维度。

这样做的好处是:LLM 不再处理每个原始 token,而是处理“压缩后的一整个块”。如果一个块里原来有 k 个 token,现在只用一个 embedding 来表示,那么输入长度就缩短了约 k倍,显著减少注意力计算量和显存占用。

第二步:选择性扩展与自回归保留

光压缩可能会丢失信息,尤其是对关键块(比如问题答案所在段落)。REFRAG 引入了一个 RL(强化学习)策略,用来动态决定:哪些块必须保留原始 token(不压缩),以保证信息完整。哪些块可以用压缩的embedding代替。

这样就能 兼顾准确性和效率。同时,因为 LLM 是自回归生成的(依赖前文 token),REFRAG 的方法保证了原始 token 仍能参与生成,不破坏上下文连续性。这对多轮对话等场景尤其重要。

第三步:高效推理与上下文扩展

REFRAG 还有两点优化:

  • 复用检索阶段的块嵌入:RAG 在检索时已经算过一次 chunk embedding,推理时直接拿来用,省掉冗余计算。
  • 注意力复杂度下降:普通注意力是和 token 数量成平方增长的。如果每个 chunk 代表一组 token,复杂度就变成和 chunk 数量平方关系,大幅降低。

整体结果来看,该方案在短上下文下,可以实现 k 倍的首 token 延迟(TTFT)加速;在长上下文下,加速比最高可达 k的平方 倍。同时,该方案还能把 LLM 的上下文长度扩展到 16 倍 以上。

02

关键技术细节

REFRAG 的方法体系围绕 “让编码器与解码器高效协同处理长上下文” 展开,核心流程分为三个阶段:

1.编码器 - 解码器对齐

持续预训练(CPT) 以 “下一段预测任务” 为核心:每个训练样本含 s 个前序 token 和 o 个后续 token(共 T 个),将前 s 个输入编码器,其输出用于辅助解码器预测后 o 个 token。

目标是让解码器基于压缩上下文(编码器输出)的生成结果,尽可能接近基于完整上下文的结果,为下游任务(如 RAG)奠定基础。

2.CPT 的关键训练方案(保障对齐效果)

(1)重建任务:先冻结解码器,仅训练编码器和投影层 —— 让编码器输入 s 个 token 后,能生成让解码器准确重建出这 s 个 token 的嵌入。目的是确保编码器压缩信息损失最小、投影层能将嵌入转换为解码器可理解的格式,同时迫使解码器依赖输入的上下文记忆(而非自身参数)。完成后解冻解码器,正式启动 CPT。

(2)课程学习:因直接训练难度大(块长度 k 增加会导致 token 组合呈指数级增长),采用 “从简到难” 的训练策略:先让模型用单个块嵌入重建 k 个 token,再逐步增加块数量和重建长度;训练数据也从以简单任务为主,逐渐过渡到以复杂任务为主,帮助模型循序渐进掌握能力。

3.性能增强:选择性压缩与下游适配

(1)选择性压缩:引入 RL 策略,以 “下一段预测困惑度” 为负奖励(困惑度越高说明块越重要),决定保留哪些上下文块的原始形式(不压缩),仅压缩次要块;同时微调编码器和解码器,使其适配 “压缩 + 未压缩” 混合输入,兼顾效率与性能。

(2)下游适配:完成 CPT 和选择性压缩优化后,通过有监督微调(SFT)让模型适配具体下游任务(如 RAG、多轮对话)。

03

关键效果与核心场景解读

Meta 团队在 Slimpajama(书籍、arXiv 领域)、PG19、Proof-Pile 等主流数据集,以及 RAG、多轮对话、长文档摘要等任务中对 REFRAG 进行了全面验证,其优势主要体现在效率提升、上下文扩展、场景适配三个维度。

基于以上能力, REFRAG 的核心落地场景主要有三:

(1)增强版 RAG:支持 Web 级高效检索

在 Web 级搜索等需处理大量检索结果的场景中,REFRAG 可 “以更低延迟纳入更多有效信息”:

延迟持平情况下:REFRAG 可处理 8 个检索段落(LLaMA 仅能处理 1 个),在 MMLU、BoolQ 等知识密集型任务中精度提升 1.5% 以上。

多段落处理场景中:处理 10 个检索段落时,TTFT 加速 5.26 倍,且在弱检索器(模拟真实场景中检索误差)下优势更明显。

(2)多轮对话:突破上下文窗口限制

传统 LLaMA 因 4K 上下文窗口限制,多轮对话中需截断历史信息,导致回答连贯性下降;REFRAG 无需扩展位置编码,通过压缩机制实现长对话记忆:

在 TopiOCQA、ORConvQA 等知识密集型多轮对话数据集上,面对 10 个检索段落 + 6 轮对话的长上下文,性能全面优于 LLaMA 微调模型,其中 ORConvQA 任务精度提升超 30%。

(3)长文档摘要:提升科学性文献处理能力

在 arXiv、PubMed 等长 scientific 文献摘要任务中,REFRAG 可通过高压缩率纳入全文档信息,生成摘要的完整性与准确性更优:

相同延迟下(解码器生成 token 数量一致),Rouge-1 指标较 LLaMA 提升 15%-20%,尤其在医学、物理等需精准提炼核心结论的领域表现突出。

尾声

模型上下文长度管理,只是Context Engineering 的议题之一,未来围绕提示工程、动态上下文生成、多模态上下文整合等重点话题,我们还将为大家带来更多更专业的解读。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1124548.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

《创业之路》-813-如何发现和定义价值?ToB和ToC的价值有哪些区别?ToB和ToC有哪些亘古不变的常见的价值需求?

“如何发现和定义价值?” “ToB 与 ToC 的价值有何区别?” “哪些是亘古不变的核心价值需求?”这三问层层递进,构成了企业构建产品、制定战略、实现增长的底层认知框架。我们一一拆解。一、如何发现和定义价值?✅ 核心…

大模型落地第一步就错?LLM、RAG、Workflow、Agent 怎么选?这篇救你的命!

搞大模型落地,谁还没几个崩溃时刻了?这份保命指南请收好: 效果要显贵,基础款就不要再搭基础款 模型基础,数据就不基础; 架构基础,infra就不基础; 场景基础,方案就不基…

深度测评自考必备!9款AI论文软件TOP9全对比

深度测评自考必备!9款AI论文软件TOP9全对比 2026年自考论文写作工具测评:为何需要一份权威榜单? 随着人工智能技术的不断进步,越来越多的自考生开始借助AI论文软件提升写作效率。然而,市面上的工具种类繁多&#xff0c…

手写Spring IoC:注解+反射打造轻量级容器

手写Spring IoC:注解反射打造轻量级容器 深入理解Spring IoC核心原理,通过注解和反射机制手写一个简易版IoC容器,掌握依赖注入的本质。1. 引言:Spring IoC的魔力 在Spring框架中,IoC(控制反转)…

类型断言:强制类型转换的技巧

类型断言:强制类型转换的技巧 欢迎继续本专栏的第八篇文章。在前几期中,我们已逐步建立了 TypeScript 类型系统的坚实基础,涵盖了基本类型、特殊类型、枚举,以及数组和元组的处理。今天,我们将深入探讨类型断言这一关键…

大数据与财务管理专业就业岗位方向

2026年大专大数据与财务管理专业毕业生可选择的就业岗位涵盖数据分析、财务、金融科技等多个领域。该专业结合了大数据技术与财务管理知识,培养具备数据处理能力和财务分析能力的复合型人才。以下是详细的就业方向及岗位分析。数据分析类岗位岗位名称岗位职责技能要…

敏捷冲刺计划完全指南:理论框架、实践方法与工具体系

你大概率参加过这样的冲刺计划会:一屋子人对着Jira看板,产品经理念需求,工程师估算时间,最后列出一堆“理想情况”下能完成的任务。结果两周后发现:有的卡在依赖上,有的越做越大,还有的做完才发…

2kW 单向 Boost PFC + 全桥 LLC 串联谐振开关电源的 Matlab/Simulink 仿真探索

单向Boost PFC全桥LLC串联谐振开关电源Matlab/simulink仿真模型 2kw功率,输出48V,谐振频率100k LLC使用输出电压闭环/PFM控制最近在研究开关电源的小伙伴们,一定对功率因数校正(PFC)和 LLC 谐振变换器不陌生。今天就来…

贝佐斯/比尔盖茨/英伟达/英特尔等押注,NASA工程师带队打造通用机器人大脑,公司估值达20亿美元

在大模型可以从互联网、图像库和海量文本中「无限生长」的今天,机器人却被困在另一个世界——真实世界的数据极度稀缺、昂贵且不可复用。Business Insider 曾发布过一则看似轻巧却又极具洞察力的报道,「AI 机器人面临数据荒,一家初创公司找到…

WBS工作分解结构:从0掌握项目拆解核心方法与工具实战

如果你接过一个“三个月后上线新版本”或者“半年内完成系统重构”的任务,就知道那种感觉:目标很大,时间很长,但不知道怎么开始。WBS(工作分解结构)就是解决这个问题的——它不是复杂的理论,而是…

基于Java的仓库管理系统设计与实现

第3章 系统分析 为满足用户的需求,本章分析系统开发的可行性,将从技术和操作等方面来判断,然后通过需求分析、系统流程分析来确定仓库管理系统设计与实现的功能[7]。 3.1 技术可行性分析 仓库管理系统设计与实现在使用电脑和信息分析系统这些…

特斯拉Model3智能网联汽车自动驾驶虚拟教学实训软件

在职业教育的创新之路上,我们始终致力于将前沿技术转化为可触达的教学资源。今天,我们很荣幸向各位教育伙伴介绍一款专为智能网联汽车教学设计的虚拟实训软件——以特斯拉Model3为原型,融合理实一体的教学理念,助力课堂焕发新的活…

【vLLM 学习】Rlhf

vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。 更多 vLLM 中文文档及教程可访问 →vllm.hyper.ai/ *在线运行 vLLM 入门教程:零基础分步指南 源码 examples/offline_inference/r…

【光子AI / Photon AI】整理2021~2026 在 AI Agent、Multi-Agent Systems、多智能体学习、多智能体强化学习、协同智能/代理型智能体 等方向的 Papers

【光子AI / Photon AI】整理2021~2026 在 AI Agent、Multi-Agent Systems、多智能体学习、多智能体强化学习、协同智能/代理型智能体 等方向的 Papers 文章目录 【光子AI / Photon AI】整理2021~2026 在 AI Agent、Multi-Agent Systems、多智能体学习、多智能体强化学习、协同智…

枚举类型:常量集合的优雅管理

枚举类型:常量集合的优雅管理 欢迎继续本专栏的第七篇文章。在前几期中,我们已逐步深入 TypeScript 的类型系统,涵盖了基本类型、特殊类型如 any、unknown、void 和 never,以及 object 的处理。今天,我们将专注于枚举&…

Demo 骗了所有人?一做就会,一用就废!多模态 RAG 跨不过去的这道坎,看透了!

前言 近年来,GPT-4V、Gemini Pro Vision 等多模态大模型快速兴起,将图像、文本、音频等多种数据类型统一理解的能力,拓展到了搜索问答、辅助诊疗、法律检索等更复杂的任务场景中。 相比传统大语言模型(LLMs)&#xf…

无人值守智能污水处理控制系统:威纶通触摸屏与西门子PLC协同运行,真实工程项目稳定运行一年多供...

无人值守污水处理控制系统。 威纶通触摸屏与西门子200smart PLC编写的智能污水处理控制系统,带图纸,带PLC程序,触摸屏画面,控制要求,工艺流程,真实工程项目,已稳定运行一年多。 供大家学习参考在…

通过合理建模与架构设计,90% 的“JOIN 需求”可转化为 ES 原生支持的高效查询。

“通过合理建模与架构设计,90% 的‘JOIN 需求’可转化为 ES 原生支持的高效查询” 这一论断,是 Elasticsearch 工程实践的核心思想,其本质是用数据建模的前期成本,换取查询性能的指数级提升。一、建模范式:ES 的三大反…

‌测试教育路径:大学课程 vs 自学——2026年软件测试从业者专业成长指南

核心结论:能力为王,路径可选‌ 在2026年的中国软件测试行业,‌学历不再是职业发展的决定性门槛,工程能力与持续学习力才是晋升的核心引擎‌。无论是大学科班出身,还是自学转型者,只要掌握自动化测试、接口…

90%的程序员都在错误选择Embedding模型!6步评估框架+代码实战,让你避开所有坑,小白也能秒变向量专家!

通过通过将原始输入转换为固定大小的高维向量,捕捉语义信息,embedding(嵌入)模型在构建RAG、推荐系统,甚至自动驾驶的模型训练过程中都产生着至关重要的影响。 即使 OpenAI、Meta 和 Google 等科技巨头,也…