Context Pruning全攻略:RAG效果提升的关键,带你从零掌握高质量上下文剪枝技术!

Context Pruning如何结合rerank,优化RAG上下文?

现如今,LLM的上下文窗口长度正在经历爆发式增长。

翻开LLM Leaderboard,可以发现顶级模型的上下文长度已经陆续突破了1M tokens,并且这个数字还在不断刷新。

但问题也随之而来:模型能够支持长上下文,那我们就能随心所欲往里面塞内容,输入越多,模型输出效果越好吗?

答案当然是否定的。

毕竟,往模型里塞进一百万个tokens,可能不仅大部分信息都没有用,导致浪费计算资源,还可能干扰模型的判断,导致生成质量下降。

如何精细化地管理和优化这些海量上下文,已经成为Context Engineering(上下文工程)要解决的核心问题。

那么长上下文在什么情况下会出问题?针对长上下文导致的模型输出崩溃,我们有什么解决方案?本文将对此进行探讨。

01

长上下文的四种失败模式

业界已经总结出了四种常见的长上下文失效的模式:

1. Context Clash(上下文冲突)

多轮对话中累积的信息相互矛盾。就像早上说"我喜欢苹果",中午说"我不喜欢水果",模型会confused:你到底喜不喜欢苹果?

2. Context Confusion(上下文混淆)

上下文中无关信息过多,导致模型在工具调用时选错。类似工具箱里塞满了各种工具,找个螺丝刀反而眼花缭乱。

3. Context Distraction(上下文分心)

海量上下文信息压制了模型的训练知识。就像桌上的教科书被一米高的漫画堆淹没,学生注意力全被吸引走了。

4. Context Poisoning(上下文中毒)

错误信息在多轮对话中不断被引用和强化。第一次说错一个事实,后续对话又基于这个错误继续编造,越走越偏。

02

Context Pruning:精准管理上下文的关键

针对这些长上下文问题,主要有六种管理策略:RAG(检索增强生成)Tool Loadout(工具装载)Context Quarantine(上下文隔离)ContextPruning(上下文剪枝Context Summarization(上下文摘要)Context Offloading(上下文卸载)

在这些策略中,Context****Pruning尤其关键,因为它直接作用于信息输入环节。

在RAG系统里,我们从向量数据库检索回来大量文档,其中大部分是无效或者低相关度信息。而Context Pruning就是要在检索之后、生成之前,精准地过滤掉无关内容。从而带来生成质量提升、计算成本降低、上下文窗口利用率更高。

也是因此,Context Pruning质量,往往会成为RAG优化的核心环节。

03

Provence: 一个实用的ContextPruning模型

研究Context Pruning的时候,我发现了两个有意思的宝藏开源模型:ProvenceXProvence,来自Naver AI Lab的工作。

Provence的核心功能很简单:给它一个问题和一段检索回来的文档,它会帮你筛选出真正相关的句子,把无关的内容过滤掉。

这样既加快了LLM生成速度,又减少了噪声干扰。而且它是即插即用的,可以配合任何LLM或检索系统使用。

Provence有几个让我印象深刻的特点。

第一是它会整体理解文档。不像有些方法单独看每个句子,Provence会把所有句子放在一起看。

这很重要,因为文档里经常有"它""这个"这样的指代词,单独看一句话可能不知道在说什么,但放在上下文里就清楚了。这样可以显著提高剪枝的准确性。

第二是它会自己判断该留几句话。不需要你告诉它"给我留5句话"或"留10句话",它会根据具体情况决定。有些问题可能一句话就够了,有些可能需要好几句,Provence都能自动处理。

第三是效率很高。一方面它是个轻量级模型,比调用大型LLM快多了;另一方面它把剪枝和重排序(Reranking)合在一起做了,基本不增加额外成本。

第四是它有跨语言版本。XProvence是Provence的跨语言版本,它是另外单独训练的一个模型,支持多种语言,包括中文、英文、韩文等。训练模式大致和Provence一样,只是数据集不同。

实现上,Provence采用了比较巧妙的设计。它的输入很简单:把问题和文档拼起来,一起送进模型。这种Cross-Encoder架构,让模型能同时看到问题和文档的全貌,理解它们之间的关联。

此外,Provence是基于DeBERTa训练微调的,作为一个轻量级的Encoder模型,训练时它同可以时做两件事:

  1. 给整个文档打分(Rerank score)- 判断这段文档和问题的相关程度,比如0.8分表示相关度很高

  2. 给每个词打标签(Binary mask)- 用0和1标记每个词是否相关,1表示相关要保留,0表示无关可以删掉

这样训练出来的模型,既能判断文档相关性,又能精准地做句子剪枝:推理时,Provence会给每个词打分,然后按句子聚合:如果一个句子里标记为1(相关)的词比标记为0(无关)的词多,就保留这个句子,否则就删掉。通过调整阈值,就能控制剪枝的激进程度。

最重要的是,Provence复用了重排序的能力,所以在RAG流程中几乎是零成本加入的。

04

定量评估实验

前面我们介绍了Provence的设计原理和技术特点,那么它在实际应用中的表现如何?与其他模型相比有何优劣?为了回答这些问题,我们设计了一套完整的定量评估实验,对比其他模型在真实场景下的剪枝质量。

实验有两个核心目标:

  1. 定量评估ContextPruning的效果:通过标准指标(Precision、Recall、F1)量化模型的剪枝质量

  2. 测试域外泛化能力(Out-of-Domain):评估模型在与训练数据分布不同的场景下的鲁棒性

为此,我们选择了三个代表性的模型进行对比:

  • Provence (naver/provence-reranker-debertav3-v1)
  • XProvence (naver/XProvence)
  • OpenSearch Semantic Highlight (opensearch-project/opensearch-semantic-highlighter-v1),同样基于BERT架构训练的剪枝模型

05

实验设计

数据集选择:我们选择WikiText-2作为测试集。这是一个基于维基百科文章的数据集,文章结构多样,答案往往分散在多个句子中,语义关联也比较复杂。

更重要的是,它与模型通常的训练数据存在较大的分布差异,同时又很接近日常业务场景——这正是我们想要的out-of-domain测试环境

问题生成与标注:为了确保out-of-domain的效果,我们使用GPT-4o-mini从WikiText-2原始语料中自动生成问答对。每个样本包含三个部分:

  • 问题(Query:从文档内容生成的自然语言问题
  • 文档(Context):完整的原始文档
  • 答案标注(Ground Truth):标注出哪些句子包含答案(应保留),哪些句子不相关(应剪枝)

这种构造方式天然形成了一个Context Pruning任务:模型需要根据问题,从完整文档中识别出真正相关的句子。答案句子作为"正样本"(应保留),其他句子作为"负样本"(应剪枝),这样我们就可以通过Precision、Recall、F1等指标量化评估模型的剪枝准确性。

更重要的是,这样生成的问题不会出现在任何模型的训练数据中,能够真实反映模型的泛化能力。我们一共生成了300个样本,涵盖简单事实类、多跳推理类、复杂分析类等不同类型的问题,尽可能贴近实际应用场景。

实验流程

参数优化:使用Grid Search对每个模型进行超参数优化。测试不同的超参数组合,最终选择F1最优的配置。

06

实验结果

从实验结果来看,三个模型的表现存在明显差异。

Provence表现最好,F1达到66.76%。Precision(69.53%)和Recall(64.19%)相对平衡,显示出良好的域外泛化能力。最优参数为threshold=0.6,alpha=0.051,说明模型输出的分数分布较为合理,阈值设置也相对直观。

XProvence的F1为58.97%,略微有些高召回(75.52%)、低精确度(48.37%)的特征。这种"宁可错选不可漏选"的策略在某些场景下具有优势,比如医疗、法律等对信息完整性要求高的领域。但同时也会引入更多的误判,降低精确度。好在XProvence支持多语言,它可以弥补Provence在除了英文以外场景的不足。

OpenSearch的F1为46.37%(Precision 62.35%,Recall 36.98%),在三个模型中相对较弱,显著低于Provence和XProvence,说明在out-of-domain场景下,模型输出的分数校准和泛化能力还有提升空间。

07

ContextPruning与Semantic Highlight

顺带提一下,Context Pruning与一个新兴的搜索系统功能——Semantic Highlight(语义高亮),他们在技术本质上是同一件事。

可能说到Highlight,大家可能更熟悉Elasticsearch里的传统Highlight功能——它基于关键词匹配,用<em>标签高亮查询词出现的位置。但这种方式很机械,只能匹配字面相同的词。

而Semantic Highlight则完全不同,它基于语义理解,通过深度学习模型判断文本片段与查询的语义相关性,即使没有相同关键词也能准确识别相关内容

仔细想想,Context Pruning与Semantic Highlight的本质都是:

基于query和context的语义匹配,找出最相关的部分,排除掉不相关的部分

因此,它们本质上是同一个技术在不同场景下的应用。

这意味着同一个模型可以服务多个场景,提高了技术的可复用性。

而伴随着Semantic Highlight逐渐成为一个新兴的功能需求,Milvus团队正在规划内置Semantic Highlight功能

目前当Milvus提供向量检索时,用户反馈检索返回大量chunk后,难以快速识别哪些句子真正有用。而借助提供基于模型的Semantic Highlight功能,能够与向量检索pipeline无缝融合。

这样Milvus将演进为集成检索、重排序、上下文剪枝的智能检索归因平台,覆盖RAG优化、搜索高亮、文档摘要等多个场景。

08

展望

Context Engineering作为一个新兴方向,还有很多探索空间。

无论是在算法优化、跨领域泛化,还是在与RAG pipeline的更深度整合方面,都值得进一步研究。Milvus团队也会持续关注这个方向,并提供相应的功能支持。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1124402.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何避免性能测试的常见陷阱

性能测试的核心价值与挑战 性能测试是软件质量保障的关键环节&#xff0c;旨在评估系统在高负载、高并发下的响应能力、稳定性和可扩展性。对于测试从业者而言&#xff0c;它能暴露潜在瓶颈&#xff08;如数据库延迟或代码低效&#xff09;&#xff0c;预防线上故障。然而&…

深度测评10个一键生成论文工具,专科生毕业论文轻松搞定!

深度测评10个一键生成论文工具&#xff0c;专科生毕业论文轻松搞定&#xff01; AI 工具的崛起&#xff0c;让论文写作不再难 随着人工智能技术的不断进步&#xff0c;越来越多的 AI 工具开始进入学术写作领域&#xff0c;为学生和研究人员提供了强大的辅助支持。尤其是在降低 …

2026趋势:AI驱动性能优化

AI正重构性能测试的底层逻辑‌ 到2026年&#xff0c;AI已不再是软件测试中的“辅助工具”&#xff0c;而是‌性能优化的决策中枢‌。传统基于固定脚本、人工调参、静态基线的性能测试模式&#xff0c;正被‌自适应、可解释、低成本的AI驱动体系‌全面取代。测试工程师的角色&a…

打造专业作品的关键:优质正版素材网站推荐

在视觉内容主导的数字时代&#xff0c;无论是影视制作、广告宣传还是社交媒体内容&#xff0c;高质量的素材都是提升作品专业度的关键。然而&#xff0c;侵权风险日益增加&#xff0c;选择正版素材平台不仅保护创作者权益&#xff0c;更能确保项目的合法性和长久发展。本文将介…

大模型多Agent实战:Agno与LangGraph全方位解析,带你掌握快速落地生产的核心技术!

今天还是聊聊生产级agent怎么搭这回事。 前面几期内容&#xff0c;我们聊了agent 常见的坑有哪些&#xff0c;memory怎么管理&#xff0c;还有一些rerank细节&#xff0c;今天从部署层面看看怎么选一个不错的agent框架。 现如今&#xff0c;针对复杂场景&#xff0c;多agent架…

Angular页面跳转01,深入浅出 Angular Router:RouterModule 配置与路由出口核心解析

在单页应用&#xff08;SPA&#xff09;开发中&#xff0c;路由是连接不同页面视图的核心桥梁。Angular 作为成熟的前端框架&#xff0c;提供了功能强大的angular/router模块&#xff0c;让开发者能优雅地实现页面导航、视图切换。本文将聚焦 Angular Router 的两大基础核心 —…

Token 烧钱如流水?Eino Skills 神器登场!让 Agent 学会「按需加载」,彻底告别上下文过载!

面对复杂的业务逻辑&#xff0c;AI 助手不该是把所有说明书都背下来的“书呆子”&#xff0c;而应该是懂得根据任务按需查阅手册的“专家”。 一、痛点&#xff1a;Agent 的“全量加载”困境 在构建复杂的 AI Agent 时&#xff0c;我们往往会给它塞入几十个 Tool。随之而来的问…

2026年网络安全行业新趋势:这5大方向,决定你明年的职业高度

2026年网络安全行业新趋势&#xff1a;这5大方向&#xff0c;决定你明年的职业高度 元旦跨年&#xff0c;既是时间的节点&#xff0c;也是职业规划的新起点。 随着数字化进程的加速&#xff0c;网络安全已成为守护数字经济的核心防线&#xff0c;行业人才缺口持续扩大。据权威…

信息安全前沿技术核心聚焦:最值得关注的五大方向与学习路线图

目前信息安全领域&#xff08;不限于技术层面&#xff09;有哪些前沿的研究方向&#xff0c;代表人物有哪些&#xff1f;有哪些新的研究成果&#xff1f;以及从哪些地方可以获得这些咨询&#xff1f; 我在做 system 方向的安全研究&#xff0c;最近发现其实中美两国都在 TEE (…

DeepSeek的mHC:一次精巧的工程突破,还是下一代AI的预告?

简介&#xff1a;2025年末&#xff0c;DeepSeek发布了一种叫mHC的新型神经网络架构&#xff0c;CEO亲自署名。这项技术解决了一个十年悬而未决的问题&#xff1a;如何让网络连接模式可学习而不导致训练崩溃。但论文只验证到270亿参数——在万亿参数的今天只是"中小规模&qu…

学长亲荐2026TOP10AI论文工具:本科生毕业论文写作全解析

学长亲荐2026TOP10AI论文工具&#xff1a;本科生毕业论文写作全解析 2026年AI论文工具测评&#xff1a;为何值得一看&#xff1f; 随着人工智能技术的不断进步&#xff0c;AI写作工具在学术领域的应用越来越广泛。对于本科生而言&#xff0c;撰写毕业论文不仅是学业的重要环节&…

2026 最新网络安全学习路线:从零基础到实战大神,结构清晰可落地

2026 最新网络安全学习路线&#xff1a;从零基础到实战大神&#xff0c;结构清晰可落地 网络安全作为数字时代的核心刚需&#xff0c;岗位需求持续爆发&#xff0c;但入门门槛高、知识体系杂&#xff0c;很多新手容易陷入 “盲目学工具、越学越迷茫” 的困境。 本文整理了一套…

一张知识地图看懂网络安全:常见技术深度解析与风险防范实战指南

伴随着互联网的发展&#xff0c;它已经成为我们生活中不可或缺的存在&#xff0c;无论是个人还是企业&#xff0c;都离不开互联网。正因为互联网得到了重视&#xff0c;网络安全问题也随之加剧&#xff0c;给我们的信息安全造成严重威胁&#xff0c;而想要有效规避这些风险&…

为什么说千万别学网络安全专业?

前言 很多人说千万别学网络安全专业的原因是因为网络安全专业学习的课程非常难。就业要求高。很多同学在大学开始接触网络空间安全专业时&#xff0c;才发现&#xff1a;对于自己来说&#xff0c;网络空间安全专业相关的课程学习难度有点高。 为什么说千万别学网络安全专业的原…

[Java 并发编程] ThreadLocal 原理

ThreadLocal 原理 1. ThreadLocal 基础使用 ​ ThreadLocal 被称为线程本地变量类&#xff0c;当多线程并发操作线程本地变量时&#xff0c;实际上每个线程操作的是其独立拥有的本地值&#xff0c;可以理解为每个线程分别独立维护自己的副本。这样就规避了线程安全问题&#xf…

网络安全(黑客方向)从入门到进阶:核心攻击手法剖析与防御实战指南

前言 什么是网络安全 网络安全可以基于攻击和防御视角来分类&#xff0c;我们经常听到的 “红队”、“渗透测试” 等就是研究攻击技术&#xff0c;而“蓝队”、“安全运营”、“安全运维”则研究防御技术。 如何成为一名黑客 很多朋友在学习安全方面都会半路转行&#xff0…

开发了一个免费的批量视频语音字幕识别工具,核心点是可批量自动处理识别任务

这个批量识别功能是免费的、无限制的、可批量使用的功能&#xff0c;可实现音频、视频文件语音识别转txt文本、srt字幕&#xff0c;主要是能批量执行识别任务&#xff0c;不用手动一个个去识别&#xff0c;这是与其他语音识别软件的最大的区别&#xff0c;而且可同时处理视频和…

炸裂汇总!2025收官硬核干货:380+页深度拆解RAG/Agent/MCP等9大核心,建议熬夜研读!

作为一名在AI一线滚打多年的老兵&#xff0c;我直白告诉你们&#xff1a;市面上真正能从底层原理直通生产落地的AI工程资料&#xff0c;凤毛麟角。今天这份《The AI Engineering Guidebook&#xff08;2025 Edition&#xff09;》&#xff0c;就是其中绝对的顶尖存在——384页硬…

Java小白求职者在互联网大厂面试:从Spring Boot到微服务的技术探索

场景&#xff1a;互联网大厂面试 在某个阳光明媚的早晨&#xff0c;小白程序员“超好吃”来到了知名互联网大厂进行他的Java开发工程师面试。面试官是一位经验丰富且略显严肃的高级工程师。 第一轮提问&#xff1a;Java与Spring Boot基础 面试官&#xff1a;欢迎你&#xff0c;…

重塑未来安全格局的五大前沿技术:从AI安全到零信任的深度解读

目前信息安全领域&#xff08;不限于技术层面&#xff09;有哪些前沿的研究方向&#xff0c;代表人物有哪些&#xff1f;有哪些新的研究成果&#xff1f;以及从哪些地方可以获得这些咨询&#xff1f; 我在做 system 方向的安全研究&#xff0c;最近发现其实中美两国都在 TEE (…