在人工智能领域,有一种技术叫作检索增强生成(Retrieval-Augmented Generation),它能让大型语言模型在回答问题前,先像“开卷考试”一样去一个巨大的资料库里查找相关信息,然后再根据找到的内容生成答案。这种方法能有效提高答案的准确性。目前,大家普遍认为,想要提升效果,就得用更大、更昂贵的语言模型。但这不仅成本高,部署起来也很困难。因此,如何用更经济的方式提升问答效果,成了一个亟待解决的难题。
为了解决这个问题,这篇论文提出了一个通过扩大文档库来替代升级模型的框架。研究发现,即使是中小型模型,只要给它提供足够丰富的参考资料,它的表现就能赶上甚至超过那些只依赖少量资料的大型模型。这为我们提供了一条既经济又高效的技术路径。
论文基本信息
- 论文标题: Less LLM, More Documents: Searching for Improved RAG
- 论文链接: https://arxiv.org/pdf/2510.02657
另外我整理了ICML 2025 大模型相关论文合集,感兴趣的可以自取!
关注“AI大模型说”回复“A233”;免费领取 ICML 2025 大模型相关论文合集
主要贡献与创新
- 系统地研究了检索语料库规模与生成器模型大小之间的权衡关系,揭示了两者可以相互替代。
- 实验证明,通过扩大语料库,小尺寸模型能达到甚至超过大尺寸模型的性能,提供了一种降本增效的路径。
- 揭示了性能提升的关键机制:扩大语料库主要增加了检索到正确答案的概率,而非模型利用上下文效率的改变。
- 发现不同尺寸模型从语料库扩展中受益不同,中等规模模型获益最显著,极大和极小模型则获益有限。
研究方法与原理
这篇论文的核心思路非常直接:固定其他条件,系统性地改变文档库的大小和语言模型的大小,观察两者如何互相影响问答系统的最终表现。
论文的方法论主要分为两个维度进行探讨:一是语料库规模的补偿效应,即扩大文档库能否弥补小模型的性能短板;二是不同模型的差异化效应,即不同大小的模型从文档库扩大中获得的收益有何不同。
1. 模拟语料库扩展
为了能够控制文档库的大小,研究者们首先将一个庞大的语料库(Corpus) (包含约2.64亿篇文档)随机且均匀地分割成 个互不重叠的子集,称为“分片 (shard)”。
当需要模拟一个特定规模 的语料库时,他们就启用前 个分片,记作 。这样,语料库的大小 就与 成正比。当用户提出一个问题时,检索器就在这个规模为 的语料库 中进行搜索。
2. 生成器与权衡关系的量化
研究者选择了一系列大小不同的生成器模型 ,其中 代表模型的参数规模。对于每个模型 和每种语料库规模 的组合,他们都进行一次完整的问答测试,并记录其性能得分,记为 ,这里的 指的是评测指标,如F1分数或精确匹配率(Exact Match, EM)。
为了量化“用文档换模型”这一思想,论文定义了一个非常关键的指标——“追赶阈值 (catch-up threshold)”。这个值的含义是:一个较小的模型 需要将语料库扩大到多少倍,其性能才能赶上一个更大的模型 在最基础()语料库下的表现。其数学定义如下:
通过计算和比较不同模型组合的 值,研究者可以清晰地揭示语料库规模和模型大小之间的替代关系。
3. 深入分析:为何扩大语料库有效?
为了探究性能提升的根本原因,论文进一步定义了两个分析指标:
**上下文受益成功率 (Context-Benefited Success Rate, CB@n)**:这个指标衡量的是,对于那些模型在没有外部资料时答错的问题,在提供了规模为 的文档库后,有多少比例的问题能够被正确回答。它排除了模型本身知识的影响,专门衡量从检索中获得的收益。
利用率 (Utilization Ratio):这个指标衡量了模型对“有效信息”的利用效率。分母是检索到的内容中包含正确答案字符串的概率,即**“黄金答案覆盖率 (Gold Answer Coverage Rate)”**,它代表了模型获得正确答案的理论上限;分子则是模型实际答对的比例(即CB@n)。
通过分析这两个指标随语料库规模变化的趋势,论文能够判断性能提升究竟是因为找到了更多有用的信息,还是因为模型更会利用这些信息了。
实验设计与结果分析
- 数据集:实验在三个经典的开放域问答数据集上进行,分别是 NQ(自然问题)、TriviaQA(百科知识问答)和 WebQ(基于谷歌建议的查询)。
- 检索器设置:语料库采用了ClueWeb22-A数据集的30%子集,约2.64亿篇文档,被划分为12个分片,每个分片约2200万篇文档。
- 生成器设置:使用了Qwen3模型家族的五个不同尺寸版本:0.6B, 1.7B, 4B, 8B, 和 14B。
- 评测指标:主要使用F1分数和精确匹配率(EM)。
The Effect of Corpus Scaling as Compensation (语料库扩展的补偿效应)
实验结果清晰地表明,扩大语料库确实能让小模型赶上甚至超越大模型。以NQ数据集为例(见表1),一个4B参数的模型,在语料库规模扩大到2倍()时,其F1分数(44.21)就超过了8B模型在基础语料库()下的表现(41.99)。这意味着追赶阈值。同样地,。这说明在中大型模型之间,只需将文档库加倍,就能弥补模型尺寸上的差距。
从图1和图2的可视化结果中可以更直观地看到这一“追赶”过程。随着语料库规模(横轴)的增加,所有模型的性能曲线(纵轴)都在上升。值得注意的是,小尺寸模型的性能曲线能够与更大尺寸模型在初始阶段的性能水平相交,印证了“更多文档”可以替代“更大模型”的结论。
为什么扩大语料库有效?图4给出了答案。该图展示了黄金答案覆盖率随语料库规模变化的趋势。可以清楚地看到,随着分片数量的增加,检索到的文本片段中包含正确答案的概率单调上升。这直接说明,扩大语料库最直接的好处就是提升了找到解题关键信息的可能性。
Differential Effects Across LLM Sizes (不同模型尺寸的差异化效应)
图6展示了不同模型尺寸下的上下文受益成功率(CB@n)。所有模型都呈现出相似的趋势:从没有检索()到使用第一个分片()时,性能出现巨大飞跃;之后随着分片增加,性能继续增长,但增速放缓,大约在 之后趋于饱和。这表明,RAG的核心价值在于提供了外部知识,哪怕只是一个小的知识库,也能解决大量模型自身的知识盲点。
图8展示了不同模型的利用率(Utilization Ratio)。一个惊人的发现是,对于所有模型,其利用率曲线几乎是一条水平线,并且不同模型之间的差距很小。这有力地证明了,性能的提升并非源于模型对上下文的利用效率变高了,而仅仅是因为语料库扩大后,有更多包含答案的文档被检索了出来。换句话说,模型“消化”信息的能力基本是恒定的,给它更多“有料”的信息,它自然就能表现得更好。
一个有趣的现象是,利用率并非随模型增大而单调递增。中等规模的模型(如1.7B和4B)的利用率反而最高,超过了最大的14B模型。这暗示着,在RAG场景下,并非模型越大越好,中等规模的模型可能在平衡自身知识和利用外部信息方面做得更出色。
论文结论与评价
总结
本文通过严谨的实验得出结论:在资源受限的情况下,扩大检索语料库是提升RAG系统性能的一种非常有效的替代方案。一个较小的语言模型如果能接触到更广泛的文档,其表现完全可以媲美甚至超越一个仅能访问有限信息的大型模型。性能提升的根本原因在于,更大的语料库显著提高了检索到包含正确答案文本的概率,而模型本身对这些文本的利用效率基本保持不变。
评价
这项研究为RAG系统的实际部署提供了极具价值的指导。在实际应用中,我们往往面临计算资源(如GPU显存)的限制,无法随意部署超大模型。本文明确指出,与其投入巨资升级模型,不如优先考虑扩大和优化我们的文档库,这可能是性价比更高的选择。
优点:
- 观点新颖且实用:打破了“模型越大越好”的思维定势,提出了一个成本效益更优的优化方向。
- 实验设计严谨:通过控制变量法,清晰地隔离了语料库规模和模型大小的影响,结论可信度高。
- 分析深入:不仅展示了现象,还通过“覆盖率”和“利用率”等指标揭示了背后的机制,解释了“为什么有效”。
不足与思考:
- 模型家族单一:实验仅使用了Qwen3系列模型,如果能扩展到Llama、Mistral等其他模型家族,结论的普适性会更强。
- 成本未量化:论文证明了“更多文档”可以替代“更大模型”,但没有对这两种策略的实际成本(如存储、索引、检索延迟 vs. 推理计算成本)进行量化比较。在实际工程决策中,一个详细的成本效益分析将更有说服力。
- “质量”与“数量”:论文主要探讨了语料库的“数量”问题,但语料库的“质量”(如信息的时效性、准确性、领域相关性)同样至关重要。未来的研究可以进一步探讨,在固定数量下,如何通过提升语料库质量来获得更大收益。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。