震惊!AI大模型不是越大越好!ICML 2025最新研究:中小模型+海量文档=性能开挂,小白也能懂的省钱攻略

在人工智能领域,有一种技术叫作检索增强生成(Retrieval-Augmented Generation),它能让大型语言模型在回答问题前,先像“开卷考试”一样去一个巨大的资料库里查找相关信息,然后再根据找到的内容生成答案。这种方法能有效提高答案的准确性。目前,大家普遍认为,想要提升效果,就得用更大、更昂贵的语言模型。但这不仅成本高,部署起来也很困难。因此,如何用更经济的方式提升问答效果,成了一个亟待解决的难题。

为了解决这个问题,这篇论文提出了一个通过扩大文档库来替代升级模型的框架。研究发现,即使是中小型模型,只要给它提供足够丰富的参考资料,它的表现就能赶上甚至超过那些只依赖少量资料的大型模型。这为我们提供了一条既经济又高效的技术路径。

论文基本信息

  • 论文标题: Less LLM, More Documents: Searching for Improved RAG
  • 论文链接: https://arxiv.org/pdf/2510.02657

另外我整理了ICML 2025 大模型相关论文合集,感兴趣的可以自取!

关注“AI大模型说”回复“A233”;免费领取 ICML 2025 大模型相关论文合集

主要贡献与创新

  1. 系统地研究了检索语料库规模与生成器模型大小之间的权衡关系,揭示了两者可以相互替代。
  2. 实验证明,通过扩大语料库,小尺寸模型能达到甚至超过大尺寸模型的性能,提供了一种降本增效的路径。
  3. 揭示了性能提升的关键机制:扩大语料库主要增加了检索到正确答案的概率,而非模型利用上下文效率的改变。
  4. 发现不同尺寸模型从语料库扩展中受益不同,中等规模模型获益最显著,极大和极小模型则获益有限。

研究方法与原理

这篇论文的核心思路非常直接:固定其他条件,系统性地改变文档库的大小和语言模型的大小,观察两者如何互相影响问答系统的最终表现。

论文的方法论主要分为两个维度进行探讨:一是语料库规模的补偿效应,即扩大文档库能否弥补小模型的性能短板;二是不同模型的差异化效应,即不同大小的模型从文档库扩大中获得的收益有何不同。

1. 模拟语料库扩展

为了能够控制文档库的大小,研究者们首先将一个庞大的语料库(Corpus) (包含约2.64亿篇文档)随机且均匀地分割成 个互不重叠的子集,称为“分片 (shard)”。

当需要模拟一个特定规模 的语料库时,他们就启用前 个分片,记作 。这样,语料库的大小 就与 成正比。当用户提出一个问题时,检索器就在这个规模为 的语料库 中进行搜索。

2. 生成器与权衡关系的量化

研究者选择了一系列大小不同的生成器模型 ,其中 代表模型的参数规模。对于每个模型 和每种语料库规模 的组合,他们都进行一次完整的问答测试,并记录其性能得分,记为 ,这里的 指的是评测指标,如F1分数或精确匹配率(Exact Match, EM)。

为了量化“用文档换模型”这一思想,论文定义了一个非常关键的指标——“追赶阈值 (catch-up threshold)”。这个值的含义是:一个较小的模型 需要将语料库扩大到多少倍,其性能才能赶上一个更大的模型 在最基础()语料库下的表现。其数学定义如下:

通过计算和比较不同模型组合的 值,研究者可以清晰地揭示语料库规模和模型大小之间的替代关系

3. 深入分析:为何扩大语料库有效?

为了探究性能提升的根本原因,论文进一步定义了两个分析指标:

  • **上下文受益成功率 (Context-Benefited Success Rate, CB@n)**:这个指标衡量的是,对于那些模型在没有外部资料时答错的问题,在提供了规模为 的文档库后,有多少比例的问题能够被正确回答。它排除了模型本身知识的影响,专门衡量从检索中获得的收益。

  • 利用率 (Utilization Ratio):这个指标衡量了模型对“有效信息”的利用效率。分母是检索到的内容中包含正确答案字符串的概率,即**“黄金答案覆盖率 (Gold Answer Coverage Rate)”**,它代表了模型获得正确答案的理论上限;分子则是模型实际答对的比例(即CB@n)。

通过分析这两个指标随语料库规模变化的趋势,论文能够判断性能提升究竟是因为找到了更多有用的信息,还是因为模型更会利用这些信息了。

实验设计与结果分析

  • 数据集:实验在三个经典的开放域问答数据集上进行,分别是 NQ(自然问题)、TriviaQA(百科知识问答)和 WebQ(基于谷歌建议的查询)。
  • 检索器设置:语料库采用了ClueWeb22-A数据集的30%子集,约2.64亿篇文档,被划分为12个分片,每个分片约2200万篇文档。
  • 生成器设置:使用了Qwen3模型家族的五个不同尺寸版本:0.6B, 1.7B, 4B, 8B, 和 14B。
  • 评测指标:主要使用F1分数和精确匹配率(EM)。
The Effect of Corpus Scaling as Compensation (语料库扩展的补偿效应)

实验结果清晰地表明,扩大语料库确实能让小模型赶上甚至超越大模型。以NQ数据集为例(见表1),一个4B参数的模型,在语料库规模扩大到2倍()时,其F1分数(44.21)就超过了8B模型在基础语料库()下的表现(41.99)。这意味着追赶阈值。同样地,。这说明在中大型模型之间,只需将文档库加倍,就能弥补模型尺寸上的差距

图1图2的可视化结果中可以更直观地看到这一“追赶”过程。随着语料库规模(横轴)的增加,所有模型的性能曲线(纵轴)都在上升。值得注意的是,小尺寸模型的性能曲线能够与更大尺寸模型在初始阶段的性能水平相交,印证了“更多文档”可以替代“更大模型”的结论。

为什么扩大语料库有效?图4给出了答案。该图展示了黄金答案覆盖率随语料库规模变化的趋势。可以清楚地看到,随着分片数量的增加,检索到的文本片段中包含正确答案的概率单调上升。这直接说明,扩大语料库最直接的好处就是提升了找到解题关键信息的可能性

Differential Effects Across LLM Sizes (不同模型尺寸的差异化效应)

图6展示了不同模型尺寸下的上下文受益成功率(CB@n)。所有模型都呈现出相似的趋势:从没有检索()到使用第一个分片()时,性能出现巨大飞跃;之后随着分片增加,性能继续增长,但增速放缓,大约在 之后趋于饱和。这表明,RAG的核心价值在于提供了外部知识,哪怕只是一个小的知识库,也能解决大量模型自身的知识盲点。

图8展示了不同模型的利用率(Utilization Ratio)。一个惊人的发现是,对于所有模型,其利用率曲线几乎是一条水平线,并且不同模型之间的差距很小。这有力地证明了,性能的提升并非源于模型对上下文的利用效率变高了,而仅仅是因为语料库扩大后,有更多包含答案的文档被检索了出来。换句话说,模型“消化”信息的能力基本是恒定的,给它更多“有料”的信息,它自然就能表现得更好。

一个有趣的现象是,利用率并非随模型增大而单调递增。中等规模的模型(如1.7B和4B)的利用率反而最高,超过了最大的14B模型。这暗示着,在RAG场景下,并非模型越大越好,中等规模的模型可能在平衡自身知识和利用外部信息方面做得更出色。

论文结论与评价

总结

本文通过严谨的实验得出结论:在资源受限的情况下,扩大检索语料库是提升RAG系统性能的一种非常有效的替代方案。一个较小的语言模型如果能接触到更广泛的文档,其表现完全可以媲美甚至超越一个仅能访问有限信息的大型模型。性能提升的根本原因在于,更大的语料库显著提高了检索到包含正确答案文本的概率,而模型本身对这些文本的利用效率基本保持不变。

评价

这项研究为RAG系统的实际部署提供了极具价值的指导。在实际应用中,我们往往面临计算资源(如GPU显存)的限制,无法随意部署超大模型。本文明确指出,与其投入巨资升级模型,不如优先考虑扩大和优化我们的文档库,这可能是性价比更高的选择。

优点

  • 观点新颖且实用:打破了“模型越大越好”的思维定势,提出了一个成本效益更优的优化方向。
  • 实验设计严谨:通过控制变量法,清晰地隔离了语料库规模和模型大小的影响,结论可信度高。
  • 分析深入:不仅展示了现象,还通过“覆盖率”和“利用率”等指标揭示了背后的机制,解释了“为什么有效”。

不足与思考

  • 模型家族单一:实验仅使用了Qwen3系列模型,如果能扩展到Llama、Mistral等其他模型家族,结论的普适性会更强。
  • 成本未量化:论文证明了“更多文档”可以替代“更大模型”,但没有对这两种策略的实际成本(如存储、索引、检索延迟 vs. 推理计算成本)进行量化比较。在实际工程决策中,一个详细的成本效益分析将更有说服力。
  • “质量”与“数量”:论文主要探讨了语料库的“数量”问题,但语料库的“质量”(如信息的时效性、准确性、领域相关性)同样至关重要。未来的研究可以进一步探讨,在固定数量下,如何通过提升语料库质量来获得更大收益。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1119237.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

留学党必看!英国留学中介TOP榜,精准匹配优质机构 - 留学机构评审官

留学党必看!英国留学中介TOP榜,精准匹配优质机构一、英国留学中介如何选?从需求痛点出发的解答作为一名从业九年的国际教育规划师,我经常遇到学生和家长提出类似的困惑:面对市场上众多的英国留学中介,如何避免“…

Dify二开系列:从LightRAG到多模态RAG,全能化进化之路

一、系列回顾:从"能用"到"精准" 前两篇分别讲了Dify的企业级改造和LightRAG知识图谱RAG。 第一篇:Dify二开实战。双层配额管理,防止Token费用失控;账号同步和软删除,解决运维痛点。 第二篇:用LightRAG的知识图谱RAG,准确率从75%提升到90%。 这两个改造…

基于Vue的民俗文化管理系统设计与达成04j02(程序 + 源码 + 数据库 + 调试部署 + 制作环境配置),配套论文文档字数达万字以上,文末可获取,系统界面展示置于文末

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

保姆级教程:Spring AI RAG知识库构建,让你的AI助手“满腹经纶“!

当用户提问:“有哪些优惠券?” 。 RAG 工程会去查询本地向量数据库中的相关数据,然后将这部分数据 用户问题,一起发送给大模型进行处理。 先来看一下效果,如图 加载数据文件到向量数据库中 手动查询向量数据库实现 R…

【热评】“LLM是死路“!Meta前AI首席杨立昆创业新方向,AI程序员必看的技术革命

杨立昆批评 Meta 内部对研究的管理思维,特别指出管理者不应干涉研究者的工作。 关键点一: 杨立昆批评汪滔「缺乏研究经验」,并强调「不应命令研究者该做什么」,指出管理思维与科研文化的落差加深了内部张力。 关键点二&#xff…

上海留学中介榜单:口碑好之选,助力留学之路稳妥前行 - 留学机构评审官

上海留学中介榜单:口碑好之选,助力留学之路稳妥前行一、上海留学中介如何选择?高录取率机构有哪些?当时间来到2026年1月5日,又一批学生开始为未来的留学之路筹划。作为从业十年的上海地区国际教育规划师,我常被学…

震惊!Google数据护城河被AI攻破?大模型开发者必看:AI Agent如何颠覆传统搜索,规模速度极限挑战

本文聚焦Google数据护城河与AI Agent的突破性发展,探讨AI如何打破传统搜索边界。DataFun联合Bright Data将于1月7日举办直播,深入分析AI Agent三大特征及其在规模与速度方面的极限挑战,揭示大模型技术如何重塑信息获取方式,为开发…

别再被“虚假快“迷惑!7个指标教你判断大模型服务真实性能,小白也能秒懂的AI开发干货!

下面这组指标,基本构成了我现在判断一个 LLM 服务是否有较好体验的核心视角。 也可以参考下面这个图: 一、TTFT(Time To First Token)首字时间 TTFT 指的是: 从客户端发出请求,到收到第一个 token的时间…

上海留学中介实锤榜!录取率高,助学子申请海外名校 - 留学机构评审官

上海留学中介实锤榜!录取率高,助学子申请海外名校一、如何在上海选择留学中介?许多上海学生和家长在规划留学时,常常会问:“上海本地的留学中介哪家更值得信赖?如何根据自身情况选择?” 作为一个在国际教育规划…

spring事务面试

spring的事务传播行为是指在一个事务性的环境中,一个事务方法被另一个事务方法调用时,明确这两个方法之间的事务应该如何交互和控制。 这里涉及到事务的边界 隔离性 以及如何确保数据一致性的问题。 由于事务嵌套本身…

maven安装jar报异常

maven安装jar报异常今天遇到安装maven包的异常问题: 以下是执行语句mvn install:install-file -Dfile=D:\repository\repository\aspose\aspose-cells\9.0.0\aspose-cells-9.0.0.jar -DgroupId=com.aspose -Dartifact…

Java并发包中的PriorityBlockingQueue解析

PriorityBlockingQueue<E> 是 Java 并发包&#xff08;java.util.concurrent&#xff09;中提供的一个线程安全的、无界、优先级队列。它的核心思想是&#xff1a;每次取出的元素&#xff0c;都是当前队列中“优先级最高”的那个元素&#xff08;即最小值&#xff0c;依据…

开题报告 “卡壳” VS “开挂”?虎贲等考 AI 让学术起点赢在合规

学术研究的第一步&#xff0c;往往卡在开题报告&#xff1a;选题要么 “大到无从下手”&#xff0c;要么 “小到无研究价值”&#xff1b;文献综述堆砌资料却无逻辑&#xff0c;技术路线图混乱到导师看不懂&#xff1b;格式反复修改仍不达标&#xff0c;查重风险如影随形。而虎…

AI 技术在CRM 系统中的应用

AI 技术已经从 CRM 系统&#xff08;客户关系管理&#xff09;的“插件”进化为了其核心引擎。现代 CRM 不再只是一个存储客户资料的静态数据库&#xff0c;而是一个能够主动思考、预测并执行任务的“智能助手”。以下是 AI 技术在CRM 系统中的核心应用场景&#xff1a;1. 销售…

学长亲荐MBA必看TOP8AI论文平台测评

学长亲荐MBA必看TOP8AI论文平台测评 学术AI工具测评&#xff1a;为何需要一份精准指南 在MBA学习与研究过程中&#xff0c;论文写作是一项核心任务&#xff0c;而随着AI技术的普及&#xff0c;各类学术辅助工具层出不穷。然而&#xff0c;面对众多选择&#xff0c;如何快速找到…

51405098-100 逻辑控制器模块

HONEYWELL 51405098-100 逻辑控制器模块概述该模块属于 Honeywell 的工业自动化控制器系列&#xff0c;用于对复杂的控制逻辑进行集中处理和管理。它通过逻辑运算和程序执行来控制生产或工业流程中的各类设备。主要功能逻辑控制&#xff1a;支持基本的 AND、OR、NOT 等逻辑运算…

2026年知名的智慧农业四情监测,农业四情监测管理系统,农业四情监测站厂家选购参考名录 - 品牌鉴赏师

引言在 2026 年,智慧农业四情监测、农业四情监测管理系统以及农业四情监测站在农业现代化进程中愈发重要,其市场规模不断扩大,众多厂家纷纷涌入该领域。为了给广大农业从业者、相关企业以及投资者在选购合适的农业四…

AI 写论文哪个软件最好?深挖内核:虎贲等考 AI 凭 “学术三重门” 碾压同类

毕业季 AI 论文工具乱象丛生&#xff0c;有的主打 “快速生成” 却牺牲专业度&#xff0c;有的宣称 “全流程覆盖” 却功能碎片化。到底 AI 写论文哪个软件最好&#xff1f;抛开表面宣传&#xff0c;我们从学术核心需求出发&#xff0c;深度拆解虎贲等考 AI&#xff08;官网&am…

AI 写论文哪个软件最好?实测认证!虎贲等考 AI 凭 “学术闭环” 成终极答案

毕业季的论文创作&#xff0c;一半是研究本身的深耕&#xff0c;一半是工具选择的博弈 —— 有的 AI 软件只懂文字拼接&#xff0c;文献引用虚假&#xff1b;有的侧重格式排版&#xff0c;却缺乏实证支撑&#xff1b;还有的 AI 痕迹浓重&#xff0c;查重易触发预警。到底哪款 A…

2025年值得信赖的汽车托运物流公司TOP榜出炉!成都汽车托运物流精选优质品牌助力工程采购 - 品牌推荐师

随着汽车消费市场的持续活跃与跨区域流动的日益频繁,汽车托运物流行业正迎来新一轮的发展机遇。面对市场上众多的服务商,消费者如何选择一家安全、高效、透明的托运公司,成为普遍关注的焦点。基于对市场公开数据、用…