RAG(检索增强生成)是为大模型配备"外部知识库"的技术,有效解决大模型幻觉、知识滞后和缺乏私有知识三大问题。其工作流程包括数据准备(清洗、向量化、存储)、检索(语义匹配)、增强(构建提示词)和生成(输出答案)。核心组件包括Langchain文本分割工具、向量数据库(如Milvus)、Embedding模型和LLM。RAG使大模型从聊天机器人进化为专业助手,是企业知识库和AI搜索的底层技术。
RAG (Retrieval-Augmented Generation,检索增强生成)是目前大模型(LLM)落地应用中最核心、最热门的技术方案之一。简单来说,RAG 就是给大模型配上了一个“外部知识库”或“搜索引擎”。
接下来我会从我们“为什么需要它”、“它是怎么工作的”以及“它的优势”三个维度来详细拆解。
一、 为什么要用 RAG?
虽然 GPT-4、Claude 等大模型很强大,但它们有三个致命的短板:
幻觉问题 (Hallucination):大模型本质上是概率预测机器,当它不知道答案时,会一本正经地胡说八道。
知识滞后 (Knowledge Cutoff):大模型的知识停留在训练结束的那一刻。比如你问它“今天早上的新闻”,它无法回答。
缺乏私有知识:大模型没读过你公司的内部文档、你的私人笔记或未公开的代码库。
解决办法有两种:
微调 (Fine-tuning):像让学生去考研深造,这样的做法代价高、更新慢。
RAG (检索增强):像给学生考试时发一本《开卷参考资料》,让他查完资料再回答。
二、 RAG 的工作流程(四个核心步骤)
- 数据准备 (Indexing)
在用户提问之前,我们要先处理数据:
清洗与切块 (Chunking):把长文档(如PDF、Word)切成一个个小段落(比如每段300字)。
向量化 (Embedding):利用“嵌入模型”把文字转成一串数字(向量)。这些数字代表了文字的语义。
存入向量数据库:把这些数字存在专门的数据库(如 Pinecone, Milvus, FAISS)中。
- 检索 (Retrieval)
当用户提一个问题(比如:“我公司的报销标准是什么?”):
* 系统先把这个问题也转成一串数字(向量)。
* 在向量数据库中进行“语义匹配”,找到与这个问题最相关的几个段落。
- 增强 (Augmentation)
系统把“用户的问题”和“搜到的相关段落”拼在一起,组成一个巨大的提示词(Prompt)。
提示词模板:
“你是一个助手。请根据以下参考资料回答问题:
【参考资料:公司报销标准是单日餐补50元…】
【用户问题:我公司的报销标准是什么?】”
- 生成 (Generation) —— 写出回答
大模型读完这段带资料的 Prompt 后,总结出准确的答案。因为它看到了资料,所以不再胡说八道。
三、 RAG 的核心组件
- Langchain智能文本分割工具: RecursiveCharacterTextSplitter 是 LangChain 中最常用的文本分割器,核心逻辑是递归地按指定分隔符拆分文本,直到所有分片长度都符合设定的 chunk_size。
它的核心工作流程和特点如下:
预设分隔符优先级:默认按 [“\n\n”, “\n”, " ", “”] 的顺序尝试拆分,优先用双换行符(段落分隔),再用单换行符(行分隔),以此类推,保证拆分后的文本语义更完整。
递归拆分逻辑:如果用当前分隔符拆分后的文本块长度仍超过 chunk_size,就用下一级优先级的分隔符继续拆分,直到所有文本块都满足长度要求。
支持重叠窗口:通过 chunk_overlap 参数设置分片间的重叠长度,避免因拆分导致上下文断裂,提升后续向量检索的准确性。
举个例子:拆分一篇 2000 字符的财报文本,设定 chunk_size=500、chunk_overlap=50,它会先按双换行符拆成几个大段,若某段有 600 字符,就再按单换行符拆成 500+100 两部分,最后把 100 字符的片段和下一段拼接,保证重叠 50 字符。
2.向量数据库 (Vector DB):RAG 的大脑,存储语义信息。我们最常用的工具是Milvus,它是专为海量向量数据的高效存储、索引与相似度检索设计的工具,是AI应用中实现非结构化数据(文本、图像、音频等)语义匹配的核心组件。
一、核心原理
向量输入:将非结构化数据通过模型(如BERT、CLIP)转为固定维度的稠密向量。
索引优化:提供FLAT(暴力检索)、IVF(倒排索引)、HNSW(图索引)等多种索引算法,在检索速度与精度间做平衡。
相似度查询:支持欧氏距离、余弦相似度等多种度量方式,快速召回与目标向量最相似的结果集。
二、核心优势
高性能:支持万亿级向量的毫秒级查询,单节点可处理百万级向量,分布式部署可线性扩容。
云原生架构:存储与计算分离,组件无状态,适配Kubernetes,支持弹性伸缩与高可用部署。
混合查询能力:支持向量相似度 + 标量过滤(如时间、标签、权限),满足复杂业务的多条件检索需求。
生态友好提供Python/Java/Go等多语言SDK,无缝集成LangChain、Hugging Face等主流AI框架。
Embedding 模型:翻译官,把人类语言转成机器理解的数学向量。Embedding(嵌入) 是将离散、高维的对象(如文本、图像、音频)映射为低维、稠密的实数向量的过程,这些向量能保留原始对象的语义或特征关联,是连接非结构化数据与机器学习/AI模型的核心桥梁。详细的Word embedding讲解请翻阅本公众号之前的文章。
核心特点与价值
降维与稠密化:把原本高维稀疏的表示(比如文本的one-hot编码)压缩成低维稠密向量,大幅降低计算成本。
语义保留:语义相似的对象,对应的Embedding向量在空间中的距离也更近。例如“猫咪”和“小猫”的向量距离,会远小于“猫咪”和“汽车”。
跨模态兼容:通过特定模型(如CLIP),可以将文本和图像映射到同一向量空间,实现“以文搜图”“以图搜文”。
常见生成方式
• 文本Embedding:用预训练模型(如BERT、Sentence-BERT、text-embedding-ada-002)直接生成句子/段落的向量。
• 图像Embedding:用CNN模型(如ResNet)或多模态模型(如CLIP)提取图像特征向量。
• 自监督训练:通过对比学习等方式,让模型自主学习到更具区分度的Embedding。
举个简单的例子:
假设我们用一个 3维向量 来表示句子的 embedding,向量的三个维度分别代表「动物属性」「体型大小」「情感倾向」,数值越接近 1 表示特征越明显:
• 句子1:柯基是可爱的小型犬 → embedding 向量:[0.95, 0.3, 0.9]
• 句子2:小短腿柯基很讨人喜欢 → embedding 向量:[0.92, 0.28, 0.91]
• 句子3:金毛是大型犬 → embedding 向量:[0.9, 0.85, 0.6]
• 句子4:今天天气很好 → embedding 向量:[0.05, 0.1, 0.7]
embedding之后我们就计算不同语句之间的余弦相似度:
• 句子1和句子2的相似度 接近 0.98(语义几乎一致)
• 句子1和句子3的相似度 约 0.7(同属犬类但体型不同)
• 句子1和句子4的相似度 仅 0.1(完全无关)
这就是 embedding 的核心作用:把文字的语义转化为可计算的向量,语义越近,向量距离越近。
- LLM (大模型):发声器官,负责阅读、理解并组织语言。LLM 是 Large Language Model(大语言模型) 的缩写,指基于海量文本数据训练、具备理解和生成人类语言能力的深度学习模型。
它的核心逻辑和特点如下:
核心原理:基于Transformer架构,通过自监督学习(如预测下一个词)从海量语料中学习语言规律、知识和逻辑,能实现上下文理解和连贯文本生成。
核心能力:覆盖文本生成、翻译、摘要、问答、代码编写等多种任务,无需针对单一任务重新训练(即零样本/少样本学习)。
典型代表:通用类有GPT系列、Claude、文心一言、通义千问;开源类有Llama、Falcon、ChatGLM等。
局限性:存在幻觉(生成错误信息)、上下文长度限制、对复杂逻辑推理支持有限等问题,常需结合外部知识库或工具(如LangChain+Milvus)弥补短板。
六、 总结
RAG 是大模型从“聊天机器人”进化为“专业助手”的必经之路。
它通过“外部知识检索 + 大模型逻辑推理”**的组合模式,有效解决了大模型实时性差、专业领域# AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。
掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2026最新大模型全套学习资源》,包括2026最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题、AI产品经理入门到精通等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
4. 大模型项目实战
学以致用,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!
这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】
知识匮乏、容易胡言乱语的难题。目前市面上的企业知识库、AI 搜索(如 Perplexity, 秘塔搜索)底层全都是 RAG 技术。