【值得收藏】深入浅出大模型工作原理:从文本输入到语言生成的技术解析

文章详细介绍了大语言模型的工作流程,包括文本输入的分词与嵌入、Transformer架构与自注意力机制、位置编码、输出生成过程,以及长文本处理和工程实践指导。文章解释了如何将用户问题转换为模型可处理的矩阵,模型如何通过自注意力机制理解上下文,以及如何将计算结果翻译回人类语言,并提供了优化上下文、控制耗时、多Agent协同等实用策略。

1、输入:从用户提问到模型"看得懂"的矩阵

1.1 输入实际是文本

首先我们要知道的是,输入给到大语言模型的是一个组合文本(称之为上下文),包括:

  • 系统提示词(对应"你是个智能助手,回答时要可爱些"这种)
  • 可用工具列表描述(对应Function Call能力)
  • 历史对话(包括之前的问题和回答)
  • 用户最新提问

如下为目前共识的OpenAI API协议输入示例,这些都将合并作为大模型调用的一次输入(省略了部分工具描述信息,仅做理解):

messages = [ {"role": "system", "content": "你是个智能助手,回答时要可爱些"}, // 系统提示词 {"role": "user", "content": "你好"}, // 历史提问 {"role": "assistant", "content": "你好,有什么能帮到你呀"}, // 历史回答 {"role": "user", "content": "查询下今日天气"}, // 最新提问 ] tools = [{"type":"function","function":{"name":"get_weather","description":"Get current weather information"}}]

敲黑板:这部分需要理解的是输入实际是个文本,并且每次调用大模型都是独立的,能够与用户互动是因为工程上在每次调用时将历史对话加了进去。因此在一轮对话中每次调用时输入的组合文本(即上下文)会越来越长,这点很重要。

1.2 文本如何变成数字:分词与嵌入

理解了输入文本,那么文本如何实际转换为大模型计算时需要的矩阵呢(这里需要知道的是,大模型核心是进行大量的数学运算,主要是矩阵乘法),这里主要是分词和嵌入两步。

分词

相当于把文本"切碎"成更小的单元token。比如:

  • 中文文本中,"北京"可能被切分为1个token,"的"也是1个token
  • 英文,单词"unhappy"可能被拆成"un"和"happy"两个token
  • 每个符号、数字都会单独处理作为一个token

需要注意的是这里分词的规则在不同的大模型里是不一样的,有的模型可能一个汉字平均1 token,有的可能平均要0.5 token。

分词完成后,每个token会通过预训练的词汇表映射为对应的数字ID,可以理解为token对应在词表中的位置,一般大模型对应的词表长度为几万甚至几十万。

嵌入

嵌入过程则更加精妙。模型通过一个可学习的嵌入矩阵,将每个token的数字ID转换为固定维度的向量。比如,ID为100的token可能变成一个512维的向量[0.1, -0.3, ..., 0.8]这些向量不仅包含词汇的语义信息,还能在数学空间中表示词与词之间的关系,举例来说"猫"和"狗"对应的向量在这512维空间里更接近或者说更相似。

如此,输入文本开始先转换为n个token,经过嵌入后转换为n个512维的向量,合并即为n×512的输入矩阵。

敲黑板:这部分需要理解的是文本在给到模型计算之前会转换为token序列,这里对应token的长度n就是文本中“词”的数量,这里n就是最终输入的上下文长度。

1.3 上下文长度的限制

需要注意的是,目前大模型都会对上下文长度有严格限制,当给到的上下文长度超过限制大小时会直接报错(这里是对应DeepSeek V3开源代码的实现),不过大部分工程实践上在累计内容超过上下文窗口时,会自动丢弃最早的数据,保留最新的内容,确保总长度不超过模型的处理能力。

敲黑板:上下文长度有限制,不能无限增加,而且需要注意的是这里上下文长度限制是包含输出长度的,即理论上最大的输入上下文长度为128k - 4k = 124k(以DeepSeek-Chat默认为例),为什么后面会解释。

通过这一系列精密的转换过程,人类的自然语言最终变成了模型能够进行数学计算的矩阵形式,为后续的理解和生成奠定了基础。

2、Transformer架构与自注意力机制:模型如何“理解”上下文

现在我们已经有了一个包含词义的输入矩阵,接下来就要进入大模型的核心计算环节——Transformer架构。这个架构的精髓在于自注意力机制,它让模型能够真正“理解”文本中各个词语之间的复杂关系。

2.1 自注意力:模型如何“聚焦”重要信息

想象一下你阅读一段文字时,大脑会自动关注与当前理解最相关的词语,自注意力机制就是让模型实现类似的能力。在实现上,每个自注意力模块都包含三个不同的权重矩阵:Wq、Wk、Wv,对应的值是通过大量训练得到的。

Q、K、V矩阵:信息的三种角色

每个输入token经过与上述三个不同的权重矩阵相乘,分别生成三个矩阵:

  • Query(Q)矩阵:代表"我想要什么信息",用于主动询问其他token
  • Key(K)矩阵:可以理解为"该token拥有什么信息",用于回应其他token的询问
  • Value(V)矩阵:可以理解为该token的包含内容信息的多少

这三个矩阵可以理解为信息交流的三个角色:Q是提问者,K是应答者,V是实际要传递的内容。有了上述矩阵,接下来会对每个token计算它与之前所有token的关联信息。

  1. 计算注意力分数:用当前token的Query和之前所有token的Key内积计算得到对应注意力分数,可以理解为当前token与之前token在这个注意力模块下的关联程度。分数越高,代表该部分信息越重要。
  2. 生成加权平均输出:最后,用上一步得到的注意力分数作为权重,分别与之前所有token的Value相乘并求和得到最终的注意力信息(注:实际计算要复杂些,这里不做展开),这里可以理解为融合了之前所有序列上下文信息的新的向量。

经过上面的计算后,得到了每个token与上下文关联的信息,这个过程确保了模型的回复是基于整个上下文生成的,而不仅仅是孤立的最新问题。

敲黑板:简单来讲,自注意力机制就是将每个token与之前所有token通过计算得到相关信息,需要着重理解的是最后一个token的注意力信息包含了整个上下文所有信息。

2.2 多头注意力:多角度理解文本

单一注意力机制可能不够全面,因此Transformer采用了多头注意力设计。可以理解为多个相同结构、但不同权重矩阵的自注意力模块共同组成,这些模块并行计算,并在最终输出时合并。

不同注意力头就像不同的“专家”,各自关注文本的不同方面,所有头的计算结果最终拼接在一起,通过线性变换融合成完整的输出。这种设计让模型能够同时从多个角度理解文本,大大增强了表达能力。

2.3 前馈网络层

上面提到了Transformer架构的核心是自注意力模块,但又不止于此,一个完整的Transformer层主要包括多头自注意力层以及前馈网络层(还有别的模块,偏技术细节不影响理解这里不做展开)。

如果说自注意力机制的作用是“聚合信息”——将序列中所有位置的信息通过注意力权重整合到一起,那么前馈网络层的作用就是"加工和提炼这些聚合后的信息"。

您可以将其类比于人类的理解过程:

  • 自注意力层:相当于你听取了一场讨论,了解了每个人(每个词)的观点以及它们之间的关联。
  • 前馈网络层:相当于你回到自己的办公室,独自消化和深入思考刚才听到的所有信息,形成自己更深刻、更抽象的理解。

如此,一个 transformer 层结构可以简略表示为下图:

敲黑板:实际上可以简单理解,通过注意力机制让模型能够学到利用并关联上下文信息,通过前馈网络层让模型能学到特征的进一步提取和转换。

2.4 大模型之“大”

都说大模型,大模型到底大在何处?

参数量

参数量是衡量模型复杂度的核心指标,Transformer架构的大模型通常拥有数百亿甚至数千亿参数,这么多参数都体现在哪?前面介绍了Transformer层包括多头注意力层和前馈网络层,在实际我们使用的大模型中都会对这两部分进行优化调整,同时通过对Transformer层进行堆叠来增加模型的表现力。

以DeepSeek V3为例,其注意力层为潜在多头注意力层(MLA,这个是为了减少缓存的使用,不展开介绍),头数为128,对应有128个自注意力模块,前馈网络层包括257个专家(包括一个共享专家,256个可选专家,这里可以理解为257个前馈网络层并行,这跟多头很类似,区别是这里专家是选择使用的),然后这样的Transformer层在DeepSeek V3中有58层,还有3层无专家的Transformer层,共61层。

其中参数量主要由专家组成,一共14906个专家,每个专家有7168×2048×3 = 44,040,192个参数,一共有6564.6亿个参数,算上其他的参数,总共是6710亿。当然由于DeepSeek的专家是可选的,每次计算只使用256中的8个,实际计算使用的参数约为370亿。

训练量

大模型这么大的参数量,每个参数的取值都是通过一次次训练来逐渐调整的,训练数据要求非常大。同样以DeepSeek V3为例,其预训练阶段就使用了14.8万亿token的数据集进行预训练,需要知道的是,大模型在训练时每条数据都不会只用来训练1次,而是训练多次。

3、输出:从logits到人类语言的“翻译”

经过前两章的介绍,我们已经知道模型如何将用户提问转换为矩阵输入,以及如何通过自注意力机制理解上下文关系。现在,模型手中已经有了一个包含丰富语义信息的“隐藏状态矩阵”(即上面的输出矩阵,可以理解为经过了多层Transformer后,对每个token位置都生成了一个包含所有上下文信息的高维向量),接下来需要完成最关键的一步:将这些抽象的高维向量“翻译”回人类能够理解的自然语言。

3.1 线性层:从隐藏状态到词汇表映射

隐藏状态矩阵中的每个向量都浓缩了对应token的上下文信息,但这些向量仍然处于模型内部的表示空间。为了生成人类可读的文字,模型需要通过线性层将这些向量映射到词汇表空间。

线性层的作用相当于一个"翻译官",它将每个token对应的高维向量转换为一个长度等于词汇表大小的新向量。如果词汇表包含5万个词,那么线性层的输出就是一个5万维的向量,每个维度对应词汇表中一个特定词的可能性得分。因为我们输入时n个token,所以这里会得到n个向量,分别对应该位置下一个词的得分向量,在最终输出时使用最后一个。

3.2 Softmax:将得分转换为概率分布

线性层输出的向量包含的是原始得分(raw scores),这些得分被称为logits。每个logits数组看起来可能像这样:[2.1, -0.3, 1.8, …, 0.02],其中每个数值代表对应词汇的"倾向程度"。

然而,这些logits还不能直接用于选择输出词汇,因为它们的数值范围不确定,而且总和不为1。这时就需要Softmax函数登场:

Softmax的核心作用是将logits转换为标准的概率分布:

  • 将所有logits值映射到0到1之间
  • 确保所有概率值的总和恰好等于1
  • 保持数值间的相对大小关系(得分高的词概率仍然高)

经过Softmax处理后,原来的logits数组变成了类似[0.15, 0.02, 0.25, …, 0.001]的概率分布,每个数值明确表示对应词汇被选中的概率。好的,到这里我们的大模型终于能返回一个词了,具体输出哪个呢,一般是根据上面的概率分布来随机抽取,每个位置的值对应输出词表中这个位置的词的概率。需要注意的是,一般情况这个概率分布会比较集中,即某个词或某几个词的概率很大,其他很小。

3.3 自回归生成:逐词构建完整回答

经过上面那么复杂的计算,我们发现大模型只输出了一个词,那么完整输出对应的后面的词是怎么来的呢。

这里大模型生成文本的过程是自回归的,这意味着模型不是一次性生成整个回答,而是像人类思考一样,一个词一个词地逐步构建:

  1. 初始预测:基于完整的输入上下文,模型预测第一个词的概率分布(即上面的过程)
  2. 词选择:根据概率分布选择一个词(可能是概率最高的词,也有可能是概率低的词)
  3. 迭代扩展:将已生成的词作为新的输入的一部分,预测下一个词
  4. 重复直到结束:持续这个过程,直到生成完整的回答或达到长度限制

这种“滚雪球”式的生成方式确保了前后文的连贯性,每个新词的产生都基于之前所有已生成的内容。

敲黑板:大模型经过Transformer层提取的特征在经过计算后最终输出的是词表中每个词的概率分布,根据相应概率抽取最终输出的词。接下来将生成的词添加到输入后继续上述流程接着预测输出,整体上是一个一个token输出。这也是为什么上下文限制要包括输出长度的原因。

3.4 生成策略:如何从概率中选择词汇

对于概率分布,模型有多种选择策略,一般是按照概率分布进行抽取。在创造性的场景中可能体现为每次的输出结果不同,这对诗词创造等比较有用。但在一些场景中我们希望模型输出的结果更可靠、更稳定,这里有什么方法吗。

目前来说,模型一般会提供两个参数来给用户用以调整,这在我们平时使用的元宝等平台都会开放给用户修改。对应temperature(温度)和top-p(又称核采样),它们协同工作,共同决定了模型在“想象力”与“可靠性”之间的平衡。

  • temperature:调整模型原始输出的概率分布(logits)的"尖锐"或"平滑"程度,通过改变概率分布的形状来控制随机性。可以理解为值小于1时原本概率高的调整后会更高,进而更容易被选择,等于0时就变成了只选择概率最高的词
  • top-p:像一个动态的候选词筛选器,从概率最高的词开始累加,仅从累积概率达到阈值p的最小候选集合中采样。可以理解为在抽取时只从概率较高的前几个词中抽取

在实际应用中可以结合使用场景来调整参数以达到我们期望的性能,这里不做展开。

注:这里在DeepSeek V3的代码中只看到了temperature参数的支持。

4、位置编码和长文本外推

到这里我们已经谈得上大致理解了大模型从输入到输出的基本工作原理,不过在介绍中刻意忽略了一个细节,斟酌再三还是决定单独介绍这部分,因为这个非常重要!

4.1 位置编码

上面我们提到了Transformer架构核心在自注意力机制,通过计算每个token和其他token的相关性得分来获取相关信息,其中核心计算是token之间的矩阵运算,然而这种计算方式丢失了位置信息,要知道"我咬狗"和"狗咬我"这种相同词组成的短句含义是相差甚远的。因此引入了位置编码的概念,将位置信息添加在输入矩阵中,一般分为绝对位置编码和相对位置编码。

  1. 绝对位置编码:给每个位置一个"唯一身份证",Transformer架构原版的实现。核心是通过编码的方式将位置信息添加到每个token的输入向量中,缺点是当输入长度超过模型训练长度时,模型没见过对应位置编码,会导致性能急剧下降。
  2. 相对位置编码:关注的相对距离而不是绝对距离。在计算注意力分数时,注入两个词之间的相对距离信息。

这里只介绍目前主流方案RoPE(旋转位置编码),核心思想是将每个token的位置信息转换为对应高维空间的角度信息,对应每个位置会对应一个旋转角度,在注意力得分计算时会将两个token对应的query和key矩阵进行对应角度的旋转,这样在计算注意力得分的结果会与他们的相对距离有关。具体原理这里不介绍了,不打职业不用学,需要知道的是在编码具体实现上通过设计使得计算注意力时具备远程衰减的特性,即距离越长,得分越低,这个特性使得模型天然能够更关注附近的信息。

相比于绝对编码,相对编码中模型学到的是相对位置关系,即使输入长度超过模型训练长度时,模型也能复用训练中学到的相对位置规律。

敲黑板:核心是通过巧妙的数学编码将相对位置信息加在了自注意力得分的计算上,有个很重要的细节是,在编码上通过设计使得相对位置越远的token间注意力得分会相对较低。

4.2 长文本外推

但是,即使相对编码比绝对编码在长文本时更具优势,但是其学到的相对位置关系的距离也是有限的,当输入长度过长时,其性能也会下降,这时候就需要外推策略。

为了保证模型对长输入文本也能有个较高的性能,研究人员相继提出了多种方法。这里简单介绍:

一种是基于插值的方式,基本思想是对于训练时的0-4k这样的距离,在实际使用时将0-32k压缩到0-4k的表示(模型更熟悉这个范围的距离)。当然这个方式不够灵活,目前业界较优的方案是YaRN,可以理解为对不同长度的相对距离进行不同的插值策略。

一种是基于选择策略的方式。基本思想是对超长文本,在计算时不再计算与全局所有token的注意力关系,避免超长文本计算的耗时过长。比较典型的方案是滑动窗口计算的方式,每个词只关注固定窗口长度中相邻词的信息,也有通过某些策略从全局中挑选部分区间进行计算,整体方案是有损的,不过通过设计尽量降低对模型效果的影响。

4.3 长文本训练

也许你会疑惑如果大模型学到了相对距离的概念,那理论上距离变长也应该可以的才对。这就要提到前面说的大模型的大在训练量了,模型的性能直接取决于训练量,在4k长度下训练的模型即使学会了相对位置的概念,到了32k甚至更长的距离时表现也会变差,因为缺乏训练。(这可以类比于,在人机模式打了很多把游戏,你的能力有了显著提升,并且已经学会了技能的使用和对线的技巧,但接下来让你跟真人高玩对线,用的技能和英雄还是那些,但就是打不过)

既然如此,为什么不直接用长文本进行训练呢?这里主要有两个原因:

  1. 计算复杂度与成本爆炸:基于前面的自注意力机制计算的原理,我们知道每个token都要和上下文中前面的所有token进行注意力计算,因此上下文越长,计算量和中间结果就会越多,这直接与长度的平方成正比。因此在大训练量的需求下,直接对长文本进行训练的资源和时间消耗都是非常大的。
  2. 训练数据的稀缺性和质量难题:即使是互联网时代,长文本的训练数据仍然本身较少,大部分还是短文。并且高质量的可训练数据更为稀缺。

短文本预训练 + 长文本微调(主流方法)

目前主流方式都是在短文本下进行大量训练得到基础模型,然后通过少量的长文本数据进行微调。

  • 阶段一(基础预训练):在大量高质量的较短文本(如2K、4K、8K)上完成核心的语言模型预训练。这个阶段让模型学会基本的语言能力、常识和推理逻辑。成本相对可控。
  • 阶段二(长度扩展微调):使用外推技术,在相对较少的长文本数据上对模型进行微调。这里DeepSeek V3是先扩展至32k,然后扩展至128k。

为什么有效? 因为模型在阶段一已经学会了"如何思考"。阶段二只是教它"如何在更长的上下文中运用这种思考能力"。这比从零开始学习所有东西要高效得多。

注:大模型的发展日新月异,目前有些模型已经支持了 1M 长度上下文了

敲黑板:针对长文本的支持,主流方式仍是采用大量短文本数据进行预训练的方式,并在此基础上通过少量长文本的训练来提高模型对长文本输入的支持。这里重点是什么,重点在于即使做了非常多的工作来增加长文本的支持,但是不可否认的是训练的稀缺以及在外推方式上的有损设计,都会导致在长文本下模型的表现会劣于短文本。

5、实践与思考

到这里你已经大致了解大语言模型的工作原理和实现细节,那么知道了这些对我们实践应用有哪些指导意义呢?

5.1 多模态输入的实现原理

已知使用的DeepSeek V3输入是文本,那猜测这里大概率的工程实现是对图片做图像识别,得到一个识别结果的文本,将这个文本和问题一起给到大模型作为输入。不理解的是,按理来说图像识别算法应该已经比较成熟了,准确率应该很高才对。自己测试后确实也还是不对,不过根据思考过程可以发现确实有额外的输入文本给到大模型(大约23颗的计数)。

这里也测试了混元(已知混元是多模态的大模型,在输入时是支持输入图像的,简单理解应该是通过编码器将图片转换成跟token类似的输入向量给到Transformer架构),结果也是不对,而且看思考过程很难看出来是真的用了图片特征token还是单纯的在瞎说。已知大模型输出是一个一个通过概率输出的,因此在系统提示词没有严格限制的情况很容易出现编瞎话的问题。

这里想说的是,像DeepSeek这类大语言模型目前主要还是以输入文本为主,对于非文本的需求大概率是通过特殊的工程方案来实现的。

5.2 通过上下文限制提高系统稳定性

我们知道模型在短文本(一般是4k)进行了大量训练,理论上这个区间模型效果和稳定性都是最高的,那么在工程实践中应尽量避免长上下文的情况。以Agent为例,关键就是他的prompt(系统提示词)和可用工具列表描述,这部分不应过多(提示词一般对应规则,工具描述对应能力)。

并且过多的规则和可用工具容易导致模型出现混乱,最终输出的格式不符合预期,如下示例实际模型是想输出的调用工具的能力,但是由于输出时格式不对,导致解析失败。

这只是不稳定的变现的一种,有时还会出现循环输出的情况如下图,看完文章你应该能理解这种问题出现的原因(输出是概率预测)

5.3 耗时影响

每次调用的耗时由什么决定呢,以上理解我们知道第一个token的输出需要将所有输入上下文全部计算后得到,这个耗时完全取决于上下文长度,越长则耗时越高(并且是与长度的平方成正相关),随后依次输出,每个token输出的间隔耗时取决于上下文长度(这里会利用之前计算过的缓存,但仍需要将新的token与上下文所有token进行计算),所有token输出总耗时取决于输出的字数。因此一次调用耗时的曲线近似可以理解为如下图所示,其中t1与上下文长度平方成正比,直线斜率k与上下文长度成正比。

知道了耗时组成,那么在实践中如果想每次调用耗时降低,我们能做什么呢?

  1. 还是减少上下文长度,因为总耗时与长度平方成正比
  2. 限制模型单词输出的长度,这里一般可以通过prompt规则或者接口参数限制,因为很多时候大模型会有啰里啰嗦的特性!
5.4 如何有效减少上下文

实践中我们会发现很多时候模型不总会按预期输出,因此我们会增加很多的规则来提醒模型怎么做,当我们就是有这么多要求怎么办呢,也许你需要拆分了。

通过多Agent协同的方式将你期望的功能进行拆分,每个子Agent对应一部分能力,通过一个主Agent进行统筹规划。

这里主Agent只需要知道每个子Agent能做什么,而不需要知道其对应prompt的具体规则,因此其上下文可以做到尽量的缩小,耗时也会有效降低。在使用时主Agent只需要将用户提问拆分为不同子任务交由子Agent执行即可。同时每个子Agent的功能相对简单,因此上下文也不会太长。

这种方案会相对增加调用大模型的次数,但是通过减少上下文又降低了每次调用上下文的长度,在调用耗时与上下文平方成正比的情况下,整体耗时反而会缩短。比如原12k的上下文,现在变成了4个3k上下文的子Agent,简单计算下:12² = 144,四个子Agent对应 4 × 3² = 36。

5.5 历史对话

历史对话过多也会导致上下文的膨胀,不过很多时候用户的问题并不需要历史信息做参考,或者历史信息里包含的有用信息很少,用户很多时候单纯是懒得清理上下文。

因此工程上可以通过一些方式减少历史对话,一种可行的方案可能是,将历史对话存储起来,在用户提问时,先检索有没有相关记录,并仅将相关记录附在历史对话里。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

适用人群

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1200444.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

北京蔡司小乐圆配镜老牌公司推荐,看哪家产品价格实惠?

问题1:为什么给孩子选蔡司小乐圆配镜,一定要找专业企业?普通眼镜店和专业企业的差距在哪里? 给孩子选蔡司小乐圆配镜,专业企业和普通眼镜店的核心差距,直接关系到近视防控的效果甚至孩子的眼部健康。蔡司小乐圆作…

【深度学习】YOLO 目标检测论文 7 天阅读计划(入门→进阶→前沿)

本计划适配零基础 / 有 PythonCNN 基础的学习者,以YOLO 系列核心论文为主、目标检测经典文献为辅,每日明确阅读目标、核心重点、源码对应、思考问题,兼顾理论理解与工程落地,读完可掌握 YOLO 核心设计逻辑与目标检测关键技术。 通…

【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室🍊个人信条:格物致知,完整Matlab代码及仿真咨询…

【基于Zernike矩的良性和恶性肿块的分类】应用于乳腺癌诊断中的快速相反权重学习规则附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室🍊个人信条:格物致知,完整Matlab代码及仿真咨询…

平舆驾校培训学校供应商哪家好,平舆驾校值得考虑

在驾培行业蓬勃发展的当下,选择一家靠谱的驾校训练机构,直接关系到学员能否高效掌握驾驶技能、顺利拿证并保障后续驾驶安全。面对市场上鱼龙混杂的驾校培训学校供应商,学员往往因信息不对称陷入选择困境——有的驾校…

收藏!2026 AI应用开发工程师高薪指南:普通人也能入局的黄金赛道

当前职场就业市场的“冰火两重天”态势愈发鲜明:传统开发岗位需求持续萎缩,薪资增长陷入停滞,部分企业甚至出现缩编减岗的情况;反观AI应用开发工程师岗位,却迎来“缺口爆炸式增长”,薪资水平一路飙升&#…

ubuntu22安装cuda11.8和cudnn8

简单直接没废话在ubuntu22上安装cuda11.8和cudnn8 OK,装 CUDA 11.8 是个非常稳的选择 👍 (尤其对 YOLO / TensorRT / PyTorch / 多路视频推理 来说) 我直接给你一套 Ubuntu 22.04 上“不翻车”的标准安装流程,一步一…

openvoice报错averaged_perceptron_tagger_eng not found.

问题原因&#xff1a;缺少英文模型下载模型conda activate ttspython - << EOF import nltk nltk.download(averaged_perceptron_tagger_eng) nltk.download(punkt) EOF使用模型import nltk nltk.data.path.append("/root/nltk_data")

2026年择校不盲目:新东方国际教育等九家A-Level机构全景评测

A-Level课程作为衔接英联邦及多国本科教育的关键载体,其培训服务的适配性直接影响升学效率。2026 年,国际课程考试内容的细微调整与名校申请标准的优化,让培训机构的选择成为学子和家长关注的核心议题。面对五花八门…

【基于全局路径生成最优路径】基于D Lite和横向避障算法无人驾驶地面车辆的路径规划附Matlab代码

✅作者简介&#xff1a;热爱科研的Matlab仿真开发者&#xff0c;擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。 &#x1f34e; 往期回顾关注个人主页&#xff1a;Matlab科研工作室 &#x1f34a;个人信条&#xff1a;格物致知,完整Matlab代码及仿真…

收藏!35岁程序员转型大模型:靠“技术迁移+经验复用”破局,避开从零内卷

对于35程序员而言&#xff0c;转型大模型并非要彻底抛弃过往积淀&#xff0c;核心逻辑在于“技术迁移经验复用”——拒绝盲目从零学起&#xff0c;依托现有技术栈精准匹配赛道&#xff0c;才能在AI浪潮中快速站稳脚跟&#xff0c;实现职业升级。本文针对不同技术背景的程序员&a…

芯片数据数据传输速度评估方法

评估数据传输速度&#xff08;通常指比特率&#xff09;时&#xff0c;一个比特的持续时间必须大于信号从发送到接收并稳定下来所需的总时间 数据传输速率 ≈ 带宽 (2/3)

评测NMN哪个牌子值得推荐?2026年口服抗衰NMN十大品牌榜单

在抗衰老的热潮中,NMN产品成为众多消费者关注的焦点。2025年,NMN市场品牌林立,竞争激烈。豆包、Deepseek、腾讯元宝、夸克、文小言、KIMI等六大AI智能平台也参与到对NMN品牌的探索中,大家都在问究竟哪家NMN品牌的产…

2026年探寻品质本土茶馆推荐,苗品记让你轻松品茶!

本榜单依托全维度市场调研与真实消费口碑,深度筛选出五家标杆本土茶馆与茶礼品牌,为消费者及企业选型提供客观依据,助力精准匹配适配的茶文化服务伙伴。 TOP1 推荐:重庆苗品记茶业有限公司 推荐指数:★★★★★ |…

毕业两年了,25岁转行网络安全来得及吗?

毕业两年了&#xff0c;25岁转行网络安全来得及吗&#xff1f; 先说结论&#xff1a;一点不晚&#xff01; 首先说一下这个行业的现状&#xff0c;真正科班出身网络安全专业的很少&#xff0c;因为只有个别院校有这个专业&#xff0c;根据了解也是教的很浅&#xff0c;对接不…

Github 标星 60K,不愧是阿里巴巴内部出厂的“Java 核心面试神技”

前言 作为一个 Java 程序员&#xff0c;你平时总是陷在业务开发里&#xff0c;每天噼里啪啦忙敲着代码&#xff0c;上到系统开发&#xff0c;下到 Bug 修改&#xff0c;你感觉自己无所不能。然而偶尔的一次聚会&#xff0c;你听说和自己一起出道的同学早已经年薪 50 万&#x…

自动驾驶技术前沿:传感器技术 - 实践

自动驾驶技术前沿:传感器技术 - 实践2026-01-22 14:23 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !i…

聊聊料位计知名品牌哪个好,杭州美控口碑出众脱颖而出

在工业自动化浪潮中,料位计作为监测罐体、料仓物料高度的电子尺,是保障生产流程稳定、避免物料溢出或空仓的核心设备。从关系民生的粮食仓储到精密的制药原料管控,从繁忙的化工反应釜到新能源电池的原料存储,料位计…

基于LAN、USB、串口、GPIB对多种测试测量设备进行程控,实现对激光终端产品功能性能指标的自动测试

激光终端产品自动测试系统 1&#xff09;系统简介 激光终端自动化测试系统主要用于完成对激光终端产品的测试工作&#xff0c;基于LAN、USB、串口、GPIB对多种测试测量设备进行程控,实现对激光终端产品功能性能指标的自动测试&#xff0c;减少或脱离人工干预&#xff0c;自动…

脱裤子放屁 - 你们讨厌这样的页面吗?

前言 平时在逛掘金和少数派等网站的时候&#xff0c;经常有跳转外链的场景&#xff0c;此时基本都会被中转到一个官方提供的提示页面。 掘金&#xff1a; 知乎&#xff1a; 少数派&#xff1a; 这种官方脱裤子放屁的行为实在令人恼火。是、是、是、我当然知道这么做有很多…