大模型应用开发
初识大模型
- 认识AI
- 大模型应用
- 部署大模型(ollama部署模型),掌握阿里云百炼平台使用
- 调用大模型,使用http方式调用大模型
- 大模型应用,与传统应用的区别
- 技术方案
- SpringAI
- 基本使用
- 阻塞调用和流式调用大模型
- 会话记忆和会话历史问题
- 多模态、RAG、向量数据库、Prompt Engineer
认识AI
发展阶段
-
规则符号 -> 机器学习 -> 深度学习
-
![image]()
-
机器学习: 基于数据,统计和优化方法训练模型。包括监督学习、无监督学习、强化学习等
-
深度学习:模仿人脑结构和功能使用多层神经元网络处理复杂任务,如卷积神经网络
- 其中自然语言处理(NLP)有一个关键技术叫做Transformer,由多层感知机组成的神经网络模型
-
大模型(LLM)底层都是采用Transformer神经网络模型。如GPT(Generative生成式、Pre-trained预训练、Transformer)
-
![image]()
大模型原理
-
Transformer是由Google在2017年提出的一种神经网络模型,一开始的作用是把它作为机器翻译的核心,底层使用的是注意力机制
- voice-to-text 音频生成文本,或者文本生成音频
- text-to-image 文本生成图片
![image]()
-
而大语言模型LLM对于Transformer是另一种用法推力预测
-
首先是P(Pre-trained),使用大量数据对模型进行预训练
-
然后是T,使用Transformer对输入的一些文本、音频、图片信息尝试进行推理接下来的内容,以概率发布形式出现
-
![image]()
-
最后是G(Generative),持续生成;根据前文推测出接下来的词语后,拼接到前文,再次给大模型处理,推测下一个字,不断重复前面过程,最后生成大段内容(这就是为什么我们跟AI聊天的时候,它生成的内容总是一个字一个字的输出的原因了。)
+
![image]()
-



