文章目录
- 一、大模型一些概念介绍
- 二、市面上大模型对比
- 三、大模型使用安全选型
- 四、使用大模型的方式(一问一答、Agent+ Function Calling、RAG、Fine-tuning
- 五、大模型使用路线
- 九、补充说明
- 1)注意力机制讲解
 
 
一、大模型一些概念介绍
-  1)产品和大模型的区别(产品通过调用大模型来具备的能力) 
  
-  2)AGI定义 
 概念:一切问题可以用AI解决
-  3)大模型通俗原理 
 根据上文,猜测下一个词
  
-  4)大模型测试代码 
from openai import OpenAIfrom dotenv import load_dotenv,find_dotenv
_ = load_dotenv(find_dotenv())client = OpenAI()
prompt = "今天我很"
# prompt = "下班了,今天我很"
# prompt = "放学了,今天我很"
# prompt = "AGI 实现了,今天我很"response = client.completions.create(model      = "gpt-3.5-turbo-instruct",propt      = prompt,max_tokens = 512,stream     = True
)for chunk in response:print(chunk.choices[0].text,end='')二、市面上大模型对比

三、大模型使用安全选型

四、使用大模型的方式(一问一答、Agent+ Function Calling、RAG、Fine-tuning
)
 ①一问一答
 
 ②Agent+ Function Calling
 
 
 ③RAG
 
 
 ④Fine-tuning
 努力记住考试内容,长期记住,活学活用(在基础大模型之上加一层微调,该百年模型的权重)
 
五、大模型使用路线
1)是否要补充知识?
 是—使用RAG
 2)是否要对接其他系统
 是—Function Calling
 3)值得尝试微调?
 是—用旧数据做fine-tune,有几大好处
 ①提高大模型的稳定性
 ②用户量大,降低推理的成本
 ③提高大模型生成速度
九、补充说明
1)注意力机制讲解
-  文本举例讲解 
  
-  有没有注意力机制的区别图 
  
①RNN会有一个隐藏状态,是AI用来理解一个中文词义的作用,可以看到JE和SUIS通过神经网络变成了一个向量
- 注意力网络的实现
  
 注意力网络做的事:
 ①每个同学h(x)都听一遍
 ②同时还要找出其重点
 非注意网络做的事:
 ①线性传播一个人只能传递给下一个人
- 注意力网络的方式
 上下文的向量:
c2 = a21h1+a22h2+a23h3 
①x(数字)是输入的语言,通过RNN神经网络变成一个状态h1,
 ②α是输入的加权平均(attention weight)
 ③c是每一个词权重的重点