官方在线demo: https://chat.lmsys.org/
 Github项目代码:https://github.com/lm-sys/FastChat
 官方博客:Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90% ChatGPT Quality
 模型下载: https://huggingface.co/lmsys/vicuna-7b-v1.5 | 所有的模型
 解读:量子位科技报道 | | 知乎陈城南 || GPT的一生
 相关-斯坦福羊驼模型 Alpaca: A Strong, Replicable Instruction-Following Model
一、简介
1.1 什么是Vicuna(小羊驼)? (类似GPT4的开源聊天机器人)
Vicuna(音标 vɪˈkjuːnə ,小羊驼、骆马)
 是 基于LLaMA的指令**微调**模型 (类似GPT的文本生成模型)
 LLaMA: 是基础大语言模型,用大量质量一般的互联网文本数据训练,与GPT3 、PaLM类似
 与Stanford Alpaca (ælˈpækə,又叫羊驼)的关系: 都是对LLaMa的微调,但是Vicuna数据集质量更高性能更好,参照Alpaca的训练
Vicuna 用ShareGPT网站的用户分享的7w条ChatGPT对话记录,对 LLaMA进行监督质量微调训练(Supervised Finturning),性能超越了LLaMa和Stanford Alpaca,达到了与ChatGPT相似的水平。
 
1.1.2 性能对比
使用GPT4做裁判,设置问题,进行验证和评分

1.2 GPT相关概念 ?
下面内容来源: https://karpathy.ai/stateofgpt.pdf
1.2.1 GPT的4个阶段:
预训练(Pretraining): 基础大语言模型,用大量质量一般的互联网文本数据无监督训练,典型代表是GPT3 、PaLM,LLaMA:
 有监督的精调(SFT, Supervised Finetuning): 人工精心设计问答
 奖励建模(RM,Reward Modeling)
 强化学习(RL,Reinforcement Learning): 典型代表是chatgpt Claude.

1.2.2 什么是token? (字符切分的最小单位,1 token ~= 0.75 of word)
将单词切分为
 
二 、本地部署
https://juejin.cn/post/7341593721100386344