一、关卡任务
-  观看本关卡视频后,写一篇关于书生大模型全链路开源开放体系的笔记。 
-  视频链接:【书生·浦语大模型全链路开源体系】 https://www.bilibili.com/video/BV1Vx421X72D/?share_source=copy_web 
二、实验过程
书生·浦语大模型全链路开源体系,上海AI Lab,陈恺老师

大模型已经成为发展AGI的重要途径,传统的专用模型是针对特定任务,一个模型解决一个问题,比如ImageNet竞赛中涌现的分类模型,AlphaFold等等。
而通用模型旨在利用一个模型完成All任务,对应多种模态。比如GPT4通过Prompt实现。
书生浦语大模型开源历程:从2023年6月7日的InternLM,到2024年1月17日的InternLM2开源,实际上2024 年7月3日,已经发布了InternLM2.5,有3大亮点:
-  推理能力大幅提升,领先于国内外同量级开源模型,在部分维度上甚至超越十倍量级的 Llama3-70B; 
-  支持 1M tokens 上下文,能够处理百万字长文; 
-  具有强大的自主规划和工具调用能力,比如可以针对复杂问题,搜索上百个网页并进行整合分析。 
Github仓库:https://github.com/InternLM/InternLM
InternLM2的体系:面向不同的使用需求,采用不同的规格,每个规格包括了3个模型版本。
从7B-20B,包括了Base、LM2和Chat版本。Base属于高质量、可塑性强的基准模型,适合在深度领域适配;LM2在多个能力方向强化,保持了很好的通用语言能力,更加推荐使用;Chat经过SFT、RLHF,面相对话交互进行了优化,具有很强的指令遵循、共情聊天和调用工具的能力。

回归语言建模的本质:采用新一代数据清洗过滤技术,包括多维度数据价值评估、高质量语料驱动的数据集和有针对的数据补齐。

主要亮点:
- 20W Token超长上下文
- 推理、数学和代码能力比肩GPT
- 精准指令遵循
- 可靠支持工具、复杂智能体搭建
- 强大的内生计算能力,加入了代码解释

性能全方面提升,比肩GPT3.5

使用例子:

工具调用能力升级

代码解释器可以求解一些积分等大学级别数学题目

从模型到应用典型流程

开放的高质量语料数据:书生万卷CC,基于互联网的开放内容,来源多样,安全性高

预训练优化工具,可以支持主流生态,开箱即用

微调Xtuner,增量续训和有监督的微调

最低8GB显存的显卡就可以微调

司南大模型评分体系

CompassRank:中立全面的性能榜单

评测工具链

部署工具:LMDeploy

全链条体系


