LEARNING DYNAMICS OF LLM FINETUNING【论文阅读笔记】

LEARNING DYNAMICS OF LLM FINETUNING

一句话总结

作者将LLM的学习动力机制拆解成AKG三项,并分别观察了SFT和DPO训练过程中​​正梯度信号​​和​​负梯度信号​​的变化及其带来的影响,并得到以下结论:

  1. ​​SFT通过梯度相似性间接提升无关回答置信度​​;
  2. ​​DPO负梯度回传会引发confidence(softmax score) 向模型训练前confidence最高的token聚集:DPO中正样本与 负样本之间的margin虽然在增大,但正样本的confidence上涨幅度没有训练前模型最中意的答案的confidence涨得快

吐槽一下,这篇非常不适合LLM伴读和粗读,因为符号多,符号的描述写的很松散,图表的讲解非常碎(一张图的解释可能会横跨两个subsection),我开始用LLM伴读给我弄的非常混乱,自己粗读发现跳过一两段可能一个符号什么意思就不知道了。最后老老实实一行一行读。虽然作者的工作非常详实,但是……只能说这种写法不坑老实人吧。

↓↓↓这里先补充一下Learning Dynamic的分析逻辑↓↓

学习动力机制(Learning Dynamic)指什么?

Learning Dynamic,简单来说,就是研究每次模型经过一个batch的数据训练后,参数发生了变化,这个变化如何影响模型的表现。具体来说,哪些方面变好了?哪些方面变差了?

用来描述哪些方面变好,哪些方面变差的工具就是先做一个观察数据集,这个数据集是静态的。

观察一个batch的训练后,观察数据集里的<哪些样本>的预测结果有<什么样>的变化,就是研究Learning Dynamic。

为了衔接论文里的公式,这里把上面学习动力机制研究的公式写出来

第一步:定义,参数更新对特定样本的输出的影响
f ( x ; θ ) = π ( z ( x ; θ ) ) f(x;θ)=π(z(x;θ)) f(x;θ)=π(z(x;θ)) π π π是最后一层的softmax函数, x o x_o xo指的是观察集的样本。
—>参数更新 Δ θ Δθ Δθ 会导致输入 x x x的输出变化是
Δ f ( x o ; θ ) ≈ ∇ θ f ( x o ; θ ) ⋅ Δ θ Δf(x_o;θ)≈∇_θf(x_o;θ)⋅Δθ Δf(xo;θ)θf(xo;θ)Δθ

第二步:展开 第一项

∇ θ f ( x o ; θ ) = ∂ π ( z ( x o ; θ ) ) ∂ z ⏟ softmax雅可比  J π ( z ) ⋅ ∇ θ z ( x o ; θ ) ⏟ logits的梯度 \nabla_\theta f(x_o;\theta) = \underbrace{\frac{\partial \pi(z(x_o;\theta))}{\partial z}}_{\text{softmax雅可比 } J_\pi(z)} \cdot \underbrace{\nabla_\theta z(x_o;\theta)}_{\text{logits的梯度}} θf(xo;θ)=softmax雅可比 Jπ(z) zπ(z(xo;θ))logits的梯度 θz(xo;θ)

第三步: Δ θ Δθ Δθ 把梯度替换成 当批次样本 { x 1 , . . . , x i , . . . x n } \{x_1,...,x_i,...x_n\} {x1,...,xi,...xn} 带来的梯度

Δ θ Δθ Δθ 替换成 Δ θ = − η ∇ θ L ( θ ) Δθ=−η∇ _{θ}L(θ) Δθ=ηθL(θ) 即学习率乘以梯度

∇ θ L ( θ ) = 1 n ∑ i = 1 n ( π ( z ( x i ; θ ) ) − y i ) ⊤ ⋅ ∇ θ z ( x i ; θ ) ⏟ 通过链式法则: ∂ L ∂ z ⋅ ∂ z ∂ θ \nabla_\theta L(\theta) = \frac{1}{n} \sum_{i=1}^n \underbrace{\left( \pi(z(x_i;\theta)) - y_i \right)^\top \cdot \nabla_\theta z(x_i;\theta)}_{\text{通过链式法则:} \frac{\partial L}{\partial z} \cdot \frac{\partial z}{\partial \theta}} θL(θ)=n1i=1n通过链式法则:zLθz (π(z(xi;θ))yi)θz(xi;θ)

第四步:两个展开式带回源式
Δ f ( x ; θ ) ≈ − η n ∑ i = 1 n [ J π ( z ( x ; θ ) ) ⋅ ∇ θ z ( x ; θ ) ] ⋅ [ ( π ( z ( x i ; θ ) ) − y i ) ⊤ ⋅ ∇ θ z ( x i ; θ ) ] \Delta f(x;\theta) \approx -\frac{\eta}{n} \sum_{i=1}^n \left[ J_\pi(z(x;\theta)) \cdot \nabla_\theta z(x;\theta) \right] \cdot \left[ \left( \pi(z(x_i;\theta)) - y_i \right)^\top \cdot \nabla_\theta z(x_i;\theta) \right] Δf(x;θ)nηi=1n[Jπ(z(x;θ))θz(x;θ)][(π(z(xi;θ))yi)θz(xi;θ)]
第五步:把gradient乘积写成NTK项
Δ f ( x ; θ ) ≈ − η n J π ( z ( x ; θ ) ) ∑ i = 1 n ⟨ ∇ θ z ( x ; θ ) , ∇ θ z ( x i ; θ ) ⟩ ⏟ NTK项  K ( x , x i ) ⋅ ( π ( z ( x i ; θ ) ) − y i ) Δf(x;θ) ≈ -\frac{η}{n} J_π(z(x;θ)) \sum_{i=1}^n \underbrace{\left\langle \nabla_θ z(x;θ), \nabla_θ z(x_i;θ) \right\rangle}_{\text{NTK项 } \mathbf{K}(x, x_i)} \cdot \left( π(z(x_i;θ)) - y_i \right) Δf(x;θ)nηJπ(z(x;θ))i=1nNTK K(x,xi) θz(x;θ),θz(xi;θ)(π(z(xi;θ))yi)
最终
Δ f ( x o ; θ ) ≈ − η n ⋅ J π ( z ( x o ; θ ) ) ⏟ softmax非线性效应 ⋅ ∑ i = 1 n K ( x o , x i ) ⏟ 样本相关性 ⋅ ( π ( z ( x i ; θ ) ) − y i ) ⏟ 训练样本误差 \Delta f(x_o;\theta) \approx -\frac{\eta}{n} \cdot \underbrace{J_\pi(z(x_o;\theta))}_{\text{softmax非线性效应}} \cdot \sum_{i=1}^n \underbrace{\mathbf{K}(x_o, x_i)}_{\text{样本相关性}} \cdot \underbrace{\left( \pi(z(x_i;\theta)) - y_i \right)}_{\text{训练样本误差}} Δf(xo;θ)nηsoftmax非线性效应 Jπ(z(xo;θ))i=1n样本相关性 K(xo,xi)训练样本误差 (π(z(xi;θ))yi)
最终这个式子里面的第一项、第二项和第三项分别对应了文章公式3的 AKG。
其中K的部分,代表了在函数空间中的样本相关性(不是两个样本乍看之下像不像,而是通过梯度核(NTK)映射之后像不像。文章在分析SFT时会一直用这个角度
G是训练样本误差带来的影响,这个在DPO分析中还会被拆成正负两项(因为DPO用的是margin)

关键细节与结论

1. G项给SFT带来的是训练Token的confidence上升

这里的confidence指的是Token的输出概率(softmax之后的score)
在这里插入图片描述
看上图中左侧第一张图,灰色是本步骤之前的这个样本的词表上的所有Score的曲线。蓝色就是这一步训练之后,词表上所有词的Score的变化。
这是很符合直觉的,也是论文的前菜.(但是这张图特别不好,把后面要说的东西的分析也放这儿了,看着很乱。大概是因为投稿篇幅的关系,作者压进来了)

2. SFT中 出现在训练集里的y,会在挂羊头卖狗肉的情况下也很自信

在这里插入图片描述
文中figure3的这张图,展示的是
π ( y u + ∣ x u ) π(y_{u^+}|x_u) π(yu+xu) -虚线, π ( y j ∣ x u ) π(y_{j}|x_u) π(yjxu)-蓝色线, 和 π ( y t e s t + ∣ x u ) π(y_{test^+}|x_u) π(ytest+xu)-橙色线 在训练过程中的变化。( π π π是softmax函数,这三条线都对应的是模型分)
其中 π ( y u + ∣ x u ) π(y_{u^+}|x_u) π(yu+xu) 就是训练集中样本A 对应的答案A的概率;
π ( y j ∣ x u ) π(y_{j}|x_u) π(yjxu)是训练集中样本A作为context(或者说prompt),后面接样本B的正确答案y_j的时候的score
π ( y t e s t + ∣ x u ) π(y_{test^+}|x_u) π(ytest+xu) 是训练集中样本A作为context,后面接测试集中某个样本的正确答案的时候的score。
如果按照我们的希望🔽

给定样本A的prompt,样本B的正确答案作为output的时候,这个答案是错的,他的confidence不应该上涨。
但在作者的实验记录下,这一数值上涨了。这就是作者认为SFT中一部分幻觉的来源

3. K项给SFT带来的是意思相近和格式相近的答案的confidence的上升

作者在分析的时候使用的是DPO数据集(Antropic-HH 和UltraFeedback),尽管他在训练SFT的时候仅适用了 DPO数据集中的prefer样本 y u + y_{u^+} yu+,但在分析中他同时分析了less prefer(负样本) y u − y_{u^-} yu
下图中, y u + y_{u^+} yu+ 是DPO样本集中<正样本>
y u − y_{u^-} yu 是DPO样本集中<负样本>
y g p t s + y_{gpts^+} ygpts+ 是用GPT针对DPO样本集中<正样本>做的同意改写样本
y g p t s − y_{gpts^-} ygpts 是用GPT针对DPO样本集中<负样本>做的同意改写样本
y h u m y_{hum} yhum 是随机的一个句子(跟训练样本无关)
y j ≠ u + y_{{j≠u}^+} yj=u+ 是训练集中另一个样本的<正样本>
y t e s t + y_{{test}^+} ytest+ 是测试集中某个样本的<正样本>
y r n d y_{{rnd}} yrnd 是随机英文词组成的字符串(连句子都不是)
在这里插入图片描述
基于以上符号意义,观察上图,蓝色部分confidence上涨,橙色就是下降。上图中左侧多个列都显示,每训练25步 [ x u ; y u ] [x_u;y_u] [xu;yu]就观察一次,发现一些语义或者格式相似( y g p t s + y_{gpts^+} ygpts+)的样本的confidence也上涨了。
同时乱序的字符串( y h u m y_{hum} yhum y r n d y_{rnd} yrnd)训练的时候,其他有正常语义的答案的confidence都会降低。因为,用K来衡量的距离跟这些乱序的答案的距离是很大的,Learning Dynamic的角度上看这些confidence也确实应该下降。
》最炸裂的其实是这个图的最后一列 DPO这列,这列引入的是下面一个结论

4. DPO中的负梯度会给所有未被训练的答案打负分

作者实验中发现,如果下图左1所示,在用DPO训练很多个epoch的过程中,根据训练样本正确答案改写的正样本 y g p t s + y_{gpts^+} ygpts+ (语义相同)和 y g p t f + y_{gptf^+} ygptf+ (格式相同)的confidence都在持续下降。
这是与我们的直觉相反的。
在这里插入图片描述
同时,上图左2显示,不仅DPO中正样本的改写样本的confidence在持续下滑,负样本的confidence也在持续下滑(仔细看数轴,这组斜率更大)
看上图的左4,在训练中的正样本和负样本的confidence的变化是:正样本的confidence先上涨后下滑,到第四个epoch,连正样本的confidence都比训练前要低了;而负样本的confidence全程咔咔下跌。
那正负样本的confidence都跌了,谁涨了呢?(毕竟是用softmax转换过的score,有人跌就有人涨)
答:看第左5,图中的黑线是模型在DPO之前(如果按照RL的说法,可以说是reference model)最prefer的答案的概率。

整个训练过程,reference model中概率最高的token的概率涨的最猛,比训练的正样本y还猛。

5. 这种错位的虹吸效应的源头是DPO的负梯度影响

文中的大部分拆解都沿用了经典的拆分方案。DPO上做了一个变化,把G分成了正负两部分。
在这里插入图片描述
这里有个比较讨厌的东西 χ u − χ^-_u χu 这个符号其实是附录中下面高亮部分的意思,就是 x u x_u xu是一样的,y不一样。这么表示其实有点讨厌,一来是符号不在公式附近(在附录B),二来这么写其实挺容易让人误解的。
在这里插入图片描述
前面这种奇怪的现象主要来自于负梯度的回传,也就是 G − G^- G的部分。
在附录中,作者还展示了reference model对 y u + y_{u^+} yu+分布形状不同的时候 ,DPO的负梯度带来的影响差别。
在这里插入图片描述
上面这个分析有个需要注意的点,就是这个DPO是off-policy的(虽然我们说DPO的时候通常就是off-policy的),即完全是静态的样本集,正样本和负样本都不是通过play逐步变化的。

那如果是on-policy的,也就是随着模型训练,概率分布有变化的时候(或者 y u + = y u ∗ y_{u^+}=y_{u^*} yu+=yu y u − = y u ∗ y_{u^-}=y_{u^*} yu=yu u ∗ u^* u指的就是reference model最中意的答案。)负梯度带来的影响是什么样的?
灰线是训练前,蓝线是训练后
在这里插入图片描述
看图的第三行,在原先分布是有几个特殊token的概率较高的情况下, y u − y_{u^-} yu直接作用到reference模型概率最高的token上时,其他概率相对较高的token的概率被直接抬起来很多。
看图的第四行,在原先分布是有几个特殊token的概率较高的情况下, y u − y_{u^-} yu直接作用到reference模型概率很低的token时,原先概率最高的token的概率被大大提升了。而不是所有概率高的token的概率都提升了,而是效用集中到一个token上。

评价

多于1个epoch问题就会逐渐凸显

在作者原文的大部分实验图中,都能看到,尽管DPO带来的挤压效应在多个epoch之后就显得非常病态。在实际训练过程中,其实也是这样的,不管是SFT还是DPO,在已知–>“全参数微调可以让模型在一个epoch之内完成记忆”<–这个前提下,训练超过1个epoch都要非常小心。而且在准备样本的过程中也要考虑,样本实际重复的情况来算实际epoch数。

定点制作DPO数据效果会很好

我这里提供的是论文作者论述以外,一个自己之前实践上的经验:制作两个只有关键知识点不同,其他描述完全相同的样本,比如“上海迪士尼上午9点开园”和“上海迪士尼上午10点开园”,这个会很大程度上提高模型的知识矫正(更新)效率。比unlearning还快。

完全静态的DPO样本集,会很快打乱SFT中已经训练好的模式

同样是跟作者的认知比较像的,如果先训练SFT把想要的模式注入到LLM里,然后用DPO来训,前面SFT的胜利成果可能在很小的样本量下就不行了。原因就在于SFT注入的本身就是一个模型原来并不prefer的格式。而且注入的点可能覆盖面并不够大(小样本的时候)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/76516.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Mac 下载 PicGo 的踩坑指南

Mac 下载 PicGo 的踩坑指南 一、安装问题 下载地址&#xff1a;https://github.com/Molunerfinn/PicGo/releases 下载之后直接安装即可&#xff0c;此时打开会报错&#xff1a;Picgo.app 文件已损坏&#xff0c;您应该将它移到废纸篓。 这是因为 macOS 为了保护用户不受恶意…

Element UI 设置 el-table-column 宽度 width 为百分比无效

问题描述&#xff1a; 想要每列宽度不同&#xff0c;不想使用 px 固定值&#xff0c;将 width 设置成百分比&#xff0c;但是每一列还是很窄 原因&#xff1a; el-table 组件会被 vue 解析成 html&#xff0c;vue 直接把百分号去掉把数值当做列宽来呈现&#xff0c;所以&#x…

第五篇:Python面向对象编程(OOP)深度教程

1. 类与对象 1.1 基本概念 ​​类​​是创建对象的蓝图,定义了对象的​​属性​​(数据)和​​方法​​(行为)。​​对象​​是类的实例化实体,每个对象拥有独立的属性值和共享的类方法 ​​示例​​:定义Dog类 class Dog:species = "Canis familiaris" …

【数据结构】2.顺序表实现通讯录

文章目录 一、通讯录的要求二、通讯录的具体实现0、 准备工作1、通讯录的初始化2、通讯录的销毁3、通讯录的展示4、通讯录添加数据5、通讯录删除数据6、通讯录的查找7、通讯录的修改8、保存通讯录数据到文件9、读取文件内容到通讯录 三、 通讯录的完整实现 一、通讯录的要求 通…

程序化广告行业(79/89):技术革新与行业发展脉络梳理

程序化广告行业&#xff08;79/89&#xff09;&#xff1a;技术革新与行业发展脉络梳理 大家好&#xff01;一直以来&#xff0c;我都热衷于在技术领域不断探索&#xff0c;也深知知识共享对于进步的重要性。写这篇博客&#xff0c;就是希望能和大家一起深入研究程序化广告行业…

【C++游戏引擎开发】第9篇:数学计算库GLM(线性代数)、CGAL(几何计算)的安装与使用指南

写在前面 两天都没手搓实现可用的凸包生成算法相关的代码&#xff0c;自觉无法手搓相关数学库&#xff0c;遂改为使用成熟数学库。 一、GLM库安装与介绍 1.1 vcpkg安装GLM 跨平台C包管理利器vcpkg完全指南 在PowerShell中执行命令&#xff1a; vcpkg install glm# 集成到系…

python文件打包无法导入ultralytics模块

&#x1f4a5;打包的 .exe 闪退了&#xff1f;别慌&#xff01;教你逐步排查 PyInstaller 打包的所有错误&#xff01; &#x1f6e0; 运行 .exe 查看报错信息✅ 正确姿势&#xff1a; ⚠ importlib 动态导入导致打包失败❓什么是动态导入&#xff1f;✅ 解决方式&#xff1a; …

【React框架】什么是 Vite?如何使用vite自动生成react的目录?

什么是 Vite&#xff1f; Vite 是一个基于原生 ES Modules 开发的前端构建工具&#xff0c;由 Evan You&#xff08;Vue 的作者&#xff09;开发。它最大的特点包括&#xff1a; 极速冷启动&#xff1a;因为利用了浏览器原生的 ES Modules&#xff0c;所以在开发时无需等待整…

深入解读 React 纯组件(PureComponent)

什么是纯组件&#xff1f; React 的纯组件(PureComponent)是 React.Component 的一个变体&#xff0c;它通过浅比较(shallow comparison)props 和 state 来自动实现 shouldComponentUpdate() 方法&#xff0c;从而优化性能。 核心特点 1. 自动浅比较&#xff1a; PureCompon…

JavaScript数组方法:`some()`的全面解析与应用

文章目录 JavaScript数组方法&#xff1a;some()的全面解析与应用一、some()方法的基本概念语法参数说明返回值 二、some()方法的核心特点三、基础用法示例示例1&#xff1a;检查数组中是否有大于10的元素示例2&#xff1a;检查字符串数组中是否包含特定子串 四、实际应用场景1…

判断两个 IP 地址是否在同一子网 C

#include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> // 将点分十进制的 IP 地址转换为 32 位无符号整数 unsigned int ip_to_uint(const char *ip) { struct in_addr addr; if (inet_pton(AF_INET, ip, &am…

React 组件样式

在这里插入图片描述 分为行内和css文件控制 行内 通过CSS中类名文件控制

尚硅谷Java第 4、5 章IDEA,数组

第 4 章&#xff1a;IDEA的使用 第 5 章&#xff1a;数组 5.1 数组的概述 数组(Array)&#xff1a;就可以理解为多个数据的组合。 程序中的容器&#xff1a;数组、集合框架&#xff08;List、Set、Map&#xff09;。 数组中的概念&#xff1a; 数组名 下标&#xff08;或索…

SQL注入基本原理靶场实现

↵ 一、前言 SQL注入漏洞(SQL injection)是WEB层面高危的漏洞之一&#xff0c;也是常见的攻击方式。 二、本质 1、什么是SQL注入 SQL 注入是一种利用应用程序对用户输入数据过滤不严格&#xff0c;将恶意 SQL 代码插入到正常 SQL 语句中&#xff0c;从而操控数据库查询逻辑的…

图像预处理(OpenCV)

1 图像翻转(图像镜像旋转) 在OpenCV中&#xff0c;图片的镜像旋转是以图像的中心为原点进行镜像翻转的。 cv2.flip(img,flipcode) 参数 img: 要翻转的图像 flipcode: 指定翻转类型的标志 flipcode0: 垂直翻转&#xff0c;图片像素点沿x轴翻转 flipcode>0: 水平翻转&…

PCDN收益高低的关键因素

PCDN&#xff08;P2P内容分发网络&#xff09;收益好的三个主要关键因素是&#xff1a;硬件配置与性能、网络环境与质量、业务调度与策略。 1. 硬件配置与性能 设备稳定性与兼容性 PCDN节点需长时间稳定运行&#xff0c;硬件性能直接影响收益。例如&#xff0c;使用高性能CPU、…

『生成内容溯源系统』详解

生成内容溯源系统详解 1. 定义与核心目标 生成内容溯源系统&#xff08;Generative Content Provenance System&#xff09;是指能够追踪AI生成内容的来源、生成过程、版权归属及修改历史的技术体系。其核心目标是&#xff1a; 验证真实性&#xff1a;证明内容由特定AI模型生…

conda如何安装和运行jupyter

在Conda环境中安装和运行Jupyter Notebook是一项常见且实用的任务&#xff0c;特别是在数据科学和机器学习项目中。以下是使用Conda安装和运行Jupyter Notebook的步骤&#xff1a; 安装Jupyter Notebook 首先&#xff0c;确保你的Conda是最新的。打开终端或Anaconda Prompt&a…

QML之Flickable(滚动区域)

Flickable 是 QML 中用于创建可滚动区域的基础组件&#xff0c;它比 ScrollView 提供更底层的控制&#xff0c;适合需要自定义滚动行为的场景。 基本用法 qml import QtQuick 2.15Flickable {width: 200height: 200contentWidth: 400 // 内容总宽度contentHeight: 800 // 内…

【NumPy科学计算引擎:从基础操作到高性能实践】

目录 前言&#xff1a;技术背景与价值当前技术痛点解决方案概述目标读者说明 一、技术原理剖析关键技术模块说明技术选型对比 二、实战演示环境配置核心代码实现运行结果验证 三、性能对比测试方法论量化数据对比结果分析 四、最佳实践推荐方案 ✅常见错误 ❌调试技巧 五、应用…