SVD 是怎么被“想出来”的?——从一个朴素问题出发
你有没有见过这样的公式?
看起来挺简洁,对吧?但当你翻开教材,发现这背后藏着一堆正交矩阵、奇异值、特征向量……瞬间头大。
我每次看到 SVD,都忍不住想:这玩意儿到底是怎么被“想出来”的?是某个数学家喝多了咖啡,突然梦见上帝说:“听着,所有矩阵都能拆成三步走……”
今天,我们不背公式,不套定理。我们要还原 SVD 的“发明”过程——从一个最朴素的问题出发:一个矩阵,到底对向量做了什么?
一、矩阵左乘 = 沿坐标轴的伸缩(从最简单例子开始)
我们从一个最简单的 \(2 \times 2\) 对角矩阵入手:
取任意向量 \(\mathbf{x} = \begin{bmatrix} x_1 \\ x_2 \end{bmatrix}\),左乘后得到:
这意味着:输入向量在标准基方向 \(\mathbf{e}_1 = (1,0)^T\) 和 \(\mathbf{e}_2 = (0,1)^T\) 上被独立拉伸——\(x\) 方向放大 3 倍,\(y\) 方向不变。
这个例子揭示了矩阵左乘的本质:线性变换 = 对输入空间的各个方向进行伸缩(可能还混合)。
而对角矩阵之所以“干净”,是因为它恰好以标准基为伸缩方向,没有混合。
但现实中的矩阵通常不是对角的。那么问题来了:非对角矩阵是否也能找到自己的“伸缩方向”?
二、EVD:方阵的“主伸缩方向”与秩的含义
考虑一个对称方阵:
我们寻找那些被 \(A\) 作用后只伸缩、不转向的向量 \(\mathbf{v}\),即满足:
这就是特征方程,其中 \(\lambda\) 是特征值,\(\mathbf{v}\) 是对应的特征向量。
对上面的 \(A\),解得两组解:
- \(\lambda_1 = 3\),对应 \(\mathbf{v}_1 = \begin{bmatrix} 1 \\ 1 \end{bmatrix}\)
- \(\lambda_2 = 1\),对应 \(\mathbf{v}_2 = \begin{bmatrix} 1 \\ -1 \end{bmatrix}\)
将这两个向量单位化(归一化),得到标准正交基:
把它们拼成正交矩阵 \(Q = [\mathbf{q}_1, \mathbf{q}_2]\),则 \(Q^T Q = I\)。
由于 \(A \mathbf{q}_i = \lambda_i \mathbf{q}_i\) 对每个列都成立,我们可以把所有等式合写为:
其中
这就是特征值分解(EVD)。它告诉我们:任何可对角化的方阵,本质上只是在一组特定正交方向上做独立伸缩。
满秩 vs 低秩:不只是数学,更是能力
一个 \(n \times n\) 矩阵的“能力”取决于它有多少个非零特征值。
- 
满秩矩阵:比如 \[A = \begin{bmatrix} 2 & 1 \\ 1 & 2 \end{bmatrix} \]有两个非零特征值(3 和 1),秩为 2。它能对任意方向的输入产生非零输出——换句话说,它可以“操控”整个 2D 空间。 
- 
低秩矩阵:比如 \[B = \begin{bmatrix} 1 & 1 \\ 1 & 1 \end{bmatrix} \]特征值为 2 和 0,秩为 1。它只能在方向 \(\begin{bmatrix}1 \\ 1\end{bmatrix}\) 上拉伸,而在垂直方向 \(\begin{bmatrix}1 \\ -1\end{bmatrix}\) 上输出恒为零。无论你输入什么,结果永远落在一条直线上。 
在深度学习中,这种差异至关重要:
- 满秩变换(如初始权重)具有最大表达能力,能响应任意输入变化;
- 低秩更新(如微调时的 \(\Delta W\))则表明:模型真正需要调整的,往往只是少数几个“敏感方向”。
这正是 LoRA(Low-Rank Adaptation)有效的核心原因:我们不需要改动整个高维权重矩阵,只需在低维子空间中微调,就能高效适配新任务。
但 EVD 有一个致命限制:它只适用于方阵。一旦矩阵是“长方形”的,比如 \(M \in \mathbb{R}^{n \times m}\) 且 \(n \ne m\),特征方程 \(M \mathbf{v} = \lambda \mathbf{v}\) 就因维度不匹配而失去意义。
于是,我们必须回答一个更一般的问题:非方阵如何描述其“伸缩行为”?
三、SVD:为非方阵找到“跨空间的主方向”
面对 \(M \in \mathbb{R}^{n \times m}\),我们放弃“输入输出方向相同”的执念,转而问:
是否存在输入空间的一组标准正交基 \(\{\mathbf{v}_1, \dots, \mathbf{v}_m\}\) 和输出空间的一组标准正交基 \(\{\mathbf{u}_1, \dots, \mathbf{u}_n\}\),使得
\[M \mathbf{v}_i = \sigma_i \mathbf{u}_i \quad (i = 1, \dots, r = \min(n,m)) \]
这个等式是我们希望达成的目标:第 \(i\) 个输入主方向 \(\mathbf{v}_i\),只激发第 \(i\) 个输出主方向 \(\mathbf{u}_i\),放大 \(\sigma_i\) 倍。
我们按拉伸强度从大到小排序:\(\sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_r \geq 0\)。
更一般的表示是
后面我们可以知道\(V\)是正交矩阵,所以上式两边都右乘\(V^T\),就可以得到常见的 SVD 的形式了
3.1 以最强方向 \(\sigma_1\) 为例
回归正题,我们该如何计算 \(\sigma_i\)呢?我们以最强方向,即 \(\sigma_1\)为最大值的情况为例。
假设存在单位向量 \(\mathbf{v}_1\) 和 \(\mathbf{u}_1\),使得:
两边取范数,得:
因此,\(\sigma_1\) 就是 \(M\) 在单位输入下能产生的最大输出长度。
换句话说,\(\sigma_1\) 是如下优化问题的解:
由于范数非负,等价于最大化其平方:
3.2 计算奇异值和右奇异矩阵 V
记 \(A = M^T M\)。矩阵 \(A\) 是 \(m \times m\) 实对称矩阵,且对任意 \(\mathbf{v}\) 有 \(\mathbf{v}^T A \mathbf{v} \geq 0\),故 \(A\) 半正定。记 \(A\) 的特征值按非增序排列为 \(\lambda_1 \geq \lambda_2 \geq \cdots \geq \lambda_m \geq 0\),对应的标准正交特征向量为 \(\mathbf{q}_1, \dots, \mathbf{q}_m\),即
瑞利商的极值性质表明(原理推导见本节末尾):
且最大值在 \(\mathbf{v} = \mathbf{q}_1\) 处取得。更一般地,对 \(k = 1, \dots, m\),
在 \(\mathbf{v} = \mathbf{q}_k\) 处取得。说人话就是,第k 大的值就是\(\lambda_k\),而且是在\(v=q_k\)时可以得到。
所以
则 \(\sigma_i=\sqrt{\lambda_i}, \sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_m \geq 0\),且
至此,我们成功求解了矩阵 V和奇异值矩阵\(\Sigma\)
瑞利商性质:对实对称矩阵 \(A\),定义其瑞利商为
\[R_A(\mathbf{c}) = \frac{\mathbf{c}^T A \mathbf{c}}{\mathbf{c}^T \mathbf{c}}, \quad \mathbf{c} \ne \mathbf{0}. \]当 \(\|\mathbf{c}\| = 1\) 时,\(R_A(\mathbf{c}) = \mathbf{c}^T A \mathbf{c}\)。
设 \(A\) 的特征值按非增序排列为 \(\lambda_1 \geq \lambda_2 \geq \cdots \geq \lambda_m \geq 0\),对应的标准正交特征向量为 \(\mathbf{q}_1, \dots, \mathbf{q}_m\),即\[A \mathbf{q}_i = \lambda_i \mathbf{q}_i, \quad \mathbf{q}_i^T \mathbf{q}_j = \delta_{ij}. \]瑞利商的极值性质表明:
\[\max_{\|\mathbf{c}\| = 1} \mathbf{c}^T A \mathbf{c} = \lambda_1, \]且最大值在 \(\mathbf{c} = \mathbf{q}_1\) 处取得。更一般地,对 \(k = 1, \dots, m\),
\[\max_{\substack{\|\mathbf{c}\| = 1 \\ \mathbf{c} \perp \mathbf{q}_1, \dots, \mathbf{q}_{k-1}}} \mathbf{c}^T A \mathbf{c} = \lambda_k, \]在 \(\mathbf{c} = \mathbf{q}_k\) 处取得。
因此,令\[\sigma_i = \sqrt{\lambda_i}, \quad \mathbf{c}_i = \mathbf{q}_i, \quad i = 1, \dots, m, \]则 \(\sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_m \geq 0\),且
\[\|M \mathbf{c}_i\|^2 = \mathbf{c}_i^T A \mathbf{c}_i = \lambda_i = \sigma_i^2. \]
3.3 构造左奇异矩阵
令 \(r = \operatorname{rank}(M)\)。由于 \(\operatorname{rank}(M) = \operatorname{rank}(M^T M)\),有 \(\sigma_i > 0\) 当且仅当 \(i \leq r\)。
对每个 \(i = 1, \dots, r\),根据最前面的定义\(M \mathbf{v}_i = \sigma_i \mathbf{u}_i\),我们有
至此就可算出对应的\(\sigma_i,v_i,u_i\)。我们会发现求得的 \(u_i\)也是基坐标,彼此正交:
且
对 \(i \ne j \leq r\),有
故 \(\{\mathbf{u}_1, \dots, \mathbf{u}_r\}\) 是 \(\mathbb{R}^n\) 中的标准正交向量组。
前面计算的\(u_i\)是与\(v_i\)一一对应的,但是当 \(r < n\)时,剩下的\(u_i\)该如何计算呢?我们会发现存在 \(n - r\) 维子空间
在 \(\mathcal{U}_\perp\) 中任取一组标准正交基 \(\{\mathbf{u}_{r+1}, \dots, \mathbf{u}_n\}\),则最终的左奇异矩阵为
为正交矩阵。
3.4 拼装 SVD
令
- \(V = [\mathbf{v}_1, \dots, \mathbf{v}_m] \in \mathbb{R}^{m \times m}\),
- \(\Sigma \in \mathbb{R}^{n \times m}\) 为对角矩阵,其对角元为 \(\sigma_1, \dots, \sigma_r\),其余元素为 0。
由 \(M \mathbf{v}_i = \sigma_i \mathbf{u}_i\) 对 \(i = 1, \dots, r\) 成立,且对 \(i > r\) 有 \(\sigma_i = 0\),可得矩阵等式
由于 \(V\) 正交(\(V^T V = I_m\)),右乘 \(V^T\) 得
结语
SVD 并非凭空定义的数学魔术,而是为了解决“非方阵如何描述伸缩”这一朴素问题,从对角矩阵 → EVD → 跨空间推广,一步步自然推导出的必然结果。
当你再看到 \(M = U \Sigma V^T\),请记住:
它只是在说——先转一下,再拉伸,再转一下。
而这,就是所有线性变换最干净的表达方式。