全世界有3.14 % 的人已经关注了
数据与算法之美
矩阵奇异值的物理意义是什么?
或者说,奇异值形象一点的意义是什么?
把m*n矩阵看作从m维空间到n维空间的一个线性映射,
是否:
各奇异向量就是坐标轴,奇异值就是对应坐标的系数?
矩阵的奇异值是一个数学意义上的概念,一般是由奇异值分解(Singular Value Decomposition,简称SVD分解)得到。如果要问奇异值表示什么物理意义,那么就必须考虑在不同的实际工程应用中奇异值所对应的含义。下面先尽量避开严格的数学符号推导,直观的从一张图片出发,让我们来看看奇异值代表什么意义。
这是女神上野树里(Ueno Juri)的一张照片,像素为高度450*宽度333。暂停舔屏先(痴汉脸)

我们都知道,图片实际上对应着一个矩阵,矩阵的大小就是像素大小,比如这张图对应的矩阵阶数就是450*333,矩阵上每个元素的数值对应着像素值。我们记这个像素矩阵为
现在我们对矩阵 进行奇异值分解。直观上,奇异值分解将矩阵分解成若干个秩一矩阵之和,用公式表示就是:
进行奇异值分解。直观上,奇异值分解将矩阵分解成若干个秩一矩阵之和,用公式表示就是:

其中等式右边每一项前的系数 就是奇异值,
就是奇异值, 和
和 分别表示列向量,秩一矩阵的意思是矩阵秩为1。注意到每一项
分别表示列向量,秩一矩阵的意思是矩阵秩为1。注意到每一项 都是秩为1的矩阵。我们假定奇异值满足
都是秩为1的矩阵。我们假定奇异值满足 (奇异值大于0是个重要的性质,但这里先别在意),如果不满足的话重新排列顺序即可,这无非是编号顺序的问题。
 (奇异值大于0是个重要的性质,但这里先别在意),如果不满足的话重新排列顺序即可,这无非是编号顺序的问题。
既然奇异值有从大到小排列的顺序,我们自然要问,如果只保留大的奇异值,舍去较小的奇异值,这样(1)式里的等式自然不再成立,那会得到怎样的矩阵——也就是图像?
令 ,这只保留(1)中等式右边第一项,然后作图:
,这只保留(1)中等式右边第一项,然后作图:

结果就是完全看不清是啥……我们试着多增加几项进来:
 ,再作图
,再作图

隐约可以辨别这是短发伽椰子的脸……但还是很模糊,毕竟我们只取了5个奇异值而已。下面我们取20个奇异值试试,也就是(1)式等式右边取前20项构成

虽然还有些马赛克般的模糊,但我们总算能辨别出这是Juri酱的脸。当我们取到(1)式等式右边前50项时:

我们得到和原图差别不大的图像。也就是说当 从1不断增大时,
从1不断增大时, 不断的逼近
不断的逼近 。让我们回到公式
。让我们回到公式

矩阵 表示一个450*333的矩阵,需要保存
表示一个450*333的矩阵,需要保存 个元素的值。等式右边
个元素的值。等式右边 和
和 分别是450*1和333*1的向量,每一项有
分别是450*1和333*1的向量,每一项有 元素。如果我们要存储很多高清的图片,而又受限于存储空间的限制,在尽可能保证图像可被识别的精度的前提下,我们可以保留奇异值较大的若干项,舍去奇异值较小的项即可。例如在上面的例子中,如果我们只保留奇异值分解的前50项,则需要存储的元素为
元素。如果我们要存储很多高清的图片,而又受限于存储空间的限制,在尽可能保证图像可被识别的精度的前提下,我们可以保留奇异值较大的若干项,舍去奇异值较小的项即可。例如在上面的例子中,如果我们只保留奇异值分解的前50项,则需要存储的元素为 ,和存储原始矩阵
,和存储原始矩阵 相比,存储量仅为后者的26%。
相比,存储量仅为后者的26%。
下面可以回答题主的问题:奇异值往往对应着矩阵中隐含的重要信息,且重要性和奇异值大小正相关。每个矩阵 都可以表示为一系列秩为1的“小矩阵”之和,而奇异值则衡量了这些“小矩阵”对于
都可以表示为一系列秩为1的“小矩阵”之和,而奇异值则衡量了这些“小矩阵”对于 的权重。
的权重。
在图像处理领域,奇异值不仅可以应用在数据压缩上,还可以对图像去噪。如果一副图像包含噪声,我们有理由相信那些较小的奇异值就是由于噪声引起的。当我们强行令这些较小的奇异值为0时,就可以去除图片中的噪声。如下是一张25*15的图像(本例来源于[1])

但往往我们只能得到如下带有噪声的图像(和无噪声图像相比,下图的部分白格子中带有灰色):

通过奇异值分解,我们发现矩阵的奇异值从大到小分别为:14.15,4.67,3.00,0.21,……,0.05。除了前3个奇异值较大以外,其余奇异值相比之下都很小。强行令这些小奇异值为0,然后只用前3个奇异值构造新的矩阵,得到

可以明显看出噪声减少了(白格子上灰白相间的图案减少了)。
奇异值分解还广泛的用于主成分分析(Principle Component Analysis,简称PCA)和推荐系统(如Netflex的电影推荐系统)等。在这些应用领域,奇异值也有相应的意义。
考虑题主在问题描述中的叙述:“把m*n矩阵看作从m维空间到n维空间的一个线性映射,是否:各奇异向量就是坐标轴,奇异值就是对应坐标的系数?”我猜测,题主更想知道的是奇异值在数学上的几何含义,而非应用中的物理意义。下面简单介绍一下奇异值的几何含义,主要参考文献是美国数学协会网站上的文章[1]。
下面的讨论需要一点点线性代数的知识。线性代数中最让人印象深刻的一点是,要将矩阵和空间中的线性变换视为同样的事物。比如对角矩阵 作用在任何一个向量上
作用在任何一个向量上

其几何意义为 在水平方向上拉伸3倍,
在水平方向上拉伸3倍, 方向保持不变的线性变换。换言之对角矩阵起到作用是将水平垂直网格作水平拉伸(或者反射后水平拉伸)的线性变换。
方向保持不变的线性变换。换言之对角矩阵起到作用是将水平垂直网格作水平拉伸(或者反射后水平拉伸)的线性变换。


如果 不是对角矩阵,而是一个对称矩阵
不是对角矩阵,而是一个对称矩阵

那么,我们也总可以找到一组网格线,使得矩阵作用在该网格上仅仅表现为(反射)拉伸变换,而没有旋转变换


考虑更一般的非对称矩阵

很遗憾,此时我们再也找不到一组网格,使得矩阵作用在该网格上之后只有拉伸变换(找不到背后的数学原因是对一般非对称矩阵无法保证在实数域上可对角化,不明白也不要在意)。我们退求其次,找一组网格,使得矩阵作用在该网格上之后允许有拉伸变换和旋转变换,但要保证变换后的网格依旧互相垂直。这是可以做到的


下面我们就可以自然过渡到奇异值分解的引入。奇异值分解的几何含义为:对于任何的一个矩阵,我们要找到一组两两正交单位向量序列,使得矩阵作用在此向量序列上后得到新的向量序列保持两两正交。下面我们要说明的是,奇异值的几何含义为:这组变换后的新的向量序列的长度。


当矩阵 作用在正交单位向量
作用在正交单位向量 和
和 上之后,得到
上之后,得到 和
和 也是正交的。令
也是正交的。令
和 分别是和方向上的单位向量,即
分别是和方向上的单位向量,即 ,
, ,写在一起就是
,写在一起就是 ,整理得:
,整理得:

这样就得到矩阵 的奇异值分解。奇异值
的奇异值分解。奇异值 和
和 分别是和的长度。很容易可以把结论推广到一般
分别是和的长度。很容易可以把结论推广到一般 维情形。
维情形。
下面给出一个更简洁更直观的奇异值的几何意义(参见[2])。先来一段线性代数的推导,不想看也可以略过,直接看黑体字几何意义部分:
假设矩阵 的奇异值分解为
的奇异值分解为

其中 是二维平面的向量。根据奇异值分解的性质,
是二维平面的向量。根据奇异值分解的性质, 线性无关,
线性无关, 线性无关。那么对二维平面上任意的向量,都可以表示为:
线性无关。那么对二维平面上任意的向量,都可以表示为:
。
当 作用在
作用在 上时,
上时,

令 ,我们可以得出结论:如果
,我们可以得出结论:如果 是在单位圆
是在单位圆 上,那么
上,那么 正好在椭圆
正好在椭圆 上。这表明:矩阵
上。这表明:矩阵 将二维平面中单位圆变换成椭圆,而两个奇异值正好是椭圆的两个半轴长,长轴所在的直线是
将二维平面中单位圆变换成椭圆,而两个奇异值正好是椭圆的两个半轴长,长轴所在的直线是 ,短轴所在的直线是
,短轴所在的直线是 。
。
推广到一般情形:一般矩阵 将单位球
将单位球 变换为超椭球面
变换为超椭球面 ,那么矩阵
,那么矩阵 的每个奇异值恰好就是超椭球的每条半轴长度。
的每个奇异值恰好就是超椭球的每条半轴长度。

参考文献:
[1] We Recommend a Singular Value Decomposition(Feature Column from the AMS)
[2] 徐树方,《矩阵计算的理论与方法》,北京大学出版社。
via:郑宁(知乎)
版权归原作者所有,转载仅供学习使用,不用于任何商业用途,如有侵权请留言联系删除,感谢合作。
数据与算法之美
用数据解决不可能

长按扫码关注