网站建设ppt答辩wordpress 自动采集插件

news/2025/9/30 14:28:44/文章来源:
网站建设ppt答辩,wordpress 自动采集插件,网站开发学习课程,网站做词矩阵的特征分解 特征值和特征向量的定义 抄来的#xff1a;奇异值分解 困惑1#xff1a;特征值和特征向量#xff0c;和原矩阵是怎样的关系#xff0c;需要一个栗子进行更具象的认识 困惑2#xff1a;为什么多个特征向量组合成的矩阵#xff0c;可以构成矩阵A的特征分解…矩阵的特征分解 特征值和特征向量的定义 抄来的奇异值分解 困惑1特征值和特征向量和原矩阵是怎样的关系需要一个栗子进行更具象的认识 困惑2为什么多个特征向量组合成的矩阵可以构成矩阵A的特征分解需要推导 困惑3为什么要特征向量标准化 困惑4标准正交基是什么为什么满足 W T W I W^TWI WTWI 为什么。。。。 太多why只能自己来解决吗。。。涕泪横流。。。 先来看看特征值和特征向量 特征值与特征向量的推导 求解特征向量与特征值 A x λ x Axλx Axλxλ是特征值但特征值可能会有多个每个特征值都有对应的特征向量 根据 A − λ E x 0 A-λEx0 A−λEx0而需要x是非零向量则要求A-λE的行列式为0即 ∣ A − λ E ∣ 0 |A-λE|0 ∣A−λE∣0就可以求出多个λ值 分别将λ值代入 ∣ A − λ E ∣ x 0 |A-λE|x0 ∣A−λE∣x0就可以求出对应的特征向量x question:为什么x是非零向量 ∣ A − λ E ∣ 0 |A-λE|0 ∣A−λE∣0的行列式就为0呢而不是 A − λ E 0 A-λE0 A−λE0向量呢 still,why? 毫不避讳地说我大学线性代数是老师给的同情分60分飘过 但我后来有自己学习过的现在也忘个精光了现在还是重新梳理一遍吧省的回头海马体又不争气 非零解与行列式值的关系 首先先从求解矩阵的行列式方法推导出【非零解与行列式值的关系】 求解行列式要从【消元法】求解齐次方程组的权重系数w的过程讲起 w 1 x 11 w 2 x 12 w 3 x 13 0 w_1x_{11}w_2x_{12}w_3x_{13}0 w1​x11​w2​x12​w3​x13​0 式子① w 1 x 21 w 2 x 22 w 3 x 23 0 w_1x_{21}w_2x_{22}w_3x_{23}0 w1​x21​w2​x22​w3​x23​0 式子② w 1 x 31 w 2 x 32 w 3 x 33 0 w_1x_{31}w_2x_{32}w_3x_{33}0 w1​x31​w2​x32​w3​x33​0 式子③ 通过消元法求解 w 1 、 w 2 、 w 3 w_1、w_2、w_3 w1​、w2​、w3​ 式子①保持 w 1 x 11 w 2 x 12 w 3 x 13 0 w_1x_{11}w_2x_{12}w_3x_{13}0 w1​x11​w2​x12​w3​x13​0式子②【数乘】【数加】消去 w 1 w_1 w1​项 数乘 w 1 x 21 x 11 x 21 w 2 x 22 x 11 x 21 w 3 x 23 x 11 x 21 0 w_1x_{21}\frac{x_{11}}{x_{21}}w_2x_{22}\frac{x_{11}}{x_{21}}w_3x_{23}\frac{x_{11}} {x_{21}}0 w1​x21​x21​x11​​w2​x22​x21​x11​​w3​x23​x21​x11​​0数加① 式子② -式子①可得 w 1 ∗ 0 w 2 ( x 22 x 11 x 21 − x 12 ) w 3 ( x 23 x 11 x 21 − x 13 ) 0 w_1*0w_2(x_{22}\frac{x_{11}}{x_{21}}-x_{12})w_3(x_{23}\frac{x_{11}}{x_{21}}-x_{13})0 w1​∗0w2​(x22​x21​x11​​−x12​)w3​(x23​x21​x11​​−x13​)0即简化为 w 1 ∗ 0 w 2 b 2 w 3 b 3 0 w_1*0w_2b_{2}w_3b_30 w1​∗0w2​b2​w3​b3​0 式子③【数乘】【数加】消去 w 1 、 w 2 w_1、w_2 w1​、w2​项 数乘 w 1 x 31 x 11 x 31 w 2 x 32 x 11 x 31 w 3 x 33 x 11 x 31 y 3 x 11 x 31 w_1x_{31}\frac{x_{11}}{x_{31}}w_2x_{32}\frac{x_{11}}{x_{31}}w_3x_{33}\frac{x_{11}}{x_{31}}y_3\frac{x_{11}}{x_{31}} w1​x31​x31​x11​​w2​x32​x31​x11​​w3​x33​x31​x11​​y3​x31​x11​​数加①式子③ -式子①可得 w 1 ∗ 0 w 2 ( x 32 x 11 x 31 − x 12 ) w 3 ( x 33 x 11 x 31 − x 13 ) 0 w_1*0w_2(x_{32}\frac{x_{11}}{x_{31}}-x_{12})w_3(x_{33}\frac{x_{11}}{x_{31}}-x_{13})0 w1​∗0w2​(x32​x31​x11​​−x12​)w3​(x33​x31​x11​​−x13​)0数乘再数加消除 w 2 w2 w2最终可化简为 w 1 ∗ 0 w 2 ∗ 0 w 3 c 3 0 w_1*0w_2*0w_3c_30 w1​∗0w2​∗0w3​c3​0 通过消元法后 稍微整理下列的a\b\c系列都是已知数求出w w 1 a 1 w 2 a 2 w 3 a 3 0 w_1a_1w_2a_2w_3a_30 w1​a1​w2​a2​w3​a3​0 w 1 ∗ 0 w 2 b 2 w 3 b 3 0 w_1*0w_2b_{2}w_3b_30 w1​∗0w2​b2​w3​b3​0 w 1 ∗ 0 w 2 ∗ 0 w 3 c 3 0 w_1*0w_2*0w_3c_30 w1​∗0w2​∗0w3​c3​0 这种情况下方程只有无解零解和非零解三种情况 将系数写成矩阵 ∣ a 1 a 2 a 3 0 b 2 b 3 0 0 c 3 ∣ \begin{vmatrix}a_{1}a_{2}a_{3}\\0b_{2}b_{3}\\00c_{3}\\\end{vmatrix} ​a1​00​a2​b2​0​a3​b3​c3​​ ​要使w1、w2、w3三个中有非零解那就至少需要c30- 我觉得我在放屁。。。应该不是这样的我再衡量衡量 还是偷别的up主教学吧 找个正解的线性代数三行列式的来历 好即使上述关系能体现出行列式不为零则有非齐次线性方程组有非零解 但跟求特征根有什么关系呢 ( A − λ E ) x 0 (A-λE)x0 (A−λE)x0 求特征根是求齐次线性方程组的解但原本求行列式时的方程是非齐次方程组 特征根λ的行列式是 ∣ x 11 − λ x 12 x 13 x 21 x 22 − λ x 23 x 31 x 32 x 33 − λ ∣ \begin{vmatrix}x_{11}-λx_{12}x_{13}\\x_{21}x_{22}-λx_{23}\\x_{31}x_{32}x_{33}-λ\\\end{vmatrix} ​x11​−λx21​x31​​x12​x22​−λx32​​x13​x23​x33​−λ​ ​ 然后我又去翻其他的资料果然。。。前边的分析方向搞错了只能证明非齐次线性方程组的非零解条件是行列式≠0 继续论证齐次线性方程组的非零解条件是行列式0才能说明行列式与特征根的关系 所以求解非零特征根是要求齐次线性方程组对应的系数矩阵的秩小于元素个数也就等同于矩阵的行列式为0。 衍生出新的问题为什么行列式是这样算的行列式的本质到底是什么它的计算有什么代数或几何意义吗 我觉得我需要知道它。。。然后去找到知乎一篇文行列式本质 我粗看一遍感觉这篇文章一定藏着我想要的答案但首先我要能看懂它… 我很绝望行列式的定义是总结归纳出来的吗 它没有个因果关系吗 头疼。。。。。 任意矩阵都可以通过【交换】、【倍乘】、【倍加】的方式变成上三角矩阵且不改变行列式的值 B站up主的俗说矩阵非常好 穿插理解行列式 呜呜呜呜呜呜经过我坚持不懈地在B站摸鱼划水终于在众说纷纭中打通了任督二脉 我好像是懂了懂了n阶行列式的定义为什么是这样的了 先摆上二阶行列式的定义 再摆上三阶行列式的定义 再摆上n阶行列式的定义 I don’t know whyhowwhat 二阶、二阶推导到三阶我还能理解但是怎么推出n阶的 非常头疼看了很多解释有些看起来很专业但我还是不理解 直到回顾到B站的俗说矩阵的行列式按行按列展开 我才有种灵光一闪的开窍哦 首先在行列式的二、三阶定义中可以推导出【数乘】【交换】【数加】三种变换时的行列式变化 【行或列数加】行列式值无改变【行或列数乘】行列式值乘相同数【行或列相邻交换】行列式值为相反值 二阶可以由余子式累加得到 通过拆分成三角形式的行列式可以更好地求的行列式 ∣ a b x 21 x 22 ∣ ∣ a 0 x 21 x 22 ∣ ∣ 0 b x 21 x 22 ∣ \begin{vmatrix}ab\\x_{21}x_{22}\\\end{vmatrix}\begin{vmatrix}a0\\x_{21}x_{22}\\\end{vmatrix}\begin{vmatrix}0b\\x_{21}x_{22}\\\end{vmatrix} ​ax21​​bx22​​ ​ ​ax21​​0x22​​ ​ ​0x21​​bx22​​ ​ 下三角无需更换行列直接求得行列式 ∣ a 0 x 21 x 22 ∣ a ∣ x 22 ∣ a x 22 \begin{vmatrix}a0\\x_{21}x_{22}\\\end{vmatrix}a\begin{vmatrix}x_{22}\\\end{vmatrix}ax_{22} ​ax21​​0x22​​ ​a ​x22​​ ​ax22​ 将行列式通过【变换】变换成下三角后再求行列式 ∣ 0 b x 21 x 22 ∣ − ∣ b 0 x 22 x 21 ∣ − b ∣ x 21 ∣ − b x 21 \begin{vmatrix}0b\\x_{21}x_{22}\\\end{vmatrix}-\begin{vmatrix}b0\\x_{22}x_{21}\\\end{vmatrix}-b\begin{vmatrix}x_{21}\\\end{vmatrix}-bx_{21} ​0x21​​bx22​​ ​− ​bx22​​0x21​​ ​−b ​x21​​ ​−bx21​ 相邻变换行列式值会变为相反值因此变换过程有负号产生 三阶也是如此但三阶是可以由二阶推导来的 ∣ x 11 x 12 x 13 x 21 x 22 x 23 x 31 x 32 x 33 ∣ ∣ x 11 0 0 x 21 x 22 x 23 x 31 x 32 x 33 ∣ ∣ 0 x 12 0 x 21 x 22 x 23 x 31 x 32 x 33 ∣ ∣ 0 0 x 13 x 21 x 22 x 23 x 31 x 32 x 33 ∣ \begin{vmatrix}x_{11}x_{12}x_{13}\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix}\begin{vmatrix}x_{11}00\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix} \begin{vmatrix}0x_{12}0\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix}\begin{vmatrix}00x_{13}\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix} ​x11​x21​x31​​x12​x22​x32​​x13​x23​x33​​ ​ ​x11​x21​x31​​0x22​x32​​0x23​x33​​ ​ ​0x21​x31​​x12​x22​x32​​0x23​x33​​ ​ ​0x21​x31​​0x22​x32​​x13​x23​x33​​ ​ 第一个直接构成下三角 ∣ x 11 0 0 x 21 x 22 x 23 x 31 x 32 x 33 ∣ x 11 ∣ x 22 x 23 x 32 x 33 ∣ x 11 ∣ x 22 0 x 32 x 33 ∣ x 11 ∣ 0 x 23 x 32 x 33 ∣ \begin{vmatrix}x_{11}00\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix}x_{11}\begin{vmatrix}x_{22}x_{23}\\x_{32}x_{33}\\\end{vmatrix}x_{11}\begin{vmatrix}x_{22}0\\x_{32}x_{33}\\\end{vmatrix}x_{11}\begin{vmatrix}0x_{23}\\x_{32}x_{33}\\\end{vmatrix} ​x11​x21​x31​​0x22​x32​​0x23​x33​​ ​x11​ ​x22​x32​​x23​x33​​ ​x11​ ​x22​x32​​0x33​​ ​x11​ ​0x32​​x23​x33​​ ​ x 11 ∣ x 22 0 x 32 x 33 ∣ x 11 ∣ 0 x 23 x 32 x 33 ∣ x 11 ∣ x 22 0 x 32 x 33 ∣ − x 11 ∣ x 23 0 x 33 x 32 ∣ x_{11}\begin{vmatrix}x_{22}0\\x_{32}x_{33}\\\end{vmatrix}x_{11}\begin{vmatrix}0x_{23}\\x_{32}x_{33}\\\end{vmatrix}x_{11}\begin{vmatrix}x_{22}0\\x_{32}x_{33}\\\end{vmatrix}-x_{11}\begin{vmatrix}x_{23}0\\x_{33}x_{32}\\\end{vmatrix} x11​ ​x22​x32​​0x33​​ ​x11​ ​0x32​​x23​x33​​ ​x11​ ​x22​x32​​0x33​​ ​−x11​ ​x23​x33​​0x32​​ ​最终得到 x 11 ∗ x 22 x 33 − x 11 x 23 x 32 x_{11}*x_{22}x_{33}-x_{11}x_{23}x_{32} x11​∗x22​x33​−x11​x23​x32​ 第二个需要变换1次才成为下三角 ∣ 0 x 12 0 x 21 x 22 x 23 x 31 x 32 x 33 ∣ − ∣ x 12 0 0 x 22 x 21 x 23 x 32 x 31 x 33 ∣ − x 12 ∣ x 21 x 23 x 31 x 33 ∣ \begin{vmatrix}0x_{12}0\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix}-\begin{vmatrix}x_{12}00\\x_{22}x_{21}x_{23}\\x_{32}x_{31}x_{33}\\\end{vmatrix}-x_{12}\begin{vmatrix}x_{21}x_{23}\\x_{31}x_{33}\\\end{vmatrix} ​0x21​x31​​x12​x22​x32​​0x23​x33​​ ​− ​x12​x22​x32​​0x21​x31​​0x23​x33​​ ​−x12​ ​x21​x31​​x23​x33​​ ​ − x 12 ∣ x 21 x 23 x 31 x 33 ∣ − x 12 ( ∣ x 21 0 x 31 x 33 ∣ ∣ 0 x 23 x 31 x 33 ∣ ) − x 12 ( ∣ x 21 0 x 31 x 33 ∣ − ∣ x 23 0 x 33 x 31 ∣ ) − x 12 ∗ ( x 21 ∗ ∣ x 33 ∣ − x 23 ∗ ∣ x 31 ∣ ) − x 12 ∗ x 21 ∗ x 33 x 12 ∗ x 23 ∗ x 31 -x_{12}\begin{vmatrix}x_{21}x_{23}\\x_{31}x_{33}\\\end{vmatrix} -x_{12}(\begin{vmatrix}x_{21}0\\x_{31}x_{33}\\\end{vmatrix}\begin{vmatrix}0x_{23}\\x_{31}x_{33}\\\end{vmatrix}) -x_{12}(\begin{vmatrix}x_{21}0\\x_{31}x_{33}\\\end{vmatrix}-\begin{vmatrix}x_{23}0\\x_{33}x_{31}\\\end{vmatrix}) -x_{12}*(x_{21}*\begin{vmatrix}x_{33}\\\end{vmatrix}-x_{23}*\begin{vmatrix}x_{31}\\\end{vmatrix})-x_{12}*x_{21}*x_{33}x_{12}*x_{23}*x_{31} −x12​ ​x21​x31​​x23​x33​​ ​−x12​( ​x21​x31​​0x33​​ ​ ​0x31​​x23​x33​​ ​)−x12​( ​x21​x31​​0x33​​ ​− ​x23​x33​​0x31​​ ​)−x12​∗(x21​∗ ​x33​​ ​−x23​∗ ​x31​​ ​)−x12​∗x21​∗x33​x12​∗x23​∗x31​ 第三个需要变换2次才成为下三角 ∣ 0 0 x 13 x 21 x 22 x 23 x 31 x 32 x 33 ∣ − ∣ 0 x 13 0 x 21 x 23 x 22 x 31 x 33 x 32 ∣ ∣ x 13 0 0 x 23 x 21 x 22 x 33 x 31 x 32 ∣ x 13 ∣ x 21 x 22 x 31 x 32 ∣ \begin{vmatrix}00x_{13}\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix} -\begin{vmatrix}0x_{13}0\\x_{21}x_{23}x_{22}\\x_{31}x_{33}x_{32}\\\end{vmatrix} \begin{vmatrix}x_{13}00\\x_{23}x_{21}x_{22}\\x_{33}x_{31}x_{32}\\\end{vmatrix} x_{13}\begin{vmatrix}x_{21}x_{22}\\x_{31}x_{32}\\\end{vmatrix} ​0x21​x31​​0x22​x32​​x13​x23​x33​​ ​− ​0x21​x31​​x13​x23​x33​​0x22​x32​​ ​ ​x13​x23​x33​​0x21​x31​​0x22​x32​​ ​x13​ ​x21​x31​​x22​x32​​ ​同理可推导得 x 13 ∗ x 21 ∗ x 32 − x 13 ∗ x 22 ∗ x 32 x_{13}*x_{21}*x_{32}-x_{13}*x_{22}*x_{32} x13​∗x21​∗x32​−x13​∗x22​∗x32​ 为什么要变换的这么详细呢因为这个过程恰好展现了n阶行列式的定义 首先每一次的变换都是先把首行中的元素逐一变换到左上角这个变换的过程主要与列有关 如果首行元素在奇数列如第3列则变换到左上角时行列式值是不变号的 如果首行元素在偶数列如第2列则变换到左上角时行列式值会变成负号 但除了首行元素的列问题还有次行元素的列问题 因此我脑子不够用了但好在世界上有很多优秀的阿婆主能讲清楚一些 n阶特征公式解释 具体的还是看up主的分析会比较有领悟 当然可能我只是哦但实际还不是很清晰但。。。不想特别去深究行列式的定义大概理解就好 我。。。又快要忘记前边思考的是什么问题了 已理解行列式是什么行列式和非零解的关系可知道当行列式不为零时求解特征值时特征值也是非零解 特征值和特征向量的推导 如果从坐标系固定矩阵向量变换的角度看矩阵A与向量x相乘 A x Ax Ax通常是对向量x进行【旋转】【伸缩】的变换这个变换过程中并伴随有【升降维】的作用。 如果从矩阵向量固定坐标系变换的角度看矩阵A与向量x相乘 A x Ax Ax则表示向量x是在A坐标系下相当于声明x是火星A上的人 而矩阵与特征向量、特征值的关系 A x λ x Axλx Axλx右侧的 λ x λx λx没有矩阵相乘则表示标准正交基坐标系 I I I下的向量x只不过这个向量x中每个值都乘以λ倍 而 A x λ x Axλx Axλx则表示在A坐标系下的特征向量x实际等同于标准正交基坐标系 I I I里的向量x伸缩λ倍相当于当坐标系A旋转伸缩变换成标准正交基坐标系 I I I后向量x的方向没有发生旋转只是进行了伸缩变换。 向量x正是特征向量而特征值λ相当于向量x伸缩的倍数 例如A有一个特征向量 x 1 x_1 x1​及对应特征值 λ 1 λ_1 λ1​则 A x 1 λ 1 x 1 Ax_1λ_1x_1 Ax1​λ1​x1​ ∣ a 11 x 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 ∣ ∣ x 11 x 21 x 31 ∣ λ 1 ∣ x 11 x 21 x 31 ∣ \begin{vmatrix}a_{11}x_{12}a_{13}\\a_{21}a_{22}a_{23}\\a_{31}a_{32}a_{33}\\\end{vmatrix}\begin{vmatrix}x_{11}\\x_{21}\\x_{31}\\\end{vmatrix}λ_1\begin{vmatrix}x_{11}\\x_{21}\\x_{31}\\\end{vmatrix} ​a11​a21​a31​​x12​a22​a32​​a13​a23​a33​​ ​ ​x11​x21​x31​​ ​λ1​ ​x11​x21​x31​​ ​ 再例如A的第2 个特征向量 x 2 x_2 x2​及对应特征值 λ 2 λ_2 λ2​则 A x 2 λ 2 x 2 Ax_2λ_2x_2 Ax2​λ2​x2​ ∣ a 11 x 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 ∣ ∣ x 12 x 22 x 32 ∣ λ 1 ∣ x 12 x 22 x 32 ∣ \begin{vmatrix}a_{11}x_{12}a_{13}\\a_{21}a_{22}a_{23}\\a_{31}a_{32}a_{33}\\\end{vmatrix}\begin{vmatrix}x_{12}\\x_{22}\\x_{32}\\\end{vmatrix}λ_1\begin{vmatrix}x_{12}\\x_{22}\\x_{32}\\\end{vmatrix} ​a11​a21​a31​​x12​a22​a32​​a13​a23​a33​​ ​ ​x12​x22​x32​​ ​λ1​ ​x12​x22​x32​​ ​ 将A的所有特征向量x组成矩阵W则有 W ∣ x 11 x 12 x 13 x 21 x 22 x 23 x 31 x 32 x 33 ∣ W\begin{vmatrix}x_{11}x_{12}x_{13}\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix} W ​x11​x21​x31​​x12​x22​x32​​x13​x23​x33​​ ​ 要让 λ 1 、 λ 2 、 λ 3 λ_1、λ_2、λ_3 λ1​、λ2​、λ3​对应乘以到W中,则需要将λ形成对角矩阵 Σ ∣ λ 1 0 0 0 λ 2 0 0 0 λ 3 ∣ Σ\begin{vmatrix}λ_100\\0λ_20\\00λ_3\\\end{vmatrix} Σ ​λ1​00​0λ2​0​00λ3​​ ​ 则 W Σ ∣ λ 1 x 11 λ 2 x 12 λ 3 x 13 λ 1 x 21 λ 2 x 22 λ 3 x 23 λ 1 x 31 λ 2 x 32 λ 3 x 33 ∣ WΣ\begin{vmatrix}λ_1x_{11}λ_2x_{12}λ_3x_{13}\\λ_1x_{21}λ_2x_{22}λ_3x_{23}\\λ_1x_{31}λ_2x_{32}λ_3x_{33}\\\end{vmatrix} WΣ ​λ1​x11​λ1​x21​λ1​x31​​λ2​x12​λ2​x22​λ2​x32​​λ3​x13​λ3​x23​λ3​x33​​ ​ 而 A W ∣ a 11 x 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 ∣ ∣ x 11 x 12 x 13 x 21 x 22 x 23 x 31 x 32 x 33 ∣ W Σ ∣ x 11 x 12 x 13 x 21 x 22 x 23 x 31 x 32 x 33 ∣ ∣ λ 1 0 0 0 λ 2 0 0 0 λ 3 ∣ AW\begin{vmatrix}a_{11}x_{12}a_{13}\\a_{21}a_{22}a_{23}\\a_{31}a_{32}a_{33}\\\end{vmatrix}\begin{vmatrix}x_{11}x_{12}x_{13}\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix}WΣ\begin{vmatrix}x_{11}x_{12}x_{13}\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix}\begin{vmatrix}λ_100\\0λ_20\\00λ_3\\\end{vmatrix} AW ​a11​a21​a31​​x12​a22​a32​​a13​a23​a33​​ ​ ​x11​x21​x31​​x12​x22​x32​​x13​x23​x33​​ ​WΣ ​x11​x21​x31​​x12​x22​x32​​x13​x23​x33​​ ​ ​λ1​00​0λ2​0​00λ3​​ ​ A W W − 1 W Σ W − 1 AWW^{-1}WΣW^{-1} AWW−1WΣW−1因此就有 A W Σ W − 1 AWΣW^{-1} AWΣW−1 这就是矩阵特征分解的推导 因此一个矩阵可以由它的所有特征向量和特征值来表示 矩阵特征分解的意义 矩阵方阵可以由它的所有特征向量和特征值来表示 例如A是mxm的方阵它所有的特征向量为mxm的方阵W对应的特征值矩阵为mxm的对角矩阵Σ 则 A W Σ W T A WΣW^T AWΣWT 特征分解后可以选择删除一些不重要的特征对方阵A进行降维。 那怎么知道哪些特征是不重要的呢 这里的特征其实指的就是特征向量和特征值主要看特征值。 如果特征值相对而言特别特别小接近于0则这个特征向量对原方阵A的影响相应比较小。 A ∣ a 11 x 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 ∣ ∣ x 11 x 12 x 13 x 21 x 22 x 23 x 31 x 32 x 33 ∣ ∣ λ 1 0 0 0 λ 2 0 0 0 λ 3 ∣ ∣ x 11 x 21 x 31 x 12 x 22 x 32 x 13 x 23 x 33 ∣ A\begin{vmatrix}a_{11}x_{12}a_{13}\\a_{21}a_{22}a_{23}\\a_{31}a_{32}a_{33}\\\end{vmatrix}\begin{vmatrix}x_{11}x_{12}x_{13}\\x_{21}x_{22}x_{23}\\x_{31}x_{32}x_{33}\\\end{vmatrix}\begin{vmatrix}λ_100\\0λ_20\\00λ_3\\\end{vmatrix}\begin{vmatrix}x_{11}x_{21}x_{31}\\x_{12}x_{22}x_{32}\\x_{13}x_{23}x_{33}\\\end{vmatrix} A ​a11​a21​a31​​x12​a22​a32​​a13​a23​a33​​ ​ ​x11​x21​x31​​x12​x22​x32​​x13​x23​x33​​ ​ ​λ1​00​0λ2​0​00λ3​​ ​ ​x11​x12​x13​​x21​x22​x23​​x31​x32​x33​​ ​ A ∣ λ 1 x 11 λ 2 x 12 λ 3 x 13 λ 1 x 21 λ 2 x 22 λ 3 x 23 λ 1 x 31 λ 2 x 32 λ 3 x 33 ∣ ∣ x 11 x 21 x 31 x 12 x 22 x 32 x 13 x 23 x 33 ∣ A\begin{vmatrix}λ_1x_{11}λ_2x_{12}λ_3x_{13}\\λ_1x_{21}λ_2x_{22}λ_3x_{23}\\λ_1x_{31}λ_2x_{32}λ_3x_{33}\\\end{vmatrix}\begin{vmatrix}x_{11}x_{21}x_{31}\\x_{12}x_{22}x_{32}\\x_{13}x_{23}x_{33}\\\end{vmatrix} A ​λ1​x11​λ1​x21​λ1​x31​​λ2​x12​λ2​x22​λ2​x32​​λ3​x13​λ3​x23​λ3​x33​​ ​ ​x11​x12​x13​​x21​x22​x23​​x31​x32​x33​​ ​ A ∣ λ 1 x 11 2 λ 2 x 12 2 λ 3 x 13 2 λ 1 x 11 x 21 λ 2 x 12 x 22 λ 3 x 13 x 23 λ 1 x 11 x 31 λ 2 x 12 x 32 λ 3 x 13 x 33 λ 1 x 21 x 11 λ 2 x 22 x 12 λ 3 x 23 x 13 λ 1 x 21 x 21 λ 2 x 22 x 22 λ 3 x 23 x 23 λ 1 x 21 x 31 λ 2 x 22 x 32 λ 3 x 32 x 33 λ 1 x 31 x 11 λ 2 x 32 x 12 λ 3 x 33 x 13 λ 1 x 31 x 21 λ 2 x 32 x 22 λ 3 x 33 x 23 λ 1 x 31 x 31 λ 2 x 32 x 32 λ 3 x 33 x 33 ∣ A\begin{vmatrix} λ_1x^2_{11}λ_2x^2_{12}λ_3x^2_{13} λ_1x_{11}x_{21}λ_2x_{12}x_{22}λ_3x_{13}x_{23} λ_1x_{11}x_{31}λ_2x_{12}x_{32}λ_3x_{13}x_{33}\\ λ_1x_{21}x_{11}λ_2x_{22}x_{12}λ_3x_{23}x_{13} λ_1x_{21}x_{21}λ_2x_{22}x_{22}λ_3x_{23}x_{23} λ_1x_{21}x_{31}λ_2x_{22}x_{32}λ_3x_{32}x_{33}\\ λ_1x_{31}x_{11}λ_2x_{32}x_{12}λ_3x_{33}x_{13} λ_1x_{31}x_{21}λ_2x_{32}x_{22}λ_3x_{33}x_{23} λ_1x_{31}x_{31}λ_2x_{32}x_{32}λ_3x_{33}x_{33}\\\end{vmatrix} A ​λ1​x112​λ2​x122​λ3​x132​λ1​x21​x11​λ2​x22​x12​λ3​x23​x13​λ1​x31​x11​λ2​x32​x12​λ3​x33​x13​​λ1​x11​x21​λ2​x12​x22​λ3​x13​x23​λ1​x21​x21​λ2​x22​x22​λ3​x23​x23​λ1​x31​x21​λ2​x32​x22​λ3​x33​x23​​λ1​x11​x31​λ2​x12​x32​λ3​x13​x33​λ1​x21​x31​λ2​x22​x32​λ3​x32​x33​λ1​x31​x31​λ2​x32​x32​λ3​x33​x33​​ ​ 如果将特征值非常小的特征值和对应的特征向量去掉如删掉λ1和x2则有 A ∣ λ 2 x 12 λ 3 x 13 λ 2 x 22 λ 3 x 23 λ 2 x 32 λ 3 x 33 ∣ ∣ x 12 x 22 x 32 x 13 x 23 x 33 ∣ A \begin{vmatrix}λ_2x_{12}λ_3x_{13}\\λ_2x_{22}λ_3x_{23}\\λ_2x_{32}λ_3x_{33}\\\end{vmatrix}\begin{vmatrix}x_{12}x_{22}x_{32}\\x_{13}x_{23}x_{33}\\\end{vmatrix} A ​λ2​x12​λ2​x22​λ2​x32​​λ3​x13​λ3​x23​λ3​x33​​ ​ ​x12​x13​​x22​x23​​x32​x33​​ ​ 这样还原出来的A就不是完完全全的A矩阵了但相对而言如果λ1比较小那么还原出来的矩阵与A矩阵差别也不会太大 奇异值分解SVD 看过一个推导的非常详实的知乎大神奇异值分解SVD 看过理解不代表真的理解自己去推导一下吧搞不好会有一些新的认识 A是mxn的矩阵U是mxm的方阵V是nxn的方阵∑是一个mxn的矩阵且只有对角线上的元素为非零元素。 那么A、U、V、∑之间有什么关系才能形成奇异值分解 A U Σ V T AUΣV^T AUΣVT的关系呢 首先U是 A A T AA^T AAT方阵的特征向量特征值为 λ u λ_u λu​ A A T U λ u U AA^TUλ_uU AATUλu​U 其次V是 A T A A^TA ATA方阵的特征向量特征值为 λ v λ_v λv​ A T A V λ v V A^TAVλ_vV ATAVλv​V 要知道不同特征值对应的特征向量是线性无关的因此它的转置乘以它本身 V T V U T U E V^TVU^TUE VTVUTUE 进而可以求出奇异矩阵∑ A U Σ V T → A V U Σ V T V U Σ AUΣV^T→AVUΣV^TVUΣ AUΣVT→AVUΣVTVUΣ Σ Σ Σ只有对角线上的元素是非零因此逐一求出对角线上的元素 α i α_i αi​即可 A v 1 U α 1 Av_1Uα_1 Av1​Uα1​、 A v 2 U α 2 Av_2Uα_2 Av2​Uα2​… 又或者 A U Σ V T → A T V Σ U T AUΣV^T→A^TVΣU^T AUΣVT→ATVΣUT A A T U Σ V T V Σ U T U Σ 2 U T AA^TUΣV^TVΣU^TUΣ^2U^T AATUΣVTVΣUTUΣ2UT 由于U是 A A T AA^T AAT的特征向量因此 A A T U λ u U → A A T U Σ u U T U Σ 2 U T AA^TUλ_uU→AA^TUΣ_uU^TUΣ^2U^T AATUλu​U→AATUΣu​UTUΣ2UT 因此有 Σ 2 Σ u Σ^2Σ_u Σ2Σu​奇异值²特征值 奇异值可以直接通过特征值开根号得到。 奇异值分解的降维意义 为什么奇异值分解可以进行降维呢 主要还是参考矩阵的特征分解时的降维意义。 不过这只是一种比较数理方面的解释B站有个博主用了非常生动形象的动画效果演示了降维的操作及意义 B站小学长课堂 当时我在高铁的渣渣网络上看到时虽然卡的一匹但依然惊叹到世间有如此博主实乃学渣之幸事 总之到这里奇异值分解内容算是学习结束了 撒花~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/922930.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

宁波企业自助建站wordpress多边形按钮

计算机网络-2019 王道考研 计算机网络-1.2.4TCP,IP参考模型和五层参考模型 文章目录4.TCP,IP参考模型和五层参考模型4.1OSI参考模型与TCP/IP参考模型4.2OSI参考模型与TCP/IP参考模型的相同点4.3OSI参考模型与TCP/IP参考模型的不同点4.4五层参考协议4.4五…

2025 年人工智能培训厂家最新推荐排行榜:聚焦人工智能培训合规运营机构、产业适配能力与教学实力深度解析

当前人工智能培训行业虽发展迅猛,但乱象丛生,给学员选择带来极大困扰。部分机构缺乏合规资质,教学质量无保障,学员权益易受损;多数机构课程体系与产业需求脱节,内容更新滞后于技术趋势,导致学员所学技能无法满足…

一种以125kHz低频识别 + 2.4GHz数据传输”的方案,通过频率优势互补,为近距离物联网应用提供了可靠、精准且高效的解决方案

​ 在要求精准触发的近距离场景,传统的解决方案有时力不从心。我们测试了融合125kHz低频唤醒与2.4GHz高频传输的“近距离低频识别解决方案”,正以其独特优势,在智能打卡、运动计时、汽车钥匙等领域开启新可能。 许多…

深入解析:STM32H743-ARM例程9-IWDG看门狗

深入解析:STM32H743-ARM例程9-IWDG看门狗pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "…

高效做PPT!5个亲测模板网站,10分钟出专业演示 !

“明天就要交汇报 PPT,现在还没动笔”“花 3 小时找的模板,打开全是水印”“数据图表调了半天,还是歪歪扭扭”—— 这是不是你的职场日常?作为每天和 PPT 打交道的运营人,我曾因一套季度总结 PPT 熬到凌晨两点,直…

网站最新程序策划书推荐个好看的网站

目录 0 专栏介绍1 时序差分强化学习2 策略评估原理3 策略改进原理3.1 SARSA算法3.2 Q-Learning算法 0 专栏介绍 本专栏重点介绍强化学习技术的数学原理,并且采用Pytorch框架对常见的强化学习算法、案例进行实现,帮助读者理解并快速上手开发。同时&#…

【WCH蓝牙系列芯片】-基于CH592开发板——HID_Keyboard中添加读、写、通知的服务属性

【WCH蓝牙系列芯片】-基于CH592开发板——HID_Keyboard中添加读、写、通知的服务属性--------------------------------------------------------------------------------------------------------------------------…

2025 年 AI 健康管理厂商最新推荐榜单:覆盖多场景需求,深护智康等优质品牌助力行业升级

随着 “AI + 健康管理” 模式在医疗、公卫、药店、母婴等多场景的深度渗透,市场对专业厂商的需求愈发迫切。当前行业面临传统系统定制成本高、服务效率低、细分场景支持不足等痛点,众多机构难以快速找到适配自身需求…

虚幻5.6插件添加自定义shader

主要是对官方文档的一个补充:虚幻引擎插件中的 Shader | 虚幻引擎 5.6 文档 | Epic Developer Community 添加虚拟源文件路径查看代码 void FYKComputeModule::StartupModule() {// 查找插件TSharedPtr<IPlugin>…

建设银行网站电脑版wordpress discuz

题目描述&#xff1a;给定一个可包含重复数字的序列 nums &#xff0c;按任意顺序 返回所有不重复的全排列。 题目链接&#xff1a;LeetCode-47-全排列Ⅱ 解题思路&#xff1a;注意题目中给的是包含重复数字&#xff0c;所以需要去重操作&#xff1b; 这道题不需要 startIndex&…

勒索软件速度危机:AI驱动下的网络安全新挑战

勒索软件攻击速度已从2019年的9天缩短至2025年的25分钟,增长100倍。AI技术正被用于网络犯罪,82.6%的网络钓鱼邮件采用AI技术。防御需依赖AI检测、自动化响应和XDR平台构建速度兼容的防御体系。勒索软件速度危机 当网…

在线考试小程序管理系统:一站式智能考试解决方案,助力多场景高效考核

在数字化学习与培训需求日益增长的当下,传统考试模式面临组织成本高、灵活性不足、数据统计难等痛点。由广西南宁诚客网络科技有限公司研发的在线考试小程序,依托微擎系统实现便捷部署,覆盖微信小程序端,整合丰富题…

快微商城小程序管理系统:助力商家搭建高效便捷的新零售平台

在互联网科技飞速发展的当下,传统租赁柜台与纯电商逐渐偏离零售服务核心,而小程序商城系统凭借便捷、低成本的优势成为零售行业新选择。快微商城作为专注于小程序开发的解决方案,涵盖微信小程序与抖音小程序定制开发…

2025最新布袋包装厂家推荐排行榜:布袋包装,布袋,手提袋,帆布袋定制,无纺布袋,布袋生产,云南布袋包装,茶叶布袋生产商优选指南

在 “双碳” 目标与 “限塑令” 深化的双重催化下,布袋包装市场规模年增速突破 28%,但行业乱象同步加剧:38% 的企业曾因厂商材料掺假遭遇售后纠纷,45% 的定制订单因产能不足延期交付,同质化产品占比更是高达 62%。…

KTV 娱乐小程序管理系统:数字化运营新选择,助力行业高效经营

在数字化浪潮席卷各行业的当下,KTV 行业也迎来了转型升级的契机。这款专为 KTV 娱乐行业打造的小程序,依托微信生态,整合了包厢预订、在线消费、会员管理等多项核心功能,通过微擎系统交付,为 KTV 商家提供了一站式…

城市电商小程序管理系统:助力商家搭建全渠道数字化经营体系

在数字化浪潮席卷各行各业的当下,线上线下融合的经营模式已成为零售及服务行业的必然趋势。多商家双版本城市电商小程序,作为一款功能全面、适配性强的电商解决方案,依托微擎系统交付优势,为商家提供微信公众号与微…

2025沈阳标识标牌厂家推荐排行榜:聚焦行业产能与技术实力,精选沈阳标识标牌优质企业供订做参考

当前标识标牌行业需求持续增长且愈发多样化,从商业综合体的导视系统到景区的标识建设,从医疗场所的智慧标识到交通领域的规范标牌,不同场景对产品的设计、材质、工艺要求差异显著。同时,行业内企业数量众多,部分企…

L05_新建springboot项目与新建helloword(菜鸟版)

这是一个操作演示,原理我也不知道,我值知道操作步骤,还是抄的。 简要介绍一下我的环境,IDEA2024专业版。 (看不懂英文的我下好了Chinese汉化插件,全部从Pycharm导过来的) 1.先新建一个文件夹,我命名为SpringBo…

Implicit Neural Representations with Periodic Activation Functions

[NIPS20] sin激活函数在INR中的应用Implicit Neural Representations with Periodic Activation Functions SIREN:讨论sin激活函数在INR中的应用 代码仓库 注:本文涉及了一些笔者不了解的领域,仅摘取笔者自身比较熟…

网站架构优化 ampwordpress解析图片调用的方法

1.什么是Rancher Rancher是一套容器管理平台&#xff0c;专门用于部署和管理容器化应用。以下是关于Rancher的详细介绍&#xff1a; 容器编排与管理&#xff1a;Rancher是一个开源的企业级容器管理平台&#xff0c;它支持Kubernetes作为其容器编排引擎。Rancher可以帮助用户在…