邯郸做网站的公司wordpress表情按钮
news/
2025/9/30 16:04:05/
文章来源:
邯郸做网站的公司,wordpress表情按钮,手机优化大师怎么卸载,sem推广优化高维高斯分布基础
多位高斯分布的几何理解
多维高斯分布表达式为#xff1a; p(x∣μ,Σ)1(2π)p/2∣Σ∣1/2e−12(x−μ)TΣ−1(x−μ)p(x|\mu,\Sigma)\frac{1}{(2\pi)^{p/2}|\Sigma|^{1/2}}e^{-\frac{1}{2}(x-\mu)^{T}\Sigma^{-1}(x-\mu)} p(x∣μ,Σ)(2π)p/2∣Σ∣1/21…高维高斯分布基础
多位高斯分布的几何理解
多维高斯分布表达式为 p(x∣μ,Σ)1(2π)p/2∣Σ∣1/2e−12(x−μ)TΣ−1(x−μ)p(x|\mu,\Sigma)\frac{1}{(2\pi)^{p/2}|\Sigma|^{1/2}}e^{-\frac{1}{2}(x-\mu)^{T}\Sigma^{-1}(x-\mu)} p(x∣μ,Σ)(2π)p/2∣Σ∣1/21e−21(x−μ)TΣ−1(x−μ) 其中 x,μ∈Rp,Σ∈Rp×px,\mu\in\mathbb{R}^{p},\Sigma\in\mathbb{R}^{p\times p}x,μ∈Rp,Σ∈Rp×p Σ\SigmaΣ 为协方差矩阵一般而言是半正定矩阵这里我们强化一下条件只考虑正定矩阵。
首先我们处理指数上的数字指数上的数字可以记为 xxx 和 μ\muμ 之间的马氏距离。 马氏距离(Mahalanobis Distance)是度量学习中一种常用的距离指标同欧氏距离、曼哈顿距离、汉明距离等一样被用作评定数据之间的相似度指标。但却可以应对高维线性分布的数据中各维度间非独立同分布的问题。 两个向量 x\bf{x}x 和 y\mathbf{y}{}y 之间的马氏距离为 DM(x,y)(x−y)TΣ−1(x−y))D_M(\bf{x},\bf{y})\sqrt{(\bf{x}-\bf{y})^T\Sigma^{-1}(\bf{x}-\bf{y}))} DM(x,y)(x−y)TΣ−1(x−y)) 其中 Σ\SigmaΣ 是多维随机变量的协方差矩阵μ\muμ 为样本均值如果协方差矩阵是单位向量ΣI\SigmaIΣI也就是各维度独立同分布马氏距离就变成了欧氏距离。 关于马氏距离详见马氏距离(Mahalanobis Distance)。 对于对称的协方差矩阵可进行特征值分解ΣUΛUT(u1,u2,⋯,up)diag(λi)(u1,u2,⋯,up)T∑i1puiλiuiT\SigmaU\Lambda U^{T}(u_{1},u_{2},\cdots,u_{p})diag(\lambda_{i})(u_{1},u_{2},\cdots,u_{p})^{T}\sum\limits _{i1}^{p}u_{i}\lambda_{i}u_{i}^{T}ΣUΛUT(u1,u2,⋯,up)diag(λi)(u1,u2,⋯,up)Ti1∑puiλiuiT 于是 Σ−1∑i1pui1λiuiT\Sigma^{-1}\sum\limits _{i1}^{p}u_{i}\frac{1}{\lambda_{i}}u_{i}^{T} Σ−1i1∑puiλi1uiT
Δ(x−μ)TΣ−1(x−μ)∑i1p(x−μ)Tui1λiuiT(x−μ)∑i1pyi2λi\Delta(x-\mu)^{T}\Sigma^{-1}(x-\mu)\sum\limits _{i1}^{p}(x-\mu)^{T}u_{i}\frac{1}{\lambda_{i}}u_{i}^{T}(x-\mu)\sum\limits _{i1}^{p}\frac{y_{i}^{2}}{\lambda_{i}} Δ(x−μ)TΣ−1(x−μ)i1∑p(x−μ)Tuiλi1uiT(x−μ)i1∑pλiyi2
我们注意到 yiy_{i}yi 是 x−μx-\mux−μ 在特征向量 uiu_{i}ui 上的投影长度因此上式子就是 Δ\DeltaΔ 取不同值时的同心椭圆。例如在维度 P2P2P2 时取 Δ1\Delta1Δ1则有y12λ1y22λ21\frac{y_1^2}{\lambda_1}\frac{y_2^2}{\lambda_2}1λ1y12λ2y221 明显就是椭圆的曲线方程。
多维高斯模型的限制
下面我们看多维高斯模型在实际应用时的两个限制
参数 Σ,μ\Sigma,\muΣ,μ 的自由度为 O(p2)O(p^{2})O(p2) 对于维度很高的数据其自由度太高。 解决方案高自由度的来源是 Σ\SigmaΣ 有 p(p1)2\frac{p(p1)}{2}2p(p1) 个自由参数可以假设其是对角矩阵甚至假设其对角线上的元素都相同此时称为各向同性的高斯分布。前一种的算法有 Factor Analysis后一种有概率 PCA (p-PCA) 。 第二个问题是单个高斯分布是单峰的对有多个峰的数据分布不能得到好的结果。 解决方案使用多个单高斯模型组合得到高斯混合模型 GMM。
多维高斯分布的边缘概率和条件概率 对于高斯模型的线性变换有这样一个定理暂不证明 定理已知 x∼N(μ,Σ),y∼Axbx\sim\mathcal{N}(\mu,\Sigma), y\sim Axbx∼N(μ,Σ),y∼Axbx∈Rp,y∈Rpx\in\mathbb{R}^p,y\in\mathbb{R}^px∈Rp,y∈Rp那么 y∼N(Aμb,AΣAT),Σ∈Rp×p,A∈R1×py\sim\mathcal{N}(A\mub, A\Sigma A^T),\ \ \Sigma \in \mathbb{R}^{p\times p },\ \ A\in\mathbb{R}^{1\times p}y∼N(Aμb,AΣAT), Σ∈Rp×p, A∈R1×p。 我们将 ppp 维样本数据拆分为 mnmnmn 维 x(x1,x2,⋯,xp)T(xa,m×1,xb,n×1)Tx(x_1, x_2,\cdots,x_p)^T(x_{a,m\times 1}, x_{b,n\times1})^Tx(x1,x2,⋯,xp)T(xa,m×1,xb,n×1)T 。
对应的高斯模型的参数也进行拆分均值 μ(μa,m×1,μb,n×1)T\mu(\mu_{a,m\times1}, \mu_{b,n\times1})^Tμ(μa,m×1,μb,n×1)T协方差矩阵 Σ(ΣaaΣabΣbaΣbb)\Sigma\begin{pmatrix}\Sigma_{aa}\Sigma_{ab}\\\Sigma_{ba}\Sigma_{bb}\end{pmatrix}Σ(ΣaaΣbaΣabΣbb)已知 x∼N(μ,Σ)x\sim\mathcal{N}(\mu,\Sigma)x∼N(μ,Σ)。
下面介绍如何求多维高斯分布的边缘概率和条件概率 p(xa),p(xb),p(xa∣xb),p(xb∣xa)p(x_a),p(x_b),p(x_a|x_b),p(x_b|x_a)p(xa),p(xb),p(xa∣xb),p(xb∣xa) 。
求边缘概率
构造 xa(Im×mOm×n)(xaxb)x_a\begin{pmatrix}{I}_{m\times m}{O}_{m\times n}\end{pmatrix}\begin{pmatrix}x_a\\x_b\end{pmatrix}xa(Im×mOm×n)(xaxb)其中 I,OI,OI,O 分别是单位矩阵和零矩阵代入上述定理中得到 E[xa](IO)(μaμb)μaVar[xa](IO)(ΣaaΣabΣbaΣbb)(IO)Σaa\mathbb{E}[x_a]\begin{pmatrix}{I}{O}\end{pmatrix}\begin{pmatrix}\mu_a\\\mu_b\end{pmatrix}\mu_a\\ Var[x_a]\begin{pmatrix}{I}{O}\end{pmatrix}\begin{pmatrix}\Sigma_{aa}\Sigma_{ab}\\\Sigma_{ba}\Sigma_{bb}\end{pmatrix}\begin{pmatrix}{I}\\{O}\end{pmatrix}\Sigma_{aa} E[xa](IO)(μaμb)μaVar[xa](IO)(ΣaaΣbaΣabΣbb)(IO)Σaa 所以 xa∼N(μa,Σaa)x_a\sim\mathcal{N}(\mu_a,\Sigma_{aa})xa∼N(μa,Σaa) 边缘概率 p(xa)p(x_a)p(xa) 就得到了。 类似的xb∼N(μb,Σbb)x_b\sim\mathcal{N}(\mu_b,\Sigma_{bb})xb∼N(μb,Σbb)。
求条件概率
对于两个条件概率通常是用配方法如 PRML 的证明这里我们用一种构造法。首先引入三个量令 xb⋅axb−ΣbaΣaa−1xaμb⋅aμb−ΣbaΣaa−1μaΣbb⋅aΣbb−ΣbaΣaa−1Σabx_{b\cdot a}x_b-\Sigma_{ba}\Sigma_{aa}^{-1}x_a\\ \mu_{b\cdot a}\mu_b-\Sigma_{ba}\Sigma_{aa}^{-1}\mu_a\\ \Sigma_{bb\cdot a}\Sigma_{bb}-\Sigma_{ba}\Sigma_{aa}^{-1}\Sigma_{ab} xb⋅axb−ΣbaΣaa−1xaμb⋅aμb−ΣbaΣaa−1μaΣbb⋅aΣbb−ΣbaΣaa−1Σab 特别的最后一个式子叫做 Σaa\Sigma_{aa}Σaa 的 Schur Complementary。可以看到 xb⋅a(−ΣbaΣaa−1In×n)(xaxb)x_{b\cdot a}\begin{pmatrix}-\Sigma_{ba}\Sigma_{aa}^{-1}{I}_{n\times n}\end{pmatrix}\begin{pmatrix}x_a\\x_b\end{pmatrix} xb⋅a(−ΣbaΣaa−1In×n)(xaxb) 再有定理有 E[xb⋅a](−ΣbaΣaa−1In×n)(μaμb)μb⋅aVar[xb⋅a](−ΣbaΣaa−1In×n)(ΣaaΣabΣbaΣbb)(−Σaa−1ΣbaTIn×n)Σbb⋅a\mathbb{E}[x_{b\cdot a}]\begin{pmatrix}-\Sigma_{ba}\Sigma_{aa}^{-1}\mathbb{I}_{n\times n}\end{pmatrix}\begin{pmatrix}\mu_a\\\mu_b\end{pmatrix}\mu_{b\cdot a}\\ Var[x_{b\cdot a}]\begin{pmatrix}-\Sigma_{ba}\Sigma_{aa}^{-1}{I}_{n\times n}\end{pmatrix}\begin{pmatrix}\Sigma_{aa}\Sigma_{ab}\\\Sigma_{ba}\Sigma_{bb}\end{pmatrix}\begin{pmatrix}-\Sigma_{aa}^{-1}\Sigma_{ba}^T\\{I}_{n\times n}\end{pmatrix}\Sigma_{bb\cdot a} E[xb⋅a](−ΣbaΣaa−1In×n)(μaμb)μb⋅aVar[xb⋅a](−ΣbaΣaa−1In×n)(ΣaaΣbaΣabΣbb)(−Σaa−1ΣbaTIn×n)Σbb⋅a 则对于我们构造的 xb⋅ax_{b\cdot a}xb⋅a 有 xb⋅a∼N(μb⋅a,Σbb⋅a)x_{b\cdot a}\sim\mathcal{N}(\mu_{b\cdot a},\Sigma_{bb\cdot a})xb⋅a∼N(μb⋅a,Σbb⋅a) 这里可以看到最初这个构造的设计中核心的构造就是 xb⋅ax_{b\cdot a}xb⋅a 而 μb⋅a,Σbb⋅a\mu_{b\cdot a},\ \Sigma_{bb\cdot a}μb⋅a, Σbb⋅a 只是两个记号在这种构造的推导下来表示一下均值和方差。
由我们最初的构造有 xbxb⋅aΣbaΣaa−1xax_bx_{b\cdot a}\Sigma_{ba}\Sigma_{aa}^{-1}x_axbxb⋅aΣbaΣaa−1xa 再由定理 E[xb∣xa]μb⋅aΣbaΣaa−1xa\mathbb{E}[x_b|x_a]\mu_{b\cdot a}\Sigma_{ba}\Sigma_{aa}^{-1}x_a E[xb∣xa]μb⋅aΣbaΣaa−1xa
Var[xb∣xa]Σbb⋅aVar[x_b|x_a]\Sigma_{bb\cdot a} Var[xb∣xa]Σbb⋅a
所以 xb∣xa∼N(μb⋅aΣbaΣaa−1xa,Σbb⋅a)x_b|x_a\sim \mathcal{N}(\mu_{b\cdot a}\Sigma_{ba}\Sigma_{aa}^{-1}x_a,\Sigma_{bb\cdot a})xb∣xa∼N(μb⋅aΣbaΣaa−1xa,Σbb⋅a) 。类似的xa∣xb∼N(μa⋅bΣabΣbb−1xb,Σaa⋅b)x_a|x_b\sim \mathcal{N}(\mu_{a\cdot b}\Sigma_{ab}\Sigma_{bb}^{-1}x_b,\Sigma_{aa\cdot b})xa∣xb∼N(μa⋅bΣabΣbb−1xb,Σaa⋅b) 。
根据边缘概率和条件概率求联合概率
已知p(x)N(μ,Λ−1),p(y∣x)N(Axb,L−1)p(x)\mathcal{N}(\mu,\Lambda^{-1}),p(y|x)\mathcal{N}(Axb,L^{-1})p(x)N(μ,Λ−1),p(y∣x)N(Axb,L−1)求解p(y),p(x∣y)p(y),p(x|y)p(y),p(x∣y)。 这种类型的问题在线性高斯模型、PCA降维等机器学习模型中经常出现。这里的 Λ,L\Lambda, LΛ,L 称为精度矩阵它们是协方差矩阵的逆。 解令 yAxbϵ,ϵ∼N(0,L−1)yAxb\epsilon,\epsilon\sim\mathcal{N}(0,L^{-1})yAxbϵ,ϵ∼N(0,L−1)且 ϵ\epsilonϵ 与 xxx 相互独立还是根据上节的定理有 E[y]E[Axbϵ]AμbVar[y]AΛ−1ATL−1\mathbb{E}[y]\mathbb{E}[Axb\epsilon]A\mub\\ Var[y]A \Lambda^{-1}A^TL^{-1} E[y]E[Axbϵ]AμbVar[y]AΛ−1ATL−1 此时就已经得到 y∼N(Aμb,L−1AΛ−1AT)y\sim\mathcal{N}(A\mub,L^{-1}A\Lambda^{-1}A^T)y∼N(Aμb,L−1AΛ−1AT) 即 p(y)N(Aμb,L−1AΛ−1AT)p(y)\mathcal{N}(A\mub,L^{-1}A\Lambda^{-1}A^T)p(y)N(Aμb,L−1AΛ−1AT) 。
因此 Var[x∣y]Λ−1−Λ−1AT(L−1AΛ−1AT)−1AΛ−1Var[x|y]\Lambda^{-1}-\Lambda^{-1}A^T(L^{-1}A\Lambda^{-1}A^T)^{-1}A\Lambda^{-1} Var[x∣y]Λ−1−Λ−1AT(L−1AΛ−1AT)−1AΛ−1 引入 z(xy)z\begin{pmatrix}x\\y\end{pmatrix}z(xy)我们可以得到 Cov[x,y]E[(x−E[x])(y−E[y])T]Cov[x,y]\mathbb{E}[(x-\mathbb{E}[x])(y-\mathbb{E}[y])^T]Cov[x,y]E[(x−E[x])(y−E[y])T]。对于这个协方差可以直接计算 Cov(x,y)E[(x−E[x])(y−E[y])T]E[(x−μ)(Axb−Aμ−bϵ)T]E[(x−μ)(Ax−Aμϵ)T]E[(x−μ)(Ax−Aμ)T(x−μ)ϵT]E[(x−μ)(Ax−Aμ)T]E[(x−μ)(x−μ)T]ATVar[x]ATΛ−1AT\begin{align} Cov(x,y)\mathbb{E}[(x-\mathbb{E}[x])(y-\mathbb{E}[y])^T]\\ \mathbb{E}[(x-\mu)(Axb-A\mu-b\epsilon)^T]\\ \mathbb{E}[(x-\mu)(Ax-A\mu\epsilon)^T]\\ \mathbb{E}[(x-\mu)(Ax-A\mu)^T(x-\mu)\epsilon^T]\\ \mathbb{E}[(x-\mu)(Ax-A\mu)^T]\\ \mathbb{E}[(x-\mu)(x-\mu)^T]A^T\\ Var[x]A^T\\ \Lambda^{-1}A^T \end{align} Cov(x,y)E[(x−E[x])(y−E[y])T]E[(x−μ)(Axb−Aμ−bϵ)T]E[(x−μ)(Ax−Aμϵ)T]E[(x−μ)(Ax−Aμ)T(x−μ)ϵT]E[(x−μ)(Ax−Aμ)T]E[(x−μ)(x−μ)T]ATVar[x]ATΛ−1AT 注意到协方差矩阵的对称性所以 p(z)N(μAμb),(Λ−1Λ−1ATAΛ−1L−1AΛ−1AT))p(z)\mathcal{N}\begin{pmatrix}\mu\\A\mub\end{pmatrix},\begin{pmatrix}\Lambda^{-1}\Lambda^{-1}A^T\\A\Lambda^{-1}L^{-1}A\Lambda^{-1}A^T\end{pmatrix})p(z)N(μAμb),(Λ−1AΛ−1Λ−1ATL−1AΛ−1AT))。根据上一节的公式我们可以得到 E[x∣y]μΛ−1AT(L−1AΛ−1AT)−1(y−Aμ−b)\mathbb{E}[x|y]\mu\Lambda^{-1}A^T(L^{-1}A\Lambda^{-1}A^T)^{-1}(y-A\mu-b) E[x∣y]μΛ−1AT(L−1AΛ−1AT)−1(y−Aμ−b)
Var[x∣y]Λ−1−Λ−1AT(L−1AΛ−1AT)−1AΛ−1Var[x|y]\Lambda^{-1}-\Lambda^{-1}A^T(L^{-1}A\Lambda^{-1}A^T)^{-1}A\Lambda^{-1} Var[x∣y]Λ−1−Λ−1AT(L−1AΛ−1AT)−1AΛ−1
故得到p(x∣y)N(μΛ−1AT(L−1AΛ−1AT)−1(y−Aμ−b),Λ−1−Λ−1AT(L−1AΛ−1AT)−1AΛ−1)p(x|y)\mathcal{N}(\mu\Lambda^{-1}A^T(L^{-1}A\Lambda^{-1}A^T)^{-1}(y-A\mu-b),\Lambda^{-1}-\Lambda^{-1}A^T(L^{-1}A\Lambda^{-1}A^T)^{-1}A\Lambda^{-1})p(x∣y)N(μΛ−1AT(L−1AΛ−1AT)−1(y−Aμ−b),Λ−1−Λ−1AT(L−1AΛ−1AT)−1AΛ−1) 。
Ref
机器学习白板推导马氏距离(Mahalanobis Distance)机器学习白板推导笔记
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/923039.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!