这应该是学ML以来推导过的最痛苦的算法了,所以我想先用直观的语言描述什么是Factor analysis
。
因子分析(factor analysis)是一种数据简化的技术。它通过研究众多变量之间的内部依赖关系,探求观测数据中的基本结构,并用少数几个假想变量来表示其基本的数据结构。这几个假想变量能够反映原来众多变量的主要信息。原始的变量是可观测的显在变量,而假想变量是不可观测的潜在变量,称为因子。
由于存在隐变量,同时不能由MLE得到close form,因此很自然的想到了之前提到的EM算法。本文主要用EM算法推到因子分析的参数估计过程。
问题
之前我们考虑的训练数据中样例 xi 的个数 m 都远远大于其特征个数 n,这样不管是行回归、聚类等都没有太大的问题。然而当训练样例个数 m 太小,甚至 m<<n 的时候,使 用梯度下降法进行回归时,如果初值不同,得到的参数结果会有很大偏差(因为方程数小于 参数个数)。另外,如果使用多元高斯分布(Multivariate Gaussian distribution)对数据进行拟合时,也会有问题。
例如,多元高斯分布的参数估计如下:
μ=m1∑i=1mx(i)Σ=m1∑i=1m(x(i)−μ)(x(i)−μ)T
分别是求 mean 和协方差的公式,x 是 n 维向量,Σ是 n*n 协方差矩阵。
当 m<<n 时,我们会发现Σ是奇异阵( |Σ| = 0),也就是说Σ−1 不存在,没办法拟合出多元高斯分布了,确切的说是我们估计不出来Σ。
因此,我们可以对Σ进行限制,从而使得其可逆。最简单的想法就是使得Σ变为对角矩阵,但这样有很大的坏处: ..这样的假设意味着特征间相互独立,表示在图上就是contour的各个维度与坐标轴平行..。
Preliminary
首先不加证明的给出几个结论
设x=[x1x2],x∼N(μ,Σ),其中
μ=[μ1μ2],Σ=[Σ11Σ21Σ12Σ22]
求条件概率x1∣x2∼N(μ1∣2,Σ1∣2)
μ1∣2Σ1∣2=μ1+Σ12Σ22−1(x2−μ2)=Σ11−Σ12Σ22−1Σ21
Factor analysis model
思想
因子分析的实质是认为 m 个 n 维特征的训练样例X(i)(x1(i),x2(i),…,xn(i))的产生过程:
首先在一个k维空间中按照多元高斯分布生成m个zi的k维向量,即:
- z(i)∼N(0,I)
然后定义一个变换矩阵Λ∈Rn×k,将z映射到n维空间中,即:
- Λz(i)
然后将Λz(i)加上一个均值μ,即:
最后再加入一个噪声ϵ∼N(0,Ψ),从而得到:
- x(i)=μ+Λz(i)+ϵ
这个过程的直观解释是:在低维空间中的随机变量,通过一个仿射变换映射到样本的高维空间,然后再加入随机误差生成。因此,高维数据可以使用低维数据表示。
联合分布
我们可以通过之前的结论得到隐变量和目标变量的联合分布:
[z]x]∼N(μzx,Σ)
不难求得:
μzx=[0μ]
Σ=[IΛΛTΛΛT+Ψ]
因此MLE为:
ℓ(μ,Λ,Ψ)=logi=1∏m(2π)n/2∣ΛΛT+Ψ∣1/21exp(−21(x(i)−μ)T(ΛΛT+Ψ)−1(x(i)−μ))
很显然,直接求解这个式子是困难的,因此我们可以使用EM算法。
EM估计
求解过程相当繁琐,大家可以自行参考CS229的官方notes。这里只给出参数估计:
Λ=(i=1∑m(x(i)−μ)Ez(i)∼Qi[z(i)T])(i=1∑mEz(i)∼Qi[z(i)z(i)T])−1
实际上,我们对这个仿射变换的矩阵的估计,很类似于最小二乘的结果:θT=(yTX)(XTX)−1
这是因为,我们希望通过这个矩阵得到z和x的线性关系,因此直观的可以认为其想法类似。
同时可求得其他的参数:
μ=m1i=1∑mx(i)
Φ=m1i=1∑mx(i)x(i)T−x(i)μz(i)∣x(i)TΛT−Λμz(i)∣x(i)x(i)T+Λ(μz(i)∣x(i)μz(i)∣x(i)T+Σz(i)∣x(i))ΛT
思考
- 因子分析与回归分析不同,因子分析中的因子是一个比较抽象的概念,而回归因子有非常明确的实际意义;
- 主成分分析分析与因子分析也有不同,主成分分析仅仅是变量变换,而因子分析需要构造因子模型。
- 主成分分析:原始变量的线性组合表示新的综合变量,即主成分;
- 因子分析:潜在的假想变量和随机影响变量的线性组合表示原始变量。
Reference
- An Introduction to Probabilistic Graphical Models by Jordan Chapter 14
- CS229