特征值和特征向量在机器学习中有着很重要的应用,本文介绍一些相关的结论和证明,方便大家复习参考。
定义
特征向量与特征值
定义:对方阵A,若存在λ和非零向量x,满足Ax=λx,则称λ为矩阵A的特征值(eigenvalue),x为A属于特征值λ的特征向量(eigenvector)
Ax=λx⇒(A−λI)x=0
因此,我们可以认为满足这个方程的x∈N(A−λI),也就是说,x属于这个零空间。
我们知道,对于任意的λ,向量x总满足Ax=λx,但我们关心的是由非零向量x满足此方程的特殊的λ值。
因此, 不难得到以下推论:
N(A−λI) 含非零向量 ⇔A−λ不可逆 ⇔det(A−λI)=0
特征方程
我们记det(A−λI)=0为矩阵A的特征方程(characteristic equation),A的特征值就是特征方程的解。
从直观理解上看,由于矩阵的乘法实际上是对向量进行坐标旋转变换,而Ax=λx表示了一种特殊的向量,它使得左乘A后的向量依然与x共线。
求解方法
- 计算特征多项式det(A−λI)。
- 求特征方程det(A−λI)=0的解,即为特征值。
- 对每个特征值λ,求解其次线性方程组(A−λI)x=0,其所有非零解即为属于λ的所有特征向量。
性质
矩阵A不可逆⇔A有零特征值。
实对称矩阵的特征向量两两正交。
Ax1=λ1x1Ax2=λ2x2
x2TAx1=λ1x2Tx1⇒(Ax2)Tx1=λ1x2Tx1
λ2x2Tx1=λ1x2Tx1
(λ1−λ2)x2Tx1=0⇒x2Tx1=0
投影矩阵的特征值为0和1。
P是到子空间V⊂Rn的投影矩阵,其中p=Pb,b∈V
若b∈V,则Pb=b
若b⊥V,则Pb=0
反射矩阵R=I−2uuT的特征值是1和-1。
上(下)三角矩阵的特征值为所有的对角元。
Markov矩阵A一定有特征值1(且为最大特征值)。
- 由于Markov矩阵的列项之和为1,那么每一列减去1,列项之和就变成0,一次你各行之间线性相关。即
(A−I)T⎝⎜⎜⎜⎜⎜⎜⎜⎜⎛11...1⎠⎟⎟⎟⎟⎟⎟⎟⎟⎞=0
- 因此λ=1。
由代数学基本定理,任何复系数一元n次多项式方程在复数域上至少有一根(n≥1),由此推出,n次复系数多项式方程在复数域内有且只有n个根(重根按重数计算),并且,虚根一定成对出现。
若λ是矩阵A的特征值,则λ2是A2的特征值,λ+m是A+mI的特征值。
设p(x)是关于x的多项式函数,则p(λ)是矩阵p(A)的一个特征值。
若A可逆,则λ1为A−1的一个特征值。
设n阶矩阵A=(aij)有n个特征值,可能重复,则
矩阵互异特征值对应的特征向量线性无关。
当A的所有特征值均小于1时,E−A可逆。
参考资料
- 马尔科夫矩阵 矩阵的特征值和特征向量
- 行列式的本质