其他分享
首页 > 其他分享> > 机器学习基础:特征分解,奇异值分解

机器学习基础:特征分解,奇异值分解

作者:互联网

一、特征分解

1、特征向量

对于一个方阵(行数和列数相等的矩阵) A A A,特征向量就是指与 A A A相乘的一个非零向量 ν \nu ν 等于这个非零向量的缩放,即 A ν = λ ν A\nu=\lambda\nu Aν=λν其中, λ \lambda λ称为特征值, ν \nu ν称为特征向量。在线性代数中,通常使用变换式: ( A − λ I ) ν = 0 (A-\lambda I)\nu=0 (A−λI)ν=0

2、特征分解

1、定义:将矩阵分解成一组特征向量和特征值。

2、特征分解:
*****假设矩阵 A A A 的特征向量是 { ν ( 1 ) , ⋯   , ν ( n ) } \{\nu^{(1)},\cdots,\nu^{(n)} \} {ν(1),⋯,ν(n)},对应的特征值为 { λ 1 , ⋯   , λ n } \{\lambda_1,\cdots,\lambda_n\} {λ1​,⋯,λn​}。
*****令矩阵 V = [ ν ( 1 ) , ⋯   , ν ( n ) ] V= [\nu^{(1)},\cdots,\nu^{(n)}] V=[ν(1),⋯,ν(n)],其中,每一列为一个特征向量;
*****令向量 λ = [ λ 1 , ⋯   , λ n ] \lambda = [\lambda_1,\cdots,\lambda_n] λ=[λ1​,⋯,λn​],其中,每一个元素为一个特征值;
特征分解记作: A = V d i a g ( λ ) V − 1 A=Vdiag(\lambda)V^{-1} A=Vdiag(λ)V−1 其中, d i a g diag diag表示的是对角矩阵

3、不是每一个矩阵都可以被分解,但是每个实对称矩阵都可以被分解成为特征向量和实特征值:
A = Q Λ Q − 1 A=Q\Lambda Q^{-1} A=QΛQ−1 其中, Q Q Q是 A A A的特征向量组成的正交矩阵, Λ \Lambda Λ是对角矩阵。

4、有时候,特征分解也不是唯一的,我们通常按照降序排列 L a m b d a Lambda Lambda的元素,在这个约束下,特征分解唯一

3、正定、半正定、负定、半负定

1、正定:所有特征值都是整数的矩阵
2、半正定:所有特征值都是非负数的矩阵
3、负定:所有矩阵都是负数的矩阵
4、半负定:所有矩阵都是非正数的矩阵
5、对于半正定矩阵,有以下规律,这也是它受到重视的原因:
∀ x , x T A x ≥ 0 \forall x,x^T Ax\geq0 ∀x,xTAx≥0对于正交矩阵,还有 x T A x = 0    ⟹    x = 0 x^TAx=0\implies x= 0 xTAx=0⟹x=0

二、奇异值分解

1、对于非方阵的矩阵,它是没有特征分解的,所以这个时候我们只能使用奇异值分解。奇异值分解与特征分解类似,它是将矩阵分为奇异向量和奇异值,对于矩阵 A A A,有: A = U D V T A = UDV^T A=UDVT 其中,假设 A A A是一个 m × n m \times n m×n的矩阵,那么 U U U是一个 m × m m \times m m×m的矩阵, D D D是一个 m × n m \times n m×n的矩阵, V V V是一个 n × n n \times n n×n的矩阵。其中, U U U和 V V V是正交矩阵, D D D是对角矩阵(不一定是方阵)。

2、对角矩阵 D D D的对角线上的元素成为矩阵 A A A的奇异值,矩阵 U U U的列向量为左奇异向量,矩阵 V V V的列向量称为右奇异向量

标签:特征值,机器,特征向量,矩阵,分解,奇异,nu,lambda
来源: https://blog.csdn.net/qq_50048105/article/details/114006508