其他分享
首页 > 其他分享> > 模式识别与机器学习第四章特征选择和提取

模式识别与机器学习第四章特征选择和提取

作者:互联网

        特征选择(从原始特征中挑选):从n个度量值集合{x1, x2,…, xn}中,按某一准则选取出供分类用的子集,作为降维(m维,m<n)的分类特征。

        特征提取(把原始特征变换为较少的特征):使(x1, x2,…, xn)通过某种变换,产生m个特征(y1, y2,…, ym) (m<n) ,作为新的分类特征(或称为二次特征)。

一、模式类别可分性的测度

1.距离和散布矩阵

点到点之间的距离:

点到点集的距离: 

类内距离: 

类内散布矩阵: 

类间散布矩阵:

 多类模式集散布矩阵:

 

 二、特征选择

1.两类训练样本的特征选择

 

         三种不同模式分布的情况

        (a) 中特征xk的分布有很好的可分性,通过它足以分离wi和wj两种类别;

        (b) 中的特征分布有很大的重叠,单靠xk达不到较好的分类,需要增加其它特征;

        (c) 中的wi类特征xk的分布有两个最大值,虽然它与wj的分布没有重叠,但计算Gk约等于0,此时再利用Gk作为可分性准则已不合适

 2.一般特征的散布矩阵准则

        类内、类间的散布矩阵Sw和Sb :类间离散度越大且类内离散度越小,可分性越好。

使J1或J2最大的子集可作为所选择的分类特征。

三、K-L变换/主成分变换(PCA变换)(适用于任意概率密度函数的正交变换)

1.展开式

 

 

 2.正交集的确定

 

3.K-L展开式系数的计算步骤

 4.按K-L展开式选择特征

         从K-L展开式的性质和按最小均方差的准则来选择特征,应使E[aj]=0。在将整体模式进行K-L变换之前,应先将其均值作为新坐标轴的原点,采用协方差矩阵C或自相关矩阵R来计算特征值。

        为使误差最小,不采用的特征向量,其对应的特征值应尽可能小。因此,将特征值按大小次序标号,首先采用前面的m个特征向量,便可使变换误差最小。

        通过K-L变换能获得互不相关的新特征。若采用较大特征值对应的特征向量组成变换矩阵,则能对应地保留原模式中方差最大的特征成分,所以K-L变换起到了减小相关性、突出差异性的效果。

        注:采用K-L变换作为模式分类的特征提取时,要特别注意保留不同类别的模式分类鉴别信息,仅单纯考虑尽可能代表原来模式的主成分,有时并不一定有利于分类的鉴别。

标签:特征选择,模式识别,矩阵,变换,模式,散布,特征,第四章
来源: https://blog.csdn.net/weixin_43939890/article/details/121695020