模式识别教材书选择填空期末汇总
作者:互联网
给不爱复习的Z同学。
参考教材书:《模式识别》吴陈等编著,机械工业出版社。
第2章(P47)
2.11 选择题
(1)影响聚类算法结果的主要因素有( B C D BCD BCD)
A . A. A. 已知类别的样本质量 B . B. B. 分类准则 C . C. C. 特征选取 D . D. D. 模式相似性测度
(2)聚类分析算法属于( A A A)
A . A. A. 无监督分类 B . B. B. 有监督分类 C . C. C. 统计模式识别方法 D . D. D. 句法模式识别方法
(3)影响 K − K- K−均值聚类算法效果的主要因素之一是初始聚类中心的选取,相比较而言,怎样选择 k k k 个样本作为初始聚类中心较好( C C C)
A . A. A. 按输入顺序选前 B . B. B. 选相距最远的 C . C. C. 选分布密度最高处的 D . D. D. 随机挑选
(4)如下聚类算法中,属于静态聚类算法的是( A B AB AB)
A . A. A. 最大最小距离聚类算法 B . B. B. 层次聚类算法 C . C. C. K − K- K−均值聚类算法 D . D. D. I S O D A T A ISODATA ISODATA 算法
(5)若描述模式的特征量为 0 − 1 0-1 0−1 二值特征向量,则一般采用( D D D)进行相似度量。
A . A. A. 距离测度 B . B. B. 模糊测度 C . C. C. 相似测度 D . D. D. 匹配测度
2.12 填空题
(1)影响层次聚类算法结果的主要因素有 计算模式距离的测度、聚类准则、类间距离阈值、预定的类别数目。
(2)层次聚类算法为 凝聚法 和 分裂法。
(3)动态聚类算法选择若干样品作为 聚类中心,再按照某种聚类准则,将其余的样品归入 各中心,得到初始分类。
(4)影响 K − K- K−均值聚类算法的因素有聚类中心个数、初始聚类中心、样品的几何性质及排列次序。
第3章(P95)
3.16 选择题
(1)费歇尔线性判别函数的求解过程是将 N N N 维特征向量投影在( B B B)中进行。
A . A. A. 二维空间 B . B. B. 一维空间 C . C. C. N − 1 N-1 N−1 维空间 D . D. D. 三维空间
(2)感知器算法( A A A)情况。
A . A. A. 只适用于线性可分 B . B. B. 只适用于线性不可分 C . C. C. 不适用于线性可分 D . D. D. 适用于线性可分和不可分
(3) H − K H-K H−K 算法( D D D)。
A . A. A. 只适用于线性可分 B . B. B. 只适用于线性不可分 C . C. C. 不适用于线性可分 D . D. D. 适用于线性可分和不可分
(4)位势函数法的积累势函数 K ( X ) K(X) K(X) 的作用相当于贝叶斯判别中的( B D BD BD)。
A . A. A. 先验概率 B . B. B. 后验概率 C . C. C. 类概率密度 D . D. D. 类概率密度与先验概率的乘积
(5)聚类分析算法属于无监督分类;判别域代数界面方程法属于( C C C)。
A . A. A. 无监督分类 B . B. B. 有监督分类 C . C. C. 统计模式识别方法 D . D. D. 句法模式识别方法
(6)类域界面方程法中,能求线性不可分情况下分类问题近似或精确解的方法是( B C D BCD BCD)。
A . A. A. 感知器算法 B . B. B. 伪逆法 C . C. C. 基于二次准则的 H − K H-K H−K 算法 D . D. D. 势函数法
对于D,势函数法:势函数非线性。
对于C,基于二次准则的H-K算法:在最小均方误差准则下求得权矢量,可以解决非线性问题。
对于B,伪逆法:径向基(RBF)神经网络的训练算法,解决线性不可分的情况。
对于A,感知器算法:线性分类模型。
“不能求解线性不可分情况下的分类问题” 即:“不能求解非线性分类问题”,感知器算法属于线性分类模型,故不能求解非线性分类问题。
汇总:解决非线性问题:势函数法;基于二次准则的H-K算法;伪逆法
只能解决线性问题:感知器算法。
(7)判别域代数界面方程法属于( B B B)。
A . A. A. 无监督分类 B . B. B. 统计模式识别方法 C . C. C. 模糊模式识别方法 D . D. D. 句法模式识别方法
(8)下列判别域界面方程法中只适用于线性可分情况的算法有( A A A)。
A . A. A. 感知器算法 B . B. B. H − K H-K H−K 算法 C . C. C. 积累位势函数法 D . D. D. 费歇尔线性判别法
(9)线性可分、不可分都适用的有( C C C)。
A . A. A. 感知器算法 B . B. B. H − K H-K H−K 算法 C . C. C. 积累位势函数法 D . D. D. 费歇尔线性判别法
3.17 填空题
(1) L M S E LMSE LMSE 算法是对准则函数引进 最小均方误差 这一条件而建立起来的。
(2)核方法首先采用非线性映射将原始数据由 数据空间 映射到 特征空间,进而在特征空间进行着对应的线性操作。
(3)线性判别函数的正负和数值大小的几何意义是,正负表示样本点位于判别界面法向量指向的 正(负) 半空间中,绝对值正比于 样本点到判别界面的距离。
第5章(P184)
5.2 选择题
(1)欧氏距离具有( A B AB AB),马氏距离具有( A B C D ABCD ABCD)
A . A. A. 平移不变形 B . B. B. 旋转不变形 C . C. C. 尺寸缩放不变形 D . D. D. 不受量纲影响的特性
(2)下列函数可以作为聚类分析中的准则函数的有( A C D ACD ACD)
A . t r ( S ω − 1 S b ) A.tr({S_\omega}^{-1}S_b) A.tr(Sω−1Sb) B . ∣ S ω S b − 1 ∣ B.|S_\omega{S_b}^{-1}| B.∣SωSb−1∣
C . ∑ j = 1 c ∑ i = 1 N j ∣ ∣ X i ( j ) − M j ∣ ∣ 2 C.\sum\limits_{j=1}^{c}\sum\limits_{i=1}^{N_j}||{X_i}^{(j)}-M_j||^2 C.j=1∑ci=1∑Nj∣∣Xi(j)−Mj∣∣2 D . ∑ j = 1 c ( M j − M ) ( M j − M ) T D.\sum\limits_{j=1}^{c}(M_j-M)(M_j-M)^T D.j=1∑c(Mj−M)(Mj−M)T
5.3 填空题
(1)设 ω i = { x k ( i ) , k = 1 , 2 , ⋅ ⋅ ⋅ , N i } \omega_i=\{{x_k}^{(i)},k=1,2,···,N_i\} ωi={xk(i),k=1,2,⋅⋅⋅,Ni} 的均值向量为 m ( i ) m^{(i)} m(i),则由样本集定义的类内均方欧氏距离为 D i ‾ 2 = E { D 2 ( X k , X l ) } = E { ( X k − X l ) T ( X k − X l ) } \overline{D_i}^2=E\{D^2(X_k,X_l)\}=E\{(X_k-X_l)^T(X_k-X_l)\} Di2=E{D2(Xk,Xl)}=E{(Xk−Xl)T(Xk−Xl)}。
(2)三种基于概率密度的判断依据分别为:散度、 C h e r n o f f Chernoff Chernoff界限、巴氏距离。
(3)基于熵的可分性判别定义为 J h = E x [ − ∑ i = 1 c P ( ω i ∣ x ) log P ( ω i ∣ x ) ] J_h=E_x[-\sum\limits_{i=1}^{c}P(\omega_i\mid x)\log P(\omega_i\mid x)] Jh=Ex[−i=1∑cP(ωi∣x)logP(ωi∣x)], J h J_h Jh 越 大,说明模式的可分辨性越强。当 P ( ω i ∣ x ) = P(\omega_i\mid x)= P(ωi∣x)= 0 时, J h J_h Jh 达到极大值。
(4)散度 J i j J_{ij} Jij 越大,说明 ω i \omega_i ωi 类模式与 ω j \omega_j ωj 类模式的分布分离 差别越大;当 ω i \omega_i ωi 类模式与 ω j \omega_j ωj 类模式的分布相同时, J i j = J_{ij}= Jij= 0。
第6章(P214)
6.1 句法模式识别中,模式类是如何描述的?
由某个文法所描述的所有模式即句子的集合构成一个模式类。
6.2 文法 G G G 的四元组表达式为: G = ( V T , V N , S , P ) G=(V_T,V_N,S,P) G=(VT,VN,S,P)。
6.3 按照产生式的形式定义的四种文法的包含关系为:3型 ⊆ \subseteq ⊆ 2型 ⊆ \subseteq ⊆ 1型 ⊆ \subseteq ⊆ 0型。
6.7 句法模式识别中模式表述的方法有( A B C ABC ABC)
A . A. A. 符号串 B . B. B. 树 C . C. C. 图 D . D. D. 特征向量
第8章(P276)
8.9 神经网络的学习方式有 有导师的学习、无导师的学习。
8.10 离散型 H o p f i e l d Hopfield Hopfield 神经网络的工作方式有 同步、异步、。
8.11 感知器算法只适用于 线性可分问题。
8.12 单层感知器网络用于解决 线性可分 问题,而多层感知器网络可以解决 非线性可分 问题。
第9章(P285)
9.1 决策树基本由 分支结点、分支、叶结点 部分组成。
9.2 决策树学习通常包括三个步骤:特征选择、决策树生成、决策树剪枝。
9.3 在属性 A A A 上分支获得的信息增益表示为: G a i n ( A , D ) = I n f o ( D ) − E ( A , D ) = I ( s 1 , s 2 , ⋅ ⋅ ⋅ , s m ) − E ( A , D ) Gain(A,D)=Info(D)-E(A,D)=I(s_1,s_2,···,s_m)-E(A,D) Gain(A,D)=Info(D)−E(A,D)=I(s1,s2,⋅⋅⋅,sm)−E(A,D)。
9.4 基尼指数是一种数据的不纯度的度量方法,其公式为: G i n i ( D ) = ∑ j = 1 m p j ( 1 − p j ) = 1 − ∑ j = 1 m p j 2 Gini(D)=\sum\limits_{j=1}^{m}p_j(1-p_j)=1-\sum\limits_{j=1}^{m}{p_j}^2 Gini(D)=j=1∑mpj(1−pj)=1−j=1∑mpj2。
9.5 在建立决策树时,为了降低噪声影响,可进行 先剪枝 和 后剪枝 两种剪枝操作。
第10章(P300)
10.4 S V M SVM SVM 是一种两类分类模型,其基本模型定义为特征空间上的 间隔最大 的线性分类器。
10.5 支持向量机利用 核函数 取代了高位特征空间中的内积运算,解决了算法可能导致的“维数灾难”问题。
第11章(P321)
11.2 设论域 U = { 1 , 2 , 3 , 4 , 5 } U=\{1,2,3,4,5\} U={1,2,3,4,5} 的二元关系 R 1 = { < 2 , 3 > , < 3 , 2 > , < 3 , 5 > , < 5 , 3 > , < 5 , 2 > , < 2 , 5 > } ∪ I U , R 2 = { < 4 , 2 > , < 2 , 4 > , < 2 , 3 > , < 3 , 2 > , < 4 , 3 > , < 3 , 4 > , < 1 , 5 > , < 5 , 1 > } ∪ I U R_1=\{<2,3>,<3,2>,<3,5>,<5,3>,<5,2>,<2,5>\}\cup I_U,R_2=\{<4,2>,<2,4>,<2,3>,<3,2>,<4,3>,<3,4>,<1,5>,<5,1>\}\cup I_U R1={<2,3>,<3,2>,<3,5>,<5,3>,<5,2>,<2,5>}∪IU,R2={<4,2>,<2,4>,<2,3>,<3,2>,<4,3>,<3,4>,<1,5>,<5,1>}∪IU,其中 I U I_U IU 为 U U U 上的恒等关系,则 U / R 1 = { < 2 , 3 , 5 > , < 1 > , < 4 > } U/R_1=\{<2,3,5>,<1>,<4>\} U/R1={<2,3,5>,<1>,<4>}, U / R 2 = { < 2 , 3 , 4 > , < 1 , 5 > } U/R_2=\{<2,3,4>,<1,5>\} U/R2={<2,3,4>,<1,5>}。
11.3 信息系统的四元组表达形式为: S = < U , A , V , f > S=<U,A,V,f> S=<U,A,V,f>。
标签:感知器,模式识别,汇总,算法,聚类,线性,填空,omega 来源: https://blog.csdn.net/gwruiki/article/details/117390855