ImageVerifierCode 换一换
格式:DOCX , 页数:40 ,大小:176.82KB ,
资源ID:9079932      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/9079932.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(模式识别期末试题DOC.docx)为本站会员(b****7)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

模式识别期末试题DOC.docx

1、模式识别期末试题DOC一、 填空与选择填空(本题答案写在此试卷上, 30分)1、 模式识别系统的基本构成单元包括: 模式采集、特征提取与选 择和模式分类 。2、 统计模式识别中描述模式的方法一般使用 特真矢量 ;句法模式识别中模式描述方法一般有 串、树、 网 。3、 聚类分析算法属于 (1);判别域代数界面方程法属于 (3) 。(1)无监督分类(2)有监督分类 (3)统计模式识别方法(4)句法模式识别方法4、 若描述模式的特征量为 0-1二值特征量,则一般采用 (4) 进行相似性度量。(1 )距离测度 (2)模糊测度 (3)相似测度 (4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(

2、1) J二巩跖 (2)恥比1 (1) (3) (4)(;-1 i-1J = g (函-m(m. -sn) j-i6、线性判别函数的求解过程是将 N维特征矢量投影在 (2)中进行(1) 二维空间 (2) 维空间 (3) 1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有 (1);线性可分、不可分都适用的有 (3)。(1)感知器算法 (2)算法 (3)积累位势函数法8、下列四元组中满足文法定义的有 (1)( 2)( 4) 。(1) ( A B, 0,1, A?01, A? 0A1 , A? 1A0 , B ?,B? 0,A(2) ( A, 0,1, A?0, A ? 0A,A(3) (

3、 S, a, b, S ? 00 S, S ? 11 S, S ? 00, S ? 11,S)(4) ( A, 0, 1, A?01, A ? 0 A1,A ? 1 A0, A9、影响层次聚类算法结果的主要因素有(计算模式距离的测度、(聚类准则、类间距离门限、预定的类别数目))o10、欧式距离具有(1、2 ):马式距离具有(1、2、3、4)o(1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受 量纲影响的特性11、 线性判别函数的正负和数值大小的几何意义是( 正(负)表示样本 点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样 本点到判别界面的距离。)。12、 感知器算法丄。

4、(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。13、 积累势函数法较之于算法的优点是(该方法可用于非线性可分情况(也可用于线性可分情况) ):位势函数K()与积累位势函数 K(x)K(X)二 ZkK(x,Xk )的关系为( Xk X ) O14、 在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于( 某一种 判决错误较另一种判决错误更为重要 )情况:最小最大判决准则主 要用于(先验概率未知的)情况。15、 “特征个数越多越有利于分类”这种说法正确吗?( 错误)。特征选择的主要目的是(从n个特征中选出最有利于分类的的 m个特征(mvrj),以降低特征维数)。一般在( 可分性判据对特

5、征个数具有单调性)和(n )的条件下,可以使用分支定界法以减少计算量。16、 散度越大,说明类模式与类模式的分布( 差别越大);当类模式与 类模式的分布相同时,(0 )。17、 已知有限状态自动机(?,Q d,q0, F),?=0,1 ; q0,q1 ; d: d(q0,0)= q1,d(q0,1)= q1,d(q1,0)0,d(q1,1)0 ; q00; q0。现 有输入字符串:(a) ,(b) 1100110011,(c) 1,(d)0010011,试问,用 对上述字符串进行分类的结果为( 3 1:; 3 2:)。18、 影响聚类算法结果的主要因素有( _)。已知类别的样本质量;分类准则;

6、特征选取;模式相似性 测度。19、 模式识别中,马式距离较之于欧式距离的优点是( _ )。平移不变性;旋转不变性;尺度不变性;考虑了模式的分布。20、 基于二次准则函数的算法较之于感知器算法的优点是( _)可以判别问题是否线性可分;其解完全适用于非线性可分的情 况;其解的适应性更好;计算量小。21、 影响基本C均值算法的主要因素有( )。样本输入顺序;模式相似性测度;聚类准则;初始类心的 选取。22、 位势函数法的积累势函数 K(x)的作用相当于判决中的(_) 先验概率;后验概率;类概率密度;类概率密度与先验概率的乘积。23、 在统计模式分类问题中,当先验概率未知时,可以使用(_) 最小损失准

7、则;最小最大损失准则;最小误判概率准则; 判决。24、 在( )情况下,用分支定界法做特征选择计算量相对较 少。n, ( n为原特征个数,d为要选出的特征个数);样本较多;选用的可分性判据J对特征数目单调不减;选用的可分性判据 J具有可加性。25、 散度是根据()构造的可分性判据。先验概率;后验概率;类概率密度;信息熵;几何距离。26、 似然函数的概型已知且为单峰,贝何用( _)估计该似 然函数。矩估计;最大似然估计;估计;学习;窗法。27、 近邻兀法较之窗法的优点是( )。所需样本数较少;稳定性较好;分辨率较高;连续性较好。28、 从分类的角度讲,用做特征提取主要利用了的性质: ()。变换产

8、生的新分量正交或不相关;以部分新的分量表示原矢量 均方误差最小;使变换后的矢量能量更趋集中;29、 一般,剪辑最近邻方法在(_)的情况下效果较好。样本数较大;样本数较小;样本呈团状分布;样本呈链状 分布。30、 如果以特征向量的相关系数作为模式相似性测度,贝V影响聚类算法 结果的主要因素有(_)。已知类别样本质量;分类准则;特征选取;量纲。、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。答:(1)分类准则,模式相似性测度,特征量的选择,量纲(2)证明:设,有非奇异线性变换:(2分)(2分)(1分)(1分)d2 (為引=( - (

9、Z - 占)1 JJ 1 J? 1 n用荷 m jTf m 31 m=zjS(-垠)徑 _ 虽)1i用i m=刈角筠-壬咫T1-卫以川 亏厲莎)二厲-丹)巧-号) =隔_切罗_呵 =(爲-引w罗/区-引 =(咅一亏)咕1山乙月y】H(X_j) =闵吗叩/T傘-初 =(咅一初1灯4図-引:U ) (4 分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。答:(1)( 4分)临的绝对值M动正比于才到超平面蹄二0的距离血応-一叫+iT = 平面71的方程可以写成111 HII式中 岡=(w; + w;+w;严。于是W_hll是平面71的单位法矢量,上式可写成hl设是平面中的任一点

10、,A是特征空间 J中任一点,点】到平面.的距离为差矢量在广上的投影的绝对值,即比凋(亍-沏二战-溺陟+ W询I 1 I=下厂肓如 (1-1)上式中利用了在平面二中,故满足方程式(1-1)的分子为判别函数绝对值,上式表明, d(口的值0(刖正比于到超平面门1|-;的距离人,一个特征矢量代入判别函数后所得值的绝对值 越大表明该特征点距判别界面越远。(2)( 4分)一;二的正(负)反映】在超平面-;丁 “的正(负)侧两矢量1和P的数积为;” 一十小(2分)显然,当】和匸和夹角小于二时,即丄在】指向的那个半空间中,m 川o;反之,当和;I夹角大于时,即】在背向的那个半 空间中,阚和劾0。由于阿丸,故沖

11、炉罚和弗+也同号。所以, 当r在,指向的半空间中时,匚一I 一;当r在广背向的半空间中,. - o判别函数值的正负表示出特征点位于哪个半空间中, 或者换句话说,表示特征点位于界面的哪一侧。五、(12分,每问4分)在目标识别中,假定有农田和装甲车两种类型, 类型w和类型W2分别代表农田和装甲车,它们的先验概率分别为 0.8和0.2,损失函数如表1所示。现在做了三次试验,获得三个样本的类概率 密度如下: 二:0.3 , 0.1 , 0.6: 0.7 , 0.8 , 0.3(1) 试用贝叶斯最小误判概率准则判决三个样本各属于哪一个类型;(2) 假定只考虑前两种判决,试用贝叶斯最小风险准则判决三个样本

12、 各属于哪一类;(3) 把拒绝判决考虑在内,重新考核三次试验的结果。表1损失判决类145111_ 3 户(珂 | 码)_ 3解:由题可知:丄匚-,二 ,匚 , 户区丨码)_ 1 尸(码丨) 2一,_ :(1)( 4分)根据贝叶斯最小误判概率准则知:P(和碣)-戸(他) P(码|%)弋尸(叭) P(西|砒),P(码)-,则可以任判;I心,:,则判为 X , 则判为P(那)(血不)_。3(51).4(2) (4分)由题可知:一 _ . -P(和码)/H和码)亍,判为吗;Pgl 码)J - _,判为;1 ;Pg ) ; 4,判为r;(3) (4分)对于两类问题,对于样本:,假设亠二已知,有咼丐I X

13、)=加码I码)戸(码IX)+2(勺I眄讯码I x)=_丸(対|昭)P(;r|码)0) + 2(吟I嗚)P(x I码)尸(劭) = PW则对于第一个样本,凤遢|x)二5x021HE4x0.21P,则拒判;R(珂 | x)=F(x)0.24:,则拒判;2 19丽耙心0.51厂,拒判。1.监督学习与非监督学习的区别:监督学习方法用来对数据实现分类,分类规则通过训练获得。该 训练集由带分类号的数据集组成,因此监督学习方法的训练过程是 离线的。非监督学习方法不需要单独的离线训练过程,也没有带分类号 (标号)的训练数据集,一般用来对数据集进行分析,如聚类,确 定其分布的主分量等。(实例:道路图)就道路图像

14、的分割而言,监督学习方法则先 在训练用图像中获取道路象素与非道路象素集,进行分类器设计, 然后用所设计的分类器对道路图像进行分割。使用非监督学习方法,则依据道路路面象素与非道路象素之间的 聚类分析进行聚类运算,以实现道路图像的分割。2.动态聚类是指对当前聚类通过迭代运算改善聚类; 分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。3.线性分类器三种最优准则:准则 :根据两类样本一般类内密集 , 类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向上的投影满足 类内尽可能密集,类间尽可能分开。该种度量通过类内离散矩阵和类间离散矩阵实现。 感知准则函数 :准则

15、函数以使错分类样本到分界面距离之和最 小为原则。其优点是通过错分类样本提供的信息对分类器函数进行修正, 这种准则是人工神经元网络多层感知器的基础。支持向量机 :基本思想是在两类线性可分条件下,所设计的分 类器界面使两类之间的间隔为最大 , 它的基本出发点是使期望泛化 风险尽可能小。、 试问“模式”与“模式类”的含义。如果一位姓王的先生是位老 年人,试问“王先生”和“老头”谁是模式,谁是模式类? 答:在模式识别学科中,就“模式”与“模式类”而言,模式 类是一类事物的代表,概念或典型,而“模式”则是某一事物的具体体现,如“老头”是模式类,而王先生则是“模式”,是“老头”的具体化。二、 试说明距离平

16、方的定义,到某点的距离平方为常数的轨迹的几何 意义,它与欧氏距离的区别与联系。答:距离的平方定义为:其中x,u为两个数据,匚是一个正定对称矩阵(一般为协方 差矩阵)。根据定义,距某一点的距离相等点的轨迹是超椭球,如 果是单位矩阵 艺,则距离就是通常的欧氏距离。三、 试说明用监督学习与非监督学习两种方法对道路图像中道路区域 的划分的基本做法,以说明这两种学习方法的定义与它们间的区 另I。答:监督学习方法用来对数据实现分类,分类规则通过训练获 得。该训练集由带分类号的数据集组成,因此监督学习方法的训 练过程是离线的。非监督学习方法不需要单独的离线训练过程,也没有带分类 号(标号)的训练数据集,一般

17、用来对数据集进行分析,如聚类, 确定其分布的主分量等。就道路图像的分割而言,监督学习方法则先在训练用图像中 获取道路象素与非道路象素集,进行分类器设计,然后用所设计 的分类器对道路图像进行分割。使用非监督学习方法,则依据道路路面象素与非道路象素之 间的聚类分析进行聚类运算,以实现道路图像的分割。四、试述动态聚类与分级聚类这两种方法的原理与不同答:动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚 类则是将样本个体,按相似度标准合并,随着相似度要求的降低 实现合并。五、如果观察一个时序信号时在离散时刻序列得到的观察量序列表示为- 而该时序信号的内在状态序列表示成如果计算在给定 O条件下出现S的概

18、率,试问此概率是何种概率。 如果从观察序列来估计状态序列的最大似然估计,这与决策中基 于最小错误率的决策有什么关系。答:在给定观察序列- -条件下分析它由某个状态序列 S产生的概率似后验概率,写成 P(),而通过0求对状态序列的最 大似然估计,与贝叶斯决策的最小错误率决策相当。1 1/21六、已知一组数据的协方差矩阵为 V 1 ,试问1.协方差矩阵中各元素的含义。2.求该数组的两个主分量。3.主分量分析或称变换,它的最佳准则是什么?4.为什么说经主分量分析后,消除了各分量之间的相关性。r 1答:协方差矩阵为I? J,则1 )对角元素是各分量的方差,非对角元素是各分量之间 的协方差。rX-l -

19、1/22)主分量,通过求协方差矩阵的特征值,用 卜I入得 一,则 :相应的特征向量为:一对应特征向T,x=-T量为1J对应-1这两个特征向量即为主分量。3) 变换的最佳准则为:对一组数据进行按一组正交基分解,在只取相同数量分量 的条件下,以均方误差计算截尾误差最小。4) 在经主分量分解后,协方差矩阵成为对角矩阵,因而 各主分量间相关消除。七、 试说明以下问题求解是基于监督学习或是非监督学习:1.求数据集的主分量2.汉字识别3.自组织特征映射4.图像的分割答:1、求数据集的主分量是非监督学习方法;2、 汉字识别对待识别字符加上相应类别号一一有监督学习 方法;3、 自组织特征映射一一将高维数组按保

20、留近似度向低维映 射一一非监督学习;4、 图像分割 按数据自然分布聚类 非监督学习方法;八、 试列举线性分类器中最著名的三种最佳准则以及它们各自的原答:线性分类器三种最优准则:准则:根据两类样本一般类内密集,类间分离的特点,寻找 线性分类器最佳的法线向量方向,使两类样本在该方向上的投影 满足类内尽可能密集,类间尽可能分开。该种度量通过类内离散矩阵和类间离散矩阵实现。感知准则函数:准则函数以使错分类样本到分界面距离之和 最小为原则。其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。支持向量机:基本思想是在两类线性可分条件下,所设计的 分类器界面使两类

21、之间的间隔为最大 ,它的基本出发点是使期望 泛化风险尽可能小。九、在一两维特征空间,两类决策域由两条直线 H1和H2分界,其中匚 :.-,!: :, : 二.1 : II而包含H1与H2的锐角部分为第一类,其余为第二类。试求:1.用一双层感知器构造该分类器2.用凹函数的并构造该分类器X21) H1与H2将空间划分成四个部分, 按使H1与H2大于零与 小于零表示成四个区域,而第一类属于 (+)区域,为方便起见, 令二 丄 则第一类在(+ + )区域。用双层感知器,神经 元用1 一域值,则在第一类样本输入时,两隐层结点的输出均为+ 1,其余则分别为(+ ) , () , ( + ),故可按图设置域

22、值。X1 X22)用凹函数的并表示:“厂 或表示成;:,如则二一,否则 j十、分别为儿=0,以及X1=3,设有两类正态分布的样本基于最小错误率的贝叶斯决策分界面,其中两类的协方差矩阵:,先验概率相等,并且有1 -121(r-1rL 2 J2V /5试求:以及答:设待求丿,待求由于十二,先验概率相等。则基于最小错误率的决策规则,在两类决策面分界面上的样 本X应满足N 匕二( 1)Jl 1(-11 召1 丄 | 2其中按题意 I 丿, 丿(注:为方便起见,在下面计算中 先去 掉系数4/3)。按题意分界面由x仁3及x2=0两条直线构成,则分界面方程 为r J 二I】对(1)式进行分解有疋石収-2诩石

23、収枠匡= XTS;1X-2#tJS;1X + ga/ 35Pg君)X-2仏匡】必君)X +得 -i - .J: - .- - ( 3)由(3)式第一项得1 1/21/2 1ab=XjQ- a) + 2蛊旳 2 -b)+Xj(l - c)(4)将(4)式与(2)式对比可知11又由1与,得b2=1/4,如果1/2,则表明匸匚,此时分界面方程应为线性,与题b有两种可能,即1/2或1/2 ,意不符,只有1/2则(4)式为:2X1X2 ( 5)将相应结果带入(3)式第二项有2上花-貝抠;k1 1/21/2 11 -呵I JI |)-(#21 _卜苗厂扌心1 +畑)U2 + 旬)引+(扌畑一旳2 + |)

24、衍2 (-1,2)(6)则结合(5)( 2)应有-畑+空畑-0,则2沟=畑(7)1 3 2解得沟沟厂,4r 1-1/21r 11/213-V211/211/九、证明在 艺正定或半正定时,距离r符合距离定义的三个条件,即(1)r()()(2) 当且仅当时,有r()=0(3)r() w r()()证明:根据定义 1 -;:由于艺为对称阵,故艺可以分解为 :二 T , 其中 靠0 0 D= 0 工 0L O O何丿,且所有特征值大于等于零。可以认为r(a,A) (a - ft)rS1 (a - A) (a-球严 DTDP(a - Q (DP(a - J) rDP(a- E)这就变为了传统意义上的欧氏

25、距离,可以由欧氏距离满足的性质直接证明本命题。十、对一副道路图像,希望把道路部分划分出来,可以采用以下两种方法:1.在该图像中分别在道路部分与非道路部分画出一个窗口, 把在这两个窗口中的象素数据作为训练集,用准则方法求得分类器参数,再用 该分类器对整幅图进行分类。2.将整幅图的每个象素的属性记录在一张数据表中, 然后用某种方法将这些数据按它们的自然分布状况划分成两类。因此每个象素就分别 得到相应的类别号,从而实现了道路图像的分害叽试问以上两种方法哪 一种是监督学习,哪个是非监督学习?答:第一种方法中标记了两类样本的标号,需要人手工干预训练过程,属于监督学习方法;第二种方法只是依照数据的自然分布

26、, 把它们划分成两类,属于非监督学习方法。十一、已知有两类数据,分别为top (1, D), (2 0), (b 1) (1, 0)F (0i 1), ( If 1)试求:该组数据的类内及类间离散矩阵 、及答:第一类的均值向量为/, SL -1r 6 -51C 1? $2 = _9-5 61 丿321-2112/r2if 129-26936十二、设一个二维空间中的两类样本服从正态分布,其参数分别为:Fi 01r2小0 11 /:=C1,0) 送殳=0 21 1,先验概率心;一卜试证明:其基于最小错误率的贝叶斯决策分界面方程为一圆,并求其方 程。证明:先验概率相等条件下,基于最小错误率贝叶斯决策的分界面上两 类条件概率密度函数相等。因此有:讨徑严)】(1旳)-卜|厶卜1 - , 1佃-护+彳=|(i1+l)a+j+ln4化简为-P(wJjt)=C-182所以合理的决策是把斗归类于正常状态。2.解:已知条件为严(叭09* 旅je |酗)=02,尸伽】=0. pa I叫)=0 4 人 轴= F(D=0f 1B2根攥1於计篁给果可知后脸概率为|x) = O. 818,再计算出条件以险2

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1