ImageVerifierCode 换一换
格式:DOC , 页数:16 ,大小:794.50KB ,
资源ID:113258      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/113258.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(模式识别期末考试题及答案.doc)为本站会员(b****9)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

模式识别期末考试题及答案.doc

1、一计算题1、 在图像识别中,假定有灌木和坦克2种类型,它们的先验概率分别是0.7和0.3,损失函数如下表所示。其中,类型w1和w2分别表示灌木和坦克,判决a1=w1,a2=w2。现在做了2次实验,获得2个样本的类概率密度如下:状态损失决策W1W2a10.52a241.0(1)试用最小错误率贝叶斯准则判决2个样本各属于哪一类?坦克、灌木。(2)试用最小风险决策规则判决2个样本各属于哪一类?灌木、灌木。答:(1)最小错误率贝叶斯准则(2)最小风险决策规则2、 给出二维样本数据(-1,1),(2,2),(1,-1),(-2,-2),试用K-L变换作一维数据压缩。答:数据压缩结果:0,0,3、 已知两

2、类的数据:1:(1,0),(2,0),(1,1);2:(-1,0),(0,1),(-1,1),试求该组数据的类内与类间散布矩阵。其中Sw为类内,Sb为类间4、已知欧氏二维空间中两类9个训练样本w1:(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T w2:(1,1)T,(2,0)T,(1,-1)T,(2,1)T,(2,2)T,试分别用最近邻法和K近邻法求测试样本(0,0)T的分类,取K=5,7。答:最近邻法:最近邻为(-1,0)T分类为w1K近邻法:K=5:5个近邻为1类的(-1,0)T,(-2,0)T,2类的(1,1)T,(2,0)T,(1,-1)T 分类为w2K=7:1)若近

3、邻为1类的(-1,0)T,(-2,0)T,(-2,1)T,(-2,-1)T,2类的(1,1)T,(2,0)T,(1,-1)T,则分类为w12)若近邻为1类的(-1,0)T,(-2,0)T,(-2,1)T或(-2,-1)T两个之一,2类的(1,1)T,(2,0)T,(1,-1)T,(2,1)T,则分类为w25. 已知两类的训练样本:w1(0,0)T,(0,2)T;w2(2,0)T,(2,2)T,试用最小平方误差准则算法进行分类器训练,求解向量w*。简答题简答题1. 什么是模式与模式识别?模式:对象之间存在的规律性关系;模式识别:是研究用计算机来实现人类模式识别能力的一门学科。 /*模式:广义地说

4、,模式是一些供模仿用的、完美无缺的标本。本课程把所见到的具体事物称为模式,而将它们归属的类别称为模式类。模式的直观特性:可观察性,可区分性,相似性 模式识别:指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程。*/2. 一个典型的模式识别系统主要由哪几个部分组成 3. 什么是后验概率? 系统在某个具体的模式样本X条件下位于某种类型的概率。4. 确定线性分类器的主要步骤 采集训练样本,构成训练样本集。样本应该具有典型性 确定一个准则J=J(w,x),能反映分类器性能,且存在权值w*使得分类器性能最优 设计求解w的最优算法

5、,得到解向量w*5. 样本集推断总体概率分布的方法6. 近邻法的基本思想是什么?作为一种分段线性判别函数的极端情况,将各类中全部样本都作为代表点,这样的决策方法就是近邻法的基本思想。7. 什么是K近邻法? 取未知样本x的k个近邻,看这k个近邻中多数属于哪一类,就把x归为哪一类。7. 监督学习与非监督学习的区别 利用已经标定类别的样本集进行分类器设计的方法称为监督学习。很多情况下无法预先知道样本的类别,从没有标记的样本集开始进行分类器设计,这就是非监督学习。 /*监督学习:对数据实现分类,分类规则通过训练获得。该训练集由带分类号的数据集组成,因此监督学习方法的训练过程是离线的。 非监督学习方法不

6、需要单独的离线训练过程,也没有带分类号的训练数据集,一般用来对数据集进行分析。如聚类,确定其分布的主分量等。*/8. 什么是误差平方和准则? 对于一个给定的聚类,均值向量是最能代表聚类中所有样本的一个向量,也称其为聚类中心。一个好的聚类方法应能使集合中的所有向量与这个均值向量的误差的长度平方和最小。9. 分级聚类算法的2种基本途径是什么 按事物的相似性,或内在联系组织起来,组成有层次的结构,使得本质上最接近的划为一类,然后把相近的类再合并,依次类推,这就是分级聚类算法的基本思想。聚合法:把所有样本各自看为一类,逐级聚合成一类。基本思路是根据类间相似性大小逐级聚合,每级只把相似性最大的两类聚合成

7、一类,最终把所有样本聚合为一类。分解法:把所有样本看做一类,逐级分解为每个样本一类。10. 特征抽取与特征选择的区别? 特征抽取:原始特征的数量可能很大,或者样本处于一个高维空间中,通过映射(或变换)的方法可以用低维空间来表示样本,这个过程叫特征抽取。所谓特征抽取在广义上就是指一种变换。 特征选择:从一组特征中挑选出一些最有效的特征以达到降低特征空间维数的目的,这个过程叫特征选择。特征抽取是通过变换的方法组合原始高维特征,获得一组低维的新特征,而特征选择是根据专家的经验知识或根据某种评价准则来挑选出那些对分类最有影响力的特征,并未形成新的特征。11. 什么是最优搜素算法? 最优搜索算法:至今能

8、得到最优解的唯一快速算法是“分支定界”算法。属于自上而下的算法,具有回溯功能。由于合理地组织搜索过程,使得有可能避免计算某些特征组合而不影响结果为最优。12统计学习理论的核心问题 统计学习理论被认为是目前针对小样本统计估计和预测学习的最佳理论。主要内容包括4个方面:(1)经验风险最小化原则下统计学习一致性的条件(2)在这些条件下关于统计学习方法推广性的界的结论(3)在这些界的基础上建立的小样本归纳推理原则(4)实现这些新的原则的实际方法13什么是支持向量机? 支持向量机:在统计学习理论基础上发展出的识别方法,在解决小样本、非线性及高维模式识别问题中表现出其优势。问答题问答题1. 描述贝叶斯公式

9、及其主要作用 3.请详细写出感知器训练算法步骤 4. 请详细写出Fisher算法实现步骤5. 什么是两分剪辑近邻法和压缩近邻法 6.请详细介绍初始聚类中心的选择方法 8.什么是离散K-L变换以及离散有限K-L展开 离散K-L变换又称主成分分析(PCA),是一种基于目标统计特性的最佳正交变换,被广泛应用于数据压缩、特征降维等方面。一个非周期性随机过程用具有互不相关系数的正交函数的级数展开。K-L展开式就是这样一种展开方法。一、 (15分)设有两类正态分布的样本集,第一类均值为,方差,第二类均值为,方差,先验概率,试求基于最小错误率的贝叶斯决策分界面。解 根据后验概率公式, (2)及正态密度函数

10、,。 (2)基于最小错误率的分界面为, (2)两边去对数,并代入密度函数,得 (1) (2)由已知条件可得,(2)设,把已知条件代入式(1),经整理得, (5)二、 (15分)设两类样本的类内离散矩阵分别为, ,各类样本均值分别为,试用fisher准则求其决策面方程,并判断样本的类别。解: (2)投影方向为 (6)阈值为 (4)给定样本的投影为, 属于第二类 (3)三、 (15分)给定如下的训练样例实例x0x1x2t(真实输出)11111212013101-14112-1用感知器训练法则求感知器的权值,设初始化权值为;1 第1次迭代 (4)2 第2次迭代 (2)3 第3和4次迭代 四、 (15

11、分)i. 推导正态分布下的最大似然估计;ii. 根据上步的结论,假设给出如下正态分布下的样本,估计该部分的均值和方差两个参数。1 设样本为K=x1, x2 , xN ,正态密度函数 (2)则似然函数为 (2)对数似然函数 (2)最大似然估计 (2)对于正态分布, (2)2 根据1中的结果, (5)五、 (15分)给定样本数据如下:,(1) 对其进行PCA变换(2) 用(1)的结果对样本数据做一维数据压缩解(1)PCA变换 1 求样本总体均值向量 2 求协方差矩阵 (2) 3求特征根,令,得,。 (1)由,得特征向量, (2)则PCA为, (5) (2)要做一维压缩,就是向最大特征根对应的特征向

12、量做投影,得 , (5)五、(12分,每问4分) 在目标识别中,假定有农田和装甲车两种类型,类型w1和类型w2分别代表农田和装甲车,它们的先验概率分别为0.8和0.2,损失函数如表1所示。现在做了三次试验,获得三个样本的类概率密度如下: :0.3,0.1,0.6 :0.7,0.8,0.3 (1)试用贝叶斯最小误判概率准则判决三个样本各属于哪一个类型;(2)假定只考虑前两种判决,试用贝叶斯最小风险准则判决三个样本各属于哪一类;(3)把拒绝判决考虑在内,重新考核三次试验的结果。 表1类型损失判决145111解:由题可知:,(1)(4分)根据贝叶斯最小误判概率准则知:,则可以任判;,则判为;,则判为

13、;(2)(4分)由题可知:则 ,判为; ,判为; ,判为;(3)(4分)对于两类问题,对于样本,假设已知,有则对于第一个样本,则拒判;,则拒判;,拒判。 一、 已知一组数据的协方差矩阵为,试问1 协方差矩阵中各元素的含义。2 求该数组的两个主分量。3 主分量分析或称K-L变换,它的最佳准则是什么?4 为什么说经主分量分析后,消除了各分量之间的相关性。答:协方差矩阵为,则1) 对角元素是各分量的方差,非对角元素是各分量之间的协方差。2) 主分量,通过求协方差矩阵的特征值,用得,则,相应的特征向量为:,对应特征向量为,对应。这两个特征向量即为主分量。3) K-L变换的最佳准则为:对一组数据进行按一组正交基分解,在只取相同数量分量的条件下,以均方误差计算截尾误差最小。4) 在经主分量分解后,协方差矩阵成为对角矩阵,因而各主分量间相关消除。二、 设有两类正态分布的样本基于最小错误率的贝叶斯决策分界面,分别为X2=0,以及X1=3,其中两类的协方差矩阵,先验概率相等,并且有, 。试求:以及。答:设待求,待求由于,先验概率相等。则基于最小错误率的Bayes决策规则,在两类决策面分界面上的样本X应满足(1)其中按题意,(注:为方便起见,在下面计算中先去掉系数4/3)。按题意分界面由x1=3及x2

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1