ImageVerifierCode 换一换
格式:DOCX , 页数:7 ,大小:82.81KB ,
资源ID:14387012      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/14387012.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(图像模式识别的方法说明文档格式.docx)为本站会员(b****4)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

图像模式识别的方法说明文档格式.docx

1、正如英文句子由一些短语,短语又由单词,单词又由字母构成一样。用一组模式基元和它们的组成来描述模式的结构的语言,称为模式描述语言。支配基元组成模式的规则称为文法。当每个基元被识不后,利用句法分析就能够作出整个的模式识不。即以那个句子是否符合某特定文法,以判不它是否属于某一类不。这确实是句法模式识不的差不多思想。 句法模式识不系统要紧由预处理、基元提取、句法分析和文法推断等几部分组成。由预处理分割的模式,经基元提取形成描述模式的基元串(即字符串)。句法分析依照文法推理所推断的文法,判决有序字符串所描述的模式类不,得到判决结果。问题在于句法分析所依据的文法。不同的模式类对应着不同的文法,描述不同的目

2、标。为了得到于模式类相适应的文法,类似于统计模式识不的训练过程,必须事先采集足够多的训练模式样本,经基元提取,把相应的文法推断出来。实际应用还有一定的困难。2.1.2统计模式识不统计模式识不是目前最成熟也是应用最广泛的方法,它要紧利用贝叶斯决策规则解决最优分类器问题。统计决策理论的差不多思想确实是在不同的模式类中建立一个决策边界,利用决策函数把一个给定的模式归入相应的模式类中。统计模式识不的差不多模型如图2,该模型要紧包括两种操作模型:训练和分类,其中训练要紧利用己有样本完成对决策边界的划分,并采取了一定的学习机制以保证基于样本的划分是最优的;而分类要紧对输入的模式利用其特征和训练得来的决策函

3、数而把模式划分到相应模式类中。统计模式识不方法以数学上的决策理论为基础建立统计模式识不模型。其差不多模型是:对被研究图像进行大量统计分析,找出规律性的认识,并选取出反映图像本质的特征进行分类识不。统计模式识不系统可分为两种运行模式:训练和分类。训练模式中,预处理模块负责将感兴趣的特征从背景中分割出来、去除噪声以及进行其它操作;特征选取模块要紧负责找到合适的特征来表示输入模式;分类器负责训练分割特征空间。在分类模式中,被训练好的分类器将输入模式依照测量的特征分配到某个指定的类。统计模式识不组成如图2所示。图2 统计模式识不模型2.1.2.1几种统计模式识不的方法统计模式识不依照采纳方法的不同能够

4、进行多种形式的分类:通过贝叶斯决策理论对条件密度已知的样本进行分类;关于类条件密度不明的情况,可依照训练样本的类不是否己知将分类问题分为监督学习和非监督学习两大类;监督学习和非监督学习又可依照是否通过参数决策分为参数可能和非参数可能。统计模式识不的另一种分类方法是依照决策界是否直接得到将其分为几何方法和基于概率密度的方法。几何方法经常直接从优化一定的代价函数构造决策界;而基于概率密度的方法要首先可能密度函数然后构造分类函数指定决策界。1、几何分类法 1) 模板匹配法它是模式识不中的一个最原始、最差不多的方法,它将待识模式分不与各标准模板进行匹配,若某一模板与待识模式的绝大多数单元均相匹配,则称

5、该模板与待识模式“匹配得好”,反之则称“匹配得不行”,并取匹配最好的作为识不结果。2)距离分类法 距离是一种重要的相似性度量,通常认为空间中两点距离越近,表示实际上两样本越相似。大约有十余种作为相似性度量的距离函数,其中使用最广泛的是欧氏距离。它是使用最为广泛的方法,常用的有平均样本法、平均距离法、最近邻法和近邻法。3)线性判不函数 和上述的方法不同,判决函数法是以判决边界的函数形式的假定为其特性的,而上述的方法差不多上以所考虑的分布的假定为其特性的。假如我们有理由相信一个线性判决边界取成: 是合适的话,那么剩下的问题确实是要确定它的权系数。权系数可通过感知器算法或最小平方误差算法来实现。但作

6、为一条规则,应用此方法必须注意两点;第一确实是方法的可适性问题,第二确实是应用判决函数后的误差准则。4)非线性判不函数 线性判决函数的特点是简单易行,实际应用中许多问题往往是非线性的,一种处理的方法将非线性函数转换为线性判决函数,因此又称为广义线性判决函数。另一种方法借助电场的概念,引入非线性的势函数,它通过训练后即可用来解决模式的分类问题。2 概率分类法 几何分类法是以模式类几何可分为前提条件的,在某些分类问题中这种条件能得到满足,但这种条件并不经常能得到满足,模式的分布常常不是几何可分的,即在同一区域中可能出现不同的模式,这时,必须借助概率统计这一数学工具。能够讲,概率分类法的基石是贝叶斯

7、决策理论。 设有R类样本,分不为w1, w2 , , wR,若每类的先验概率为P(wii), i = 1,2 ,3,R,关于一随机矢量,每类的条件概率为(又称类概率密度)P(X/Wii),则依照Bayes公式,后验概率为:从后验概率动身,有Bayes法则:2.1.2.2朴素贝叶斯分类器朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想确实专门朴素,朴素贝叶斯的思想基础是如此的:关于给出的待分类项,求解在此项出现的条件下各个类不出现的概率,哪个最大,就认为此待分类项属于哪个类不。通俗来讲,就好比这么个道理,你在街上看到一个黑人,我问你你猜这哥们哪里来的,你十有八九猜非

8、洲。什么缘故呢?因为黑人中非洲人的比率最高,因此人家也可能是美洲人或亚洲人,但在没有其它可用信息下,我们会选择条件概率最大的类不,这确实是朴素贝叶斯的思想基础。朴素贝叶斯分类的工作过程如下:(1)每个数据样本用一个n维特征向量表示,分不描述对n个属性A1,A2,An样本的n个度量。(2)假定有m个类C1,C2,Cm。给定一个未知的数据样本X(即没有类标号),分类法将预测X属于具有最高后验概率(条件X下)的类。即是讲,朴素贝叶斯分类将未知的样本分配给类Ci,当且仅当如此,最大化。其最大的类Ci称为最大后验假定。依照贝叶斯定理,(3)由于P(X)关于所有类为常数,只需要最大即可。假如类的先验概率未

9、知,则通常假定这些类是等概率的,即P(C1)=P(C2)=P(Cm)。并据此只对最大化。否则,最大化。注意,类的先验概率能够用计算其中si是类Ci中的训练样本数,而s是训练样本总数。(4)给定具有许多属性的数据集,计算的开销可能特不大。为降低计算的开销,能够做类条件独立的朴素假定。给定样本的类标号,假定属性值相互条件独立,即在属性间,不存在依靠关系。如此, (7.8)概率,能够由训练样本估值,其中(a)假如Ak是分类属性,则,其中sik是在属性Ak上具有值xk的类Ci的样本数,而si是Ci中的训练样本数。(b)假如Ak是连续值属性,则通常假定该属性服从高斯分布,因而, (7.9)其中,给定类C

10、i的训练样本属性Ak的值,是属性Ak的高斯密度函数,而分不为平均值和标准差。(5)为对未知样本X分类,对每个类Ci,计算。样本X被指派到类Ci,当且仅当换言之,X被指派到其最大的类Ci。整个朴素贝叶斯分类分为三个时期: 第一时期预备工作时期,那个时期的任务是为朴素贝叶斯分类做必要的预备,要紧工作是依照具体情况确定特征属性,并对每个特征属性进行适当划分,然后由人工对一部分待分类项进行分类,形成训练样本集合。这一时期的输入是所有待分类数据,输出是特征属性和训练样本。这一时期是整个朴素贝叶斯分类中唯一需要人工完成的时期,其质量对整个过程将有重要阻碍,分类器的质量专门大程度上由特征属性、特征属性划分及

11、训练样本质量决定。 第二时期分类器训练时期,那个时期的任务确实是生成分类器,要紧工作是计算每个类不在训练样本中的出现频率及每个特征属性划分对每个类不的条件概率可能,并将结果记录。其输入是特征属性和训练样本,输出是分类器。这一时期是机械性时期,依照前面讨论的公式能够由程序自动计算完成。 第三时期应用时期。那个时期的任务是使用分类器对待分类项进行分类,其输入是分类器和待分类项,输出是待分类项与类不的映射关系。这一时期也是机械性时期,由程序完成。半朴素贝叶斯分类模型(SNBC)为了突破朴素贝叶斯分类器的独立性假设条件的限制,除了上述“提升”等方法之外,还能够通过改变其结构假设的方式来达到目的,为此有

12、人提出了半朴素贝叶斯分类(SNBG Semi-Naive Bayesian classifier)的构想。半朴素贝叶斯分类模型对朴素贝叶斯分类模型的结构进行了扩展,其目的是为了突破朴素贝叶斯分类模型特征属性间独立性假设限制,提高分类性能。目前半朴素贝叶斯分类模型学习的关键是如何有效组合特片属性。条件互信息度量半朴素贝叶斯分类学习算法能够解决目前一此学习算法中存在的效率小高及部分组合意义不大的问题。SNBC的结构比NBC紧凑,在SNBC的模型构建过程中,依照一定的标准将关联程度较大的差不多属性(即NBC中的特征属性)合并在一起构成“组合属性”(也称之为“大属性”)。逻辑上,SNBC中的组合属性与

13、NBC中的差不多属性没有全然性差不,SNBC的各个组合属性之间也是相关于类不属性相互独立的。图是SNBC的模型示意图。这类模型通过将依靠性强的差不多属性结合在一起构建新的模型,如此能够部分屏蔽NBC中独立性假设对分类的负面作用。但从名称能够看出,SNBC依旧属于朴素贝叶斯分类的范畴。这是因为除了结构上的差不之外,计算推导过程与NBC无异。半朴素贝叶斯分类结构示意图2.1.2.3图像金字塔图像金字塔是以多分辨率来解释图像的一种结构。1987年,在一种全新而有效的信号处理与分析方法,即多分辨率理论中,小波首次作为分析基础出现了。多分辨率理论将多种学科的技术有效地统一在一起,如信号处理的子带编码、数

14、字语音识不的积分镜像过滤以及金字塔图像处理。正如其名字所表达的,多分辨率理论与多种分辨率下的信号(或图像)表示和分析有关。其优势专门明显,某种分辨率下无法发觉的特性在另一种分辨率下将专门容易被发觉。图像金字塔是结合降采样操作和平滑操作的一种图像表示方式。它的一个专门大的好处是,自下而上每一层的像素数都不断减少,这会大大减少计算量;而缺点是自下而上金字塔的量化变得越来越粗糙,而且速度专门快。高斯金字塔里有两个概念:组(Octave)和层(Level或Interval),每组里有若干层。高斯金字塔的构造是如此的,第一组的第一层为原图像,然后将图像做一次高斯平滑(高斯卷积、高斯模糊),高斯平滑里有一个参数,然后将乘一个比例系数k作为新的平滑因子来平滑第

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1