6.二维灰度图像的频率特性及提取
空間頻率(spatialfrequency):
指的是單位空間內影像的變化程度(Howrapidlyastimulus
changesacrossspace.)通常以視角爲其單位,描述此單位內影像亮度變化的週期,並以”cycles
perdegree爲其單位,透過傅立業分析(Fourieranalysis)(Campbell&Robson,1968)我們
可以利用視角內空間頻率分佈情形來描述一張影像的內容。
且呈现方向性。
二维Gabor变换图像的频率特征提取要考虑频率的大小和“方向”
1.定义
Gabor小波变换是用一组滤波器炳数与给定信号的卷积来表示或遢近一个信号植二维Gabs滤波器的函数形式可以表示为〔股1:
(5.13)
这豊s,“置的T"[;:
卜冋彌林的中心
频率;□为高斯标准差.V为尺度参数,"为方向参数.参数匸控制髙斯窗口的宽度、谨荡部分的波长和方向.参数暫则决定了窗口宽度和波长的比例关系*亦即高斯包络函数所影响的農荡教日,滤波器的的数为一个复函数,梵实部和虚部分别可表不为;
C5J4)
⑸5)
占]
hn(yfjx))=^-e[sinff^i)]
公式5」3中宦叉的所有Gabor核函数都具有相似的形状,只是方向和人小不同.亢图5.9可见,其实部和虚部具有柑似的形状,但相位不同。
FigP5.9ShapeofthpGaborKomelsintheSpatialDomain
2.参数选定
二堆Gabor小波是由二维Gabor滤波器函数通过尺度伸缩和旋转生成的一组滤波
器,其参数的选择通常在频率空间进行考庸■为了对一幅图像的整个频率域进行采样.可以采用具有零个中心频率和方向的Gabor滤波器组来描述图像,参数畛的不同
三、应用1P'/亦⑺「•.、—心C:
I;•
・整个频率空间可以是0到无穷大的任意值,由于一幅图像实际的频率分布是-个有限的范闱,所以‘对于国像的局部特征来说,参数©只能在一个很小的范围内选择。
由于图像的纹理是随机分布的,阵的取值范闊为0到加,考虑^jGabor滤波器的对称性・蘇的实际取值范围为0到;^木文采用3个中心频率和4个方向组成的门个Caborit波器斤严参数抚和%的取值如下;
心2nt%=//—(5*19)
式中,v=0,^,2,/1-0rtl,3>/=^+4v.
三、应用实现
二维Gabor小波变换描述了图像1(x)1.给定一点左附近区域的灰度特征,这可以用卷积来定义:
巧(对=(5,16)通过上述方法在每个图像位賈计算得到12个幅值特征反映了以该图像位置为中心的局部区域频域内的能昂分布待征.这12个幅值特征级联起来披称为一个卅叫简写为込即图像位置加今)处的J刃为:
Jfg)={人0川3*Aojgp-'+*J地心j)■齐g#】**AiAu(x*yp«*20)如果进一步将所有像素位置的血f级联起来,就得到输入圏像啲Gabo带征表示:
讯」={丿牡力1(工」)石口}<520
举例:
三个频率四个方向共计12种组合的Gabor变换。
滤波器模板系数的设计-
根据空域中低通冲激响应函数的图形来设计模板的系数
1/17
0.2
0.15
|r
0.1
0.05
-
0
lll[
ilh
II1J
-0.05
0
510
15
20253035
Fig.3-FIRLPDFintimedomain-
-1
-1
-1
-1
-1
-1
1
-1
-1
8
-1
-1
1
-1
-1
-1
-1
-1
-1
Fig.3-FIRHPDFintimedomain-
一维FIRLP和HPfilter
next
NormalizedFrequency(ad/sample)
Fig.3-FIRLPDFintimedomain-
SVM介绍
一、机器学习的概念:
—器学习是现代人工智能技术中的重要方面,它是研究如何从现有的观测数据出发寻找规则,并利用这些规趾村未来数据进行预测’口皿机器学习方法共同的重要理论基础z-•就是统让学I
人工智能人师S曲对学习的阐述是:
“如果一个系统能够通过执行栗种过程而改进它的性能,这就是学习想°随着计算机技术的高速发殆机器学习已经成为人工智能领域的重耍内容’股认为,个机器学习系统应具有以下功能:
适当的学习坏塚具备-定的学习能加能用所学的知识解决问恿能适度地提高自身性能。
因此,研究机器学习的意义就在于:
构造一个能实现特定口标的系统,这个系统不仅能够具有知识获取的能力,而且它必须在内部表现为新的知识结构的建立和改进,外部表现为系统性能的攻善,使系统反应更忆更精氛更健全严
二、机器学习的数学描述
—机器学习的冃的是根据给走的训练样本求对某个系统输入输出之间1衣極忑系的估计,使它能够对木知输出做出尽可能准确的预测巔•可仪一ft的表示为变虽V(输出】和工(输入[之间存在一定的未知的依幟关系.即遵循某一木知的联合概率尺狀力,则机黑学习初题就是根据"个独龙同分布的观测样{(Xi、V,)(^2*r2)■•■比」;)}在啦怖数{/(尿h1)}中求出个最优的惭数{/(仏%)}对依赖关系进行估计*使期望凤险
A(iv)=|I(y./(v.\v))dF(x,y)(4-1)
杲小儿中{/(.r.u)}为忆测函数紀啊址函数的广义夢数.{/(眾诩)}町以衣示任
意函数集,L(yif(xrwf)为111于用/(.r.n-)三、经验风险最小化原则
山于期喘风险是预测隔数在榕个样本空间卜.的羞错率的数学期甲因此題仕式(4-1)最小化必须依賴丁娥合槪彳FW」)的信息。
但是,在实际的机器学门问题中要求已知所有的样本.这个要求比较苛刻.而且样木集的分布两数往往郦以预知•从而便得期與凤险无法直接计界和摄小化.所以传统的学习方法釆用了所谓经验风险最小化(Etn(piricalRiskMinimizatian,简称ERM)原则,即定义经验凤险为
尺叱(明二丄££(旳,/(対、H'))(卜刃
HJ-I
來作为对期翼凤险的替代.并研究学知毎法使它戢小化。
只仃倆足一致性条件:
才能保迹在经验凤险扱小化原则下得到的最优方法当样本无方人时.趋近与使期望凤险最小的疑优结果B
四、SVM
目前绝大多数模式识别芳法都道循ERM准则,真卅义为训练集上的平均出错
率,用于对榕个样本集合的期卑风险进tfttkfc它建立在样本数目足够大的询提
2所提出的各种方法只有在样本数趙向无力人时,才能在理论上探证具悝能。
而在实践应用中,这一前捉通常不能被满足.大多数方法都难以取得较好的学习效果*
统计学研究的是样本数目趋于无穷大时的渐进理论,但在实际遇到的问题中样本数往往是有限的,因此传统的机器学习方法在实际应用中效果不理想。
Vapnik从70年代后期开始
就一直从事统计学习理论的研究。
统计学习理论(StatisticalLearningTheory,SLT)是为解决有
限样本学习问题而建立的一种机器学习理论,而支持向量机(SupportVectorMachineSVM)
正是以此为基础建立起来的一种新的通用学习方法。
该算法在解决非线性、小样本和高维输
入空间等分类问题中表现出很多特有的优势。
1)线性可分的分类面
定义1(分类问题)根据给定的训练集
S{(捲『),,(心yj}(XY)1(5-1)
其中(Xi,yj(X,Y)(Rn,1),l是样本点的个数。
寻找XRn上的一个实值函数f(x),从而用决策函数
g(x)sgn(f(x))sgn((w?
xjb)(5-2)
判断任一模式x相对应的y值。
分类问题的实质就是寻找把Rn上的点分成两部分的规律。
定义2(最优分类超平面)如果训练样本能够被无误差地分类,并且每一类数据与超平面距离最近的向量和该超平面距离最大,则称这个超平面为最优分类
超平面。
2)非线性最优分类超平面
前面葫小F」所介绍的是在线性空间中可分情况下支持向景机呆优趙平面的求解,而对于线性不可分的悄况,超平而的分类能力冇时无袪满足分类的盅要’可以通过非线性变换把样本输入空何的非线性问题转代为禺维空间中的线性问题,从而在冃绮空间中构造线性最优分娄超平面.这样的奇维空间也称为特征空间或Hilberx空间。
Fig.4-3Rq)resentadonofhighdimensioiimappiiig
高维空间
..3.,SVM的核函数
iE如前面所述,核函数是从输入空■Hilbert空间的映射,逸择不同的核函数K(xj),或不同的映射及其相应的Hilbert空何,相当尸选择不同的内积,即采取不同的标准对样本间的和似性和和似程度进行评佔,从而构成不同类型的分类超平面。
现冇比较常用的核函数主耍冇以卜四种:
线性核函数(Linear).多项式核函数(Polynomial)、栓向肚核函数(RadialBasisFunction.RBF)、多层感知机(Multi-LayerPerceptron,MLP)«
I
1)线性核函数
线性核函数是最为常用也最为简单的核疽数,
K(m、Xj)=x;.号
2)灵项式核函数
多项式作为一种非线牲映射:
K(m)二(4-32)
所得到的是d阶§项式分类学门机
/(.V,a)=sign^y,at(x,-,v-1)^-〃)(4-33)
3)径向基函数
经典的径向基函数应用广泛,它使用下面的判定规则:
/(•V)=s倉〃(£a,Kr(|.v一兀)一b)(4-34)
4)多层感知机
当支持向虽机采用Sigmoid函数作为核函数时,就实现了包含•个隐层的多层感知机cSigmoid函数定义为:
K(兀.©)=tanh(scalex(xr•v;)-offset)(4-36)
[I冲.scale和offsetH先确定的参数,S3实现的是0.金•个隐层的多口感知器.算法门动确定隐戻节点数,II不存在类似神经网絡的川部极小点困扰问题。