最新基于SVM的土地覆盖遥感分类研究Word下载.docx

上传人:b****3 文档编号:13799949 上传时间:2022-10-13 格式:DOCX 页数:16 大小:241.79KB
下载 相关 举报
最新基于SVM的土地覆盖遥感分类研究Word下载.docx_第1页
第1页 / 共16页
最新基于SVM的土地覆盖遥感分类研究Word下载.docx_第2页
第2页 / 共16页
最新基于SVM的土地覆盖遥感分类研究Word下载.docx_第3页
第3页 / 共16页
最新基于SVM的土地覆盖遥感分类研究Word下载.docx_第4页
第4页 / 共16页
最新基于SVM的土地覆盖遥感分类研究Word下载.docx_第5页
第5页 / 共16页
点击查看更多>>
下载资源
资源描述

最新基于SVM的土地覆盖遥感分类研究Word下载.docx

《最新基于SVM的土地覆盖遥感分类研究Word下载.docx》由会员分享,可在线阅读,更多相关《最新基于SVM的土地覆盖遥感分类研究Word下载.docx(16页珍藏版)》请在冰豆网上搜索。

最新基于SVM的土地覆盖遥感分类研究Word下载.docx

 

基于SVM的土地覆盖遥感分类研究

摘要:

在目前的遥感分类中,最常用的方法是传统的最小距离法和最大似然法,其分类结果由于分类方法本身的问题及遥感图像的空间分辨率以及“同物异谱”,“同谱异物”现象的存在,而往往出现较多的错分、漏分情况,导致分类精度不高。

支持向量机(SupportVectorMachine,SVM)是基于研究小样本情况下机器学习规律的统计学习理论的新的机器学习方法,它以结构风险最小化为准则,对实际应用中有限训练样本的问题,表现出很多优于已有学习方法的性能。

本文通过对TM图像的土地覆盖进行传统方法分类与SVM分类的对比实验,结果表明SVM总体分类精度为98.5610%,kappa系数为0.9610,具有更高的分类精度。

关键词:

SVM;

土地覆盖;

遥感分类;

TM

LandCoverClassificationfromRemoteSensingImageUsingSupportVectorMachines

Abstract:

Inthecurrentremotesensingimageclassification,themostcommonlyusedmethodisthetraditionalmethodsuchastheminimumdistanceandthemaximumlikelihoodmethod.However,duetothelimitationoftheclassificationmethods,theinherentfeatureofspatialresolutionofremotesensingimagessuchas"

withsynonymsspectrum"

and"

foreignbodyinthesamespectrum",mistakesandomissioninclassificationoccuroften,resultinginclassificationaccuracyisnothigh.SVM(SupportVectorMachine,SVM)isanewmachinelearningmethodbasedonthelawsofstatisticallearningtheoryforsmallsamplecase,whichfollowingtheguidelinesforstructuralriskminimization.Onthepracticalapplicationofthelimitedtrainingsamples,SVMhaveshownbetterperformancethanlearningmethods.InthispaperbasedontheTMimageofthetraditionalmethodsofland-coverclassificationandSVMclassificationexperiments,theoverallresultsshowthattheSVMclassificationaccuracyof98.5610%,kappacoefficientof0.9610,withahigherclassificationaccuracy.

Keywords:

SupportVectorMachine;

Landcover;

Remotesensingimageclassification;

TM

1引言

在遥感应用中,通过遥感图像处理和判读来识别各种地物是一个主要的工作目的,无论是地物信息提取、土地动态变化监测,还是专题地图制作和遥感图像库的建立等都离不开分类。

遥感图像的计算机分类,是对遥感图像上的地物进行属性的识别和分类,是模式识别技术在遥感技术领域中的具体运用。

常见的模式识别技术主要包括监督分类和非监督分类。

非监督分类凭借遥感图像上地物的光谱特征,即自然聚类的特性进行分类。

分类结果只是区分了存在的差异,不能确定类别的属性。

类别的属性需要通过目视判读或实地调查后确定。

监督分类利用对研究区的实地调查资料,从已经知道的训练样区中计算出实际地区的光谱统计数据作为图像分类的判别依据,并以此对整个图像的像元做判别处理,使得具有相似光谱特征并满足一定判别规则的像元归并为一类。

遥感图像分类中,采用较多的是传统的基于统计决策法(判别理论识别法)的模式识别分类方法:

诸如最小距离法,最大似然法等监督分类法。

分类方法是根据遥感图像数据的统计特征与训练样本数据之间的统计关系来进行分类的,其分类精度往往不甚理想。

同时由于遥感图像本身的空间分辨率以及“同物异谱”,“同谱异物”现象的存在,而往往出现较多的错分、漏分情况,导致分类精度不高。

本文利用SVM与传统的最小距离法、最大似然法进行基于TM影像的土地覆盖分类的对比试验,实验结果表明SVM具有较高的分类精度和空间稳定性。

2传统的遥感分类方法

传统的遥感分类方法是一种基于统计决策法(判别理论识别法)模式识别的分类方法[1]。

统计决策法模式识别指的是:

对研究对象进行大量的统析,抽出反映模式的本质特点、特征而进行识别。

主要有监督分类中的最小距离法、逐次参数估计法、梯度法、最小均方误差法、费歇准则法和非监督分类中的按批修改的逐步聚类法、等混合距离法。

此外还可以将两者结合起来,互相补充以获得较好的效果。

由于是基于数理统计理论,所以常规统计算法一般在样本的数目趋于无穷大时,才能获得良好的分类精度,但是在实际工作中样本的数目往往是有限的,所以这种分类方法难以取得理想的分类效果[3]。

在遥感图像数据的分类中,人们最常用的是最大似然分类法和最小距离分类法。

最大似然分类法一般是基于贝叶斯(Bayes)准则构建起来的,而基于各种判决距离函数的多种分类方法都称为最小距离分类法。

2.1最大似然法[9]

最大似然分类方法是基于贝叶斯准则的分类错误概率最小的一种非线性分类,是应用比较广泛、比较成熟的一种监督分类方法。

最大似然法假设遥感图像的每个波段数据都为正态分布。

其基本思想是:

地物类数据在空间中构成特定的点群;

每一类的每一维数据都在自己的数轴上为正态分布,该类的多维数据就构成了一个多维正态分布;

各类的多维正态分布模型各有其分布特征,例如,所在位置、形状、密集或分散的程度等。

对于具有3个特征的正态分布来说,每一类的数据就是一个近似钟形的立方体。

不同类形成的“钟”在高低、粗细、尖阔等方面都不相同;

根据各类的已知数据,可以构造出各类的多维正态分布模型(实际为各类中数据向量的频率,即概率密度函数或概率分布函数);

在此基础上,对于任何一个像素,可反过来求它属于各类的概率,取最大概率对应的类为分类结果。

其判决函数di(x)如下:

di(x)=lnP(Wi)-ln|Σi|-[(x-Mi)T(Σi)-1(x-Mi)]

(1)

相应的判决规则有:

若对于所有可能的j=1,2,…,m,j≠i有di(x)>

dj(x),则x属于Wj类。

2.2最小距离法[9]

最小距离是一种相对简化了的分类方法。

前提是假定图像中各类地物光谱信息呈多元正态分布,每一个类在K维特征空间中形成一个椭球状的点群,依据像素距各类中心距离的远近决定其归属。

假设K维特征空间存在m个类别,某一像素x距哪类距离最小就判归哪类,其通用判决形式如下:

常用的有欧式距离和马氏距离。

只要确定了类别数和类中心,即可按上述方法判别每个像素的归属。

基本的计算流程如下:

假定拟定了Nc个类别,并分别确定了各个类别的训练区。

根据训练区,首先计算出每个类别的平均值,以此作为类别中心。

计算待判别像素x与每一个类别中心的距离,并分别进行比较,取距离最小的一类作为该像素的分类。

依此方法逐个对每个像素判别归类。

可以看出,真正影响分类结果的是各个类的均值。

这是在若干先决条件下的简单分类,容易产生错误,但该方法简单、实用性强、计算速度快。

3SVM基本原理[2-7]

支持向量机(SVM)是一种学习机制,是20世纪90年代发展起来的基于统计学习理论的有限样本的模式分类方法,与传统的统计学所研究的渐进理论,即当样本数目趋向于无穷大时的极限特征,有着本质的区别。

支持向量机是从线性可分情况下的最优分类超平面(OHP,OptimalHyperPlane)提出的,其基本思想是通过非线性变换将输入空间变换到一个高维的特征空间,然后在这个新的高维特征空间中求取最优分类超平面,该分类超平面不但能够将所有的训练样本正确分类,而且使训练样本中离分类面最近的点到分类面的距离最大,即分类间隔最大。

标准的支持向量机算法是有监督的学习方法,根据最优分类面情况可分为两种:

线性类别(可分和不可分)和非线性类别。

如图1所示,实心点和空心点代表两类样本。

假如这两类样本(训练集)是线性可分的,则机器学习的结果是一个超平面(二维情况下是直线)或称为判别函数,该超平面可以将训练样本分为正负两类。

图1线性可分情况下的超平面

Fig.1ThelineardivisibleOHP

图中H为分类线,H1、H2分别为过各类中离分类线最近的样本且平行于分类线的直线,它们之间的距离叫做分类间隔(margin)。

所谓分类间隔是指两类中离分类超平面最近的样本且平行于分类超平面的两个超平面间的距离,或者说是从分类超平面到两类样本中最近样本的距离的和,这些最近样本可能不止2个,正是它们决定了分类超平面,也就是确定了最优分类超平面,这些样本就是所谓的支持向量(SupportVectors,SV)。

SVM理论追求学习具有泛化能力最强的目标,实现的过程是首先求出支持向量SV,然后求出最优分类超平面。

3.1SVM基本算法

3.1.1线性可分的SVM

对于线性问题,设有n个样本xi及其所属类别yi,表示为〔xi,yi〕,xi{1,-1}(i=1,2,…,n),将两类样本正确分类的超平面表示为W·

X+b=0,为了使分类间隔最大可以在约束条件:

yi[W·

X+b]–1≥0(i=1,2,…,n)

(2)

下求解

(w)=||w||2=(w·

w)(3)

的最小值,考虑到一些样本不能被正确分类,为了提高分类的正确性,引入松弛因子ξi≥0(i=1,2,…,n),此时的约束条件式

(2)变为

yi[W·

X+b]–1+ξi≥0(i=1,2,…,n)(4)

最优化目标函数式(3)变为

(w)=(w·

w)+C(5)

式中:

C为惩罚系数,C越大对错分样本的惩罚程度就越大,同时C还可以对错分样本比例和算法复杂程度之间进行调节。

利用Lagrange优化方法可以把上述最优化问题转化为其对偶问题,即在约束条件:

=0和0≤i≤(i=1,2,…,n)下求

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 人文社科 > 法律资料

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1