信息熵在图像处理中的应用 毕业论文.docx

上传人:wj 文档编号:123260 上传时间:2022-10-03 格式:DOCX 页数:41 大小:292.94KB
下载 相关 举报
信息熵在图像处理中的应用 毕业论文.docx_第1页
第1页 / 共41页
信息熵在图像处理中的应用 毕业论文.docx_第2页
第2页 / 共41页
信息熵在图像处理中的应用 毕业论文.docx_第3页
第3页 / 共41页
信息熵在图像处理中的应用 毕业论文.docx_第4页
第4页 / 共41页
信息熵在图像处理中的应用 毕业论文.docx_第5页
第5页 / 共41页
点击查看更多>>
下载资源
资源描述

信息熵在图像处理中的应用 毕业论文.docx

《信息熵在图像处理中的应用 毕业论文.docx》由会员分享,可在线阅读,更多相关《信息熵在图像处理中的应用 毕业论文.docx(41页珍藏版)》请在冰豆网上搜索。

信息熵在图像处理中的应用 毕业论文.docx

摘要

信息论是人们在长期通信实践活动中,由通信技术与概率论、随机过程、数理统计等学科相结合而逐步发展起来的一门新兴交叉学科。

而熵是信息论中事件出现概率的不确定性的量度,能有效反映事件包含的信息。

随着科学技术,特别是信息技术的迅猛发展,信息理论在通信领域中发挥了越来越重要的作用,由于信息理论解决问题的思路和方法独特、新颖和有效,信息论已渗透到其他科学领域。

随着计算机技术和数学理论的不断发展,人工智能、神经网络、遗传算法、模糊理论的不断完善,信息理论的应用越来越广泛。

在图像处理研究中,信息熵也越来越受到关注。

为了寻找快速有效的图像处理方法,信息理论越来越多地渗透到图像处理技术中。

本文通过进一步探讨概论率中熵的概念,分析其在图像处理中的应用,通过概念的分析理解,详细讨论其在图像处理的各个方面:

如图像分割、图像配准、人脸识别,特征检测等的应用。

本文介绍了信息熵在图像处理中的应用,总结了一些基于熵的基本概念,互信息的定义。

并给出了信息熵在图像处理特别是图像分割和图像配准中的应用,最后实现了信息熵在图像配准中的方法。

关键词:

信息熵,互信息,图像分割,图像配准

15

Abstract

Informationtheoryisanewinterdisciplinarysubjectdevelopedinpeoplelong-termcommunicationpractice,combiningwithcommunicationtechnology,theoryofprobability,stochasticprocesses,andmathematicalstatistics.Entropyisameasureoftheuncertaintytheprobabilityoftheoccurrenceoftheeventintheinformationtheory,itcaneffectivelyreflecttheinformationeventcontains.Withthedevelopmentofscienceandtechnology,especiallytherapiddevelopmentofinformationtechnology,informationtheoryhasplayedamoreandmoreimportantroleinthecommunicationfield,becausetheideasandmethodstosolvetheproblemofinformationtheoryisunique,novelandeffective,informationtheoryhaspenetratedintootherareasofscience.Withthedevelopmentofcomputertechnologyandmathematicaltheory,continuousimprovementofartificialintelligence,neuralnetwork,geneticalgorithm,fuzzytheory,therearemoreandmoreextensiveapplicationsofinformationtheory.Intheresearchofimageprocessing,theinformationentropyhasattractedmoreandmoreattention.Inordertofindthefastandeffectiveimageprocessingmethod,informationtheoryisusedmoreandmorefrequentlyintheimageprocessingtechnology.Inthispaper,throughthefurtherdiscussiononconceptofentropy,analyzesitsapplicationinimageprocessing,suchasimagesegmentation,imageregistration,facerecognition,featuredetectionetc.

Thispaperintroducestheapplicationofinformationentropyinimageprocessing,summarizessomebasicconceptsbasedonthedefinitionofentropy,mutualinformation.Andtheinformationentropyofimageprocessingespeciallyforimagesegmentationandimageregistration.Finallyrealizetheinformationentropyinimageregistration.

Keywords:

Informationentropy,Mutualinformation,Imagesegmentation,Imageregistration

目 录

摘 要 1

ABSTRACT 2

目 录 3

1引言 5

1.1信息熵的概念 5

1.2信息熵的基本性质及证明 6

1.2.1单峰性 6

1.2.2对称性 7

1.2.3渐化性 7

1.2.4展开性 7

1.2.5确定性 8

2基于熵的互信息理论 9

2.1互信息的概述 9

2.2互信息的定义 9

2.3熵与互信息的关系 9

3信息熵在图像分割中的应用 11

3.1图像分割的基本概念 11

3.1.1图像分割的研究现状 11

3.1.2图像分割的方法 11

3.2基于改进粒子群优化的模糊熵煤尘图像分割 12

3.2.1基本粒子群算法 12

3.2.2改进粒子群优化算法 13

3.2.3Morlet变异 13

3.2.4改建粒子群优化的图像分割方法 14

3.2.5实验结果及分析 16

3.3一种新信息熵的定义及其在图像分割中的应用 19

3.3.1香农熵的概念及性质 19

3.3.2一种信息熵的定义及证明 19

3.3.3信息熵计算复杂性分析 21

3.3.4二维信息熵阈值法 22

3.3.5二维信息熵阈值法的复杂性分析 24

3.3.6结论及分析 25

4信息熵在图像配准中的应用 27

4.1图像配准的基本概述 27

4.2基于互信息的图像配准 27

4.3POWELL算法 28

4.4变换 28

4.4.1平移变换 29

4.4.2旋转变换 30

4.5基于互信息的图像配准的设计与实现 31

4.5.1总体设计思路和图像配准实现 31

4.5.2直方图 33

4.5.3联合直方图 33

4.5.4灰度级差值技术 34

4.4.5优化搜索办法级结论 35

5结 语 37

致 谢 38

参考文献 39

1引言

1.1. 信息熵的概念

1948年,美国科学家香农(C.E.Shannon)发表了一篇著名的论文《通信的数学理论》。

他从研究通信系统传输的实质出发,对信息做了科学的定义,并进行了定性和定量的描述。

他指出,信息是事物运动状态或存在方式的不确定性的描述。

其通信系统的模型如下所示:

信号

编码

信源

信道

解码

信宿

噪声

干扰

图1.1 信息的传播

信息的基本作用就是消除人们对事物的不确定性。

信息熵是信息论中用于度量信息量的一个概念。

假定X是随机变量c的集合,P(x)表示其概率密度,计算此

随机变量的信息熵

H(x)的公式是:

H(X)=-åp(x)logp(x)

x

P(x,y)表示一对随机变量的联合密度函数,他们的联合熵 H(x,y)可以表示为:

H(X,Y)=-å

xÎc

åp(x,y)logp(X,Y)

yÎY

信息熵描述的是信源的不确定性,是信源中所有目标的平均信息量。

信息量是信息论的中心概念,将熵作为一个随机事件的不确定性或信息量的量度,它奠定了现代信息论的科学理论基础,如果一条信息是由n个字符连成的字符串组成,并且每个字符有m种可能,那么这条信息就有mn种不同的排列情况,那么可以用mn度量信息量,但这时的信息量随着消息的长度n按指数增加,为了使信息量的度量值按线性增加,

Hartley给出了取对数的信息量的定义:

2 2

H=logmn=nlogm

(1.1)

由上式可以看出,信息量随着消息的可能性组合m增多而增多,如果消息只有一种可能性时即事件为必然事件时,那么消息中包含的信息量为零log21=0。

因此可以看出,可能收到的不同消息越多,对收到哪条消息的不确定性就越大;相反,收到只有一种可能性的消息,不确定性为零,Hartley对消息的度量实际是对不确定性的度量。

Hartley度量方法的不足之处是他所定义信息量是假定所有符号发生的概率相同,但实际情况各符号并不一定都等概发生,为此,Shannon用概率加权来衡量消息出现的

可能性,对Hartley的度量方法做出改进。

设某一随机过程中有k种可能的情况,每种情况发生的概率分别是P1,P2,…,

å

Pk,Shannon给出了熵的如下定义:

H=åpi



log2

1=- ppi



log2pi



(1.2)

i

当所有可能的事件均以相等的概率发生时,上式就成了Hartley定义的熵,并且这时熵取得最大值,即

H=-å1log

1=å1log

mn=logmn



(1.3)

mn 2mn

mn 2 2

所以,Hartley熵是,Shannon熵的特殊情形,而Shannon更具有一般性。

Shannon熵包含三种含义:

第一种含义是度量信息量,事件发生概率与获得的信息量成反比,即概率越大,信息量越少,又由式(1.3)知,概率越大,信息量越少,熵越小,所以可用熵的大小来度量信息量,熵越大,信息量越大;第二是度量事件概率分布的分散度,概率集中分布时熵值小,分散性越强,熵越大;三含义是度量事件发生的不确定性,概率越大,事件的不确定性越小,熵越小。

利用上面第三个含义,可以用

Shannon熵,来度量图像包含的信息量,图像灰度值的概率分布是每灰度值出现的次数除以图像中所有灰度值出现的总次数,此时图像的信息量可依据这个概率分布来计算,一幅图像中不同的灰度值较少,各灰度值出现的概率较高,则对应的灰度值较低,意味着这幅图像含有的信息量很少。

反之,如果一幅图像中含有很多不同的灰度值,且各灰度值发生的概率又基本一致,则它的熵值会很高,那么这幅图像包含的信息量很大。

1.2信息熵的基本性质及证明

1.2.1单峰性

信息熵的单峰性可表述为:

先考察由X1、X2两个事件构成的概率系统,其产生的概率分别为P和

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 哲学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1