ImageVerifierCode 换一换
格式:DOCX , 页数:19 ,大小:22.58KB ,
资源ID:8460727      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/8460727.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(马尔可夫信源极限熵.docx)为本站会员(b****6)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

马尔可夫信源极限熵.docx

1、马尔可夫信源极限熵第 2 章 信源与信息熵香农信息论的基本点用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息。信源的分类依据信源发出的信息在时间上和幅度上的分布状况可将信源分红失散信源和连续信源两大类 .单符号信源概率空间描绘自信息量单位: bit (一个比特表示一个等概率的二进制符号信息量)自信息量 与 不确立度 的关系不确立度 :随机事件的不确立度在数目上等于它的自信息量,二者的单位同样,但含义却不同样一个出现概率靠近于 1 的随机事件,发生的可能性很大,因此它包括的不确立度就很小。一个出现概率很小的随机事件,很难猜想在某个时刻它 可否发生,因此它包括的不确立度就很大。

2、若是确立性事件,出现概率为 1,则它包括的不确立度为 0。说明:拥有某种概率分布的随机事件不论发生与否,都存在不确立度,不确立度表征了该事件的特征,而自信息量是在该事件发生后赐予察看者的信息量。结合自信息量为:条件自信息量为:信源熵=【信源的均匀不确立度】 =【均匀自信息量】条件熵:H(X /Y)p(xi, yj)I (xi | yj)p(xi, yj )log p(xi| yj )i, ji结合熵H ( X,Y)p(xi, yj)I (xi, yj )p(xi , yj )log p(xi, yj )i, ji结合熵、条件熵与信源熵的关系H(XY)=H(X)+H(Y/X) ,H(XY)=H(

3、Y)+H(X/Y)互信息定义:后验概率与先验概率比值的对数I (xi; yj ) logp( x / y)ijp(xi )均匀互信息量I (X ;Y)p(x, y) logp ( x / y)p ( x)x, y疑义度条件熵 H(X/Y) :信道上的扰乱和噪声所造成的对信源符号 x 的均匀不确立度噪声熵或分布度条件熵 H(Y/X) :可看作独一地确立信道噪声所需要的均匀信息量互信息量与熵的关系H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y)H(X) H(X/Y) , H(Y) H(Y/X)I(X;Y)=H(X)-H(X/Y)=H(Y)-H(Y/X)=H(X)+H(Y)-H(XY)H(

4、XY)H(X)+H(Y)信息不增性:数据办理过程中只会失去一些信息,绝不会创建出新的信息最大熵定理(1)限峰功率最大熵定理:对于定义域为有限的随机矢量 X,当它是均匀分布时,拥有最大熵。(2)限均匀功率最大熵定理:若连续变量 X 的方差必定 ,当它是正态分布时拥有最大熵。信源的序列熵:(请注意:序列 X 的多种写法!)H(XL) H(X1X2 XL) H(X1 ) H(X2/X 1) H(XL/X 1X2 XL-1 )均匀每个符号的熵为H L ( X )1 H(X L1 X 2X L)若当信源退化为无记忆时,有H (X )H(X 1X 2X L )H(X 1 )H X 2H X L若进一步又知

5、足安稳性时,则有H ( X )LH(X 1 )推行结论马尔可夫信源表述有记忆信源要比表述无记忆信源困难得多。实质上信源发出的符号常常只与前若干个符号的依靠关系强,而与更前面的符号依靠关系弱。为此,能够限制随机序列的记忆长度。当记忆长度为 m+1时,称这类有记忆信源为 m阶马尔可夫信源。也就是信源每次发出的符号只与前 m个符号相关,与更前面的符号没关。稳态分布概率定义:若齐次马尔可夫链对全部 i,j 存在不依靠于 i 的极限,则称其拥有遍历性, Wj 称为稳态分布概率马尔可夫信源极限熵:H ( X )p(si)H ( X / si)WiH ( X / si)ii此中, H X/s ip(xj /

6、si)logp(xj /si)j冗余度:它表示给定信源在实质发出信息时所包括的剩余信息 .( 也称为剩余度或节余度 ).定义信息效率 :H ( X )H m ( X )定义冗余度 :11 H ( X ) H m ( X )此中: H (X) 为信源实质熵, Hm(X)信源最大熵。习题 2 信源与信息熵习题2-12.1 一个马尔可夫信源有3 个符号 u1, u2 ,u3 ,转移概率为: p u1 | u11/ 2 ,p u2 | u11/ 2 ,p u3| u10 , p u1 | u21/ 3 , p u2 | u2 0 , p u3 | u2 2/3, p u1 | u31/ 3 ,p u|

7、 u2/3 , p u | u30 ,画出状态图并求出各符号稳态概率。233解:状态图以下状态转移矩阵为:设状态 u1,u2,u3 稳固后的概率分别为 W1,W2、W3111W1W 2W 3 W 1233WP W12W 2W1W 3由W 3 1, 得: 23W1 W 22W 3W 23W 1 W 2 W 3110W1259计算可得: W 2256W 325习题 2-22.2 由符号集 0 ,1 构成的二阶马尔可夫链,其转移概率为:p(0 | 00) =0.8 , p(0 |11) =0.2 ,p(1| 00) =0.2 , p(1|11) =0.8 , p(0 | 01) =0.5 , p(0

8、 |10) =0.5 , p(1| 01) =0.5 , p(1|10) =0.5 。画出状态图,并计算各状态的稳态概率。解: 因是二阶马尔可夫信源 , 此信源任何时刻发出的符号只与前两个符号相关 , 而与更前面的符号没关。如本来状态为 00, 则此时刻只可能发出符号 0 或 1, 下一时刻只好转移到 00,01 状态 , 因为处于 00 状态发符号 0 的概率为 0.8, 处在 00 状态时发符号 1 的概率为 0.2, 转移到 01 状态 ,00 000 0000 001 01p(0 | 00)p(00 | 00)0.8p(0 | 01)p(10 | 01)0.5p(0 |11)p(10

9、|11)0.2p(0 |10)p(00 |10)0.5p(1| 00)p(01| 00)0.2p(1| 01)p(11| 01)0.5p(1|11)p(11|11)0.8p(1|10)p(01|10)0.5于是能够列出转移概率矩阵:0.8 0.2 0 00 0 0.5 0.5p0.5 0.5 0 00 0 0.2 0.8状态图为:设各状态 00, 01,10,11 的稳态分布概率为 W1,W2,W3,W4有0.8W10.5W 3W1WPW0.2W10.5W 3W 2由4i得0.5W 20.2W 4W 3W10.5W 20.8W 4W 4i1W1 W 2W 3W 4 15W1141W 2计算获取

10、71W 375W 414习题 2-3同时掷出两个正常的骰子,也就是各面体现的概率都为 1/6 ,求:(1)“3 和 5 同时出现”这事件的自信息;(2)“两个 1 同时出现”这事件的自信息;(3)两个点数的各样组合(无序)对的熵和均匀信息量;(4)两个点数之和(即 2, 3, 12 构成的子集)的熵;(5)两个点数中起码有一个是 1 的自信息量。解: (1)p ( x i)11111666618I ( xi)logp ( xi )14 .170 bitlog18(2)p ( xi)1116636I ( xi )log p ( xi )log 15 .170bit36(3) 两个点数的摆列以下:

11、111213141516212223242526313233343536414243444546515253545556616263646566共有 21 种组合:此中 11, 22, 33, 44, 55, 66 的概率是 1116636其余 15 个组合的概率是 2 1116618H ( X )p( xi ) log p(xi )61 log1151 log 14.337 bit / symboli363618 18(4)参照上边的两个点数的摆列,能够得出两个点数乞降的概率分布以下:X23456789101112P(X )111151511113618129366369121836H (

12、X )p( xi ) log p( xi)(5)i21121log12111125511log1812log2loglog366log36361812993663.274 bit / symbolp( xi )1111116636I ( xi )log p(xi )log11bit1.71036习题 2-52.5 居住某地域的女孩子有 25%是大学生,在女大学生中有 75%是身高 160 厘米以上的,而女孩子中身高 160 厘米以上的占总数的一半。若是我们得悉“身高 160 厘米以上的某女孩是大学生”的信息,问获取多少信息量?解:设随机变量 X 代表女孩子学历X x1(是大学生) x2(不是大

13、学生)P(X)0.250.75设随机变量 Y 代表女孩子身高Yy1(身高 160cm) y2 (身高 160cm)P(Y)0.50.5已知:在女大学生中有75%是身高 160 厘米以上的即: p( y1 / x1) 0.75求:身高 160 厘米以上的某女孩是大学生的信息量,即:I ( x1 / y1 )log p( x1 / y1)p(x1 ) p( y1 / x1 )0.250.75loglog1.415 bitp( y1 )0.5习题 2-122.12两个实验 X 和 Y, X=x1x2 x3,Y=y1 y2 y3,l结合概率 r xi, yjr ij 为r 11r12r137 / 24

14、1/240r21r22r231/ 241/ 41/ 24r31r32r3301/247 / 24(1)假如有人告诉你 X 和 Y 的实验结果,你获取的均匀信息量是多少?(2)假如有人告诉你 Y 的实验结果,你获取的均匀信息量是多少?(3)在已知 Y 实验结果的状况下,告诉你 X 的实验结果,你获取的均匀信息量是多少?解:结合概率 p( xi , yj ) 为Yy1y2y3Xx17/241/240x21/241/41/24x301/247/24X概率分布Xx1x2x3P8/248/248/24Y概率分布是Yy1y2y3P8/248/248/24(1)H ( X ,Y)p( xi , yj )lo

15、g12ijp( xi , yj )27 log 22441 log 2241 log 24247244=2.3bit/符号( 2) H (Y)31 log 231.58(bit/符号)3( 3) H(X|Y)H(X,Y)H(Y)2.3 1.58= 0.72 (bit/符号)习题 2-14在一个二进制信道中, 信源信息集X=0,1 ,且 P(0)=P(1), 信宿的信息集Y=0,1, 信道传输概率P( y=1| x=0 ) =1/4, P(y=0 | x=1)=1/8 。求:( 1)在接收端收到y=0 后,所供给的对于传输信息X的均匀条件互信息量I(X ; y=0).(2)该状况所能供给的均匀互

16、信息量I(X;Y).解:(1)P(y|x)= P(xy)=P(x|y)=I ( X ; y0 )p ( x i| y 0 ) logp ( xi | y 0)p ( xi )i(2)I ( X ; Y )p ( xi, y j ) logp ( x i/ y j )p ( x i )i , j=习题 2-26一个信源发出二重符号序列信息( X1 ,X2), 此中, 第一个符号X1 能够是 能够是 A,B,C 中的一个, 第二个符号 X2 能够是 D,E,F,G 中的一个。已知各个p (x 1i ) 为 p(A)=1/2,p(B)=1/3,p(C)=1/6;各个 p(x2j | x 1i )值列

17、成以下。求这个信源的熵(结合熵H(X1 , X2) )。解: P(y|x)= P(x)= P(xy)=依据公式H (XY)p( xi yj )I ( xi yj )p( xi yj ) log p( xi yj )i , ji , j得,H(X1 , X2)=习题 2-302-30 有一个马尔可夫信源,已知转移概率为 p(s 1|s 1)=2/3, p(s 2 |s 1)=1/3, p(s 1|s 2)=1, p(s 2 |s 2)=0 。画出状态转移图,并求出信源熵。解:(1)由已知转移概率,画状态转移图(2)列出转移矩阵: P(j/i)=设状态 S1 和 S2 ,稳固后的概率分别为W 1,

18、W 22由 WP WW12/ 3 1/ 3W1 W23 W1W2W1W201W2W 11W1W1 W213W1W21得: W1=3/4 , W2=1/4再计算信源熵:H ( X )p( si) H ( X / si)WiH ( X / si)ii此中,信源熵为 :内容总结(1)第 2 章 信源与信息熵香农信息论的基本点用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息(2)第 2 章 信源与信息熵香农信息论的基本点用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息内容总结(1)第 2 章 信源与信息熵香农信息论的基本点用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息(2)第 2 章 信源与信息熵香农信息论的基本点用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1