ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:136.04KB ,
资源ID:2105902      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/2105902.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(信息论课程设计.docx)为本站会员(b****1)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

信息论课程设计.docx

1、信息论课程设计信息论与编码实验报告 班级:学号:姓名:sweety信息与通信工程学院 信息工程系1 实验一 绘制信源熵函数曲线一、实验目的1. 掌握离散信源熵的原理和计算方法。2. 熟悉matlab软件的基本操作,练习应用matlab软件进行信源熵函数曲线的绘制。3. 理解信源熵的物理意义,并能从信源熵函数曲线图上进行解释其物理意义。二、实验原理1. 离散信源相关的基本概念、原理和计算公式产生离散信息的信源称为离散信源。离散信源只能产生有限种符号。假定X是一个离散随机变量,即它的取值范围R=x1,x2,x3,是有限或可数的。设第i个变量xi发生的概率为pi=PX=xi。则:定义一个随机事件的自

2、信息量I(xi)为其对应的随机变量xi出现概率对数的负值。即:I(xi)= -log2 p(xi)定义随机事件X的平均不确定度H(X)为离散随机变量xi出现概率的数学期望,即:单位为 比特/符号 或 比特/符号序列。平均不确定度H(X)的定义公式与热力学中熵的表示形式相同,所以又把平均不确定度H(X)称为信源X的信源熵。 必须注意一下几点:a) 某一信源,不管它是否输出符号,只有这些符号具有某些概率特性,必有信源的熵值;这熵值是在总体平均上才有意义,因而是个确定值,一般写成H(X),X是指随机变量的整体(包括概率分布)。b) 信息量则只有当信源输出符号而被接收者收到后,才有意义,这就是给与信息

3、者的信息度量,这值本身也可以是随机量,也可以与接收者的情况有关。c) 熵是在平均意义上来表征信源的总体特征的,信源熵是表征信源的平均不确定度,平均自信息量是消除信源不确定度时所需要的信息的量度,即收到一个信源符号,全部解除了这个符号的不确定度。或者说获得这么大的信息量后,信源不确定度就被消除了。信源熵和平均自信息量两者在数值上相等,但含义不同。d) 当某一符号xi的概率p(xi)为零时,p(xi)log p(xi) 在熵公式中无意义,为此规定这时的 p(xi)log p(xi) 也为零。当信源X中只含有一个符号x时,必有p(x)=1,此时信源熵H(X)为零。例1-1,设信源符号集X=0,1,每

4、个符号发生的概率分别为p(0)=p,p(1)=q,p+ q=1,即信源的概率空间为则该二元信源的信源熵为:H(X) = - p log p q log q = - p log p (1- p) log (1- p) 即:H (p) = - p log p (1- p) log (1- p) 其中0 p 1P=0时,H(0) = 0P=1时,H(1) = 02. MATLAB二维绘图例对函数y= f(x)进行绘图,则用matlab中的命令plot(x, y)就可以自动绘制出二维图来。如果打开过图形窗口,则在最近打开的图形窗口上绘制此图;如果未打开图形窗口,则开一个新的图形窗口绘图。例1-2,在m

5、atlab上绘制余弦曲线图,y = cos x,其中0 x 2。x=0:0.1:2*pi; %生成横坐标向量,使其为0,0.1,0.2,6.2y=cos(x); %计算余弦向量plot(x,y) %绘制图形三、实验内容用matlab软件绘制二源信源熵函数曲线。根据曲线说明信源熵的物理意义。四、实验要求1. 提前预习实验,认真阅读实验原理以及相应的参考书。2. 认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。3. 认真填写实验报告。五、实验代码:p=0.0000001:0.0001:1; h=-(p).*log2(p)-(1-p).*log2(1-p);plot(p,h)ho

6、ld on;stem(0.5,1,-);xlabel(p)title(二元信源熵)六、实验结果:七、物理意义:(1) 信源熵为信息的不确定度性,而概率的大小决定了信息量的大小。(2) 由上图可知概率为1时,信息量越小,不确定性最低。概率等于0.5时熵最大。2 实验二 哈夫曼编码一、实验目的1. 掌握哈夫曼编码的原理及编码步骤2. 练习matlab中哈夫曼编码函数的调用及通信工具箱的使用二、实验原理通信的根本问题是如何将信源输出的信息在接收端的信宿精确或近似的复制出来。为了有效地复制信号,就通过对信源进行编码,使通信系统与信源的统计特性相匹配。若接收端要求无失真地精确地复制信源输出的信息,这样的

7、信源编码即为无失真编码。即使对于一个小的时间段内,连续信源输出的信息量也可以是无限大的,所以对其是无法实现无失真编码的;而离散信源输出的信息量却可以看成是有限的,所以只有离散信源才可能实现无失真编码。凡是能载荷一定的信息量,且码字的平均长度最短,可分离的变长码的码字集合都可以称为最佳码。为此必须将概率大的信息符号编以短的码字,概率小的符号编以长的码字,使得平均码字长度最短。变字长编码的最佳编码定理:在变字长码中,对于概率大的信息符号编以短字长的码;对于概率小的信息符号编以长字长的码。如果码字长度严格按照符号概率的大小顺序排列,则平均码字长度一定小于俺任何顺序排列方式得到的码字长度。哈夫曼编码就

8、是利用了这个定理,讲等长分组的信源符号,根据其概率分布采用不等长编码。概率大的分组,使用短的码字编码;概率小的分组,使用长的码字编码。哈夫曼编码把信源按概率大小顺序排列,并设法按逆次序分配码字的长度。在分配码字的长度时,首先将出现概率最小的两个符号相加,合成一个概率;第二步把这个合成的概率看成是一个新组合符号的概率,重复上述做法,直到最后只剩下两个符号的概率为止。完成以上概率相加顺序排列后,再反过来逐步向前进行编码。每一步有两个分支,各赋予一个二进制码,可以对概率大的编为0码,概率小的编为1码。反之亦然。哈夫曼编码的具体步骤归纳如下:1. 统计n个信源消息符号,得到n个不同概率的信息符号。2.

9、 将这n个信源信息符号按其概率大小依次排序: p(x1) p(x2) p(xn)3. 取两个概率最小的信息符号分别配以0和1两个码元,并将这两个概率相加作为一个新的信息符号的概率,和未分配的信息符号构成新的信息符号序列。4. 将剩余的信息符号,按概率大小重新进行排序。5. 重复步骤3,将排序后的最后两个小概论相加,相加和与其他概率再排序。6. 如此反复重复n-2次,最后只剩下两个概率。7. 从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即相应的码字,构成霍夫曼编码字。编码结束。哈夫曼编码产生最佳整数前缀码,即没有一个码字是另一个码字的前缀,因此哈夫曼编码是唯一码。编码之后,哈夫曼编

10、码的平均码长为:哈夫曼编码的效率为:例2-1 设信源共7个符号消息,其概率如下表所示信源消息符号xix1x2x3x4x5x6x7符号概率P( xi )0.200.190.180.170.150.100.01其编码过程如下所示:该哈夫曼码的平均码长为编码效率为:三、实验内容为某一信源进行哈夫曼编码。该信源的字符集为X=x1, x2, x6 ,相应的概率矢量为:P=(0.30,0.25,0.21,0.10,0.09,0.05),即X,P的概率空间为:根据哈夫曼编码算法对该信源进行哈夫曼编码。并计算其平均码长和编码效率。调用matlab哈夫曼编码函数进行哈夫曼编码,与人工编码结果做比较。1. huf

11、fmandict函数: 为已知概率分布的信源模型生成哈夫曼编解码索引表。调用方法如下:dict,avglen = huffmandict (symbols, p)dict,avglen = huffmandict (symbols, p, N)dict,avglen = huffmandict (symbols, p, N, variance)四、实验要求1. 提前预习实验,认真阅读实验原理以及相应的参考书。2. 认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。3. 认真填写实验报告。五、实验代码:symbols = 1:6; p = .30 .25 .21 .10 .09

12、 .05; dict,avglen = huffmandict(symbols,p)temp=dict;for i = 1:length(temp)tempi,2= num2str(tempi,2);endh=-0.30.*log2(0.30)-0.25.*log2(0.25)-0.21.*log2(0.21)-0.10.*log2(0.10)-0.09.*log2(0.09)-0.05.*log2(0.05) n=h/avglentemp六、实验结果:symbols= 1 2 3 4 5 6P= 0.3000 0.2500 0.2100 0.1000 0.0900 0.0500dict=1

13、1x2 double2 1x2 double3 1x2 double4 1x3 double5 1x4 double6 1x4 doubleavglen= 2.3800n= 0.9894temp=1 0 02 0 13 1 14 1 0 15 1 0 0 06 1 0 0 1人工编码:其平均码长和编码效率分别为2.38和98.94%,与调用MATLAB哈夫曼树编码函数进行哈夫曼编码结果一致,但调用函数处理速度更快,效率更高,在进行大量数据运算时。优势明显。3 实验三 离散信道容量一、实验目的1. 掌握离散信道容量的计算。2. 理解离散信道容量的物理意义。3. 练习应用matlab软件进行二元对

14、称离散信道容量的函数曲线的绘制,并从曲线上理解其物理意义。二、实验原理信道是传送信息的载体信号所通过的通道。信息是抽象的,而信道则是具体的。比如二人对话,二人间的空气就是信道;打电话,电话线就是信道;看电视,听收音机,收、发间的空间就是信道。研究信道的目的:在通信系统中研究信道,主要是为了描述、度量、分析不同类型信道,计算其容量,即极限传输能力,并分析其特性。二元对称信道BSC(Binary Symmetric Channel)二进制离散信道模型有一个允许输入值的集合X=0,1和可能输出值的集合Y=0,1,以及一组表示输入和输出关系的条件概率(转移概率)组成。如果信道噪声和其他干扰导致传输的二进序列发生统计独立的差错,且条件概率对称,即这种对称的二进制输入、二进制输出信道称做二元对称信道(或二进制对称信道,简称BSC信道),如下图所示:信道容量公式:三、实验内容BSC信道是DMC信道对称信道的特例,对于转移概率为P(0/1)=P(1/0)=p,P(0/0)=P(1/01)=1-p,求出其信道容量公式,并在matlab上绘制信道容量C与p的曲线。根据曲线说明其物理意义。四、实验要求1. 提前预习实验,认真阅读实验原理以及相应的参考书。2. 认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。3. 认真填写实验报告五、实验代码:p=linspace(0.0001,0.

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1