1011第二学期信息论作业题参考答案.docx

上传人:b****5 文档编号:3427298 上传时间:2022-11-23 格式:DOCX 页数:16 大小:251.88KB
下载 相关 举报
1011第二学期信息论作业题参考答案.docx_第1页
第1页 / 共16页
1011第二学期信息论作业题参考答案.docx_第2页
第2页 / 共16页
1011第二学期信息论作业题参考答案.docx_第3页
第3页 / 共16页
1011第二学期信息论作业题参考答案.docx_第4页
第4页 / 共16页
1011第二学期信息论作业题参考答案.docx_第5页
第5页 / 共16页
点击查看更多>>
下载资源
资源描述

1011第二学期信息论作业题参考答案.docx

《1011第二学期信息论作业题参考答案.docx》由会员分享,可在线阅读,更多相关《1011第二学期信息论作业题参考答案.docx(16页珍藏版)》请在冰豆网上搜索。

1011第二学期信息论作业题参考答案.docx

1011第二学期信息论作业题参考答案

第1讲

2、信息论创始人是谁?

香农。

3、信息和消息、信号有什么联系与区别?

从信息理论角度上看,信号是消息的载体,信息含藏在消息之中,有信号有消息不一定有信息。

4、通信系统的主要性能指标是什么?

有效性、可靠性和安全性。

5、举例说明信息论有哪些应用?

为信息传送和处理系统提供数学模型和评估方法,在通信和信息处理领域是一门基础理论,在其它领域如语言学、生物学、医学、神经网络、经济学方面的应用也很成功。

具体应用实例有:

语音、图像和数据信息的压缩,通信信道有效性和可靠性的提高,或信道传输功率指标要求的降低,通信或计算机系统可靠性和安全性的提高,信息处理领域的信号重建和模式识别等。

2.4(求车牌自信息量)

某车牌号的概率是(1/26)3×(1/10)3,24bit/牌,后一种概率为(1/36)6,31bit/牌,

第2讲

设二元对称信道的传递矩阵(条件概率矩阵)为

若P(0)=3/4,P

(1)=1/4,求H(X),H(Y),H(X/Y),H(Y/X)和I(X;Y);

先求P(Y)=∑XP(XY)和P(XY)=P(X)P(Y|X),再得各种熵和互信息。

H(X)=H(3/4,1/4),

H(Y)=H(7/12,5/12);

H(XY)=H(1/2,1/4,1/12,1/6);

H(X/Y)=H(XY)-H(Y)

H(Y/X)=H(XY)-H(X);或H(Y/X)=∑P(X=a)H(Y/a)=H(3/4,1/4)

I(X;Y)=H(X)-H(X/Y)=H(X)+H(Y)-H(XY);

2.2(求条件信息量)

1.6米以上女孩是条件,某个1.6米以上的女大学生是概率事件,得条件概率为:

P=0.25×0.75/0.5=0.375=3/8,信息量为I=-log0.375=1.42比特。

2.5

2.10

(1)

(2)(由联合概率分布求熵、联合熵和条件熵)

(1)思路:

先求出X、Y、Z、XZ、YZ、XYZ的概率或联合分布,再求其熵。

如:

P(Z=XY=0)=1-P(XY=1)=7/8,P(ZX=1)=P(YX=1)=1/8,..

(2)思路:

通过X、Y、Z及其联合概率分布求X/Y等条件概率分布P(X/Y)=P(XY)/P(Y),再求其熵H(X/Y)=∑P(Y=b)H(X/b)

或根据H(X/Y)=H(XY)-H(Y)从联合熵计算条件熵。

P(xyz)联合概率分布如下

Z\XY

00

01

10

11

0

1/8

3/8

3/8

0

1

0

0

0

1/8

P(xz)联合概率分布如下

Z\X

0

1

0

1/2

3/8

1

0

1/8

P(yz)联合概率分布如下

Z\Y

0

1

0

1/2

3/8

1

0

1/8

第3讲

2.10(3)(由联合概率分布求平均互信息和条件互信息)

通过H(X;Y)=H(X)-H(X|Y),H(X;Y|Z)=H(X|Z)-H(X|YZ)和H(X|Y)=H(XY)-H(Y)

关系式求各种互信息量

2.12,X表示天气情况,Y表示天气预报,0表雨,1表无雨。

求1)准确率(提示P(00)+P(11)=12/16),2)从预报得到的信息量I(X;Y)(X(0)=3/16,X

(1)=13/16,Y(0)=11/16,Y

(1)=5/16),3)总是报无雨时的准确率和预报信息量(提示,Y(0)=0,Y

(1)=1;准确度=13/16,I(X;Y)=0)。

2.14(由X概率分布和条件概率分布求互信息和条件互信息)

先求联合概率分布p(xy1y2)=p(x)p(y1y2|x),如p(y1y2|x)=p(00|0)=1,p(10|1)=1,p(11|2)=1/2,p(01|2)=1/2,余为0。

再通过以下公式求各个互信息和条件互信息:

不用H(X;Y)=H(X)-H(X|Y),H(X;Y|Z)=H(X|Z)-H(X|YZ)和H(X|Y)=H(XY)-H(Y)

使用H(X;Y|Z)=H(X;YZ)-H(X;Z)

P(xy1y2)联合概率分布如下

xy1y2

00

01

10

11

0

1/4

0

0

0

1

0

0

1/4

0

2

0

1/4

0

1/4

I(X;Y1)=0.5;I(X;Y2)=1;

I(X;Y1Y2)=H(X)+H(Y1Y2)-H(XY1Y2)=1.5+2-2=1.5

I(X;Y1|Y2)=I(X;Y1Y2)-I(X;Y2)=.0.5,I(X;Y2|Y1)=I(X;Y1Y2)-I(X;Y1)=.1

第4讲

1,某l离散无记忆信源只输出n个符号,则当信源呈(等概)分布情况下,熵为最大值(logn)。

2,某连续信源幅度受限,则当信源呈(均匀)分布情况下,熵为最大值(log(b-a))。

3,如果连续随机变量X的均值为零,平均功率受限于P,则当X服从(高斯)分布时、其微分熵达到最大,最大的微分熵为(log

)。

4,设连续随机变量X的概率密度函数服从均匀分布,求微分熵,并说明大于0的条件。

答案:

第5讲

随机信源如何分类?

从消息变量取值的连续性分:

离散信源和连续信源

从连续信源输出时间上的连续性分:

连续信源和波形信源

从离散信源的消息序列的长度来分:

单符号信源和序列(扩展)信源

从离散信源序列之间的有无相关性分:

无记忆信源(DMS)和有记忆信源

从离散有记忆信源序列的相关程度分:

平稳信源、M阶Markov信源、……

什么是平稳信源、什么是Markov链、齐次Markov链、平稳齐次Markov链、Markov信源?

离散平稳信源:

各维联合概率分布均与时间起点无关的完全平稳信源

Markov链:

马氏链是时间离散状态离散的随机过程,马氏链的当前状态只与前一个状态有关

齐次Markov链:

状态转移概率与时间点无关的Markov链

平稳齐次Markov链:

状态概率分布与时间点无关的Markov链

Markov信源:

1)信源状态由当前输出符号和前一时刻信源状态唯一确定。

2)某一时刻信源符号的输出只与当前的信源状态有关,与以前的状态无关。

M阶Markov信源:

某一时刻信源符号的输出只与此前的M个输出有关。

举例说明M阶马氏源的处理方法和状态数目

m阶马氏源是指其输出某一符号的概率只与此前的m个符号有关。

马氏源可用马氏链来描述。

若是一阶马尔可夫信源,一个符号对应一个状态,若是m阶马尔可夫信源,m个符号对应一个状态。

设马氏源符号种类N种,则M阶马氏源状态数为Nm。

3.3(DMS扩展及熵)

说明DMS扩展方法

如:

二元信源X的符号集为{0,1},求信源的二次扩展模型即是求q2=4个样本的各自的概率分布

熵值算式利用可加性H(XN)=N×1.5bit/符号

第6讲

3.11(提示求1阶马氏源2次扩展的熵,求概率分布)

先求P(X1X2),再求H(X1X2)/2,H(0.3,0.7)=0.88,H(0.63,0.07,0.06,0.24)/2=0.714,

3.13(提示平稳马氏源的熵,先求状态平稳分布)

先求状态矢量Л=Л·P及∑Л=1,得Л=[15/43,12/43,16/43],

H(Л)=1.575,h=[1.585,1.5,1.5],H(XN)=1.575+(N-1)1.53=1.53N+0.045

3.16(提示求1阶马氏源3次扩展的熵,求概率分布,求极限利用遍历链定理3.26)

答:

由矩阵P(X2)=P(X1)·P(X2/X1),得各步状态分布,再根据下式求熵

H(X1X2X3)=H(X1)+H(X2/X1)+H(X3/X1X2)=H(X1)+H(X2/X1)+H(X3/X2)=1.5+1.21+1.26=3.97bit;H(X2/X1)=P(X1)·h=[1/2,1/4,1/4][1.5,0.92,0.92]T=1.21,

H(X3/X2)=P(X2)·h=[7/12,5/24,5/24][1.5,0.92,0.92]T=1.26。

H3(X1X2X3)=1.32bit/符号

求状态矢量Л=Л·P及∑Л=1,得Л=[4/7,3/14,3/14]

H∞(X)=Лh=[4/7,3/14,3/14][1.5,0.92,0.92]T=1.25bit/符号

第7讲

5.1差错率高(DF非唯一可译码)

A、C、E为即时码,A/B/C/E是唯一可译码,根据克拉夫特不等式D/F非唯一可译码。

A码的平均码长为3bit/符号,B、C码的平均码长17/8,E的平均码长为2bit/符号(而F的平均码长为2bit/符号,D的平均码长为31/16bit/符号,都无意义)

5.2(提示:

列出可编码的N长信源序列样本及其概率)差错率高(组合码数量计算方法和码长)

求组合数量:

多个信源“正码”加1个“误码”,

得码长log(1+C3+C2+C1+C0=1+161700+4950+100+1=166752)=17.35,

取码长18。

Pr=0.99597×0.0053×C3+0.99598×0.0052×C2+0.99599×0.0051×C1+0.995100×C0=0.01243+0.07572+0.30441+0.60577=0.99833,

Pe=1-Pr=1.67×10-3

5.4

第8讲

5.7差错率高(码率单位,或方差大)

a0、a1、a2、a3、a4、a5、a6和a7分别编3、3、3、3、3和2、4、4位,编码平均码长L=2.7码元/符号,码长方差

=0.41,信源熵H(X)=2.62,编码效率97.0%,(编码码率R’=Llogr=2.7bit/信源符号,信息传输速率R=H(X)/L=0.97bit/码符号)

最佳码:

异前缀,且平均码长和码长方差最小。

5.9

信源熵H(S)=2.61bit/符号,剩余度

0.07

二进制编码2,2,3,3,3,4,4位,平均码长

=2.72位,编码效率

=0.96

三进制编码1,2,2,2,2,2,2位,平均码长

=1.8位,编码效率

=0.915

利用自信息方差

计算得1.93×104

第9讲

有二元二阶平稳马氏源,已知:

p(0/00)=0.8,p(0/01)=0.5,p(0/10)=0.5,p(0/11)=0.2,p(1/11)=0.8,p(1/01)=0.5,p(1/10)=0.5,p(1/00)=0.2。

用三个符号合成一个消息来构成一个信源,对该信源进行哈夫曼编码并求其平均码长

(提示:

先求平稳分布:

[л][P]=[л],再求p(000)=p(00)×p(0/00)和进行编码)。

,000~111概率分别为2/7、1/14、1/14、1/14、1/14、1/14、1/14和2/7位,分别编2、3、3、4、4、4、4和2位,平均码长等于19/7=2.7

6、某一页传真文件的一行像素分布如下:

85白-7黑-33白-728黑-875白。

试确定该行的MH码和压缩比。

85白=64+21→110110010111(12位),7黑→00011(5位)

33白→00010010(8位),728黑=704+24→000000100101100000010111(24位)

875白=832+43→01101001000101100(17),EOL→000000000001(12位)

MH码长12+5+8+24+17+12=78位;压缩比1728:

78=22:

1。

第10讲

5.14

P1101110011=77/810=0.000767,码长-log20.000767=10.35,取11位。

累积概率P1'=0,P0'=7/8,P110'=P11'+P0'P11=343/512=0.66992

P110111'=P110',P1101110'=P110'+P0'P110111=0.66992+117649/2097152=0.7260194

P11011100'=P1101110'+P0'P1101110=0.7260194+117649/16777216=0.7330318

P1101110011'=P11011100'=0.7330318,0.7330318×211=1501.2=5DDH

得11位码10111011101。

编码效率:

=-log2P1101110011/11log22=10.35/11=94%,

注:

5.15

LZ字典:

b,c,ca,cb,cc,ccc,cccc,ccca,

LZ编为:

(0,b)(0,c)(2,a)(2,b)(2,c)(5,c)(6,c)(6,a)(6,a)。

LZW字典:

a,b,c,bc,cc,ca,ac,cb,bcc,ccc,cccc,ccccc,cca,acc。

LZW编为:

2,3,3,1,3,4,5,10,11,5,7,5,1。

第11讲

6.1

Py=[1/3,2/3]·P=[5/12,7/12]=0.98,H(Y|X)=[1/3,2/3]·h=H[3/4,1/4]=0.81

I(x=0;y=1)=log[p(y=1/x=0)/p(y=1)]=log(1/4)/(7/12)=log3/7=-1.22

I(x=1;Y)=p(0/1)I(x=1;y=0)+p(1/1)I(x=1;y=1)=1/4log3/5+3/4log9/7=0.088

I(X;Y)=H(Y)-H(Y|X)=H[5/12,7/12]-H[3/4,1/4]=0.17

I(X;Y)=H(3/4p0+1/4p1,1/4p0+3/4p1)-(p0+p1)H[3/4,1/4],所以

C=H(3/4p0+1/4p1,1/4p0+3/4p1)MAX-H[3/4,1/4]=1-H[3/4,1/4]=0.19

取p1=p0=0.5

6.2

是准对称信道,H(Y)=H(1/3,1/3,1/3)=log3,C=I(X;Y)=H(Y)-H(Y|X)=2/3

6.13

,非对称或准对称矩阵,它是可逆矩阵。

得:

,C=log3/2,

输出概率Py=(1/6,2/3,1/6),输入概率Px=PyP-1=(2/9,5/9,2/9)

第12讲

1,分别说明什么是“级联信道”和“输入并联信道”,它们的容量会增加还是减小,极限值会是多少?

“级联信道”容量减小最低到0,“输入并联信道”容量增加最高到H(X)。

2,6.7

和信道,

,信道容量和输入概率分布如下:

C=log(20+2(log2+

))=log(1+

p1=1/(1+

),P2=P3=

/(1+

3,计算以下两个信道矩阵代表的信道的容量和概率分布:

解:

1、和信道信道,C1=log3,C2=0,C=log(3+20)=2,

输入概率分布1/4,1/4,1/4,1/8,1/8

输出分布1/8,1/8,1/4,1/12,1/12,1/12,1/8,1/8

2、C是无损信道,C=log3

输入概率分布1/3,1/3,1/3

输出分布1/30,1/15,1/10,2/15,1/10,7/30,2/15,1/15,1/30,1/10

第13讲

3,离散信道时间和幅值(离散),也称(数字)信道。

波形信道时间和幅值(连续),也称(模拟)信道。

时间(离散)而幅值(连续)称为(连续)信道

4,8.11

C=Blog(1+PS/BN0),B=3.1kHz,S/N=1000,C=30.9kbit/S

C=Blog(1+PS/BN0),C=1.44×S/N0=1.44Mbit/S

C=Blog(1+PS/BN0)=36Mbit/Slog(1+500/36)=140.3Mbit/S

5,8.12

C=Blog(1+PS/BN0),C=1.44×S/N0=144Mbit/S

C=Blog(1+PS/BN0),B=3kHz,S/N=108/3K=33333,C=45kbit/S,

R/B=24kbit/3kHz=8bit/Hz,

由C/B=8=log(1+S/N),S/N=255=24dB,S/N0=31.875/Hz

C=100Klog(1+PS/BN0)=45kbit/S,得S/N=0.37=-4.3dB(信号功率为S=0.37×10-8×100k=0.37mW),下降24-(-4.3)=28.3dB。

6,8.13

C=Blog(1+PS/BN0)=3kHzlog(1+100)=19.9kbit/S

19.9kbit/S=Blog(1+3.16)=B×2.06,B=9.66kHz

8.14

B=P1+10-8×3×106+P2+0.5×10-6×2×106/5×106=(10+1.03)/5×106=2.206×10-6

C=3×106×log2.206×10-6/10-8+2×106×log2.206×10-6/50×10-8=27.639Mbit/s

第14讲

7.2

(1)、log4/10ms=200bit/s

(2)、H(0.2,0.25,0.25,0.3)/10ms=198.6bit/s

7.4

(1)比较

,建PX|Y

(2)同上

7.5

同上题方法

7.6

(1)(4)

(2)对称信道C公式C=logm-H(X|y)

对称信道C=log5-H(1/2,1/2)=1.32bit

(3)利用信道编码定理

因为1/2×log5=1.16bit

5、什么是最佳译码准则?

什么是最大后验概率准则、最大联合概率准则与最大似然准则?

它们是否都是最佳译码准则?

最大后验概率准则与最大似然准则有何不同?

答:

最佳译码准则:

平均错误概率最小的译码。

收到yj(j=1,2,…m)后,取i(i=1,2,…n)的后验概率取最大的p(x*/yj)≥p(xi/yj)(对一切的i)的那个发送样本x*作为yj的译码结果,这种译码准则称为“最大后验概率准则”。

收到yj(j=1,2,…m)后,取i(i=1,2,…n)的联合概率取最大的p(x*,yj)≥p(xi,yj)(对一切的i)的那个发送样本x*作为yj的译码结果,这种译码准则称为“最大联合概率准则”。

由于p(x*/yj)p(yj)=p(x*,yj),“最大后验概率准则”等价于“最大联合概率准则”。

它们都是最佳译码准则。

取p(yj/x*)是n个信道转移概率p(yj/x1),p(yj/x2),……,p(yj/xn)中的最大者的那个发送样本x*作为yj的译码结果,这种译码方法称为“最大似然译码准则”。

它不是最佳译码准则,但在输入信源等概分布时就是最佳译码准则,这时与“最大后验概率准则”及“最大联合概率准则”等价。

6、有一个二元对称信道,设该信道以1000二元符号/秒的速率传送消息,错误率为p=0.01。

现有一条0、1独立等概、长度为5000二元符号消息序列通过信道传输;问信道能否在10秒内将消息序列无差错传输?

解:

信道容量C=log2-H(p,1-p)=1-H(0.01)=0.92;信道最大速率920bit/s;

信源速率R=H(1/2)×5000/10=500bit/s<920bit/s;能实现无差错传输。

第15讲

1、什么是(7,3)线性分组码,什么是它的校验矩阵,求生成矩阵

(7,3)线性分组码:

信息位3位,监督位4位,监督位通过信息位的线性代数运算产生。

由生成多项式得校验矩阵H。

2、什么是循环码和CRC码?

循环码首先是一种线性分组码(n,k),即任意两个字模2加仍为许用码组。

在循环码中,所有的码多项式c(x)都能够被g(x)整除。

若c(x)是长度为n的循环码中的一个码多项式,则xc(x)按照模xn+1运算的余式必为左移1位的另一循环码多项式。

CRC在(n,k,dmin)循环码的基础上,对前面i位连续为0的信码去掉这些0,得缩短码(n-i,k-i,dmin),其校验长度n-k不变,编译码算法不变,适应了工程中码长可变,纠错能力不变的要求。

3、什么是汉明距离?

它与分组码的检错纠错能力有何关系?

什么是最小汉明距离准则?

它与最大似然准则有何关系?

两个等长码字之间,如果有d个相对应的码元不同,则称d为这两个码字的汉明距离。

分组码能够检测出td≤dmin-1个错误;只用于纠错,能纠正tc≤(dmin-1)/2个错误;用于既纠tc个错,又检td个错:

tc+td≤dmin-1,且须满足:

tc≤(dmin-1)/2。

最小汉明距离准则译码,即计算所有可能的发送x与接收y之间的汉明距离,取最小汉明距离的x作为y的译码输出。

对于二元对称信道(设差错率P≤1/2),采用最大似然译码准则译码,由于输入n个码,输出d个错码的转移概率为(1-P)n-dPd,看出错码数目小的输出概率大。

所以,最大似然准则等价于最小汉明距离准则

第16讲

1、试分别说明分组码(n,k)和卷积码(n,k,m)中各符号的含义?

分组码(n,k):

示当前输入k个信息,当前输出n个信息,其中n-k个监督位。

卷积码表示法(n,k,m):

表示当前输入k个信息,当前输出n个信息,n不仅与当前时刻的k个输入有关,还与此前连续m个时刻的输入信息有关。

如(2,1,2):

输入1位,输出2位,输出与此前2个时刻有关。

2、写出Viterbi译码的步骤?

Viterbi译码有何应用?

Viterbi译码的步骤:

1)在网格图上标出接收序列与编码器输出的汉明距离。

2)存在多条起始某个状态又终止于某个相同状态的路径,计算每一条路径的总的汉明距离。

3)选择一条总距离最短的路径为发送序列。

Viterbi译码应用:

它是一种最佳译码的算法,多用于卷积码译码;它是一种跟踪离散马可夫过程的算法,适用于干扰信道上作最佳解调。

3、某(2,1,2)卷积码编码器的网格图如下(00→

(1)→01→

(1)→11→(0)→10→

(1)→01是状态转移例),接收序列为V=(11,01,01,01,10,11,00),试判定发送序列。

解:

红线为接收输出序列(1,1,0,1,0,0,0),该路径(发送序列应为11,01,01,00,10,11,00)除第四段汉明距离为“1”外,各段距离为零,总汉明距离为“1”,其余路径距离均大于2。

第17讲

1、什么是BCH码和RS码,它们与循环码有何异同

BCH码和RS码是特殊的循环码,它们的生成多项式和纠错能力特别。

RS码特别适宜纠突发性错码

2、什么是TCM编码器?

它有何优点?

TCM译码器的原理是什么?

TCM编码器是将编码和调制作为一个整体的最佳设计(可使发送的信号序列之间的几何(欧氏)距离与汉明距离达到最佳匹配)。

TCM译码器的原理是,在网格图上标出可能路径上接收序列各符号(接收CY)与编码器输出(接收CX)的欧几里德距离Δ=d(CY,Cx),然后选择一条总距离最短的路径为发送序列。

第18讲

9.3(暂不计算R(D),但要列出DMIN和DMAX对应的试验信道)

选择题

以下哪些编码是保熵的?

1)无失真信源编码

2)限失真编码

答:

无失真信源编码

以下哪些编码是降低误码率的?

1)有燥信道编码

2)限失真编码

答:

有燥信道编码

给定信源和失真度d,平均失真度D大时R(D)将会?

1)变大

2)变小

答:

变小

第19讲

9.4(提示:

利用费诺不等式)某二元信源

其失真矩阵为

求这信源的Dmax和Dmin和

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 小学教育 > 学科竞赛

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1