信息论与纠错编码课后答案.docx

上传人:b****3 文档编号:2916422 上传时间:2022-11-16 格式:DOCX 页数:20 大小:31.20KB
下载 相关 举报
信息论与纠错编码课后答案.docx_第1页
第1页 / 共20页
信息论与纠错编码课后答案.docx_第2页
第2页 / 共20页
信息论与纠错编码课后答案.docx_第3页
第3页 / 共20页
信息论与纠错编码课后答案.docx_第4页
第4页 / 共20页
信息论与纠错编码课后答案.docx_第5页
第5页 / 共20页
点击查看更多>>
下载资源
资源描述

信息论与纠错编码课后答案.docx

《信息论与纠错编码课后答案.docx》由会员分享,可在线阅读,更多相关《信息论与纠错编码课后答案.docx(20页珍藏版)》请在冰豆网上搜索。

信息论与纠错编码课后答案.docx

信息论与纠错编码课后答案

信息论与纠错编码课后答案

【篇一:

《信息论与编码》课后习题答案】

式、含义和效用三个方面的因素。

2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

4、按照信息的地位,可以把信息分成客观信息和主观信息。

5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

6、信息的是建立信息论的基础。

7、

8、是香农信息论最基本最重要的概念。

9、事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是。

14、不可能事件的自信息量是

15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:

当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。

limh(xn/x1x2?

xn?

1)h?

n?

?

?

18、离散平稳有记忆信源的极限熵,。

19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。

20、一维连续随即变量x在[a,b]。

1log22?

ep

21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度

24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p

25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。

27

28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是?

mn?

ki?

1

1?

mp(x)?

em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:

x?

0,m是x的数学

2期望,则x的信源熵c。

30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信

2源熵为。

31信道。

32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为

33、具有一一对应关系的无噪信道的信道容量。

34、强对称信道的信道容量。

35、对称信道的信道容量。

36、对于离散无记忆信道和信源的n次扩展,其信道容量cn=。

xh(x)?

logmelog52

37、对于n个对立并联信道,其信道容量cn=。

38、多用户信道的信道容量用多维空间的一个区域的界限来表示。

39、多用户信道可以分成几种最基本的类型:

多址接入信道、广播信道和相关信源信道。

40、广播信道是只有一个输入端和多个输出端的信道。

41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。

?

ck?

1nk

p1log2(1?

x)2pn。

42、高斯加性信道的信道容量c=

43、信道编码定理是一个理想编码的存在性定理,即:

信道无失真传递信息的条件是信息率小于信道容量。

?

1/21/20?

?

0?

01?

?

代表的信道的信道容量。

44、信道矩阵

?

10?

?

10?

?

?

?

01?

?

代表的信道的信道容量。

45、信道矩阵?

46、高斯加性噪声信道中,信道带宽3khz,信噪比为7,则该信道的最大信息传输速率ct=。

47、对于具有归并性能的无燥信道,达到信道容量的条件是)=1/m)。

48、信道矩阵

49、信息率失真理论是量化、数模转换、频带压缩和数据压缩的理论基础。

50、求解率失真函数的问题,即:

在给定失真度的情况下,求信息率的

51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就量就越小。

52、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率也越小。

53、单符号的失真度或失真函数d(xi,yj)表示信源发出一个符号xi,信宿再现yj所引起的误差或失真。

?

10?

?

01?

?

?

代表的信道,若每分钟可以传递6*105个符号,则该信道的最大信息传输速率ct。

?

0i?

j?

1i?

j。

54、汉明失真函数d(x,y)=?

ij

55、平方误差失真函数d(xi,yj)2

56、平均失真度定义为失真函数的数学期望,即d(xi,yj)在x和y的联合概率空间p(xy)中的统计平均值。

57、如果信源和失真度一定,则平均失真度是信道统计特性的函数。

58、如果规定平均失真度d不能超过某一限定的值d,即:

d?

d。

我们把d?

d称为保真度准则。

59、离散无记忆n次扩展信源通过离散无记忆n次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的n倍。

ji60、试验信道的集合用p来表示,则p=

61、信息率失真函数,简称为率失真函数,即:

试验信道中的平均互信息量的。

62、平均失真度的下限取0的条件是失真矩阵的

64、率失真函数对允许的平均失真度是单调递减和连续的。

65。

66、当失真度大于平均失真度的上限时d时,率失真函数r(d)=0。

?

p(y/x):

d?

d;i?

1,2,?

n,j?

1,2,?

m?

inf

67、连续信源x的率失真函数r(d)=

2p(y/x)?

pdi(x;y)。

68、当d?

?

时,高斯信源在均方差失真度下的信息率失真函数为

69、保真度准则下的信源编码定理的条件是1?

2log2r(d)?

2d。

1?

?

x?

?

0?

0a?

?

?

p(x)?

?

1/21/2?

?

a0?

?

?

?

?

?

,则该信源的dmax。

70、某二元信源其失真矩阵d=?

1?

?

x?

?

0?

0a?

?

p(x)?

?

?

1/21/2?

?

a0?

?

?

?

?

?

,则该信源的dmin。

71、某二元信源其失真矩阵d=?

1?

?

x?

?

0?

0a?

?

p(x)?

?

?

1/21/2?

?

a0?

?

?

?

?

?

,则该信源的r(d)=。

72、某二元信源其失真矩阵d=?

73、按照不同的编码目的,编码可以分为三类:

分别是信源编码、信道编码和安全编码。

74、信源编码的目的是:

提高通信的有效性。

75、一般情况下,信源编码可以分为

76、连续信源或模拟信号的信源编码的理论基础是。

77、在香农编码中,第i个码字的长度ki和p(xi)之间有?

log2p(xi)?

ki?

1?

log2p(xi)关系。

x2x3x4x5x6x7x8?

?

x?

?

x1?

?

p(x)?

?

1/41/41/81/81/161/161/161/16?

?

?

?

进行二进制费诺编码,其编78、对信源?

码效率为1。

79、对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加0的消息。

80、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是香农编码。

81、对于二元序列0011100000011111001111000001111111,其相应的游程序列是。

1。

82、设无记忆二元序列中,“0”和“1”的概率分别是p0和p1,则“0”游程长度l(0)的概率为

83、游程序列的熵原二元序列的熵。

85、在实际的游程编码过程中,对长码一般采取处理的方法。

86、“0”游程和“1”游程可以分别进行哈夫曼编码,两个码表中的码字可以重复,但

87、在多符号的消息序列中,大量的重复出现的,只起占时作用的符号称为冗余位。

88、“冗余变换”即:

将一个冗余序列转换成一个二元序列和一个缩短了的多元序列。

89、l-d编码是一种的方法。

90、l-d编码适合于冗余位

91、信道编码的最终目的是

92、狭义的信道编码即:

检、纠错编码。

93、bsc信道即:

无记忆二进制对称信道。

94、n位重复码的编码效率是。

95、等重码可以检验全部的奇数位错和部分的偶数位错。

p[l(0)]?

p0l(0)?

1p

96、任意两个码字之间的最小汉明距离有称为码的最小距dmin,则dmin=mind(c,c)c?

c。

97、若纠错码的最小距离为dmin,则可以纠正任意小于等于t=

98、若检错码的最小距离为dmin,则可以检测出任意小于等于个差错。

99、线性分组码是同时具有的纠错码。

100、循环码即是采用

三、判断(每题1分)(50道)

1、必然事件和不可能事件的自信息量都是0。

错?

dmin?

1?

?

2?

?

?

个差错。

i的单调递减函数。

对2、自信息量是

3、单符号离散信源的自信息和信源熵都具有非负性。

4、单符号离散信源的自信息和信源熵都是一个确定值。

5、单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。

6、自信息量、条件自信息量和联合自信息量之间有如下关系:

ijijijij

7、自信息量、条件自信息量和互信息量之间有如下关系:

p(x)i(xy)?

i(x)?

i(y/x)?

i(y)?

i(x/y)对

ijiijjji对

8、当随即变量x和y相互独立时,条件熵等于信源熵。

9、当随即变量x和y相互独立时,i(x;y)=h(x)。

10、信源熵具有严格的下凸性。

11、平均互信息量i(x;y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。

12、m阶马尔可夫信源和消息长度为m的有记忆信源,其所含符号的依赖关系相同。

13、利用状态极限概率和状态一步转移概率来求m阶马尔可夫信源的极限熵。

14、n维统计独立均匀分布连续信源的熵是n维区域体积的对数。

15、一维高斯分布的连续信源,其信源熵只与其均值和方差有关。

16、连续信源和离散信源的熵都具有非负性。

17、连续信源和离散信源都具有可加性。

18、连续信源和离散信源的平均互信息都具有非负性。

19、定长编码的效率一般小于不定长编码的效率。

对i(x;y)?

i(x)?

i(x/y)?

i(y)?

i(y/x)

20、若对一离散信源(熵为h(x))进行二进制无失真编码,设定长码子长度为k,变长码子平均长度为般kk。

21、信道容量c是i(x;y)关于p(xi)的条件极大值。

22、离散无噪信道的信道容量等于log2n,其中n是信源x的消息个数。

错k,一

23、对于准对称信道,当

24、多用户信道的信道容量不能用一个数来代表。

25、多用户信道的信道容量不能用一个数来代表,但信道的信息率可以用一个数来表示。

26、高斯加性信道的信道容量只与信道的信噪有关。

27、信道无失真传递信息的条件是信息率小于信道容量。

28、最大信息传输速率,即:

选择某一信源的概率分布(p(xi)),使信道所能传送的信息率的最大值。

29、对于具有归并性能的无燥信道,当信源等概率分布时(p(xi)=1/n),达到信道容量。

30、求解率失真函数的问题,即:

在给定失真度的情况下,求信息率的极小值。

31、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。

32、当p(

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > PPT模板 > 商务科技

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1