当前位置:文档之家› 信息理论与编码-期末试卷A及答案

信息理论与编码-期末试卷A及答案

信息理论与编码-期末试卷A及答案
信息理论与编码-期末试卷A及答案

题号 一 二 三 四 总分 统分人 题分 35 10 23 32 100

得分 一、填空题(每空1分,共35分) 得分| |阅卷人|

1、1948年,美国数学家 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。信息论的基础理论是 ,它属于狭义信息论。

2、信号是 的载体,消息是 的载体。

3、某信源有五种符号}{,,,,a b c d e ,先验概率分别为5.0=a P ,25.0=b P ,125.0=c P ,0625.0==e d P P ,则符号“a ”的自信息量为 bit ,此信源的熵为 bit/符号。

4、某离散无记忆信源X ,其概率空间和重量空间分别为123

4 0.50.250.1250.125X x x x x P ????

=????????和1234 0.5122X x x x x w ????

=????????,则其信源熵和加权熵分别为 和 。 5、信源的剩余度主要来自两个方面,一是 ,二是 。 6、平均互信息量与信息熵、联合熵的关系是 。

7、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 信道。 8、马尔可夫信源需要满足两个条件:一、 ; 二、 。 9、若某信道矩阵为????????????0100010000001100,则该信道的信道容量C=

__________。

10、根据是否允许失真,信源编码可分为 和 。 11、信源编码的概率匹配原则是:概率大的信源符号用 ,概率小的信源符号用 。(填

短码或长码)

12、在现代通信系统中,信源编码主要用于解决信息传输中的 性,信道编码主要用于解决信息传输中的 性,保密密编码主要用于解决信息传输中的安全性。 13、差错控制的基本方式大致可以分为 、 和混合纠错。 14、某线性分组码的最小汉明距dmin=4,则该码最多能检测出 个随机错,最多能纠正 个随机错。

15、码字101111101、011111101、100111001之间的最小汉明距离为 。

16、对于密码系统安全性的评价,通常分为 和 两种标准。

17、单密钥体制是指 。 18、现代数据加密体制主要分为 和 两种体制。

19、评价密码体制安全性有不同的途径,包括无条件安全性、 和 。

20、时间戳根据产生方式的不同分为两类:即 和 。 二、选择题(每小题1分,共10分) 得分| |阅卷人|

1、下列不属于消息的是( )。

A. 文字

B. 信号

C. 图像

D. 语言

2、设有一个无记忆信源发出符号A 和B ,已知43

41)(,)(==B p A p ,发出二重符号序列消息的信源,

无记忆信源熵)(2X H 为( )。

A. 0.81bit/二重符号

B. 1.62bit/二重符号

C. 0.93 bit/二重符号 D . 1.86 bit/二重符号

3、 同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( )。 A. -log36bit B. log36bit C. -log (11/36)bit D. log (11/36)bit

4、 二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,x0: 发出一个0 、 x1: 发出一个1、 y0 : 收到一个0、 y1: 收到一个1 ,则已知收到的符号,被告知

发出的符号能得到的信息量是( )。

A. H(X/Y)

B. H(Y/X)

C. H( X, Y)

D. H(XY)

5、一个随即变量x 的概率密度函数P(x)= x /2,V 20≤≤x ,则信源的相对熵为( )。 A . 0.5bit B. 0.72bit C. 1bit D. 1.44bit

6、 下面哪一项不属于熵的性质: ( ) A .非负性 B .完备性 C .对称性 D .确定性

7、根据树图法构成规则, ( ) A .在树根上安排码字 B .在树枝上安排码字 C .在中间节点上安排码字 D .在终端节点上安排码字

8、下列组合中不属于即时码的是( )。 A. { 0,01,011} B. {0,10,110} C. {00,10,11} D. {1,01,00}

9、 已知某(6,3)线性分组码的生成矩阵??

???

?????=011101110001111010G ,则不用计算就可判断出下列码中不是该

码集里的码是( )。 A. 000000 B. 110001 C. 011101 D. 111111 10、下列保密编码中属于现代密码体制的是( ) A. 凯撒密码 B. Vigenere 密码 C. 韦维纳姆密码 D. DES 加密算法 三、简答题(四小题,共23分) 得分| |阅卷人| 1、请简述现代密码系统应当满足的条件。(4分)

2、请简述连续信源最大熵定理的主要内容。(6分)

3、请解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则的含义,并说明三者的关

系。(5分)

答:

4、已知密钥为yes ,请利用多表代换密码中的Vigenere (维吉尼亚)密码原理分别对下列明文和密文

进行编码和译码。明文:A Mathematical Theory of Communication ; 密文:G ee y hgaxgp (需给出

码表或编译码过程,8分)

四、计算题(四小题,共32分) 得分| |阅卷人| 1、居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量?(5分) 2、设离散符号信源为1

21/43/4x x X P ????=????????,试求:

(1)信源的熵、熵的相对效率以及剩余度; (2)求二次扩展信源的概率空间及其信源熵。(10分) 3、已知6符号离散信源的出现概率为????????321321161814121654321a a a a a a ,试写出Huffman 编码的码字并求其平均码长。(7分)

4、已知一个(5, 3)线性分组码C 的生成矩阵为:11001G 0110100111??

??

=??????,

(1)求系统生成矩阵及校验矩阵; (2)列出C 的信息位与系统码字的映射关系; (3)求收到r =11101时的译码步骤与译码结果。(10分)

2015-2016年第2学期《信息论与编码》期末考试A卷参考答案

一、填空题(每空1分,共35分)

1、香农、香农信息论;

2、消息、信息;

3、1、15/8;

4、7/4、9/4;

5、信源符号间的相关性、信源符号的统计不均匀性;

6、I(X;Y)=H(X)+H(Y)-H(XY);

7、无记忆;

8、某一时刻信源符号的输出只与此时刻信源状态有关,与之前的状态和输出符号无关;信源在t时刻的状态由当前输出符号及t-1时刻信源的状态唯一确定;

9、2bit/符号;10、无失真信源编码和限失真信源编码; 11、短码、长码;12、有效性、可靠性;13、前向纠错、反馈重发;14、3、1;15、2;16、理论保密性、实际保密性; 17、在加密和解密过程中,加、解密密钥相同或从一个容易得出另一个的密码体制;

18、公钥体制、私钥体制;填单钥体制、双钥体制)或(对称加密体制、非对称加密体制)也可; 19、计算安全性、可证明安全性; 20、自建时间戳、具有法律效力的时间戳

二、选择题(每小题1分,共10分)

B B B A

C B

D A D D

三、简答题(四小题,共23分)

1、请简述现代密码系统应当满足的条件。(4分)

答:一个安全的现代密码系统应当满足以下几点要求:(每小点1分)

(1)系统即使达不到理论上不可破译,也应当是实际上不可破译的。

(2)系统的保密性不依赖于对加密、解密算法和系统的保密,而仅仅依赖于密钥的保密性。、(3)加密、解密算法适用于所有密钥空间的元素。

(4)加密、解密运算简单快捷,易于实现。

2、请简述连续信源最大熵定理的主要内容。(6分)

答:连续信源最大熵定理主要内容如下:(每小点2分)

(1)峰值功率受限条件下信源的最大熵定理:若某信源输出信号的峰值功率受限,即信号的取值被限定在某一有限范围(假设为[a,b])内,则在限定的范围内,当输出信号概率密度分布为均匀分布

时,该信源具有最大熵,且为log()

b a

-。

(2)平均功率受限条件下信源的最大熵定理:若某信源输出信号的平均功率和均值被限定,则当其

输出信号幅度的概率密度函数是高斯分布时,该信源达到最大熵值,且最大熵值为1

2

log2eP

π

(3)均值受限条件下信源的最大熵定理:若某连续信源X输出非负信号的均值被限定,则其输出信

号幅度为指数分布时,信源X具有最大熵,且其值为

log2em。

3、请解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则的含义,并说明三者的关

系。(5分)

答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字(1分)。最大似然译

码准则下,将接收序列译为信道传递概率最大时所对应的码字。(1分) 最小距离译码准则下,将接

收序列译为与其距离最小的码字。(1分)三者关系为:输入为等概率分布时,最大似然译码准则等

效于最小错误概率译码准则。(1分)在二元对称无记忆信道中,最小距离译码准则等效于最大似然

译码准则。(1分)

4、已知密钥为yes,请利用多表代换密码中的Vigenere(维吉尼亚)密码原理分别对下列明文和密

文进行编码和译码。明文:A Mathematical Theory of Communication;密文:G ee y hgaxgp (需

给出码表或编译码过程,8分)

答:我们已知26个字母的排列如下表

A B C D E F G H I J K L M

0 1 2 3 4 5 6 7 8 9 10 11 12

N O P Q R S T U V W X Y Z

13 14 15 16 17 18 19 20 21 22 23 24 25

根据提供的明文,可以得出密文YQSRLWKELGGSJXZCSJWSXASEKYFGGSRMGL,编码过程如下表所示(5分)

A

M

12

A

T

19

H

7

E

4

M

12

A

T

19

I

8

C

2

A

L

11

T

19

H

7

E

4

O

14

R

17

Y

24

O

14

F

5

C

2

O

14

M

12

M

12

U

20

N

13

I

8

C

2

A

T

19

I

8

O

14

N

13

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

Y Q S R L W K E L G G S J X Z C S J W S X A S E K Y F G G S R M G L

根据提供的密文,可以得出译码后的明文为:I AM A DOCTOR。译码过程如下表所示:(3分)

G

6

E

4

E

4

Y

24

H

7

G

6

A

X

23

G

6

P

15

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

E

4

S

18

Y

24

I

8

A

M

12

A

D

3

O

14

C

2

T

19

O

14

R

17

四、计算题(四小题,共32分) 1、居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多

少信息量?(5分) 解:设A 表示“大学生”这一事件,B 表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分)故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 2、设离散符号信源为??????=??????4/34/121x x P X X ,试求:(1)信源的熵、熵的相对效率以及剩余度;(2)

求二次扩展信源的概率空间及其信源熵。(10分) 解:(1)

22max 2()1/4log 43/4log (4/3)0.811/()/()()/log 2()81.1% 11()18.9%H X bit H X H X H X H X R H X ηη=+======-=

-=符号,(4分) (2)二次扩展信源的概率空间为:(3分) X\X 1x 2x 1x 1/16 3/16 2x 3/16 9/16 2222()1/16log 163/16log (16/3)3/16log (16/3)9/16log (16/9)2() 1.622/H XX H X bit =+++==符号(3分) 3、已知6符号离散信源的出现概率为????????321321161814121654321a

a

a a a a ,试写出Huffman 编码的码字并计算平均码长。(7分) 解: Huffman 编码为: a 1 0.5 a 2 0.25 a 3 0.125 a 4 0.0625 a 5 0.03125 a 6 0.03125 0.0625 0.125 0.25 0.5

1.0

1 1 1 1

0 0 0

0 1

符号 概率 码字

1

01 001

0001

00001

00000

(5分)其他正确的Huffman 编码也给分。 平均码长符号码元/933.15*321

5*321

4*161

3*81

2*41

1*21

=+++++=l (2分)

4、已知一个(5, 3)线性码C 的生成矩阵为:11001G 0110100111??

??=??????,

(1)求系统生成矩阵及校验

矩阵;(2)列出C 的信息位与系统码字的映射关系;(3)列出译码表,求收到r =11101时的译码步骤与译码结果。(10分)

解:(1)线性码C 的生成矩阵经如下行变换:

23132110011001110011011010110101010001110011100111??????

????????????→??????→??????

????????????

将第、加到第行将第加到第行

得到线性码C 的系统生成矩阵为 100110101000111G ??

??=????

??,对应的校验矩阵 1 1 1 1 0 1 0 1 0 1

H ?

?=????

(3分)

(2)由c =mG 得消息序列m =000,001,010,011,100,101,110,111的系统码字依次分别为:(3分)

c 0=00000, c 1=00111,c 2=01010, c 3=01101,c 4=10011, c 5=10100, c 6=11001, c 7=11110

(3) 根据该(5,3)线性码的系统码定,可得其标准阵列译码表如下:(4分) 00000 00111 01010 01101 10011 10100 11001 11110

10000 10111 11010 11101 00011 00100 01001 01110

01000 01111 00010 00101 11011 11100 10001 10110 00001 00110 01011 01100 10010 10101 11000 11111

信息论与编码试卷与答案

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是 0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。(9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 三、(5')居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5')证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明:

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=0.689bit/符号 2.设有一个无记忆信源发出符号A 和B ,已知4 341)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( =0.812 bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3 AA 111 3 无记忆信源 624.1)(2)(2 ==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号 B X H R )(22==0.963 bit/码元时间 ③三重符号序列消息有8个,它们的概率分别为 用霍夫曼编码方法 代码组 b i BBB 64 27 0 0 1 BBA 64 9 0 )(6419 1 110 3

信息论与编码试卷及答案(多篇)

一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 答:平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为。 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 答:信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 答:通信系统模型如下:

数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有, 。说明经数据处理后,一般只会增加信息的损失。 5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。 .答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。 由得,则 6.解释无失真变长信源编码定理。 .答:只要,当N足够长时,一定存在一种无失真编码。 7.解释有噪信道编码定理。 答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和? 答:1)保真度准则为:平均失真度不大于允许的失真度。 2)因为失真矩阵中每行都有一个0,所以有,而。 二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求:

信息论与编码理论课后习题答案高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 解: 平均每个符号长为:154 4.0312.032= ?+?秒 每个符号的熵为9183.03log 3 1 23log 32=?+?比特/符号 所以信息速率为444.34 15 9183.0=?比特/秒 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=?比特/秒 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)366(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2= 比特 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13 521344!13C A =? 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有???? ??37种排法,Y 表示梧桐树可以栽 种的位置,它有???? ??58种排法,所以共有???? ??58*???? ??37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-= 比特 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

信息论与编码期中试卷及答案

信息论与编码期中试题答案 一、(10’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 二、(10?)判断题 (1)信息就是一种消息。(? ) (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。(? ) (3)概率大的事件自信息量大。(? ) (4)互信息量可正、可负亦可为零。(? ) (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 (? ) (6)对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。(? ) (7)非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。(? ) (8)信源变长编码的核心问题是寻找紧致码(或最佳码)。 (? ) (9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( ? ) 三、(10?)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (5分) 故p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (4分) I(A|B)=-log0.375=1.42bit (1分)

信息论与编码课后答案

一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =, ()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231 112331223 231W W W W W W W W W W W W ?++=???+=???=???++=? 计算可得1231025925625W W W ?=??? =?? ?=?? 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =,(0|11)p =,(1|00)p =, (1|11)p =,(0|01)p =,(0|10)p =,(1|01)p =,(1|10)p =。画出状态图,并计算各状态 的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 按照信息的地位,可以把信息分成客观信息和主观信息。 人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 信息的可度量性是建立信息论的基础。 统计度量是信息度量最常用的方法。 熵是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是∞。 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a)。

信息论与编码(第二版)曹雪虹(最全版本)答案

《信息论与编码(第二版)》曹雪虹答案 第二章 2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =, ()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231 112331223231W W W W W W W W W W W W ?++=???+=???=???++=? 计算可得1231025925625W W W ?=??? =? ? ?=?? 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2, (1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。画出 状态图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

专升本《信息论与编码》_试卷_答案

专升本《信息论与编码》 一、(共48题,共150分) 1. H(X)____________0,小概率事件对熵的贡献____________,确定事件的信息量____________0。(6分) .标准答案:1. >= ;2. 小;3. =; 2. 确定信道的H(Y/X) ____0,H(X/Y) ____0。(4分) .标准答案:1. =;2. ; 3. 霍夫曼编码可以编出不同的码,这些码的平均码长________,.编码效率 ________,码长方差________。(6分) .标准答案:1. 一样;2. 一样;3. 不一定一样; 4. N个独立并联的信道,每个信道的信道容量为C,为了达到总的信道容量NC,所有信道的输入要________________,.所有信道的输入概率分布是各自信道的 ________________。(4分) .标准答案:1. 相互独立;2. 最佳分布; 5. 通信系统中的编码器包括____________________,____________________, ____________________。(6分) .标准答案:1. 信源编码器;2. 纠错编码器;3. 调制器; 6. 率失真函数R(D)的最大值为________________,最小值为 ________________。(4分) .标准答案:1. H(X);2. 0; 7. 某事件的概率为p(x),则自信息量为()。(2分) A.-p(x) B.1/ p(x) C.-log p(x) D.log p(x) .标准答案:C 8. 有事件x,y,I(x)=2 bit,I(x/y)=1 bit,则互信息量I(x;y)的值为()。(2分) A.1 bit B.2 bit C.3 bit D.4 bit .标准答案:A 9. 下列关于条件熵的结论,不成立的是()(2分) A.H(X/Y)C.H(X/Y).标准答案:B 10. 使I(X;Y)=0成立的条件是(): (2分) A.X和Y相互独立 B.H (X) =H(Y) C.X和Y的概率分布相同 .标准答案:A 11. 以下关于离散无记忆信源(熵为H(X))的结论,不正确的是(): (2分) A.是平稳信源 B.其N次无记忆扩展信源的熵是NH(X) C.其极限熵大于H(X) .标准答案:C 12. 以下关于信道容量C和信息传输率R间的关系,正确的是(): (2分) A.C R B.C=R C.C R .标准答案:A 13. 某信源有8个符号,其信源熵为2.4 bit,进行二元定长编码(不扩展),则其编码效率至少可达()(2分) A.80% B.85% C.90% D.95% .标准答案:A 14. 在准对称信道中,要达到信道容量,要求(): (2分) A.信源和信宿的概率分布一致 B.信源为等概分布 C.信宿为等概分布 .标准答案:B 15. 在信道编码中,简单重复编码可以(): (2分) A.减小但降低了信息传输率 B.提高了信息传输率,但增大了PE C.减小并提高了信息传输率 .标准答案:A 16. 二元码C={(000),(011),(101),(110),该码的最小码距是():。(2分) A.1 B.2 C.3 D.4 .标准答案:B 17. 率失真函数R(D)的取值与()无关(2分) A.信源的概率分布 B.保真度D C.失真函数 D.信道转移矩阵 .标准答案:D 18. 熵函数是信源概率分布的________函数,函数值________0。(4分) .标准答案:1. 上凸;2. ; 19. I(x i,y j) ____ I(y j,x i),I(x i,y j) ____ I(x i),I(x i,y j) ____ I(y j)。(6分) .标准答案:1. =;2. ;3. ;

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 信道 X Y 9,7,5,3,1=i 8,6,4,2,0=i √Χ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

信息理论与编码期末试卷A及答案

一、填空题(每空1分,共35分) 1、1948年,美国数学家 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。信息论的基础理论是 ,它属于狭义信息论。 2、信号是 的载体,消息是 的载体。 3、某信源有五种符号}{,,,,a b c d e ,先验概率分别为5.0=a P ,25.0=b P ,125.0=c P ,0625.0==e d P P ,则符号“a ”的自信息量为 bit ,此信源的熵为 bit/符号。 4、某离散无记忆信源X ,其概率空间和重量空间分别为1 234 0.50.250.1250.125X x x x x P ????=??? ?????和1234 0.5122X x x x x w ???? =??????? ? ,则其信源熵和加权熵分别为 和 。 5、信源的剩余度主要来自两个方面,一是 ,二是 。 6、平均互信息量与信息熵、联合熵的关系是 。 7、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 信道。 8、马尔可夫信源需要满足两个条件:一、 ; 二、 。 9、若某信道矩阵为????? ????? ??01000 1 000001 100,则该信道的信道容量C=__________。 10、根据是否允许失真,信源编码可分为 和 。 11、信源编码的概率匹配原则是:概率大的信源符号用 ,概率小的信源符号用 。(填 短码或长码) 12、在现代通信系统中,信源编码主要用于解决信息传输中的 性,信道编码主要用于解决信息传输中的 性,保密密编码主要用于解决信息传输中的安全性。 13、差错控制的基本方式大致可以分为 、 和混合纠错。 14、某线性分组码的最小汉明距dmin=4,则该码最多能检测出 个随机错,最多能纠正 个随机错。 15、码字101111101、011111101、100111001之间的最小汉明距离为 。 16、对于密码系统安全性的评价,通常分为 和 两种标准。 17、单密钥体制是指 。 18、现代数据加密体制主要分为 和 两种体制。 19、评价密码体制安全性有不同的途径,包括无条件安全性、 和 。 20、时间戳根据产生方式的不同分为两类:即 和 。 二、选择题(每小题1分,共10分) 1、下列不属于消息的是( )。 A. 文字 B. 信号 C. 图像 D. 语言 2、设有一个无记忆信源发出符号A 和B ,已知4341)(,)(==B p A p ,发出二重符号序列消息的信源, 无记忆信源熵)(2X H 为( )。 A. 0.81bit/二重符号 B. 1.62bit/二重符号 C. 0.93 bit/二重符号 D . 1.86 bit/二重符号 3、 同时扔两个正常的骰子,即各面呈现的概率都是1/6,若点数之和为12,则得到的自信息为( )。 A. -log36bit B. log36bit C. -log (11/36)bit D. log (11/36)bit 4、 二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件,x0: 发出一个0 、 x1: 发出一个1、 y0 : 收到一个0、 y1: 收到一个1 ,则已知收到的符号,被告知发出的符号能得到的信息量是( )。 A. H(X/Y) B. H(Y/X) C. H( X, Y) D. H(XY) 5、一个随即变量x 的概率密度函数P(x)= x /2,V 20≤≤x ,则信源的相对熵为( )。 A . 0.5bit B. 0.72bit C. 1bit D. 1.44bit 6、 下面哪一项不属于熵的性质: ( ) A .非负性 B .完备性 C .对称性 D .确定性 信息论与编码 信息论与编码

信息论与编码理论第二章习题答案

I (X ;Y=1)= P(x/Y 1)I(x;Y 1) x P(x/Y 1)log P(x/Y 1) P(x) = P(X 0/Y 1)log P(X 0/Y 1) P(X 0) P(X 1/Y 1)log P(X 1/Y 1) P(X 1) 部分答案,仅供参考。 信息速率是指平均每秒传输的信息量点和划出现的信息量分别为log3Jog3, 2’ 一秒钟点和划出现的次数平均为 1 15 2 1 ~4 0.20.4 - 3 3 一秒钟点和划分别出现的次数平均为巴5 4 4 那么根据两者出现的次数,可以计算一秒钟其信息量平均为10 log 3 5 竺 5 4 2 4 4 2 解: ⑻骰子A和B,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3 ~ bit (b)骰子A和B,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9 ~ bit 解: 出现各点数的概率和信息量: 1 点:1/21 , log21 ?bit ; 2 点:2/21 , log21-1 ?bit ; 3 点:1/7 , log7 4 点:4/21 , log21-2 5 点:5/21 , log (21/5 )~; 6 点:2/ 7 , log(7/2)? 平均信息量: (1/21) X +(2/21) X +(1/7) X +(4/21) X +(5/21) X +(2/7) 解: X=1:考生被录取;X=0考生未被录取; Y=1:考生来自本市;Y=0考生来自外地; Z=1:考生学过英语;z=o:考生未学过英语 P(X=1)=1/4, P( X=q=3/4; P( Y=1/ X=1)=1/2 ;P( Y=1/ X=0)=1/10 ;P(Z=1/ Y=1 )=1, P( Z=1/ X=0, Y=0 )=, P( Z=1/ X=1, Y=0 )=, P(Z=1/Y=0)= (a)P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)= P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)= P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=

信息论与编码试卷

信息论与编码试卷 以下是为大家整理的信息论与编码试卷的相关范文,本文关键词为信息论,编码,试卷,,您可以从右上方搜索框检索更多相关文章,如果您觉得有用,请继续关注我们并推荐给您的好友,您可以在综合文库中查看更多范文。 RT 信息论与编码试卷 一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异

同?2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 5.写出香农公式,并说明其物理意义。当信道带宽为5000hz,信噪比为30db时求信道容量。 6.解释无失真变长信源编码定理。 7.解释有噪信道编码定理。 8.什么是保真度准则?对二元信源时率失真函数的 和 ? ,其失真矩阵,求a>0 二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源x的数学模型。假设图上黑白消息出现前后没有关联,求熵 ; 2)假设黑白消息出现前后有关联,其依赖关系为: , ,求其熵

; ,, 2.二元对称信道如图。; 1)若,,求和; 2)求该信道的信道容量和最佳输入分布。 3.信源空间为 曼码,计算其平均码长和编码效率。 ,试分别构造二元和三元霍夫 4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。 5.已知一(8,5)线性分组码的生成矩阵为。 求:1)输入为全00011和10100时该码的码字;2)最小码距。 6.设某一信号的信息传输率为5.6kbit/s,在带宽为4khz的高斯信道中传输,噪声功率谱no=5×10-6mw/hz。试求: (1)无差错传输需要的最小输入功率是多少? (2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。 一、概念简答题(每题5分,共40分) 1.答:平均自信息为

信息论与编码试题

模拟试题一 一、概念简答题(共10题,每题5分) 1.简述离散信源和连续信源的最大熵定理。 2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。 3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 5.设某二元码字C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率? ②采用最小距离译码准则,当接收序列为110110时,应译成什么码字? 6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按发出符 号,求和平均符号熵 7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。 8.二元无记忆信源,有求: (1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量? (2)求100个符号构成的信源序列的熵。 9.求以下三个信道的信道容量: ,, 10.已知一(3,1,3)卷积码编码器,输入输出关系为:

试给出其编码原理框图。 二、综合题(共5题,每题10分) 1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求: (1)求该马氏信源的符号熵。 (2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。 (3)求每符号对应的平均码长和编码效率。 2.设有一离散信道,其信道矩阵为,求: (1)最佳概率分布? (2)当,时,求平均互信息信道疑义度 (3)输入为等概率分布时,试写出一译码规则,使平均译码错误率最小,并求此 3.设线性分组码的生成矩阵为,求: (1)此(n,k)码的n=? k=?,写出此(n,k)码的所有码字。 (2)求其对应的一致校验矩阵H。 (3)确定最小码距,问此码能纠几位错?列出其能纠错的所有错误图样和对应的伴随式。 (4)若接收码字为000110,用伴随式法求译码结果。 4.二元对称信道的信道矩阵为,信道传输速度为1500二元符号/秒,设信源为等概率分布,信源消息序列共有13000个二元符号,问: (1)试计算能否在10秒内将信源消息序列无失真传送完? (2)若信源概率分布为,求无失真传送以上信源消息序列至少需要多长时间? 5.已知(7,4)循环码的生成多项式,求: (1)求该码的编码效率? (2)求其对应的一致校验多项式

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 1.1同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间: bit x H 32.436log 36 62log 3615)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.11136 log log )(3611333==-=∴==

1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量?平均每个回答中各含有多少信息量?如果你问一位女士,则她的答案中含有多少平均信息量? 解: bit w P w P w P w P m m P m I w P w I bit m P m P m P m P m bit m P m I bit m P m I n n y y n n y y n n y y n n y y 0454.0log99.5%99.5%-log0.5%-0.5% )(log )()(log )()(H % 5.99log )(log )(%5.0log )(log )(36 6.0log93%93%-log7%-7% )(log )()(log )()(H 105.0%93log )(log )(84.3%7log )(log )(: =??=?-?-=-=-=-=-==??=?-?-==-=-==-=-=平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于女: 平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于男士

信息论与编码试题集与答案(新)

" 1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. ? 7. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 8. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 ( ) 2. 线性码一定包含全零码。 ( ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. " 5. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 6. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 7. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 ( ) 8. 循环码的码集中的任何一个码字的循环移位仍是码字。 ( ) 9. 信道容量是信道中能够传输的最小信息量。 (×) 10. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 11. ! 12. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=符号 2.设有一个无记忆信源发出符号A 和B ,已知4 3 41)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( = bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 1614141)(=?=AA p 1634341 )(=?=AB p 1634143)(=?=BA p 1694343)(=?=BB p 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3

(完整版)信息论与编码试题集

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ???? 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ ) 三、计算题 某系统(7,4)码 )()(01201230123456c c c m m m m c c c c c c c ==c 其三位校验 位与信息位的关系为:

相关主题
文本预览
相关文档 最新文档