信源输出的各消息的自信息量的数学期望称为信源的平均自信息量。

信源输出的各消息的自信息量的数学期望称为信源的平均自信息量。


参考答案和解析
正确

相关考题:

信息熵即信源的()自信息量。 A、平均B、固定的C、不变的D、随机

信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

若信源输出的消息可用N维随机矢量X=(X1,X2„XN)来描述,其中每个随机分量xi(i=1,2,„,N)都是取值为连续的连续型随机变量(即见的可能取值是不可数的无限值),并且满足在任意两个不同时刻随机矢量X的各维概率密度函数都相同,这样的信源称为()。 A、离散信源B、连续信源C、离散型平稳信源D、连续型平稳信源

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

一离散信源输出二进制符号,在()条件下,每个二进制符号携带1比特信息量;在()条件下,每个二进制符号携带的信息量小于1比特。

当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()

如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。

信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。

信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。

某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。

平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。

设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A、1B、1.5C、1.75D、2

填空题信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。

判断题信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。A对B错

填空题自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

判断题当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。A对B错

判断题单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。A对B错

填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

单选题离散无记忆扩展信源的平均信息量H(SN)和未扩展信源平均信息量H(S)之间的关系为:( )AH(SN)=H(S)BH(SN)=(N-2)H(S)CH(SN)=(N-1)H(S)DH(SN)=NH(S)

填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

单选题设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A1B1.5C1.75D2

判断题某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。A对B错