设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。


相关考题:

连续信源输出的消息是按一定概率选取的符号序列,所以可以把这种信源输出的消息看做时间上或空间上离散的一系列随机变量,即为()。 A、离散矢量B、随机矢量C、离散型平稳变量D、连续型平稳变量

信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

若信源输出的消息可用N维随机矢量X=(X1,X2„XN)来描述,其中每个随机分量xi(i=1,2,„,N)都是取值为连续的连续型随机变量(即见的可能取值是不可数的无限值),并且满足在任意两个不同时刻随机矢量X的各维概率密度函数都相同,这样的信源称为()。 A、离散信源B、连续信源C、离散型平稳信源D、连续型平稳信源

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

消息认证需要证实的内容应包括______。A.消息的信源,消息内容是否被篡改B.消息的信源和信宿,消息内容是否被篡改C. 消息的信源和信宿,消息的序号和时间性D.消息的信源和信宿,消息内容是否被篡改,消息的序号和时间性

当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()

如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

对于限平均功率的一维连续信源,当概率密度()时,信源熵有最大值。

对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加()个概率为0的消息。

自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。

信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。

若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为()。

一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。

离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。

某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

离散无噪信道的信道容量等于log2n,其中n是信源X的消息个数。

设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A、1B、1.5C、1.75D、2

判断题一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。A对B错

填空题自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

填空题某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

填空题对于限平均功率的一维连续信源,当概率密度()时,信源熵有最大值。

判断题信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。A对B错

填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

单选题设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A1B1.5C1.75D2

填空题对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加()个概率为0的消息。

填空题离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。