判断题单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。A对B错

判断题
单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。
A

B


参考解析

解析: 暂无解析

相关考题:

信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

一离散信源输出二进制符号,在()条件下,每个二进制符号携带1比特信息量;在()条件下,每个二进制符号携带的信息量小于1比特。

当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()

如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

连续信源和离散信源的平均互信息都具有非负性。

自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。

单符号离散信源的自信息和信源熵都是一个确定值。

连续信源和离散信源的熵都具有非负性。

某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

单符号离散信源一般用随机变量描述,而多符号离散信源一般用()描述。

离散无记忆N次扩展信源通过离散无记忆N次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的()倍。

平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

单符号离散信源的自信息和信源熵都具有非负性。

平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。

二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。A、0.583(bit)B、0.585(bit)C、0.587(bit)D、0.589(bit)

填空题自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

判断题当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。A对B错

填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

单选题离散无记忆扩展信源的平均信息量H(SN)和未扩展信源平均信息量H(S)之间的关系为:( )AH(SN)=H(S)BH(SN)=(N-2)H(S)CH(SN)=(N-1)H(S)DH(SN)=NH(S)

判断题单符号离散信源的自信息和信源熵都是一个确定值。A对B错

判断题连续信源和离散信源的熵都具有非负性。A对B错

判断题单符号离散信源的自信息和信源熵都具有非负性。A对B错

判断题连续信源和离散信源的平均互信息都具有非负性。A对B错

判断题平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。A对B错