信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

信息熵是表示信源输出后,每个消息所提供的()。

A、总信息量

B、平均信息量

C、个别信息量

D、绝对平均信息量


相关考题:

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

信源的熵与信源符号的个数和信源每个符号出现的()有关。

信源输出的各消息的自信息量的数学期望称为信源的平均自信息量。

对连续信源的熵的描述正确的是()。A.连续信源的熵和离散集的熵形式一致,只是用概率密度代替概率,用积分代替求和B.连续信源的熵值无限大C.连续信源的微分熵描述平均每个输出携带的信息量D.连续信源的微分熵可正可负

设信源产生符号aj这个事件的概率是Pj ,则对每个信源输出的平均信息量(熵)如何定义?

如果信源编码速率R<H(U),H(U)为信源熵,则不能在再现信源消息。

有一个信源,输出0和1的概率分别是0.2和0.8,求: 1)0所携带的信息量是多少?1所携带的信息量是多少? 2)这个信源的熵是多少?

四进制离散信源(0,1,2,3)中各符号出现的概率分别为3/8、1/4、1/4、1/8,且每个符号的出现都是独立的,试求: (1)该信源的平均信息量(熵); (2)该信源发送的某条消息:20102013021300120321010032101002310200201031203 2100120210的总信息量。

已知某四进制离散等概信源(0,1,2,3),其符号出现概率分别为1/2、1/4、1/8和1/8,且互相独立,信源发送的消息为13201010100201300200100210300101020010030103210,求: (1)消息中实际包含的信息量; (2)用熵的概念计算消息的信息量。