设信源产生符号aj这个事件的概率是Pj ,则对每个信源输出的平均信息量(熵)如何定义?

设信源产生符号aj这个事件的概率是Pj ,则对每个信源输出的平均信息量(熵)如何定义?


参考答案和解析
A

相关考题:

信息熵即信源的()自信息量。 A、平均B、固定的C、不变的D、随机

信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。A.1.5bit/signB.1.875bit/signC.1.75bit/signD.1bit/sign

离散信源输出5个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的熵为()。A.1.5bit/signB.1.875bit/signC.2bit/signD.1bit/sign

当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()

如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

对于限平均功率的一维连续信源,当概率密度()时,信源熵有最大值。

设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。

某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。A、400b/sB、100b/sC、300b/sD、200b/s

无失真编码定理确定的是()。A、每个信源符号的最小平均码字长度B、每个信源符号的最大平均码字长度C、各个信源符号的码字长之和的最小值D、各个信源符号的码字长之和的最大值

离散无记忆信源所产生的符号序列的熵等于各符号熵之和。

填空题自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

填空题某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

判断题当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。A对B错

填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

单选题某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。A400b/sB100b/sC300b/sD200b/s

填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

单选题无失真编码定理确定的是()。A每个信源符号的最小平均码字长度B每个信源符号的最大平均码字长度C各个信源符号的码字长之和的最小值D各个信源符号的码字长之和的最大值

填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

判断题离散无记忆信源所产生的符号序列的熵等于各符号熵之和。A对B错

判断题离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。A对B错

判断题某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。A对B错