有一个信源,输出0和1的概率分别是0.2和0.8,求: 1)0所携带的信息量是多少?1所携带的信息量是多少? 2)这个信源的熵是多少?

有一个信源,输出0和1的概率分别是0.2和0.8,求: 1)0所携带的信息量是多少?1所携带的信息量是多少? 2)这个信源的熵是多少?


参考答案和解析
P(0)=P(1)

相关考题:

信息熵即信源的()自信息量。 A、平均B、固定的C、不变的D、随机

信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

一离散信源输出二进制符号,在()条件下,每个二进制符号携带1比特信息量;在()条件下,每个二进制符号携带的信息量小于1比特。

离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。A.1.5bit/signB.1.875bit/signC.1.75bit/signD.1bit/sign

某二进制信源各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。A.1B.2C.1.5D.2.5

离散信源输出5个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的熵为()。A.1.5bit/signB.1.875bit/signC.2bit/signD.1bit/sign

信源发出的信号共有8种状态,如果有4种状态发生的概率全为0,其余4种状态的发生概率各为1/4,这时信源传给信宿的信息熵是()。A、4B、3C、2D、1

某信息源信号共有4种状态,每种状态出现的概率分别为1/4,则某信宿收到该信源的平均信息量(信息熵)是()。A、1B、2C、3D、4

如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

利用状态极限概率和状态一步转移概率来求m阶马尔可夫信源的极限熵。

某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。

信源发出的信号共有8种状态,其中4种状态的发生概率为0,其余4种状态的发生概率为1/4,信源传给信宿的信息熵是()。A、2B、3C、4D、1

有一二进制信源符号,0和1发生的概率分别P(0)与P(1),当()概率发生时,信源的熵达到最大值。A、P(0)P(1)B、P(0)C、P(0)=P(1)D、不能确定

平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A、1B、1.5C、1.75D、2

二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。A、0.583(bit)B、0.585(bit)C、0.587(bit)D、0.589(bit)

填空题自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

单选题有一二进制信源符号,0和1发生的概率分别P(0)与P(1),当()概率发生时,信源的熵达到最大值。AP(0)P(1)BP(0)CP(0)=P(1)D不能确定

填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

单选题离散无记忆扩展信源的平均信息量H(SN)和未扩展信源平均信息量H(S)之间的关系为:( )AH(SN)=H(S)BH(SN)=(N-2)H(S)CH(SN)=(N-1)H(S)DH(SN)=NH(S)

判断题信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。A对B错

填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

单选题设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A1B1.5C1.75D2