某离散无记忆信源由8个不同的符号组成,其中4个符号出现的概率为1/16、1/16、1/8、1/4,其余符号等概率出现,则该信源的熵为 。若信源每毫秒发出2个符号,那么此信源平均每秒输出的信息量是 。A.2.875 bit/符号;3.75 kbitB.4.875 bit/符号;5.75 kbitC.4.875 bit/符号;9.75 kbitD.2.875 bit/符号;5.75 kbit

某离散无记忆信源由8个不同的符号组成,其中4个符号出现的概率为1/16、1/16、1/8、1/4,其余符号等概率出现,则该信源的熵为 。若信源每毫秒发出2个符号,那么此信源平均每秒输出的信息量是 。

A.2.875 bit/符号;3.75 kbit

B.4.875 bit/符号;5.75 kbit

C.4.875 bit/符号;9.75 kbit

D.2.875 bit/符号;5.75 kbit


参考答案和解析
信源符号熵为 H(S)=-(0.2log 2 0.2+0.19log 2 0.19+0.18log 2 0.18+0.17log 2 0.17+0.15log 2 0.15+0.10log 2 0.10+0.01log 2 0.01) =2.61比特/符号$二元Huffman编码如表5.13所示。 表5.13 信源符号 s 1 s 2 s 3 s 4 s 5 s 6 s 7 概率 0.20 0.19 0.18 0.17 0.15 0.10 0.01 码字 10 11 000 001 010 0110 0111 平均码长为 ,编码效率为 。$三元Huffman编码如表5.14所示。 表5.14 信源符号 s 1 s 2 s 3 s 4 s 5 s 6 s 7 概率 0.20 0.19 0.18 0.17 0.15 0 10 0.01 码字 2 00 01 02 10 11 12 平均码长为 ,编码效率为 。$信源自信息量的方差为 σ 2 =E[I(s i ) 2 ]-[H(S)] 2 =0.241 按编码效率为96%,即 因此有 即需要约2.03×10 4 个信源符号一起编码。

相关考题:

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

假设信源是由q个离散符号S1,S2,…,Si…,sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足ΣP(Si)=1。那么符号Si含有的信息量I(Si)等于(38),单位是(39)。A.-logqP(Si)B.logqP(Si)C.-log2P(Si)D.log2P(Si)

假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )A. –logq P(Si)B. logq P(Si)C. -log2 P(Si)D. log2 P(Si)@@@SXB@@@A.比特B.信息熵C. dBD.无单位

假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。A.-logqP(Si)B.logqP(Si)C.-log2P(Si)D.log2P(Si)

离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。A.1.5bit/signB.1.875bit/signC.1.75bit/signD.1bit/sign

某二进制信源各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。A.1B.2C.1.5D.2.5

离散信源输出5个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的熵为()。A.1.5bit/signB.1.875bit/signC.2bit/signD.1bit/sign

当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()

如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

设有一个无记忆信源发出符号A和B,已知,发出二重符号序列消息的信源,无记忆信源熵为()。A、0.81bit/二重符号B、1.62bit/二重符号C、0.93bit/二重符号D、1.86bit/二重符号

离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。

离散平稳有记忆信源符号序列的平均符号熵随着序列长度L的增大而增大。

一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。

信源发出的信号共有8种状态,其中4种状态的发生概率为0,其余4种状态的发生概率为1/4,信源传给信宿的信息熵是()。A、2B、3C、4D、1

某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。A、400b/sB、100b/sC、300b/sD、200b/s

离散无记忆信源所产生的符号序列的熵等于各符号熵之和。

二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。A、0.583(bit)B、0.585(bit)C、0.587(bit)D、0.589(bit)

判断题一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。A对B错

单选题离散信源输出五个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的值为()A1.800bit/符号B1.825bit/符号C1.850bit/符号D1.875bit/符号

填空题某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

判断题当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。A对B错

填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

单选题某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。A400b/sB100b/sC300b/sD200b/s

单选题设有一个无记忆信源发出符号A和B,已知,发出二重符号序列消息的信源,无记忆信源熵为()。A0.81bit/二重符号B1.62bit/二重符号C0.93bit/二重符号D1.86bit/二重符号

单选题某信源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4、1/8、1/8、3/16和5/16,平均信息量为()bit/符号。A2.20B2.23C2.44D2.50

单选题设一信息源的输出由128个不同符号E组成,其中16个出现的概率为1/32,其余112个出现的概率为1/224。信息源每秒发出1000个符号,且每个符号彼此独立。则该信息源的平均信息速率()A6417bit/sB6.417bit/sC64.17bit/sD641.7bit/s

判断题离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。A对B错