无失真编码定理确定的是()。 A.每个信源符号的最小平均码字长度B.每个信源符号的最大平均码字长度C.各个信源符号的码字长之和的最小值D.各个信源符号的码字长之和的最大值
设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?
一离散信源输出二进制符号,在()条件下,每个二进制符号携带1比特信息量;在()条件下,每个二进制符号携带的信息量小于1比特。
某二进制信源各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。A.1B.2C.1.5D.2.5
当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()
如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()
设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。
自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()
单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。
信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。
信源的冗余度来自两个方面,一是信源符号之间的(),二是信源符号分布的()。
信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。
某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。
互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。
无失真编码定理确定的是()。A、每个信源符号的最小平均码字长度B、每个信源符号的最大平均码字长度C、各个信源符号的码字长之和的最小值D、各个信源符号的码字长之和的最大值
二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。A、0.583(bit)B、0.585(bit)C、0.587(bit)D、0.589(bit)
填空题信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就(),获得的信息量就越小。
判断题信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。A对B错
判断题当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。A对B错
判断题单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。A对B错
判断题互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。A对B错
填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()
单选题某信源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4、1/8、1/8、3/16和5/16,平均信息量为()bit/符号。A2.20B2.23C2.44D2.50
单选题无失真编码定理确定的是()。A每个信源符号的最小平均码字长度B每个信源符号的最大平均码字长度C各个信源符号的码字长之和的最小值D各个信源符号的码字长之和的最大值
填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。
填空题信源的冗余度来自两个方面,一是信源符号之间的(),二是信源符号分布的()。
判断题某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。A对B错