当随即变量X和Y相互独立时,条件熵等于信源熵。

当随即变量X和Y相互独立时,条件熵等于信源熵。


相关考题:

如果有两个信源X、Y,在事件X或Y产生的情况下,另一事件Y或X的产生还保留着平均不确定性或疑义度,这可以用()来表示。 A、条件熵B、信息熵C、联合熵D、互信息熵

互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。

对于限平均功率的一维连续信源,当概率密度()时,信源熵有最大值。

设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

简述离散信源和连续信源的最大熵定理。

离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。

连续信源和离散信源的熵都具有非负性。

信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。

若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为()。

离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。

某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

条件熵和无条件熵的关系是:()A、H(Y/X)<H(Y)B、H(Y/X)>H(Y)C、H(Y/X)≤H(Y)D、H(Y/X)≥H(Y)

平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

单符号离散信源的自信息和信源熵都具有非负性。

一个随即变量x的概率密度函数P(x)=x/2,,则信源的相对熵为()。A、0.5bitB、0.72bitC、1bitD、1.44bit

离散无记忆信源所产生的符号序列的熵等于各符号熵之和。

判断题当随即变量X和Y相互独立时,条件熵等于信源熵。A对B错

判断题离散无记忆信源所产生的符号序列的熵等于各符号熵之和。A对B错

填空题某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。

填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

填空题若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为()。

问答题简述离散信源和连续信源的最大熵定理。

判断题信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。A对B错

填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

填空题互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。

填空题离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。

判断题离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。A对B错