1bit的信息量是指含有()个独立均等概率状态的事件所具有的不确定性能被全部消除所需要的信息。A、8B、4C、3D、2

1bit的信息量是指含有()个独立均等概率状态的事件所具有的不确定性能被全部消除所需要的信息。

  • A、8
  • B、4
  • C、3
  • D、2

相关考题:

概率的统计定义是指( )。A.随机现象是可以进行大量的重复试验的B.多次重复试验中事件A发生的频率的大小反映了事件A发生的概率C.两个事件之和的概率等于每个事件概率之和D.两个事件之积的概率等于每个事件概率之积E.两个事件之和的概率等于两个事件概率之积

有两个事件A和B,事件A的发生与否不影响事件B发生的概率,事件B是否发生与A发生的概率同样无关,那么我们就说两个事件就概率而言是( )的。A.互不相容B.独立C.互补D.相关

如果事件1发生的概率为80%,事件2为70%,而且两个事件均是独立事件,则它们都发生的概率是:A、6%B、 15%C、 24%D、 56%

假设信源是由q个离散符号S1,S2,…,Si…,sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足ΣP(Si)=1。那么符号Si含有的信息量I(Si)等于(38),单位是(39)。A.-logqP(Si)B.logqP(Si)C.-log2P(Si)D.log2P(Si)

假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )A. –logq P(Si)B. logq P(Si)C. -log2 P(Si)D. log2 P(Si)@@@SXB@@@A.比特B.信息熵C. dBD.无单位

有两个事件A和B,事件A的发生与否不影响事件B发生的概率,事件B是否发生与A发生的概率同样无关,那么我们就说两个事件就概率而言是()的。A:互不相容B:独立C:互补D:相关

下列关于概率的说法,错误的有()。A:概率分布是不确定事件发生的可能性的一种数学模型B:如果两个事件不可能同时发生,那么至少其中之一发生的概率为这两个概率的积C:当随机事件A的结果不影响随机事件B发生的概率时,则称两个事件是独立的D:如果两个事件是相互独立的,那么这两个事件同时发生的概率就是这两个事件各自发生的概率的和E:一些概率既不能由等可能性来计算,也不可能从试验得出,需要根据常识、经验和其他相关因素来判断,这种概率称为主观概率

事件出现的概率越大表示该事件的信息量越大。()

等概率出现的二进制码“0”的信息量为1bit/s

一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为()。

如果事件1发生的概率是80%而事件2是70%,并且它们是独立的事件,则两个事件同时发生的概率是多少()?A、6%B、15%C、24%D、56%

事件发生的概率越大,此事件含有的信息量就越大。

如果事件1发生的概率是80%,事件2发生的概率是70%,这们又是相互独立的事件,那么这两个事件都发生的概率是多大?()A、6%B、15%C、24%D、56%

在概率论中,不可能同时发生的两个事件,一般称作()A、独立事件B、对立事件C、互斥事件D、概率事件

某事件可能出现的几种状态发生概率相同,则其中一个具体状态的发生所携带的自信息量A和该事件的信息熵B在数值上的关系为()。A、ABB、A=BC、AD.不能确定

当我们计算的概率时,加法是有用的()A、独立事件B、两个事件的交C、两个事件的并D、条件事件

()是指一个含有某种事件的试验被反复进行多次时,该事件出现的相对次数。A、主观概率B、客观概率C、条件概率D、相对概率

一个事件发生的概率越小,它的信息量就越小。

N个独立事件的概率积的计算公式是:P(ABC…N)=()。

小概率事件的发生,其带给人们的信息量就小。

信息量的计量单位是比特。一比特的信息量就是含有两个独立等概率可能状态的随机事件所具有的不确定性被全部消除所需要的信息。()

对于两个事件A和B,如果知道事件A的结果不影响事件B发生的概率时,我们就说这两个事件就概率而言是()的。A、独立B、互斥C、无关D、互补

某一事件是处于风险状态还是不确定性状态,在很大程度上取决于()A、事件本身的性质B、人们的认识C、决策者的能力D、拥有的信息量

判断题一个事件发生的概率越小,它的信息量就越小。A对B错

判断题事件出现的概率越大表示该事件的信息量越大。( )A对B错

单选题对于两个事件A和B,如果知道事件A的结果不影响事件B发生的概率时,我们就说这两个事件就概率而言是()的。A独立B互斥C无关D互补

判断题事件发生的概率越大,此事件含有的信息量就越大。A对B错