参考答案和解析
正确答案:B
解析:倌源X发出的xj(j=1,2,…n),共n个随机事件的自信息统计平均(求数学期望),即H(X)在信息论中称为信源X的“熵”(Entropy),它的含义是信源X发出任意一个随机变量的平均信息量。本题中,
更多“信源X中有16个随机事件,即n=16。每一个随机事件的概率都相等,即P(x1)=Px2)= P(x3)=…=P(x8)=1/16, ”相关问题
  • 第1题:

    设X1,X2,X3是随机变量,且X1~N(0,1),X2~N(0,22),X3一N(5,32),Pj=P{一2≤xj≤2}(J=
    1,2,3),则( )。

    A.P1>P2>P3
    B.P2>P1>P3
    C.P3>P1>P2
    D.P1>P3>P2

    答案:A
    解析:

  • 第2题:

    随机变量X的概率分布如下:p(X=x1)=1/2,p(X=x2)=1/4,p(X=x3)=1/8,p(X=x4)=1/8,计算H(X)=_____bit


    由分布列的性质可得 1 6 + 1 3 + 1 6 +p=1 , 解之可得p= 1 3 , 故X的数学期望: EX= 0× 1 6 +1× 1 3 +2× 1 6 +3× 1 3 = 5 3 故答案为: 5 3

  • 第3题:

    离散无记忆信源 P(x1)=8/16; P(x2)= 3/16; P(x3)= 4/16; P(x4)=1/16; 1、给出信源符号的一个等长编码(假设编码长度为4) 2、计算编码效率;


  • 第4题:

    设M、N为随机事件,P(N)>0,且条件概率P(M|N)=1,则必有


    答案:C
    解析:
    P(MUN)=P(M)+P(N)-P(MN),P(MUN)=P(M)。

  • 第5题:

    已知随机事件A的概率P(A)=0.5,随机事件B的概率P(B)=0.6,条件概率P(B|A)=0.8,则P(A+B)=______。


    0.7 由0.8=P(B|A)=,得P(AB)=0.8P(A)=0.8×0.5=0.4.故P(A∪B)=P(A)+P(B)-P(AB)=0.5+0.6-0.4=0.7