若二元离散信源的统计特性为
P=Q=1,H(X)=-[P*log(P)+(1-P)*log(1-P)]
对H(X)求导求极值,由dH(X)/d(P)=0可得
可知当概率P=Q=1/2时,有信源熵
对于三元离散信源,当概率时,信源熵
此结论可以推广到N元的离散信源。
(简答题)
证明一个离散信源在它的输出符号等概率的情况下其熵达到最大值。
正确答案
答案解析
略
相似试题
(简答题)
设离散无记忆信源S其符号集A={a1,a2,...,aq},知其相应的概率分别为(P1,P2,...,Pq)。设另一离散无记忆信源S′,其符号集为S信源符号集的两倍,A′={ai,i=1,2,...,2q},并且各符号的概率分布满足: 试写出信源S′的信息熵与信源S的信息熵的关系。
(判断题)
单符号离散信源的自信息和信源熵都是一个确定值。
(简答题)
设有一离散无记忆信源,其概率空间为 (1)求每个符号的自信息量; (2)信源发出一消息符号序列为,求该序列的自信息量和平均每个符号携带的信息量。
(填空题)
对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加()个概率为0的消息。
(判断题)
某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。
(简答题)
简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少?
(简答题)
已知离散信源,某信道的信道矩阵为 试求: (1)“输入a3,输出b2”的概率; (2)“输出b4”的概率; (3)“收到b3的条件下推测输入a2”的概率。
(简答题)
简述随机事件的不确定度和它的自信息量之间的关系及区别,单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义。
(填空题)
单符号离散信源一般用随机变量描述,而多符号离散信源一般用()描述。