自信息量,熵及其性质

一般地,如果一个随机事件有2^{n}种等可能的结果,那么对其编码恰需要n位二进制数,即n比特来储存消息。
因此,可以把对所有可能消息的最小二进制编码位数近似着作该随机事件的熵,记为H
对于上面的例子分别有H=log_{2}2^{n}=n

定义2.3      随机事件x_{i},发生概率的对数的相反数定义为该随机事件的自信息量,记作I(x_{i})。设x_{i}的发生概率为p(x_{i}),则其自信息为I(x_{i})=-log_{2}p(x_{i})

自信息量,熵及其性质_第1张图片
p(x_{i})=0,即随机事件x_{i},不发生时,I(x_{i})定义为无限大;当p(x_{i})=1,即随机事件为确定事件必然发生时,I(x_{i})=0;对于0< p(x_{i})< 1I(x_{i})非负。
在此定义中,对数的底决定自信息量的单位。如果以2为底,信息量的单位记为比特(bit);如果以e为底数(自然对数),则自信息量的单位记为奈特(nat)。

 

定义2.4   设随机变量X取值于\left \{x _{i}|i=1,2,...,n \right \},x_{i}出现的概率为p(x_{i})\sum_{i=1}^{n}p(x_{i})=1
那么所有可能事件x_{i},的自信息量I(x_{i})的加权平均定义为随机变量X的信息熵,简称,记为H(X)。即:
H(X)=\sum_{i=1}^{n}p(x_{i})I(x_{i})=-\sum_{i=1}^{n}p(x_{i})log_{2}p(x_{i})
为方便起见,约定p(x_{i})=0时,p(x_{i})log_{2}p(x_{i})=0

 

定理2.1  0\leq H(X)\leq log_{2}n,当且仅当对一切1\leq i\leq n,有p(x_{i})=\frac{1}{n}时,H(X)=log_{2}n。也就是说当概率是均匀分布时,H(X)最大,也就是不确定性最大。
证明:由H(X)的定义知:H(X)\geqslant 0。由Jensen不等式可得:
H(X)=-\sum_{i=1}^{n}p(x_{i})log_{2}p(x_{i})=\sum_{i=1}^{n}p(x_{i})log_{2}\frac{1}{p(x_{i})}\leqslant log_{2}\sum_{i=1}^{n}p(x_{i})\frac{1}{p(x_{i})}=log_{2}n
 

当且仅当对一切1\leq i\leq n,有p(x_{i})=\frac{1}{n}时等号成立。

 

你可能感兴趣的:(密码学)