本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:https://github.com/timerring/information-theory 】或者公众号【AIShareLab】回复 信息论 获取。
离散信源 R(D)计算
给定信源概率 $p_{\mathrm{i}}$ 和失真函数 $d_{\mathrm{i} j}$ 就可以求得该信源的 R(D) 函数。
它是在保真度准则下求极小值的问题。
但要得到它的显式表达式,一般比较困难。通常用参量表达式。即使如此,除简单的情况外实际计算还是困难的, 只能用迭代逐级逼近的方法。
二元对称信源的 R(D) 函数
设二元对称信源 $X=\{0,1\}$ , 其概率分布 $p(x)=[p, 1-p]$ ,接收变量 $\mathbf{Y}=\{\mathbf{0}, \mathbf{1}\}$ ,汉明失真矩阵
$$ d=\left[\begin{array}{ll} 0 & 1 \\ 1 & 0 \end{array}\right] $$
因而最小允许失真度 $D_{\min }=0$ 。并能找到满足该最小失真的试验信道, 且是一个无噪无损信道, 其信道矩阵为
$$ p=\left[\begin{array}{ll} 1 & 0 \\ 0 & 1 \end{array}\right] $$
计算得: $\mathrm{R}(0)=\mathrm{I}(\mathrm{X} ; \mathrm{Y})=\mathrm{H}(p)$
最大允许失真度为
$$ \begin{aligned} D_{\text {max }} & =\min _{j=0,1} \sum_{i=0}^{1} p_{i} d_{i j} \\ & =\min \{p(0) d(0,0)+p(1) d(1,0), p(0) d(0,1)+p(1) d(1,1)\} \\ & =\min _{j}\{(1-p), p\}=p \\ \end{aligned} $$
要达到最大允许失真度的试验信道, 唯一确定为
$$ p=\left[\begin{array}{ll} 0 & 1 \\ 0 & 1 \end{array}\right] $$
这个试验信道能正确传送信源符号 x=1 , 而传送信源符号 x=0 时,接收符号 一定为 $\mathrm{y}=1$ 。凡发送符号 x=0 时,一定都错了。而 x=0 出现的概率为 p , 所以信道的平均失真度为 $\boldsymbol{p}$ 。
在这种试验信道条件下, 可计算得
$$ \mathbf{R}\left(\mathbf{D}_{\max }\right)=\min _{P_{D \max }} I(X ; Y)=\boldsymbol{H}(\boldsymbol{Y})-\boldsymbol{H}(\boldsymbol{Y} \mid \boldsymbol{X})=\mathbf{0} $$
对于二进制无记忆信源, 若 $P(X_{\mathrm{i}}=0)=p, P(X_{\mathrm{i}}=1)=1- p$ , 且采用汉明失真, 其率失真函数为
$$ R(D)=\left\{\begin{array}{cc} H_{b}(p)-H_{b}(D), & 0 \leq D \leq \min \{p, 1-p\} \\ 0, & \text { otherwise } \end{array}\right. $$
有一个二进制无记忆信源,以概率p=0.25输出“1”,以概率1-p=0.75输出“0”。请问:
(1)若要求采用无失真信源编码,信息率失真函数是多少?
(2)若重构该信源的错误概率不超过0.1,信息率失真函数是多少?
(3)若重构该信源的错误概率不超过0.25,信息率失真函数是多少?这种情况下,最佳的译码策略是什么?
解:
(1) $H(x)=-0.25 \log 0.25-0.75 \log 0.75=0.8113 bit/sym$(2) $H(0.25)-H(0.1)=0.3423 bit/sym$
(3) 0. 最佳译码策略是将接收到的信号都译码为 ' 0 '
高斯信源的 R(D)函数
对于均值为 0 , 方差为 $\sigma^{2}$ 的高斯信源, 采用平方失真时的率失真函数为
$$ R(D)=\left\{\begin{array}{cc} \frac{1}{2} \log \frac{\sigma^{2}}{D}, & 0 \leq D \leq \sigma^{2} \\ 0, & \text { otherwise } \end{array}\right. $$
可见, 随着D的增大, R(D)减小。 当 $D \geqslant D \max$ 时, R(D)=0
一般信息率失真函数的图形如下所示
限失真信源编码定理
设离散无记忆信源 $\mathrm{X}$ 的信息率失真函数为 $R(\mathrm{D})$ ,
- 当信息率 R>R(D) 时, 只要信源序列长度 L 足够长,一定存在一种编码方法,其译码失真小于或等于 $D+\varepsilon$, $\varepsilon$ 为任意小的正数;
- 反之, 若 R
如是二元信源, 则对于任意小的 $\varepsilon>0$ , 每一个信源符号的平均码长满足如下公式:
$$ R(D) \leq \bar{K} \leq R(D)+\varepsilon $$
参考文献:
- Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
- 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.