离散信源 R(D)计算及限失真信源编码定理

简介: 离散信源 R(D)计算及限失真信源编码定理
本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库: https://github.com/timerring/information-theory 】或者公众号【AIShareLab】回复 信息论 获取。

离散信源 R(D)计算

给定信源概率 $p_{\mathrm{i}}$ 和失真函数 $d_{\mathrm{i} j}$ 就可以求得该信源的 R(D) 函数。

它是在保真度准则下求极小值的问题。

但要得到它的显式表达式,一般比较困难。通常用参量表达式。即使如此,除简单的情况外实际计算还是困难的, 只能用迭代逐级逼近的方法。

二元对称信源的 R(D) 函数

设二元对称信源 $X=\{0,1\}$ , 其概率分布 $p(x)=[p, 1-p]$ ,接收变量 $\mathbf{Y}=\{\mathbf{0}, \mathbf{1}\}$ ,汉明失真矩阵

$$ d=\left[\begin{array}{ll} 0 & 1 \\ 1 & 0 \end{array}\right] $$

因而最小允许失真度 $D_{\min }=0$ 。并能找到满足该最小失真的试验信道, 且是一个无噪无损信道, 其信道矩阵为

$$ p=\left[\begin{array}{ll} 1 & 0 \\ 0 & 1 \end{array}\right] $$

计算得: $\mathrm{R}(0)=\mathrm{I}(\mathrm{X} ; \mathrm{Y})=\mathrm{H}(p)$

最大允许失真度为

$$ \begin{aligned} D_{\text {max }} & =\min _{j=0,1} \sum_{i=0}^{1} p_{i} d_{i j} \\ & =\min \{p(0) d(0,0)+p(1) d(1,0), p(0) d(0,1)+p(1) d(1,1)\} \\ & =\min _{j}\{(1-p), p\}=p \\ \end{aligned} $$

要达到最大允许失真度的试验信道, 唯一确定为

$$ p=\left[\begin{array}{ll} 0 & 1 \\ 0 & 1 \end{array}\right] $$

这个试验信道能正确传送信源符号 x=1 , 而传送信源符号 x=0 时,接收符号 一定为 $\mathrm{y}=1$ 。凡发送符号 x=0 时,一定都错了。而 x=0 出现的概率为 p , 所以信道的平均失真度为 $\boldsymbol{p}$ 。

在这种试验信道条件下, 可计算得

$$ \mathbf{R}\left(\mathbf{D}_{\max }\right)=\min _{P_{D \max }} I(X ; Y)=\boldsymbol{H}(\boldsymbol{Y})-\boldsymbol{H}(\boldsymbol{Y} \mid \boldsymbol{X})=\mathbf{0} $$

对于二进制无记忆信源, 若 $P(X_{\mathrm{i}}=0)=p, P(X_{\mathrm{i}}=1)=1- p$ , 且采用汉明失真, 其率失真函数为

$$ R(D)=\left\{\begin{array}{cc} H_{b}(p)-H_{b}(D), & 0 \leq D \leq \min \{p, 1-p\} \\ 0, & \text { otherwise } \end{array}\right. $$

有一个二进制无记忆信源,以概率p=0.25输出“1”,以概率1-p=0.75输出“0”。请问:

(1)若要求采用无失真信源编码,信息率失真函数是多少?

(2)若重构该信源的错误概率不超过0.1,信息率失真函数是多少?

(3)若重构该信源的错误概率不超过0.25,信息率失真函数是多少?这种情况下,最佳的译码策略是什么?

解:
(1) $H(x)=-0.25 \log 0.25-0.75 \log 0.75=0.8113 bit/sym$

(2) $H(0.25)-H(0.1)=0.3423 bit/sym$

(3) 0. 最佳译码策略是将接收到的信号都译码为 ' 0 '

高斯信源的 R(D)函数

对于均值为 0 , 方差为 $\sigma^{2}$ 的高斯信源, 采用平方失真时的率失真函数为

$$ R(D)=\left\{\begin{array}{cc} \frac{1}{2} \log \frac{\sigma^{2}}{D}, & 0 \leq D \leq \sigma^{2} \\ 0, & \text { otherwise } \end{array}\right. $$

可见, 随着D的增大, R(D)减小。 当 $D \geqslant D \max$ 时, R(D)=0

一般信息率失真函数的图形如下所示

限失真信源编码定理

设离散无记忆信源 $\mathrm{X}$ 的信息率失真函数为 $R(\mathrm{D})$ ,

  • 当信息率 R>R(D) 时, 只要信源序列长度 L 足够长,一定存在一种编码方法,其译码失真小于或等于 $D+\varepsilon$, $\varepsilon$ 为任意小的正数;
  • 反之, 若 R<R (D), 则无论采用什么样的编码方法, 其译码失真必大于 D。

如是二元信源, 则对于任意小的 $\varepsilon>0$ , 每一个信源符号的平均码长满足如下公式:

$$ R(D) \leq \bar{K} \leq R(D)+\varepsilon $$

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
目录
相关文章
|
10月前
|
供应链 监控 数据可视化
物联网技术在物流与供应链管理中的应用与挑战
本文探讨了物联网技术在物流与供应链管理中的应用,通过实时追踪、信息共享、智能化决策等手段,大幅提升了管理效率和智能化水平。特别介绍了板栗看板作为专业可视化工具,在数据监控、分析及协同作业中的重要作用。未来,随着技术的进一步发展,物流与供应链管理将更加智能高效,但也面临数据安全、标准化等挑战。
|
机器学习/深度学习 人工智能 算法框架/工具
深度学习中的卷积神经网络(CNN)及其在图像识别中的应用
【9月更文挑战第31天】本文旨在通过浅显易懂的语言和直观的比喻,为初学者揭开深度学习中卷积神经网络(CNN)的神秘面纱。我们将从CNN的基本原理出发,逐步深入到其在图像识别领域的实际应用,并通过一个简单的代码示例,展示如何利用CNN进行图像分类。无论你是编程新手还是深度学习的初学者,这篇文章都将为你打开一扇通往人工智能世界的大门。
|
Kubernetes API 容器
在k8S中,使用kubectl logs无法查看日志是什么原因,如何让其能够查看?
在k8S中,使用kubectl logs无法查看日志是什么原因,如何让其能够查看?
|
机器学习/深度学习 资源调度 自然语言处理
长短时记忆网络(LSTM)完整实战:从理论到PyTorch实战演示
长短时记忆网络(LSTM)完整实战:从理论到PyTorch实战演示
16658 0
|
机器学习/深度学习 人工智能 计算机视觉
生成式计算机视觉(CV)模型的发展历程及最新进展
在计算机视觉(CV)领域,生成式AI技术的发展经历了多个阶段。在深度学习革命之前,传统的图像生成技术主要依赖于手工制作的特征,如纹理合成和纹理映射等方法。然而,这些方法在生成复杂和生动的图像方面的能力是有限的。
1652 2
|
存储 弹性计算 人工智能
不买后悔:阿里云最便宜云服务器出炉:61元、165元、99元、199元
不买后悔:阿里云最便宜云服务器出炉:61元、165元、99元、199元,99计划云服务器99元一年起,2核4G5M带宽199元一年,续费不涨价,轻量应用服务器2核2G3M带宽61元一年、2核4G4M带宽165元一年,4核16G10M服务器26元1个月、149元半年,8核32G服务器90元1个月、271元3个月
|
安全 调度 C语言
iOS多线程之GCD-同步、异步、并发、串行、线程组、栅栏函数、信号量等全网最全的总结
iOS多线程之GCD-同步、异步、并发、串行、线程组、栅栏函数、信号量等全网最全的总结
1438 1
|
机器学习/深度学习 传感器 编解码
【滤波器设计】基于汉明窗,汉宁窗,布莱克曼窗 矩形窗设计低通FIR滤波器附matlab代码
【滤波器设计】基于汉明窗,汉宁窗,布莱克曼窗 矩形窗设计低通FIR滤波器附matlab代码