连续信源的熵与RD

简介: 连续信源的熵与RD

连续信源的熵

由于连续信源信号幅度取值无限性, 要精确表示这样的信号, 理论上需要无穷个bit才行。即连续信源的绝对熵为 $\infty$ 。

仿照离散信源熵的定义, 有连续信源的熵(相对熵)定义为

$$ H(X)=-\int_{-\infty}^{\infty} f(x) \log (f(x)) d x $$

其中 $f(x)$ 为连续信源信号 $\mathbf{X}$ 的概率密度函数。连续信源的 (相对) 熵可正可负。

R(D) 的定义域

率失真的定义域问题就是在信源和失真函数已知的情况下,讨论允许平均失真度 $\bar{D}$ 的最小和最大取值问题

由于平均失真度 $\bar{D}$ 是非负实数 $d\left(x_{i}, y_{j}\right)$ 的数学期望, 因此 $\bar{D}$ 也是非负的实数,即 $\bar{D} \geq 0$ , 故 $\bar{D}$ 的下界是 0 。允许平均失真度能否达到其下限值0, 与单个符号的失真函数有关。

$D_{\min }$ 和 $R\left(D_{\min }\right)$

信源的最小平均失真度:

$$ D_{\min }=\sum_{i=1}^{n} p\left(x_{i}\right) \min _{j} d\left(x_{i}, y_{j}\right) $$

只有当失真矩阵的每一行至少有一个 $\mathbf{0}$ 元素时,信源的平均失真度才能达到下限值 $\mathbf{0}$ 。

当 $\boldsymbol{D}_{\text {min }}=\mathbf{0}$ , 即信源不允许任何失真时,信息率至少应等于信源输出的平均信息量一信息熵。

$$ R(0)=H(X) $$

对于连续信源

$$ R\left(D_{\min }\right)=\lim _{D \rightarrow 0} R(D) \rightarrow \infty $$

因为实际信道总是有干扰,其容量有限,要无失真地传送连续信息是不可能的。

当允许有一定失真时, $R(D)$ 将为有限值, 传送才是可能的。

$\mathbf{R}(\mathbf{D})$ 的定义域为 $[D_{\text {min }}, D_{\text {max }}]$ 。

  • 通常 $D_{\text {min }}=0, \quad R\left(D_{\min }\right)=H(X)$
  • 当 $D \geq D_{\text {max }}$ 时, $\quad R(D)=0 $
  • 当 $0 \leq D \leq D_{\text {max }}$ 时, $0\lt R(D)\lt H(X)$

由于 $I(X, Y)$ 是非负函数,而 $R(D)$ 是在约束条件下的 $I(X, Y)$ 的最小值, 所以 $R(D)$ 也是一个非负函数, 它的下限值是零。

$$ \boldsymbol{R}(D) \geq 0 $$

$D_{\text {max }}$ :是定义域的上限。

$D_{\text {max }}$ 是满足 R(D)=0 时所有的平均失真度中的最小值。

$$ D_{\text {max }}=\min _{R(D)=0} D $$

由于 $I(X, Y)=0$ 的充要条件是 X 与 Y 统计独立, 即:

$$ \begin{array}{c} p\left(y_{j} \mid x_{i}\right)=p\left(y_{j}\right) \\ D_{\max }=\min _{p\left(y_{j}\right)} \sum_{i} \sum_{j} p\left(x_{i}\right) p\left(y_{j}\right) d\left(x_{i}, y_{j}\right) \\ =\min _{p\left(y_{j}\right)} \sum_{j} p\left(y_{j}\right) \sum_{i} p\left(x_{i}\right) d\left(x_{i}, y_{j}\right) \\ D_{\max }=\min _{j=1,2 \cdots m} \sum_{i=1}^{n} p\left(x_{i}\right) d\left(x_{i}, y_{j}\right) \end{array} $$

例: 设输入输出符号表为 $\mathbf{X}=\mathbf{Y}=\{\mathbf{0}, 1\}$ , 输入概率分布 $p(x)=\{1 / 3,2 / 3\}$ , 失真矩阵

$$ d=\left[\begin{array}{ll} > 0 & 1 \\ > 1 & 0 > \end{array}\right] $$

求 $\mathbf{D}_{\min }$ 和 $\mathbf{D}_{\max }$

解:失真矩阵的每一行至少有一个 0 元素时, $D_{\min }=0$

$$ \begin{array}{l} > D_{\max }=\min _{j=1,2} \sum_{i=1}^{2} p_{i} d_{i j} \\ > =\min _{j}\left(\frac{1}{3} \times 0+\frac{2}{3} \times 1, \frac{1}{3} \times 1+\frac{2}{3} \times 0\right) \\ > =\min _{j}\left(\frac{2}{3}, \frac{1}{3}\right)=\frac{1}{3} > \end{array} $$

例: 设输入输出符号表为 $\mathbf{X}=\mathbf{Y}=\{\mathbf{0}, \mathbf{1}\}$ , 输入概率分布 $p(x)=\{1 / 3,2 / 3\}$ , 失真矩阵

$$ d=\left[\begin{array}{ll} > 1 / 2 & 1 \\ > 2 & 1 > \end{array}\right] $$

求 $D_{\min }$ 和 $\mathbf{D}_{\text {max }}$

解:

$$ \begin{array}{l} > D_{\min }=\sum_{i=1}^{n} p\left(x_{i}\right) \min _{j} d\left(x_{i}, y_{j}\right) \\ > =\frac{1}{3} \times \frac{1}{2}+\frac{2}{3} \times 1=\frac{5}{6} \\ > D_{\max }=\min _{j=1,2} \sum_{i=1}^{2} p_{i} d_{i j}=\min _{j}\left(\frac{1}{3} \times \frac{1}{2}+\frac{2}{3} \times 2, \frac{1}{3} \times 1+\frac{2}{3} \times 1\right) \\ > =\min _{j}\left(\frac{3}{2}, 1\right)=1 \\ > \end{array} $$

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库: https://github.com/timerring/information-theory 】或者公众号【AIShareLab】回复 信息论 获取。
目录
相关文章
|
3月前
极值分析:分块极大值BLOCK-MAXIMA、阈值超额法、广义帕累托分布GPD拟合降雨数据时间序列
极值分析:分块极大值BLOCK-MAXIMA、阈值超额法、广义帕累托分布GPD拟合降雨数据时间序列
极值分析:分块极大值BLOCK-MAXIMA、阈值超额法、广义帕累托分布GPD拟合降雨数据时间序列
|
机器学习/深度学习 决策智能
矩阵分析 (一) 线性空间和线性变换
矩阵分析 (一) 线性空间和线性变换
163 0
|
3月前
|
算法 定位技术
插值、平稳假设、本征假设、变异函数、基台、块金、克里格、线性无偏最优…地学计算概念及公式推导
插值、平稳假设、本征假设、变异函数、基台、块金、克里格、线性无偏最优…地学计算概念及公式推导
127 2
|
机器学习/深度学习 算法
概率论--随机事件与概率--贝叶斯公式--随机变量
概率论--随机事件与概率--贝叶斯公式--随机变量
|
数据可视化 Python
概率学中的随机变量与分布
概率学中的随机变量与分布
概率学中的随机变量与分布
|
8月前
|
算法 数据挖掘
一些连续离散化方法
一些连续离散化方法
101 0
|
11月前
|
Ruby
(一)探索随机变量及其分布:概率世界的魔法
(一)探索随机变量及其分布:概率世界的魔法
|
算法
【模型预测控制MPC】使用离散、连续、线性或非线性模型对预测控制进行建模(Matlab代码实现)
【模型预测控制MPC】使用离散、连续、线性或非线性模型对预测控制进行建模(Matlab代码实现)
357 0
|
算法 编译器 应用服务中间件
加权随机设计与实现
加权随机,是指当我们从某种容器中随机选择一个元素,每个元素被选中的机会并不相等,而是由相对“权重”(或概率)被选中的,也就是说我们想要有“偏心”的得到某种随机结果。
78766 1
加权随机设计与实现
|
BI Python
平均互信息与条件熵
平均互信息与条件熵
97 0