信息论知识基础

简介: 信息论知识基础

第0章:概率论基础

image.png

第一章:引论

通信系统模型

image.png

通信系统的基本任务要求

  • 可靠:要使信源发出的消息经过传输后,尽可能准确的、不失真或限定失真地再现在接收端。
  • 有效:用尽可能短的时间和尽可能少的设备来传输最大的消息。

信息、消息和信号

  • 信息:一个抽象的概念,可以定量的描述。信息、物质和能量是构成一切系统的三大要素。
  • 消息:是信息的载体,相对具体的概念,如语言、文字、数字、图像。
  • 信号:表示信息的物理量,电信号的幅度、频率、相位等。

信源的分类

  • 连续信源:是指发出在时间和幅度上都是连续分布的连续消息的信源,如图像、图形等都是连续消息。
  • 离散信源:是指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。

信息论的基本任务

  • 设计有效且可靠的通信系统。

信息论的局限性

香农信息论适用于能够进行定量描述的信息,对难于进行定量描述的信息是无能为力的。

第二章:熵及其性质

自信息 I(xi)

  1. 自信息应当满足的性质
  • 非负性
  • 概率越大的事,其自信息越小。
  • 概率为1,自信息为0,概率为0,自信息为无穷大。
  • 两个独立事件的联合信息量等于它们分别的信息量之和。
  1. 自信息的公式及意义。

image.png

image.png

离散信源的信息熵H(X)

自信息的数学期望为信源的平均信息量。

image.png

image.pngimage.pngimage.png

image.png

相关文章
|
6月前
|
机器学习/深度学习 存储 人工智能
一阶优化算法启发,北大林宙辰团队提出具有万有逼近性质的神经网络架构的设计方法
【4月更文挑战第19天】北京大学林宙辰团队在深度学习领域取得突破,提出基于一阶优化算法的神经网络设计方法,构建具有万有逼近性质的模型,提升训练速度和泛化能力。该方法利用一阶导数信息,高效处理大规模问题。虽然面临非光滑优化和收敛速度挑战,但团队通过正则化和自适应学习率等策略进行改进,相关研究在多个标准数据集上表现出色。
86 1
|
机器学习/深度学习 存储 数据采集
《数学模型(第五版)》学习笔记(1) 第1章 建立数学模型 第2章 初等模型
《数学模型(第五版)》学习笔记(1) 第1章 建立数学模型 第2章 初等模型
244 1
|
人工智能 资源调度 Python
概率论基础
因为概率图模型会涉及大量概率论的知识,所以在开始概率图模型之前,首先让我们回顾一下概率论的一些概念和基础知识。
141 0
概率论基础
|
机器学习/深度学习 自然语言处理 算法
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异(2)
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异
127 0
|
机器学习/深度学习 算法 数据建模
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异(1)
学习=拟合?深度学习和经典统计学是一回事?哈佛理论计算机科学家细数二者差异
|
机器学习/深度学习 自然语言处理 算法
GNN如何建模时空信息?伦敦玛丽女王大学「时空图神经网络」综述,简明阐述时空图神经网络方法
GNN如何建模时空信息?伦敦玛丽女王大学「时空图神经网络」综述,简明阐述时空图神经网络方法
183 0
|
机器学习/深度学习 人工智能 算法
人工神经网络背后的数学原理!(下)
人工神经网络背后的数学原理!
|
机器学习/深度学习 算法 网络架构
人工神经网络背后的数学原理!(上)
提到人工智能算法,人工神经网络(ANN)是一个绕不过去的话题。但是对于新手,往往容易被ANN中一堆复杂的概念公式搞得头大,最后只能做到感性的认识,而无法深入的理解。正好最近笔者本人也在经历这个痛苦的过程,本着真理越辩越明的态度,索性坐下来认真的把这些头大的问题梳理一番,试试看能不能搞清楚ANN背后的数学原理。
|
机器学习/深度学习
矩阵分解和信息论基础
机器学习中常见的矩阵分解有特征分解和奇异值分解。 先提一下矩阵的特征值和特征向量的定义
117 0
矩阵分解和信息论基础
下一篇
无影云桌面