熵为什么使用log?

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 熵为什么使用log?

       首先,信息也是物理量,就像质量kg,我们测量质量的方法是,我们选择一个参照物,把这个物体的质量定义为1kg,当想要测量其它物体的质量时就看这个这个物体的质量相当于多少个参照物的质量,这里的多少个便是kg。

78763c11004a41a29eda65adfcaf229d.png



        上图中待测物体的质量m等于参照物体的质量B乘以参照物体的个数n,所以当知道总质量m要求个数n时,我们用乘法的反函数,既除法来计算。


       但是测量信息时,不能用除法,比如抛掷3枚硬币能够产生的结果是2的3次方=8种,而不是2*3=6种,是指数关系而不是线性关系,所以当知道可能情况的个数m,想求这些情况相当于多少个(n)参照事件所产生的时,用指数运算的反函数,即对数函数来计算,如下图。

65c3f35b653e491cb0230f96175dbe51.png



       如果换成选择题,四个选项,选c的概率是1/2,其余三个选项概率相通都是1/6,熵如何计算呢?需要分别测量待测试件的每种可能情况的信息量后,乘以他们各自的发生概率再相加即可。


6a8299280d38486c91e871ba6fcd4ee1.png


        首先需要计算概率为1/6的情况的不确定性相当于投掷多少次硬币所产生的的不确定性m,我们知道1%会发生的情况,相当于从100个等概率情况中确定实际情况,概率的倒数等于概率情况的格式,m=1/p,用1/p替换等概率情况个数m后,我们就可以计算每种情况的信息量了,如下图。

1e344ad2b7524134af7610ec8e54c524.png



       最后,-logp 就是一种可能性的信息量,一个事件总的信息量就是每一种可能的情况的信息量乘以它们发生的概率,其实就是信息量的数学期望。


       至于log的底,我理解他就是一个参考量,机器学习中常用e作为底,有时确实方便计算。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
4月前
|
机器学习/深度学习 JavaScript Python
熵、联合熵、相对熵、交叉熵、JS散度、互信息、条件熵
熵、联合熵、相对熵、交叉熵、JS散度、互信息、条件熵
38 1
|
4月前
|
机器学习/深度学习 数据可视化 TensorFlow
ARIMA、GARCH 和 VAR模型估计、预测ts 和 xts格式时间序列
ARIMA、GARCH 和 VAR模型估计、预测ts 和 xts格式时间序列
|
4月前
|
前端开发
R语言基于ARMA-GARCH-VaR模型拟合和预
R语言基于ARMA-GARCH-VaR模型拟合和预
|
4月前
R语言基于ARMA-GARCH过程的VaR拟合和预测
R语言基于ARMA-GARCH过程的VaR拟合和预测
|
12月前
|
机器学习/深度学习
信息熵、KL散度、交叉熵、softmax函数学习小记
信息熵、KL散度、交叉熵、softmax函数学习小记
83 0
|
机器学习/深度学习 算法
概率论--随机事件与概率--贝叶斯公式--随机变量
概率论--随机事件与概率--贝叶斯公式--随机变量
|
10月前
【概率論】常用專業名詞中韓對照表 | 확률론 한중 번역표
【概率論】常用專業名詞中韓對照表 | 확률론 한중 번역표
55 0
概率论--数学期望与方差--协方差(详解)
概率论--数学期望与方差--协方差(详解)
|
机器学习/深度学习
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-2
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-2
|
机器学习/深度学习 算法
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-1
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-1