矩阵分解和信息论基础

简介: 机器学习中常见的矩阵分解有特征分解和奇异值分解。先提一下矩阵的特征值和特征向量的定义

一、矩阵分解

机器学习中常见的矩阵分解有特征分解和奇异值分解。


先提一下矩阵的特征值和特征向量的定义


若矩阵 A AA 为方阵,则存在非零向量 x xx 和常数 λ \lambdaλ 满足 A x = λ x Ax=\lambda xAx=λx,则称 λ \lambdaλ 为矩阵 A AA 的一个特征值,x xx 为矩阵 A AA 关于 λ \lambdaλ 的特征向量。

image.png

二、信息论

熵(Entropy)

信息熵,可以看作是样本集合纯度一种指标,也可以认为是样本集合包含的平均信息量。


假定当前样本集合X中第i类样本 𝑥 𝑖 𝑥_𝑖x

i

 所占的比例为P ( 𝑥 𝑖 ) ( i = 1 , 2 , . . . , n ) P(𝑥_𝑖)(i=1,2,...,n)P(x

i

)(i=1,2,...,n),则X的信息熵定义为

image.png

image.png

目录
打赏
0
0
0
0
14
分享
相关文章
基础算法:离散化的基本应用
基础算法:离散化的基本应用
139 0
图论基础:从数学原理到C/C++实现
图论基础:从数学原理到C/C++实现
252 0
【MATLAB】交叉验证求光滑因子的广义神经网络回归预测算法
【MATLAB】交叉验证求光滑因子的广义神经网络回归预测算法
108 0
面向高维优化问题的混沌粒子群混合蝴蝶优化算法(Matlab代码实现)
面向高维优化问题的混沌粒子群混合蝴蝶优化算法(Matlab代码实现)
145 0
广义学习矢量量化(GLVQ)分类算法介绍和代码实现
广义学习矢量量化(Generalized Learning Vector Quantization,GLVQ)是一种基于原型的分类算法,用于将输入数据分配到先前定义的类别中。
211 0
广义学习矢量量化(GLVQ)分类算法介绍和代码实现
基础算法-离散化
1. 离散化简介 离散化,把无限空间中有限的个体映射到有限的空间中去,以此提高算法的时空效率。通俗的说,离散化是在不改变数据相对大小的条件下,对数据进行相应的缩小。 离散化本质上可以看成是一种哈希,其保证数据在哈希以后仍然保持原来的全/偏序关系。 当有些数据因为本身很大或者类型不支持,自身无法作为数组的下标来方便地处理,而影响最终结果的只有元素之间的相对大小关系时,我们可以将原来的数据按照从大到小编号来处理问题,即离散化。 本文针对 整数、有序数组 进行离散化。
计量经济学笔记之OLS回归的推导
计量经济学笔记之OLS回归的推导
277 0
计量经济学笔记之OLS回归的推导