深度之眼(十)——矩阵特征值与特征向量

简介: 深度之眼(十)——矩阵特征值与特征向量

一、向量的线性相关,线性无关以及和可逆矩阵的关系


1.1 线性相关与线性无关


0a2653c851af460fa595bd959398a8f1.png


k是不全为零的


1.2 线性相关与可逆的关系


2d65d23f6d4748949b924e4057485923.png


二、向量的内积,范数,正交,规范正交基


2.1 内积


0a2653c851af460fa595bd959398a8f1.png


2.2 范数与正交


线性无关不一定正交,但是正交一定线性无关


2d65d23f6d4748949b924e4057485923.png


2.3 规范正交基


2e9b90b2ca334476abebe75bafe6eeaa.png


三、施密特正交化


3.1 定义


0a2653c851af460fa595bd959398a8f1.png


3.2 例


先利用公式进行正交化,再归一化


2d65d23f6d4748949b924e4057485923.png


3.3 正交矩阵


aTiai = 1

aTiaj = 0(i != j)


2e9b90b2ca334476abebe75bafe6eeaa.png


四、特征值和特征向量的定义以及直观的意义


所有特征值加起来等于矩阵的迹

所有特征值乘起来等于矩阵的行列式


4.1 定义


0a2653c851af460fa595bd959398a8f1.png


4.2 例(二阶)


2d65d23f6d4748949b924e4057485923.png


五、特征值与特征向量的求法以及常用性质


5.1 例1(三阶)


2e9b90b2ca334476abebe75bafe6eeaa.png


5.2 例2(三阶)


4cebaac233b3433da32a72337a77fc60.png


例1和例2的区别

例1是有二阶重根,只有一个线性无关的解

例2也是有二阶重根,但是有两个线性无关的解

例1有亏损,例2无亏损

这和后面矩阵是否可对角化密切相关的


博主对于这里的有无亏损,还是不是很懂,补补线代


0a2653c851af460fa595bd959398a8f1.png


还有这句话:重根应该就是向量在不同维度上的缩放率相同。

所以重根只是放缩率一样,可以有一个或多个x解

谢谢群里的小伙伴和那个微信好友啦~~


2d65d23f6d4748949b924e4057485923.png


5.3 一些性质和推广


2e9b90b2ca334476abebe75bafe6eeaa.png


5.4 例


4cebaac233b3433da32a72337a77fc60.png


5.5 定理


6de278e6d6694ce5bb08e7e842b7e74b.png

目录
打赏
0
0
0
0
36
分享
相关文章
《深度揭秘!海森矩阵如何左右梯度下降算法》
梯度下降算法是机器学习中寻找函数最小值的核心方法,而海森矩阵作为二阶偏导数矩阵,在优化过程中扮演着关键角色。它不仅帮助判断函数的凸性,确保全局最优解的收敛,还通过优化搜索方向和动态调整学习率,提高算法的稳定性和收敛速度。深入理解海森矩阵,能显著提升梯度下降算法的性能,助力更高效的模型训练与优化。
|
10月前
心得经验总结:特征值和特征向量
心得经验总结:特征值和特征向量
48 0
R语言矩阵特征值分解(谱分解)和奇异值分解(SVD)特征向量分析有价证券数据
R语言矩阵特征值分解(谱分解)和奇异值分解(SVD)特征向量分析有价证券数据
|
11月前
【数值分析】用幂法计算矩阵的主特征值和对应的特征向量(附matlab代码)
【数值分析】用幂法计算矩阵的主特征值和对应的特征向量(附matlab代码)
线性代数(五)特征值和特征向量
线性代数(五)特征值和特征向量
322 1
从浅到深研究矩阵的特征值、特征向量
从浅到深研究矩阵的特征值、特征向量
283 0
基础算法-差分矩阵
基本思路 如果将差分可以看作是一维差分,那么差分矩阵便是二维差分,与二维前缀和也就是子矩阵的和相对应,互为逆运算。