对于 $A\vec u = \lambda \vec u$,对应一个特征值$\lambda$ 的特征向量不唯一;求解特征向量的过程在于求解齐次线性系统$(A - \lambda I)\vec u = O$,并且由于$\vec u != O$,所以该线性系统存在一组解$[\vec u_1,\vec u_2...]$,也即特征向量组成了 $A - \lambda I$的零空间(刨除零向量)。
对应特征值$\lambda $的特征向量的解空间又称$\lambda$的特征空间($E_{\lambda}$):$\ \ E_{\lambda} = \{O\} \cup \{\lambda \small 的特征向量\} $。
对于一个$n$阶变换矩阵$A$,则其对应求解特征向量的行列式$\det (A - \lambda I) = O$展开后得到的将是一个关于$\lambda $的$n$次方程(在实数域和复数域内,$\lambda $对应$n$个解)。
关于特征值的解的3种情况:
① $\lambda$在实数域内存在$n$个互不相等的解,$n_1 \ \ != n_2 \ \ != ... \ \ != n_n$,这些特征值称为简单特征值(应用最多);
② $\lambda$在实数域内存在的$n$个解中包含重复值,$n_i = n_j =... = n_k$,则称这些重复的特征值为多重特征值,使用$\color {red} {\small 重数}$来描述重复特征值的重复次数;
③ $\lambda$在实数域内无解,仅在复数域有解,如$\det (A - \lambda I) = \lambda ^2 + 1 = 0 \rightarrow \lambda_1 = i ; \lambda_2 = -i$ ,这种情况称为复数特征值。
如果存在$\lambda = 0 $是矩阵$A$的一个特征值,意味着对于线性方程$A\vec u = \lambda \vec u \rightarrow A\vec u = O $,要使得$\vec u \neq O$,则矩阵$A$一定不可逆,所以当矩阵$A$可逆就有$\lambda \neq 0 $。
关于一些特殊矩阵的特征方程求解:
① 对角矩阵
$A =\ \ \ \ \ \ \begin {bmatrix} d_1&0&...&0 \\ 0&d_2&...&0 \\ 0&0&...&d_n \\ \end {bmatrix} \rightarrow \ \ \ \ \ \ \ \ \ \ \ \ \det(A) = d_1*d_2*...*d_n$
$A-\lambda I = \begin {bmatrix} d_1 - \lambda&0&...&0 \\ 0&d_2 - \lambda&...&0 \\ 0&0&...&d_n - \lambda \\ \end {bmatrix} \rightarrow \det(A-\lambda I) = (d_1 - \lambda)*(d_2 - \lambda)*...*(d_n - \lambda)$
$\therefore \lambda_1 = d_1;\lambda_2 = d_2;...\lambda_n = d_n$
同理可直接求取上三角,下三角形状的变换矩阵$A$的特征值。
关于特征值的一些基本性质:
若$\lambda $是$A$的特征值,则有$\lambda ^m $是$A ^m$的特征值$(m \ge 1)$;
$\ \ \ \ \ $数学归纳$ \because m =1 $成立$,A\vec u = \lambda \vec u$
$\ \ \ \ \ \ \ \ \ \ \ \ \ $假设$ \ \ m =k A ^ k\vec u = \lambda ^ k \vec u$
$\ \ \ \ \ \ \ \ \ \ \ \ \ $当$ \ \ \ \ \ m =k+1 $时$ , A ^ {k+1} \vec u = A * A^k \vec u = A \vec u* \lambda ^ k = \lambda \vec u * \lambda ^ k = \lambda ^ {k+1} \vec {u}$ 得证假设。若$\lambda $是$A$的特征值,则有$\lambda ^{-1} $是$A ^{-1}$的特征值(已给出前提矩阵$A$可逆);
$\ \ \ \ \ $由$\ \ A\vec u = \lambda \vec u $
$\ \ \ \ \ \ \ \ \ \ \ A^{-1}* A\vec u = A^{-1}* \lambda \vec u$
$\ \ \ \ \ \ \ \ \ \ \ \ \vec u = \lambda*A^{-1}\vec u \rightarrow \vec u \lambda ^{-1} = A^{-1}\vec u $得证。
在线性代数上的理解:
通过特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个子空间,我们可以利用这些线性的子空间干很多的事情。
线性变换矩阵的特征值和特征空间--几何理解
投影变换
在二维空间,把任意向量都投影到$\vec u = (2,1)$所在直线的变换中,变换前后方向保持不变的向量$A\vec a = \vec a{'}= \lambda \vec a$将存在于直线$y = 0.5x $上,且这些向量经投影变换后大小不变即$\lambda = 1 $,所以该直线上的所有向量构成了投影矩阵$A$中$\lambda =1$的解空间。除了直线上的向量,垂直于直线的向量投影到直线上将变成零向量$O$,而$O$与变换前的向量同向,不过长度为零,所以垂直于$y = 0.5x$的直线上的所有向量构成了投影矩阵$A$中$\lambda =0$的解空间。对称变换
在二位空间中,变化矩阵$A= \begin {bmatrix} 0&1 \\ 1&0 \end {bmatrix}$将平面上的所有向量关于直线$ y = x$ 对称变换。那么对处于$ y = x$直线上的任意向量,对称前后将等大同向,所以这些向量构成了 $A$中$\lambda =1$的解空间。而对于垂直于$ y = x$的直线$y = -x$上的向量,这些向量对称前后将等大反向,因此构成了 $A$中$\lambda =-1$的解空间。
旋转矩阵的特征值和特征空间--几何理解
对于空间中任意一个向量$ \vec u$经过旋转变换得到的向量$\vec v$,几何中不会存在任何$\vec v$与向量$\vec u$同向。所以,对于旋转矩阵$A$,如逆时针90°旋转矩阵$A= \begin {bmatrix} 0&-1 \\ 1&0 \end {bmatrix}$,求解其特征值将得到$\det(A - \lambda I) = O \rightarrow \lambda ^2 + 1 = 0$,意味着其特征值只能在复数空间寻求解。