学习笔记: 线性代数-矩阵的四大子空间 之 行空间和列空间

简介: 线性代数个人学习笔记

由前章节线代--子空间和维度可知对于求解由$p$个$n$维向量$\vec v_{1},\vec v_{2},\cdots ,\vec v_{p}$生成的空间的维度问题,可以通过删去这一组向量中线性相关的向量后剩下的线性无关向量就是它们生成的空间的一组基,这组基包含的向量的个数就是生成的空间的维度。换句话说,给出一组$n$维向量$\vec v_{1},\vec v_{2},\cdots ,\vec v_{p}$,要求出其生成的空间的维度,就得找出这组向量中有多少向量和其它向量是线性相关的,然后要把这些向量删除掉。

对于求一组向量生成的空间的维度这种问题,简单的如“求被向量$\vec u = (2,0,0); \vec v = (-1,0,0); \vec w = (0,0,1)$生成的空间的维度”可以简单通过肉眼进行判断出$\vec u$和$\vec v$是线性相关的,如果是对于更高维的向量,其实就很难通过肉眼判断向量间的线性相关了。其实对这类问题有更系统的解法

回忆"高斯-约旦"消元法,一个矩阵消元后的每一行其实就是原来矩阵各行的一个线性组合的结果。

通过高斯消元这种方式,可以很方便地根据行最简形式的全零行确定出可以由其它行向量的线性组合所表示的向量。

因此,对于给出一组$n$维向量$\vec v_{1},\vec v_{2},\cdots ,\vec v_{p}$,求它们生成的空间的维度,要求就是找到这组向量中有多少向量是和其它向量线性相关!
我们可以将这组向量按照行排列成一个矩阵$\begin{bmatrix}\vec v_{1} \\ \vec v_{2} \\ \cdots \\ \vec v_{p} \end{bmatrix}$
然后执行高斯-约旦消元法(化为$REFF$)

最后得到的矩阵行最简形式中非零行的个数即为其生成空间的维度。

1、矩阵的行空间

对于一个矩阵,
矩阵的行向量和列向量

  • 由行向量生成的空间,称为$\color {red} {\small {行空间(Row \ Space)}}$;
  • 由列向量生成的空间,称为$\color {red} {\small {列空间(Column\ Space)}}$。

1.1矩阵的行空间维度

对于一个$m$行$n$列的矩阵,$\color {red} {\small {行空间(Row \ Space)}}$是一个$n$维空间的子集,因为每个行向量都是包含$n$个实数的有序元组,这些向量本身属于一个$n$维空间,由这些向量生成的空间也就是行空间只能是$n$维空间的子集; 列空间则是一个$m$维空间的子集。

具体求一个矩阵的$\color {red} {\small {行空间(Row \ Space)}}$的维度$dim$,根据上面的"高斯-约旦消元法"对矩阵按行化简为矩阵最简形式后看非零行的数量,这个$REFF$的非零行数量就是$\color {red} {\small {行空间(Row \ Space)}}$的维度。其中关于一个矩阵的行最简形式的非零行数量还有另一个称呼叫做$\color {#bb3417} {\small {行秩(Row \ Rank)}}$,一词的意思就是秩序的意思,对行最简形式的非零行进行排序,排序后的结果表示的就是矩阵行最简形式的非零行数量。
$\uparrow \uparrow \uparrow$这里阐述了矩阵的行秩和空间上的维度之间的联系。
$\downarrow \downarrow \downarrow$
需要注意维度行秩两个概念的作用对象是不一样的:
对于空间来说,空间是有维度的,但是空间是没有行秩的,只有矩阵有行秩,但是矩阵是没有维度的。

1.2矩阵的行空间的基

对于一个矩阵的行空间,将矩阵化为行最简形式($REFF$)后,其中矩阵行最简形式的非零行向量就是矩阵的行空间的一组基。


对于一开始由向量$\vec u \ , \vec v \ , \vec w$组成的矩阵$A$的行空间来说,其实就是矩阵$A$化简后的行最简形式$R$的行空间,矩阵$A$和矩阵$R$这两个矩阵的行空间是完全一样的。

证明:矩阵$A$和矩阵$R$这两个矩阵的行空间是完全一样的
$\because $对于矩阵$A$的行向量生成的行空间来说,这个空间的每一个向量都可以由矩阵$A$的行向量的一个线性组合所表示。
又$\because$ 基于高斯消元法,从矩阵$A$通过矩阵的基本行变换得到的矩阵$R$中的每一行也是原来$A$中各行的一个线性组合的结果。
$\therefore $矩阵$R$中的每一行都是矩阵$A$中的各行的线性组合,所以矩阵$R$的行空间的所有向量可以由矩阵$A$中的向量所表示。同时矩阵$A$中的每个行向量也可以表示为矩阵$R$中的各行的线性组合,所以矩阵$A$的行空间的所有向量可以通过矩阵$R$中的行向量进行表示。

$\therefore$综上,矩阵$A$的行空间和矩阵$R$的行空间是完全一样的。所以$A$的行空间的基就是$R$的行空间的基,$R$的行空间的基就是$A$的行空间的基。因为$R$是$A$的行最简形式,所以$R$中的行向量已经是线性无关的,所以$R$的行空间的基就是$R$中的非零行向量。


因此,对于由向量$\vec u \ , \vec v \ , \vec w$组成的矩阵的行空间$\uparrow \uparrow \uparrow$,化为行最简形式后其中的非零行向量有$(1,0,0)$和$(0,0,1)$两个,所以矩阵的行空间维度为2,同时矩阵的行空间的一组基即为$(1,0,0)$和$(0,0,1)$。


2、矩阵的列空间

除了通过找出一组向量中线性相关向量进行删除的方式计算“被向量生成的空间”的维度这种方法。
另一种方法我们还可以直接计算一组向量是否线性无关:

对于求解这个齐次线性系统,把系数矩阵化为行最简形式为$reff(A) = \begin{bmatrix} 1&-0.5&0 \\ 0&0&1 \\ 0&0&0\end{bmatrix}$,可以看到这个行最简形式中只包含两个主元列(pivot),也就是$reff$矩阵的第1列和第3列,还包含有一个$\color {#70ad47} {\small {自由列第2列}}$,在$\color {#70ad47} {\small {自由列}}$上的未知数可以取任意实数,所以这个齐次线性系统存在无穷解,所以不存在唯一零解使得$k_{1}\vec u + k_{2}\vec v + k_{3}\vec w =0$,因此这三个向量是线性相关的。
>

进一步分析,可以发现系数矩阵的行最简形式中,自由列的个数,其实就是可以表示为其它向量线性组合的向量的个数,如这里就表示为$1 \cdot \vec u = -0.5 \cdot \vec v$; 然后主元列的个数,就是线性无关的向量的个数,也是这个3个向量所生成的空间的维度。

这种方式其实就是把向量按列的方式排列成矩阵,转而研究矩阵的列空间,将矩阵化为行最简形式后其中主元列的个数,就是列空间的维度,也称为$\color {#bb3417} {\small {列秩(Column \ Rank)}}$。在列向量空间中,原矩阵化为行最简形式后主元列对于的原矩阵的列,才是列空间的一组基,这些主元列本身不是列空间的一组基,如上示例的向量按列排列得到的矩阵化为行最简形式后主元列为第一和第三列,那么列空间的基应是原矩阵中的向量$(2,0,0)$和$(0,0,1)$,并不是矩阵行最简形式中的$(1,0,0)$和$(0,1,0)$。

注意:$\color {grey} {\small {从列向量构成的矩阵化成行最简形式的过程还是通过矩阵的基本行变换操作实现, \\ 化简过程的操作对象是矩阵的一行,对于矩阵列空间来说研究的元素对象是应是矩阵中的列向量,而这里矩阵行变换涉及的操作元素不是我们研究的列向量, \\ 这种操作而是对一个我们研究的列向量内部的实数元素进行了运算,所以最后得到的矩阵行最简形式中的每个列向量所表达的意义与变换前矩阵中的列向量是不一样的, \\ 可以说矩阵行最简形式中的每个列向量是无义的, \\ 因此不能作为列向量空间的基。}}$

综上,矩阵的列向量构成的列空间分析中,化矩阵为行最简形式后有用的信息主要是关于主元的,其中主元的数量等于列空间的维度,主元所在的列号可以对于原矩阵取出列向量生成空间的基。


目录
相关文章
|
4月前
|
存储 算法 Python
稀疏矩阵是矩阵中大部分元素为零的矩阵。
稀疏矩阵是矩阵中大部分元素为零的矩阵。
|
6月前
|
Python
三点映射变换
【5月更文挑战第15天】三点映射变换。
36 1
|
机器学习/深度学习 决策智能
矩阵分析 (二) 内积空间
矩阵分析 (二) 内积空间
174 0
|
机器学习/深度学习 移动开发
学习笔记: 线性代数-子空间和维度
线性代数个人学习笔记
261 0
|
移动开发
|
数据采集 数据可视化 大数据
|
Web App开发 移动开发