矩阵求导总结

简介: 在看“多元线性回归”(multivariate linear regression)的时候又碰到了矩阵求导,决心把矩阵求导学一学了,网上搜了一些,也看了一下维基,简单整理一下,以后再碰到矩阵求导就方便查看了d=====( ̄▽ ̄*)b

在看“多元线性回归”(multivariate linear regression)的时候又碰到了矩阵求导,决心把矩阵求导学一学了,网上搜了一些,也看了一下维基,简单整理一下,以后再碰到矩阵求导就方便查看了d=====( ̄▽ ̄*)b

矩阵求导,没什么可怕的,无非就是 一个矩阵里的元素对另一个矩阵里的元素进行求导,只是符合一些规则而已

和朋友的白水东城博客链接-矩阵求导总结

先从简单的来说(⊙ ▽ ⊙)

向量(矩阵的特例)对一个标量进行求导,就是向量的每个元素对这个标量进行求导,结果可以定为行向量也可定为列向量(这个牵扯到后文要提到的分布)

标量对一个向量求导,就是标量分别对这个向量的每个元素求导,结果也一样,可以为行向量也可以为列向量。

维基上提到了一个布局(layout)的定义,大概意思是这样的:
分子布局(Numerator layout):分子为$\mathbf{y}$或者分母为$\mathbf{x}^{T}$(即分子为列向量或者分母为行向量)

分母布局(Denominator layout):分子为$\mathbf{y}^{T}$或者分母为$\mathbf{x}$(即分子为行向量或者分母为列向量)

:对于矩阵也是一样的,可以这样理解,(列)矩阵和(行)矩阵分别对应着列向量和行向量(如果现在这句话不能理解,不妨完下文的分布记法再来想想这句话的意思)。

用一个例子来解释一下这两个布局的区别和作用:

用$\frac{\partial \vec{y}}{\partial \vec{x}}$为例,假设$\vec{x}$和$\vec{y}$都是列向量,那么分子布局的意思就是$\frac{\partial \vec{y}}{\partial \vec{x}^\mathrm{T}}$,分母布局就是$\frac{\partial \vec{y}^\mathrm{T}}{\partial \vec{x}}$。这样就有明显的区分了,分子布局可以看做是求偏导的分子项保持不变,而分母项则需要转置,而分母布局正好相反。

再举个例子:

向量$\vec{y}={\begin{pmatrix}y_{1}&y_{2}&\cdots&y_{m}\end{pmatrix}}^\mathrm{T}$对标量$x$的偏导,如下:
$$\frac{\partial \vec{y}}{\partial x}={\begin{pmatrix}\frac{\partial y_{1}}{\partial x}&\frac{\partial y_{2}}{\partial x}&\cdots &\frac{\partial y_{m}}{\partial x}\end{pmatrix}}^\mathrm{T}\\$$

标量$y$对向量$\vec{x}={\begin{pmatrix}x_{1}&x_{2}&\cdots&x_{n}\end{pmatrix}}^\mathrm{T}$求偏导,如下:

$$\frac{\partial y}{\partial \vec{x}}={\begin{pmatrix}\frac{\partial y}{\partial x_{1}}&\frac{\partial y}{\partial x_{2}}&\cdots &\frac{\partial y}{\partial x_{n}}\end{pmatrix}}\\$$

第一个例子,结果还是列向量,但在第二个例子中结果却变成了行向量。注意这些都是分子布局的形式,如果换成是分母布局,那就要将上面的结果都转置过来才行(这也是之前所说的为什么有些资料上会把矩阵对标量的求导需要转置的原因)。同理,分子布局中向量$\vec{y}={\begin{pmatrix}y_{1}&y_{2}&\cdots&y_{m}\end{pmatrix}}^\mathrm{T}$对向量$\vec{x}={\begin{pmatrix}x_{1}&x_{2}&\cdots&x_{n}\end{pmatrix}}^\mathrm{T}$求偏导的结果:$$\frac{\partial \vec{y}}{\partial \vec{x}}={\begin{bmatrix}{\frac {\partial y_{1}}{\partial x_{1}}}&{\frac {\partial y_{1}}{\partial x_{2}}}&\cdots &{\frac {\partial y_{1}}{\partial x_{n}}}\\{\frac {\partial y_{2}}{\partial x_{1}}}&{\frac {\partial y_{2}}{\partial x_{2}}}&\cdots &{\frac {\partial y_{2}}{\partial x_{n}}}\\\vdots &\vdots &\ddots &\vdots \\{\frac {\partial y_{m}}{\partial x_{1}}}&{\frac {\partial y_{m}}{\partial x_{2}}}&\cdots &{\frac {\partial y_{m}}{\partial x_{n}}}\\\end{bmatrix}}$$

这就是著名的雅可比(Jacobian)矩阵。同样的,如果在分母布局中结果就是雅可比矩阵的转置。

又比如,对于分子布局一个$m\times n$行的矩阵$\mathbf{Y}$对于标量$x$求导的结果: $$\frac{\partial Y}{\partial x}={\begin{bmatrix}{\frac {\partial y_{11}}{\partial x}}&{\frac {\partial y_{12}}{\partial x}}&\cdots &{\frac {\partial y_{1n}}{\partial x}}\\{\frac {\partial y_{21}}{\partial x}}&{\frac {\partial y_{22}}{\partial x}}&\cdots &{\frac {\partial y_{2n}}{\partial x}}\\\vdots &\vdots &\ddots &\vdots \\{\frac {\partial y_{m1}}{\partial x}}&{\frac {\partial y_{m2}}{\partial x}}&\cdots &{\frac {\partial y_{mn}}{\partial x}}\\\end{bmatrix}}$$

而标量$y$对矩阵$\mathbf{X}$的求导结果:$$\frac {\partial y}{\partial X}={\begin{bmatrix}{\frac {\partial y}{\partial x_{11}}}&{\frac {\partial y}{\partial x_{21}}}&\cdots &{\frac {\partial y}{\partial x_{m1}}}\\{\frac {\partial y}{\partial x_{12}}}&{\frac {\partial y}{\partial x_{22}}}&\cdots &{\frac {\partial y}{\partial x_{m2}}}\\\vdots &\vdots &\ddots &\vdots \\{\frac {\partial y}{\partial x_{1n}}}&{\frac {\partial y}{\partial x_{2n}}}&\cdots &{\frac {\partial y}{\partial x_{mn}}}\\\end{bmatrix}}$$

我们根据经验(虽然这里不是列向量和行向量,但可以这么记忆),分母布局就是 上述结果的转置形式。

可能会疑惑,为啥要这样区分呢?

由于我们一般将向量默许为行向量或列向量,而这两种形式都客观存在,也没有孰优孰劣。

所以在看一些数学公式 的推导中,比如求矩阵对标量的倒数,直觉上是觉得是矩阵的每个元素对标量求导,但却有时候要进行转置,原因就是因为矩阵求导的两种分布了。

下面整理了一些维基上这两个分布的各自记法以及求导的参照表格

维基上的矩阵求导参照表格

分子布局记法(Numerator-layout notation)

  • 标量/行向量:image
  • 列向量/标量:image_1_1_
  • 列向量/行向量:image_2_1_
  • 标量/矩阵:image_3_1_

下面是分子布局中的特例:

  • 矩阵/标量:image_4_1_
  • 对矩阵(X)每个元素求导:image_5_1_

分母布局标记(Denominator-layout notation)

  • 标量/列向量:image_8_1_
  • 行向量/标量:image_9_1_
  • 行向量/列向量:image_10_1_
  • 标量/矩阵:image_11_1_

好了,知道啥叫分子布局和分母布局了,然后对于要求导的式子,就可以对照着快速查阅下面的表格了= ̄ω ̄=

1.向量—向量 Vector-by-vector identities
所谓的向量的计算,就是矩阵计算中最简单的一种,是把矩阵的行向量设为1的情况.
4a10fe7429efbec75c2c6fec0d173af_1_
2.标量—向量 Scalar-by-vector identities
其实只要在上面的“向量—向量”运算中把分子或分母中的向量该称标量就得到“标量—向量”了。
6cb30f416eba5ddf95301667d5046cd_1_
0c20ddc1094c57ee8aa4b8e10dba51e_1_
3.向量—标量 Vector-by-scalar identities
95a0835000bd435f2cd05279e73141a_1_
4.标量—矩阵 Scalar-by-matrix identities
01c9afec922b862ce3902e49cec6f67_1_
5.矩阵—标量 Matrix-by-scalar identities
97cad582ac4223e83f595b7de24854f_1_
6.标量—标量 Scalar-by-scalar identities
就当复习
18e715a34e902cd74cf0ce02c5d90ba_1_
92e08209ff4062ee8c107aa7af16b73_1_
其实,这些求导的表格需要记忆,只要在遇到求导的地方对照着查阅一下就OK了。
最后,来解决我遇到的矩阵求导:$$\frac{\partial (y-Xw)^T(y-Xw)}{\partial w}$$
注:$\omega$是$(d+1)\times1$的列向量,$X$是$m\times(d+1)$的矩阵,$y$是$m\times1$的列向量.

首先,将式子展开:$$\frac{\partial (y^Ty-y^TXw-w^TX^Ty+w^TX^TXw)}{\partial w}$$ $$\Rightarrow$$ $$\frac{\partial y^Ty}{\partial w}-\frac{\partial y^TXw}{\partial w}-\frac{\partial w^TX^Ty}{\partial w}+\frac{\partial w^TX^TXw}{\partial w}$$

分别对每一项求导:

  • $$\frac{\partial y^Ty}{\partial w}:\frac{\partial y^Ty}{\partial w}=0$$
    解释:分子为标量,分母为向量。找到上文2.标量—向量表格中的第一行

8e09f8f0cf4e7ea0b7f50da4157a757_1_
又因为分母是列向量,所以是分母布局,结果为0.

  • $$\frac{\partial y^TXw}{\partial w}:\frac{\partial y^TXw}{\partial w}=X^Ty$$
    解释:分子为标量,分母为列向量。找到2.标量—向量表格中第11行

0b4655c28bea80e151c5f0abaadd035_1_
又因为分母是列向量,所以结果对应为分母布局,应该是第二个$X^Ty$.

  • $$\frac{\partial w^TX^Ty}{\partial w}:\frac{\partial w^TX^Ty}{\partial w}=\frac{\partial (w^TX^Ty)^T}{\partial w}$$$$=\frac{\partial y^TXw}{\partial w}=X^Ty$$

解释:分子为标量,分母为向量。因为$\omega^{T}X^{T}y$是标量,而标量的转置还是等于本身,所以进行转置后再查表,和上一条一样。(为啥要转置?因为表格中没有一模一样的啊(o_ _)ノ)

  • $$\frac{\partial w^TX^TXw}{\partial w}:\frac{\partial w^TX^TXw}{\partial w}=2X^TXw$$

解释:分子为标量,分母为向量。在2.标量—向量表格中第13行找到
2a9490742d07175745e49a9f0cf880c_1_
注:(行向量($1\times(d+1)$)$\times$矩阵($(d+1)\times(m)$)$\times$ 矩阵($m\times(d+1)$)$\times$列向量($(d+1)\times1$$=$标量)

又因为分母为列向量,所以符合分母布局,选第二个,结果为$2X^TXw$.

最终,我们得到结果:$$\frac{\partial y^Ty}{\partial w}-\frac{\partial y^TXw}{\partial w}-\frac{\partial w^TX^Ty}{\partial w}+\frac{\partial w^TX^TXw}{\partial w}=$$$$0-X^Ty-X^Ty+2X^TXw=2X^T(Xw-y)$$

令上式结果为零,不考虑矩阵逆的计算等,简单的可以得到:$$\omega=(X^TX)^{-1}X^Ty$$

哈哈哈,以后再也不怕矩阵求导了( •̀ ω •́ )y

参考:
Matrix calculus-Wikipedia
通过一个例子快速上手矩阵求导-CSDN

目录
相关文章
|
6月前
线性代数——(期末突击)矩阵(下)-习题篇(初等变换求逆矩阵、矩阵乘法、求矩阵方程、求线性方程组、解齐次线性方程组)
线性代数——(期末突击)矩阵(下)-习题篇(初等变换求逆矩阵、矩阵乘法、求矩阵方程、求线性方程组、解齐次线性方程组)
88 0
02 微积分 - 导数
02 微积分 - 导数
33 0
|
算法
线性代数(一)矩阵和方程组
线性代数(一)矩阵和方程组
169 0
|
C语言
线性代数(三)行列式
线性代数(三)行列式
115 0
(公式)用欧拉公式推导三角函数恒等式
(公式)用欧拉公式推导三角函数恒等式
245 0
(公式)用欧拉公式推导三角函数恒等式
矩阵分析:正定矩阵
矩阵分析:正定矩阵
128 0
矩阵分析:正定矩阵
|
机器学习/深度学习 算法
【机器学习中的矩阵求导】(五)矩阵对矩阵求导
假如有p×q矩阵F要对m×n的矩阵X求导,根据第一篇求导布局的定义,矩阵F的pq个元素要对矩阵X的mn个值分别求导,所以求导结果一共有mnpq个,求导的结果如何排列:
605 0
【机器学习中的矩阵求导】(五)矩阵对矩阵求导
零基础矩阵求导方法
零基础矩阵求导方法
112 0
|
存储 机器学习/深度学习 算法
如何让奇异值分解(SVD)变得不“奇异”?
如何让奇异值分解(SVD)变得不“奇异”?
262 0
如何让奇异值分解(SVD)变得不“奇异”?