如何让奇异值分解(SVD)变得不“奇异”?

简介: 如何让奇异值分解(SVD)变得不“奇异”?

在之前的一篇文章:划重点!通俗解释协方差与相关系数,红色石头为大家通俗化地讲解了协方差是如何定义的,以及如何直观理解协方差,并且比较了协方差与相关系数的关系。


本文红色石头将继续使用白话语言,介绍机器学习中应用十分广泛的矩阵分解方法:奇异值分解(SVD)。本文不注重详细的数学推导,只注重感性的理解以及如何在实际应用中使用它们


1  普通方阵的矩阵分解(EVD)


我们知道如果一个矩阵 A 是方阵,即行列维度相同(mxm),一般来说可以对 A 进行特征分解:


image.png


其中,U 的列向量是 A 的特征向量,Λ 是对角矩阵,Λ 对角元素是对应特征向量的特征值。


举个简单的例子,例如方阵 A 为:


image.png


那么对其进行特征分解,相应的 Python 代码为:


import numpy as np
A = np.array([[2,2],[1,2]])
lamda,U=np.linalg.eig(A)
print('方阵 A: ',A)
print('特征值 lamda: ',lamda)
print('特征向量 U: ',U)


运行输出:


方阵 A: [[2 2]
   [1 2]]
特征值 lamda: [ 3.41421356 0.58578644]
特征向量 U: [[ 0.81649658 -0.81649658]
   [ 0.57735027 0.57735027]]

特征分解就是把 A 拆分,如下所示:


image.png


其中,特征值 λ1=3.41421356,对应的特征向量 u1=[0.81649658 0.57735027];特征值 λ2=0.58578644,对应的特征向量 u2=[-0.81649658 0.57735027],特征向量均为列向量。


值得注意的是,特征向量都是单位矩阵,相互之间是线性无关的,但是并不正交。得出的结论是对于任意方阵,不同特征值对应的特征向量必然线性无关,但是不一定正交。


02  对称矩阵的矩阵分解(EVD)


image.pngimage.pngimage.png

image.png

那么对其进行特征分解,相应的 Python 代码为:


A = np.array([[2,1],[1,1]])
lamda,U=np.linalg.eig(A)
print('方阵 A: ',A)
print('特征值 lamda: ',lamda)
print('特征向量 U: ',U)


运行输出:


方阵 A:  [[2 1]

[1 1]]

特征值 lamda:  [ 2.61803399  0.38196601]

特征向量 U:  [[ 0.85065081 -0.52573111]

[ 0.52573111  0.85065081]]

特征分解就是把 A 拆分,如下所示:


image.png


其中,特征值 λ1=2.61803399,对应的特征向量 u1=[0.85065081 0.52573111];特征值 λ2=0.38196601,对应的特征向量 u2=[-0.52573111 0.85065081],特征向量均为列向量。


注意,我们发现对阵矩阵的分解和非对称矩阵的分解除了公式不同之外,特征向量也有不同的特性。对称矩阵的不同特征值对应的特征向量不仅线性无关,而且是相互正交的。什么是正交呢?就是特征向量内积为零。验证如下:


0.85065081 * -0.52573111 + 0.52573111 * 0.85065081 = 0\

image.png

3  奇异值分解(SVD)


我们发现,在矩阵分解里的 A 是方阵或者是对称矩阵,行列维度都是相同的。但是实际应用中,很多矩阵都是非方阵、非对称的。那么如何对这类矩阵进行分解呢?因此,我们就引入了针对维度为 mxn 矩阵的分解方法,称之为奇异值分解(Singular Value Decomposition)。


假设矩阵 A 的维度为 mxn,虽然 A 不是方阵,但是下面的矩阵却是方阵,且维度分别为 mxm、nxn。


image.png


因此,我们就可以分别对上面的方阵进行分解:


image.png


其中,Λ1 和 Λ2 是对焦矩阵,且对角线上非零元素均相同,即两个方阵具有相同的非零特征值,特征值令为 σ1, σ2, ... , σk。值得注意的是,k<=m 且 k<=n。


根据 σ1, σ2, ... , σk 就可以得到矩阵 A 的特征值为:

image.png

其中,P 称为左奇异矩阵,维度是 mxm,Q 称为右奇异矩阵,维度是 nxn。Λ 并不是方阵,其维度为 mxn,Λ 对角线上的非零元素就是 A 的特征值 λ1, λ2, ... , λk。图形化表示奇异值分解如下图所示:

image.png

image.png

image.png

4  如何形象化理解 SVD


奇异值分解到底有什么用呢?如何形象化地理解奇异值?我们一起来看下面的例子。


首先放上男神的照片:

image.png

image.pngimage.pngimage.pngimage.pngimage.png

可见,取前 50 个最大奇异值来重构图像时,已经非常清晰了。我们得到和原图差别不大的图像。也就是说,随着选择的奇异值的增加,重构的图像越来越接近原图像。


基于这个原理,奇异值分解可以用来进行图片压缩。例如在本例中,原始图片的维度是 870x870,总共需要保存的像素值是:870x870=756900。若使用 SVD,取前 50 个最大的奇异值即可,则总共需要存储的元素个数为:


(870+1+870)x50=87050


显然,所需存储量大大减小了。在需要存储许多高清图片,而存储空间有限的情况下,就可以利用 SVD,保留奇异值最大的若干项,舍去奇异值较小的项即可。


值得一提的是,奇异值从大到小衰减得特别快,在很多情况下,前 10% 甚至 1% 的奇异值的和就占了全部的奇异值之和的 99% 以上了。这对于数据压缩来说是个好事。


SVD 数据压缩的算法图示如下:


image.png


SVD 数据压缩的示例代码为:


from skimage import io
import matplotlib.pyplot as plt
from PIL import Image
img=io.imread('./ng.jpg')
m,n = img.shape
io.imshow(img)
plt.show()
P, L, Q = np.linalg.svd(img)
tmp = np.diag(L)
if m < n:
   d = np.hstack((tmp,np.zeros((m,n-m))))
else:
   d = np.vstack((tmp,np.zeros((m-n,n))))
# k = 50
img2 = P[:,:50].dot(d[:50,:50]).dot(Q[:50,:])
io.imshow(np.uint8(img2))
plt.show()
tmp = np.uint8(img2)
im = Image.fromarray(tmp)
im.save("out.jpg")

现在,你已经完全了解了奇异值分解了吧。是不是挺简单也挺有意思呢?

相关文章
|
6天前
|
人工智能 算法 计算机视觉
VGen与SVD的比较
【1月更文挑战第7天】VGen与SVD的比较
56 1
VGen与SVD的比较
|
7月前
|
机器学习/深度学习
线性代数(五)特征值和特征向量
线性代数(五)特征值和特征向量
110 1
|
9月前
|
机器学习/深度学习 Java
2022-10-10-使用SVD进行数据降维
2022-10-10-使用SVD进行数据降维
65 0
|
11月前
|
11月前
|
存储 资源调度 自然语言处理
奇异值分解(SVD)和图像压缩
在本文中,我将尝试解释 SVD 背后的数学及其几何意义,还有它在数据科学中的最常见的用法,图像压缩。
145 0
|
机器学习/深度学习 传感器 算法
Cholesky正定矩阵分解附matlab代码
Cholesky正定矩阵分解附matlab代码
|
搜索推荐 算法 数据可视化
降维算法: 奇异值分解SVD
降维算法: 奇异值分解SVD
168 0
【线性代数】求矩阵的特征值、特征向量和协方差矩阵
线性代数基础知识:求矩阵的特征值、特征向量和协方差矩阵
【线性代数】求矩阵的特征值、特征向量和协方差矩阵
|
机器学习/深度学习 数据可视化 算法
通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA)
通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA)
305 1
通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA)