SVM不同核函数区别与选择

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时数仓Hologres,5000CU*H 100GB 3个月
简介: 支持向量机(Support Vector Machine,SVM)是一种常用的监督学习算法,它可以将数据从低维空间映射到高维空间,以便更好地进行分类或回归分析。SVM的关键思想是找到一个能够最大化分类边界(或称为超平面)的决策边界,这个边界可以最好地区分不同类别的数据点。

在SVM中,我们使用内核函数(kernel function)来实现数据从低维到高维的映射。常用的内核函数包括线性内核(linear kernel)、多项式内核(polynomial kernel)和径向基函数内核(radial basis function kernel,RBF)。这些内核函数可以帮助SVM处理非线性可分的数据。

为了说明不同内核函数的效果,让我们以红酒数据为例进行说明。我们使用相同的红酒数据,在使用四种不同的内核函数下绘制数据的图形,以观察它们的区别。

首先,我们需要加载红酒数据,并使用SVM算法和不同的内核函数进行建模和预测。然后,我们可以将预测结果可视化,以便比较不同内核函数的分类效果。通过这种方式,我们可以直观地理解不同内核函数在SVM中的作用,以及它们对数据的影响。

在具体编程实现时,我们可以使用Python的相关库(如scikit-learn)来实现SVM算法,并结合matplotlib等库来进行数据可视化。通过这样的实例,我们可以更好地理解SVM的内核函数以及它们在实际数据上的应用效果。

#导入红酒数据库
from sklearn.datasets import load_wine
#定义函数来绘制画图
def make_meshgrid(x,y,h=.02):
    x_min,x_max=x.min()-1,x.max()+1
    y_min,y_max=y.min()-1,y.max()+1
    xx,yy=np.meshgrid(np.arange(x_min,x_max,h),np.arange(y_min,y_max,h))
    return xx,yy
#定义一个绘制等高线的函数
def plot_contours(ax,clf,xx,yy,**params):
    z=clf.predict(np.c_[xx.ravel(),yy.ravel()])
    z=z.reshape(xx.shape)
    out=ax.contourf(xx,yy,z,**params)
#使用酒的数据
wine=load_wine()
#选取数据中的前两个数据
X=wine.data[:,:2]
y=wine.target
C=1.0#SVM的正规化参数
models=(svm.SVC(kernel='linear',C=C),#线性可调
svm.LinearSVC(C=C),#线性不可调
svm.SVC(kernel='rbf',gamma=0.7,C=C),
svm.SVC(kernel='poly',degree=3,C=C))
models=(clf.fit(X,y) for clf in models)
#设定图片的题目
titles=('SVC with linear kernel','linearSVC (linear kernel)','SVC with RBF kernel','SVC with polymomial(degree 3)kernel')
#设定一个子图形的个数和排列方式进行画图
fig,sub=plt.subplots(2,2)
plt.subplots_adjust(wspace=0.4,hspace=0.4)
#使用前面的函数进行画图
X0,X1=X[:,0],X[:,1]
xx,yy=make_meshgrid(X0,X1)
for clf,title,ax in zip(models,titles,sub.flatten()):
    plot_contours(ax,clf,xx,yy,cmap=plt.cm.plasma,alpha=0.8)
    ax.scatter(X0,X1,c=y,cmap=plt.cm.plasma,s=20,edgecolors='k')
    ax.set_xlim(xx.min(),xx.max())
    ax.set_ylim(yy.min(),yy.max())
    ax.set_xlabel('Feature 0')
    ax.set_ylabel('Feature 1')
    ax.set_xticks(())
    ax.set_yticks(())
    ax.set_title(title)
#将图形显示出来
plt.show()

截屏2023-12-27 下午8.48.54.png

这段代码主要使用了Scikit-learn库中的SVM支持向量机模型,对红酒数据集进行分类,并通过可视化的方式展示其分类效果。具体步骤如下:

导入红酒数据库:使用load_wine函数加载红酒数据集,并将数据存储在变量wine中。

选择数据特征:从红酒数据中选择了前两个特征,并将其存储在变量X中,将目标变量存储在变量y中。

定义SVM模型:定义了四个SVM模型,分别使用不同的内核函数(线性、线性、高斯径向基函数和多项式)来进行分类。

训练并绘制图像:对四个SVM模型进行训练,使用make_meshgrid函数生成网格点,利用plot_contours函数绘制等高线图,并将数据点可视化在图上,最后将图形显示出来。

总体而言,该代码主要是为了展示支持向量机算法在分类问题中的应用,以及不同内核函数的效果和优缺点。

相关文章
|
21天前
|
机器学习/深度学习 算法
如何在SVM中应用核函数
如何在SVM中应用核函数
|
21天前
|
机器学习/深度学习 算法
深入理解SVM中的核函数及其应用
深入理解SVM中的核函数及其应用
|
21天前
|
机器学习/深度学习
SVM和SVMR有什么区别
SVM和SVMR有什么区别
|
6月前
|
机器学习/深度学习 数据采集 算法
SVM算法
【6月更文挑战第15天】
68 6
|
7月前
|
机器学习/深度学习 数据可视化 Serverless
4种SVM主要核函数及相关参数的比较
本文将用数据可视化的方法解释4种支持向量机核函数和参数的区别
255 1
|
机器学习/深度学习 资源调度 Serverless
核函数:RBF 是如何让线性 SVM 可以分类非线性数据的?
如果原始空间是有限维,即属性数有限,那么一定存在一个高维特征空间使得样本可分。
258 1
核函数:RBF 是如何让线性 SVM 可以分类非线性数据的?
|
机器学习/深度学习 数据可视化 算法
分别用线性SVM和高斯核SVM预测对数据进行分类
分别用线性SVM和高斯核SVM预测对数据进行分类
163 0
深入SVM:支持向量机核的作用是什么
深入SVM:支持向量机核的作用是什么
168 0
深入SVM:支持向量机核的作用是什么
|
机器学习/深度学习 算法
SVM(一):线性支持向量机
SVM(一):线性支持向量机
SVM(一):线性支持向量机
|
机器学习/深度学习
SVM(三):非线性支持向量机
SVM(三):非线性支持向量机
SVM(三):非线性支持向量机