【阿旭机器学习实战】【21】通过SVM分类与回归实战案例,对比支持向量机(SVM)3种SVM不同核函数

简介: 【阿旭机器学习实战】【21】通过SVM分类与回归实战案例,对比支持向量机(SVM)3种SVM不同核函数

1. 3种SVM不同核函数介绍


线性核函数linear


适用范围:


主要用于线性可分的情况。


特点:


特征空间到输入空间的维度是一样的,参数少速度快,可解释性强,可以比较容易的知道哪些特征是重要的。


它对于线性可分情况分类效果比较理想,因此我们通常会先尝试用线性核函数来做分类,看看效果如何,如果不行再换其他的核函数。


多项式核函数(poly)


适用范围:


可用于线性与非线性分类。

特点:

通过将低维的输入空间映射到高维的特征空间的方式,使得原本线性不可分的数据线性可分。


多项式核函数的参数较多,当多项式阶数比较高的时候,核矩阵的元素值将趋于无穷大或者无穷小,计算复杂度会大到无法计算。因此对于大数量级的幂数,不太适用,通常只用在已经大概知道一个比较小的幂数的情况。


高斯径向基核函数(rbf)


适用范围:

可用于线性与非线性分类。

特点:

高斯径向基核函数是一种局部性强的核函数,其可以将一个样本映射到一个更高维的空间内,该核函数是应用最广的一个,无论大样本还是小样本都有比较好的性能,而且其相对于多项式核函数参数要少,因此大多数情况下在不知道用什么核函数的时候,优先使用高斯核函数。


高斯径向基核函数只有一个参数,相比多项式核容易选择。缺点是可解释性差、计算速度比较慢、容易过拟合。


2. 使用不同SVM不同核函数对iris数据集进行分类


导入数据集并构建模型


svc_linear = SVC(kernel="linear")
svc_rbf = SVC(kernel="rbf")
svc_poly = SVC(kernel="poly")
# LinearSVC线性分类支持向量机,它是给根据liblinear实现的,可以用于二类分类,也可以用于多类分类
from sklearn.svm import LinearSVC
linearSVC = LinearSVC()
from sklearn import datasets
iris = datasets.load_iris()
data = iris.data[:,[2,3]]
target = iris.target
# 画出样本点的散点图
plt.scatter(data[:,0],data[:,1],c=target)

7d20b837ad8f4674a5573455765e7ee0.png

# 用以上的模型进行训练
svc_linear.fit(data,target)
svc_rbf.fit(data,target)
svc_poly.fit(data,target)
linearSVC.fit(data,target)
LinearSVC(C=1.0, class_weight=None, dual=True, fit_intercept=True,
     intercept_scaling=1, loss='squared_hinge', max_iter=1000,
     multi_class='ovr', penalty='l2', random_state=None, tol=0.0001,
     verbose=0)


画出不同核函数模型的决策区域


在平面上生成150000个待预测的点


xmin,xmax = data[:,0].min(),data[:,0].max()
ymin,ymax = data[:,1].min(),data[:,1].max()
x = np.linspace(xmin,xmax,500)
y = np.linspace(ymin,ymax,300)
xx,yy = np.meshgrid(x,y)
xy = np.c_[xx.ravel(),yy.ravel()]
xy.shape
(150000, 2)

使用上述4个模型进行预测

linear_y = svc_linear.predict(xy)
rbf_y = svc_rbf.predict(xy)
poly_y = svc_poly.predict(xy)
linearSVC_y = linearSVC.predict(xy)

画出数据点的分类,即决策区域

plt.figure(figsize=(12,9))
y_ = [linear_y,rbf_y,poly_y,linearSVC_y]
titles = ["linear","rbf","poly","linearSVC"]
for i in range(len(y_)):
    axes = plt.subplot(2,2,i+1)
    axes.set_title(titles[i])
    plt.pcolormesh(xx,yy,y_[i].reshape(xx.shape),cmap="rainbow")
    plt.scatter(data[:,0],data[:,1],c=target)

8294751e9dc6487f91b96e9219339645.png

3. 使用3种不同核函数SVM回归器进行对比


from sklearn.svm import SVR
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
svr_linear = SVR(kernel="linear")  #线性核函数
svr_rbf = SVR(kernel="rbf")  # 高斯核函数
svr_poly = SVR(kernel="poly")  #多项式核函数
# 构建数据集
x = np.sort(np.random.rand(120)*20).reshape((-1,1))
y = np.sin(x).reshape((-1))
y
array([ 0.00742162,  0.24751523,  0.3415653 ,  0.34759352,  0.38696958,
        0.4421328 ,  0.55214074,  0.76303351,  0.87491982,  0.99823761,
        0.99980917,  0.99761508,  0.9208189 ,  0.65227279,  0.63461282,
        0.6229594 ,  0.52505248,  0.50287485,  0.46412807,  0.36936856,
        0.24375237, -0.25350717, -0.26024696, -0.33279932, -0.56187501,
       -0.654529  , -0.77757274, -0.78186399, -0.79296189, -0.81952154,
       -0.83833383, -0.8532612 , -0.85372675, -0.95442008, -0.95631099,
       -0.97157723, -0.98316123, -0.99660268, -0.98940421, -0.88825406,
       -0.8761492 , -0.83140796, -0.72885609, -0.67636221, -0.50023083,
       -0.33547563,  0.02380919,  0.04284093,  0.09876885,  0.1511908 ,
        0.5148709 ,  0.86849825,  0.92608232,  0.93889021,  0.99937328,
        0.99066457,  0.58532639,  0.14879434, -0.10706485, -0.3945345 ,
       -0.48553596, -0.72967251, -0.83200108, -0.85349259, -0.98519961,
       -0.91126438, -0.89261681, -0.58239636, -0.24621536, -0.21255149,
        0.07973857,  0.14214009,  0.22297726,  0.43508214,  0.97500725,
        0.99042149,  0.9999599 ,  0.99801811,  0.91532541,  0.89571095,
        0.85068955,  0.84204641,  0.53463984,  0.41512068,  0.29221854,
        0.07522218,  0.05414875, -0.11536683, -0.21672657, -0.50645076,
       -0.57996269, -0.63090667, -0.68752594, -0.71803267, -0.77350908,
       -0.82268006, -0.89454294, -0.99754715, -0.98425531, -0.87872174,
       -0.87453792, -0.79748762, -0.70055025, -0.27372036, -0.25888483,
       -0.23745825, -0.18223377, -0.14449555, -0.0983766 , -0.04744317,
        0.03364084,  0.25909822,  0.34909316,  0.56313943,  0.58188988,
        0.66766334,  0.76456595,  0.77336481,  0.81083299,  0.88017043])
plt.scatter(x,y)
• 1
<matplotlib.collections.PathCollection at 0x207ea6392b0>

076d97278cd249e48b502a4e8156b9b4.png


y += np.random.randn(120)*0.5
• 1


让不同的核函数来训练样本


svr_linear.fit(x,y)
svr_rbf.fit(x,y)
svr_poly.fit(x,y)
SVR(C=1.0, cache_size=200, coef0=0.0, degree=3, epsilon=0.1, gamma='auto',
  kernel='poly', max_iter=-1, shrinking=True, tol=0.001, verbose=False)
x_test = np.linspace(0,20,200).reshape((200,1))
linear_y = svr_linear.predict(x_test)
rbf_y = svr_rbf.predict(x_test)
poly_y = svr_poly.predict(x_test)
plt.scatter(x,y)
plt.plot(x_test,linear_y,c="g")  #绿色:线性核函数
plt.plot(x_test,rbf_y,c="b")     #蓝色:高斯核函数
plt.plot(x_test,poly_y,c='r')    #红色:多项式核函数

ab13fef655674b55baea170b07ab47cd.png

可以看出,对于该案例,高斯核函数模型的预测效果好于其他2中核函数模型。


如果内容对你有帮助,感谢记得点赞+关注哦!

相关文章
|
21天前
|
机器学习/深度学习 算法 数据挖掘
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享-2
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享
|
21天前
|
机器学习/深度学习 Python
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享-4
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享
|
7天前
|
机器学习/深度学习 数据采集 算法
数据分享|R语言机器学习预测案例合集:众筹平台、机票折扣、糖尿病患者、员工满意度
数据分享|R语言机器学习预测案例合集:众筹平台、机票折扣、糖尿病患者、员工满意度
|
8天前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的支持向量机(SVM)算法
【5月更文挑战第6天】在数据科学和人工智能的广阔天地中,支持向量机(SVM)以其强大的分类能力与理论深度成为机器学习领域中的一个闪亮的星。本文将深入探讨SVM的核心原理、关键特性以及实际应用案例,为读者提供一个清晰的视角来理解这一高级算法,并展示如何利用SVM解决实际问题。
35 7
|
8天前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的支持向量机算法
【5月更文挑战第6天】 在数据科学和人工智能领域,支持向量机(SVM)是一种强大的监督学习模型,它凭借其出色的分类能力在众多机器学习任务中占据重要地位。本文旨在深入剖析支持向量机的工作原理,探讨其在高维数据处理中的优势以及面对大规模数据集时的应对策略。通过对核技巧、软间隔以及优化问题的讨论,我们将揭示SVM如何优雅地处理线性不可分问题,并保持模型的泛化性能。
|
11天前
|
机器学习/深度学习 自然语言处理 算法
机器学习算法原理与应用:深入探索与实战
【5月更文挑战第2天】本文深入探讨机器学习算法原理,包括监督学习(如线性回归、SVM、神经网络)、非监督学习(聚类、PCA)和强化学习。通过案例展示了机器学习在图像识别(CNN)、自然语言处理(RNN/LSTM)和推荐系统(协同过滤)的应用。随着技术发展,机器学习正广泛影响各领域,但也带来隐私和算法偏见问题,需关注解决。
|
13天前
|
机器学习/深度学习 数据采集 TensorFlow
【Python机器学习专栏】使用Python进行图像分类的实战案例
【4月更文挑战第30天】本文介绍了使用Python和深度学习库TensorFlow、Keras进行图像分类的实战案例。通过CIFAR-10数据集,展示如何构建和训练一个卷积神经网络(CNN)模型,实现对10个类别图像的识别。首先安装必要库,然后加载数据集并显示图像。接着,建立基本CNN模型,编译并训练模型,最后评估其在测试集上的准确性。此案例为初学者提供了图像分类的入门教程,为进一步学习和优化打下基础。
|
13天前
|
机器学习/深度学习 数据采集 算法
【Python机器学习专栏】支持向量机(SVM)在Python中的实践
【4月更文挑战第30天】SVM是一种高效的监督学习算法,适用于分类和回归,尤其擅长处理高维和非线性问题。通过寻找最大边际超平面来分隔数据,SVM具有高效性、鲁棒性、灵活性和稀疏性等特点。
|
16天前
|
机器学习/深度学习 人工智能 算法
探索机器学习中的支持向量机(SVM)算法
【4月更文挑战第28天】 在数据科学和人工智能的世界中,支持向量机(SVM)以其强大的分类能力而著称。本文将深入探讨SVM的数学原理、关键概念以及实际应用案例。我们将通过直观的解释和示例来揭示SVM如何找到最优决策边界,以及如何通过核技巧处理非线性可分问题。此外,我们还将讨论SVM在现实世界问题中的效能及其局限性。
|
18天前
|
机器学习/深度学习 算法 Python
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享(下)
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享