☀️机器学习入门☀️(二) KNN分类算法 | 附加小练习

简介: 目录1. 聚类与分类1.1 聚类1.2 分类2. 关于KNN算法2.1 `Lp距离`定义:2.1 `K `值的选取3. 练习第一题:第二题:最后

目录

1. 聚类与分类

1.1 聚类

1.2 分类

2. 关于KNN算法

2.1 `Lp距离`定义:

2.1 `K `值的选取

3. 练习

第一题:

第二题:

最后

1. 聚类与分类

1.1 聚类

聚类是将数据对象的集合分成相似的对象类的过程。使得同一个簇(或类)中的对象之间具有较高的相似性,而不同簇中的对象具有较高的相异性,并且事先不知道数据集本身有多少类别,属于无监督学习。


e.g:

比如预测某一学校的在校大学生的好朋友团体,我们不知道大学生和谁关系好或和谁关系不好,我们通过他们的相似度进行聚类,聚成n个团体,这就是聚类。


1.2 分类

分类就是事先已知道数据集中包含多少种类,从而对数据集中每一样本进行分类,且所分配的标签必须包含在已知的标签集中,属于监督学习。


e.g:

比如对一个学校的在校大学生进行性别分类,我们会下意识很清楚知道分为“男”,“女”。对于一个分类器,通常需要你告诉它“这个东西被分为某某类”。


2. 关于KNN算法

邻近算法,或者说K最近邻分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻居来代表,KNN是通过测量不同特征值之间的距离进行分类。(后续有例题)


2.1 Lp距离定义:

image.png


当p=1时,就是曼哈顿距离(对应L1范数)


当p=2时,就是欧氏距离(对应L2范数)


2.1 K值的选取

如果选择较小的K值,就相当于用较小的邻域中的训练实例进行预测,学习的近似误差会减小,只有与输入实例较近的训练实例才会对预测结果起作用,但缺点是学习的估计误差会增大,预测结果会对近邻的实例点分成敏感。如果邻近的实例点恰巧是噪声,预测就会出错。换句话说,K值减小就意味着整体模型变复杂,分的不清楚,就容易发生过拟合。


如果选择较大K值,就相当于用较大邻域中的训练实例进行预测,其优点是可以减少学习的估计误差,但近似误差会增大,也就是对输入实例预测不准确,K值得增大就意味着整体模型变的简单。


3. 练习

使用Sklearn中的make_circles方法生成训练样本,随机生成测试样本,用KNN分类并可视化。


第一题:

"""
Sklearn中的make_circles方法生成训练样本
并随机生成测试样本,用KNN分类并可视化。
"""
from sklearn.datasets import make_circles
from sklearn.neighbors import KNeighborsClassifier
import matplotlib.pyplot as plt
import numpy as np
import random
fig = plt.figure(1, figsize=(10, 5))
x1, y1 = make_circles(n_samples=400, factor=0.4, noise=0.1)
# 模型训练 求距离、取最小K个、求类别频率
knn = KNeighborsClassifier(n_neighbors=15)
knn.fit(x1, y1)  # X是训练集(横纵坐标) y是标签类别
# SVM 支持向量机(Support Vector Machine)
"""
置信风险与两个量有关,一是样本数量,显然给定的样本数量越大,我们的学习结果越有可能正确,
此时置信风险越小;二是分类函数的VC维,显然VC维越大,推广能力越差,置信风险会变大。 
公式中R(w)就是真实风险,Remp(w)就是经验风险,Ф(n/h)就是置信风险。
统计学习的目标从经验风险最小化变为了寻求经验风险与置信风险的和最小,即结构风险最小。 
SVM正是这样一种努力最小化结构风险的算法.
SVM就是试图把棍放在最佳位置,好让在棍的两边有尽可能大的间隙。
# 进行预测
x2 = random.random()  # 测试样本横坐标
y2 = random.random()  # 测试样本纵坐标
X_sample = np.array([[x2, y2]])  # 给测试点
# y_sample = knn.predict(X_sample)   # 调用knn进行predict得预测类别
y_sample = []
for i in range(0, 400):
    dx = x1[:, 0][i] - x2
    dy = x1[:, 1][i] - y2
    d = (dx ** 2 + dy ** 2) ** 1 / 2
    y_sample.append(d)
neighbors = knn.kneighbors(X_sample, return_distance=False)
plt.subplot(121)
plt.title('data by make_circles() 1')
plt.scatter(x1[:, 0], x1[:, 1], marker='o', s=100, c=y1)  
# 这个s就是点的大小 marker是标记的意思,就是说用什么标记,比如这里用o来标记,可以尝试换成其他可行的marker试试。
# 这个x1[:,0] 就是选取x1的全部元素里面的第0列
# 这个x1[:,1] 就是选取x1的全部元素里面的第1列
# c就是颜色的意思,就是按照y1的分类进行填充颜色
plt.scatter(x2, y2, marker='*', c='b')
plt.subplot(122)
plt.title('data by make_circles() 2')
plt.scatter(x1[:, 0], x1[:, 1], marker='o', s=100, c=y1) 
plt.scatter(x2, y2, marker='*', c='r', s=100)
for i in neighbors[0]:
    plt.scatter([x1[i][0], X_sample[0][0]], [x1[i][1], X_sample[0][1]], marker='o', c='b', s=100)
plt.show()

效果图:

image.png

第二题:

Sklearn中的datasets方法导入训练样本,并用留一法产生测试样本,用KNN分类并输出分类精度。

"""
Sklearn中的datasets方法导入训练样本
并用留一法产生测试样本
用KNN分类并输出分类精度
"""
import warnings
from sklearn import datasets
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import LeaveOneOut
import matplotlib.pyplot as plt
warnings.filterwarnings('ignore') # 忽略warning
iris = datasets.load_iris()
X = iris.data
y = iris.target
loo = LeaveOneOut()  # 留一法,将数据集划分为训练集和测试集
K = []
Accuracy = []
for k in range(1, 16): # 将k从1到16结束。
    correct = 0
    knn = KNeighborsClassifier(k)
    for train, test in loo.split(X):  # 对测试机和训练集进行分割
        knn.fit(X[train], y[train])  # 初始化svm进行训练。
        y_sample = knn.predict(X[test])
        if y_sample == y[test]:  # 如果是正确的就累积+1
            correct += 1
    K.append(k)
    Accuracy.append(correct / len(X))
    plt.plot(K, Accuracy)
    plt.xlabel('Accuracy:')
    plt.ylabel('K:')
    print('K次数:{} Accuracy正确率:{}'.format(k, correct / len(X)))
plt.show()

输出结果:

image.png

图像结果:

image.png

相关文章
|
1天前
|
机器学习/深度学习 算法
理解并应用机器学习算法:决策树
【5月更文挑战第12天】决策树是直观的分类与回归机器学习算法,通过树状结构模拟决策过程。每个内部节点代表特征属性,分支代表属性取值,叶子节点代表类别。构建过程包括特征选择(如信息增益、基尼指数等)、决策树生成和剪枝(预剪枝和后剪枝)以防止过拟合。广泛应用在信贷风险评估、医疗诊断等领域。理解并掌握决策树有助于解决实际问题。
|
2天前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】在使用K-means聚类算法时,如何选择K的值?
【5月更文挑战第11天】【机器学习】在使用K-means聚类算法时,如何选择K的值?
|
2天前
|
机器学习/深度学习 算法 数据挖掘
【机器学习】为什么K-means算法使用欧式距离度量?
【5月更文挑战第11天】【机器学习】为什么K-means算法使用欧式距离度量?
|
2天前
|
机器学习/深度学习 算法 数据可视化
【机器学习】描述K-means算法的步骤
【5月更文挑战第11天】【机器学习】描述K-means算法的步骤
|
2天前
|
机器学习/深度学习 人工智能 算法
【机器学习】K-means和KNN算法有什么区别?
【5月更文挑战第11天】【机器学习】K-means和KNN算法有什么区别?
|
2天前
|
机器学习/深度学习 算法 图计算
图机器学习入门:基本概念介绍
图机器学习是机器学习的分支,专注于处理图形结构数据,其中节点代表实体,边表示实体间关系。本文介绍了图的基本概念,如无向图与有向图,以及图的性质,如节点度、邻接矩阵。此外,还讨论了加权图、自循环、多重图、双部图、异构图、平面图和循环图。图在描述数据关系和特征方面具有灵活性,为机器学习算法提供了丰富的结构信息。
6 0
|
3天前
|
机器学习/深度学习 算法
【机器学习】比较朴素贝叶斯算法与逻辑回归算法
【5月更文挑战第10天】【机器学习】比较朴素贝叶斯算法与逻辑回归算法
|
3天前
|
机器学习/深度学习 数据采集 自然语言处理
经典机器学习算法——Pagerank算法(二)
PageRank 算法由 Google 创始人 Larry Page 在斯坦福读大学时提出,又称 PR——佩奇排名。主要针对网页进行排名,计算网站的重要性,优化搜索引擎的搜索结果。PR 值是表示其重要性的因子
|
3天前
|
机器学习/深度学习 数据采集 算法
经典机器学习算法——Pagerank算法(一)
PageRank 算法由 Google 创始人 Larry Page 在斯坦福读大学时提出,又称 PR——佩奇排名。主要针对网页进行排名,计算网站的重要性,优化搜索引擎的搜索结果。PR 值是表示其重要性的因子
经典机器学习算法——Pagerank算法(一)
|
3天前
|
机器学习/深度学习
机器学习基础入门(二)(线性回归与成本函数)
已知一系列房子的大小以及其对应的价格的数据,要求是已知房子大小预测其房子的价格