目录
kNN算法的简介
1、kNN思路过程
1.1、k的意义
1.2、kNN求最近距离案例解释原理—通过实际案例,探究kNN思路过程
2、K 近邻算法的三要素
k最近邻kNN算法的应用
1、kNN代码解读
k最近邻kNN算法的经典案例
1、基础案例
kNN算法的简介
邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。
kNN算法的核心思想:如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。
该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。
由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。
kNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。如下图是kNN算法中,k等于不同值时的算法分类结果。
简单来说,kNN可以看成:有那么一堆你已经知道分类的数据,然后当一个新数据进入的时候,就开始跟训练数据里的每个点求距离,然后选择离这个训练数据最近的k个点,看看这几个点属于什么类型,然后用少数服从多数的原则,给新数据归类。
1、kNN思路过程
1.1、k的意义
1.2、kNN求最近距离案例解释原理—通过实际案例,探究kNN思路过程
共有22图片→label属于[0,21],每一个label对应一个长度距离,最后预测encodings中,一张图片中的两个目标
knn_clf.kneighbors())
(array([[0.30532235, 0.31116033],
[0.32661427, 0.33672689],
[0.23773344, 0.32330168],
[0.23773344, 0.31498658],
[0.33672689, 0.33821827],
[0.38318684, 0.40261368],
[0.36961207, 0.37032072],
[0.30532235, 0.32875857],
[0.31116033, 0.31498658],
[0.34639613, 0.37008633],
[0.34639613, 0.38417308],
[0.38043224, 0.40495343],
[0.37008633, 0.38417308],
[0.36410526, 0.38557585],
[0.40495343, 0.42797409],
[0.36410526, 0.40118199],
[0.31723113, 0.340506 ],
[0.37033616, 0.37823567],
[0.32446263, 0.33810974],
[0.31723113, 0.32446263],
[0.33810974, 0.37878755],
[0.340506 , 0.3755613 ]]),
array([[ 7, 8],
[ 0, 4],
[ 3, 8],
[ 2, 8],
[ 1, 3],
[ 1, 8],
[ 4, 7],
[ 0, 8],
[ 0, 3],
[10, 12],
[ 9, 12],
[ 9, 14],
[ 9, 10],
[15, 9],
[11, 10],
[13, 12],
[19, 21],
[19, 21],
[19, 20],
[16, 18],
[18, 16],
[16, 19]], dtype=int64))
knn_clf.kneighbors(encodings, n_neighbors=1)
(array([[0.33233257],[0.31491284]]),
array([[20],[12]], dtype=int64))