K近邻算法
机器学习算法是从数据中产生模型,也就是进行学习的算法。我们把经验提供给算法,它就能够根据经验数据产生模型。在面对新的情况时,模型就会为我们提供预测的结果。例如,识别数字,文字时,其实识别它们并不需要颜色,使用二值图像就行,而二值图像的数字文字都是0,1组成,机器学习会根据0与1的位置匹配最相近的文字或者数字,从而得出结果。而机器学习中的K近邻算法最适合识别图像中的文字或者数字信息。
K近邻算法又称为KNN算法,是非常经典的机器学习算法。其原理非常简单:对于一个新样本,这里可以理解为一个新数字图像或文字图像,K近邻算法会在已有数据中寻找与它最相似的K个数据,或者说离它最近的K个数据,如果这K个数据大多数属于某个类别,则该样本也属于这个类别。
识别数字
在OpenCV-Python开发指南的第一篇我们就介绍了二值图像,二值图像可以区分形状已经物体大概的轮廓。如下图所示:
这里的图像A就是0和1的矩阵集合,数字1代表有颜色的地方,数字0代表无颜色的地方。
这里,我们提供给机器学习的样本数据为1024个元素的一维数组,通过Excel表格提供,而图像是一个矩阵并不是一维数组。所以,在处理原始图像时,我们需要将图片的矩阵数据转换为一维数组,以便于机器学习的匹配预测。
调整图像
首先,我们需要识别的数字图像可能并不是一个二值图像,甚至可能不是一个灰度图像。所以我们需要将其转换为二值图像。
其次,OpenCV转换的二值图像是一个矩阵,而机器学习训练的数据是一个1024长度的一维数组。所以,我们还需要将图像缩小为32*32像素的图像,这样其转换为一维数组才是1024个0,1数据。
具体代码如下:
import cv2 img = cv2.imread("40.jpg") img = cv2.resize(img, (32, 32)) img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) t, img = cv2.threshold(img, 127, 255, cv2.THRESH_BINARY_INV) img[img == 255] = 1 img_array= img.reshape(1, -1) # 转换为一维数组
这里,我们首先获取图像,然后将图像转换为32*32像素的大小。接着,在转换为灰度图像,并通过二值化处理将图像变更为0和255两个值,最后将255白色的部分替换成1。最后,将其转换为一维数组。
K近邻算法模型搭建
不管是K近邻算法还是机器学习算法,我们一般搭建机器学习模型都分为2个步骤。第1步,划分训练集与测试集,第2步完成模型的搭建.
下面我们具体实现,代码如下:
import cv2 import pandas as pd from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier as KNN df = pd.read_excel("手写字体识别.xlsx") # 提取特征变量,识别数字时,其特征就是1024个0,1数据,而目标变量就是1024个数字组成对应的结果数字 X = df.drop(columns="对应数字") Y = df['对应数字'] x_train, x_test, y_train, y_test = train_test_split(X, Y, test_size=0.2, random_state=111) knn = KNN(n_neighbors=5) knn.fit(x_train, y_train) answer=knn.predict(img_array) print("图中的数字是:"+str(answer[0]))
这里,我们首先读取手写字体识别的数据集,然后提取特征变量与目标变量。
再然后,使用train_test_split函数将获取的数据集分为测试集与训练集,test_size=0.2表示将20%的数据划为测试集,训练集返回x_train,y_train,测试集返回x_test,y_test。
接着,使用训练集数据建模fit,这里K近邻算法n_neighbors=5,表示选取5个近邻点来决定数字图片的分类,或者说识别判断。
建模完成之后,可以将上面转换图片的一维数组,直接代入到knn.predict函数中,得到预测的结果。我们测试的图片如下:
运行之后,得到的结果如下:
训练文档:点击下载