引言
在机器学习领域,K 近邻算法(K-Nearest Neighbors, KNN)是一种基于实例的学习方法,它可以根据样本之间的距离来进行分类或回归。本文将介绍如何使用 KNN 算法进行手写数字识别,并通过一个实际的例子来演示整个过程。
K 近邻算法简介
K 近邻算法的工作原理非常直观:给定一个训练数据集,对于每一个待分类的对象,找出特征空间中最接近它的 K 个训练样本,这 K 个样本的多数类别决定了待分类对象的类别。
- 距离度量:通常使用欧氏距离作为相似性度量。
- K 的选择:K 的值决定了分类的灵活性,较小的 K 值使得分类更加敏感,较大的 K 值则更加稳健。
实战案例:手写数字识别
准备数据
我们使用一个包含手写数字的数据集。数据集中的每个数字都已经被分割成了大小为 20x20 的图像块。
数据加载与预处理
import numpy as np
import cv2
# 读取训练图像并转换为灰度图像
img = cv2.imread('df1e4aba824b59187b50474c839c6c3.png')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# 将训练图像分割成小图像块
cells = [np.hsplit(row, 100) for row in np.vsplit(gray, 50)]
x = np.array(cells)
# 分割训练集和测试集
train = x[:, :50]
test = x[:, 50:100]
# 将训练集和测试集的小图像块展平为一维数组,并转换为浮点型数据
train_new = train.reshape(-1, 400).astype(np.float32)
test_new = test.reshape(-1, 400).astype(np.float32)
# 创建标签
k = np.arange(10)
labels = np.repeat(k, 250)
train_labels = labels[:, np.newaxis]
test_labels = np.repeat(k, 250)[:, np.newaxis]
我们可以通过调试来查看每一行代码的执行情况,例如:
创建 K 近邻分类器并训练
然后我们开始创建K近邻分类器训练
# 创建 K 近邻分类器并训练
knn = cv2.ml.KNearest_create()
knn.train(train_new, cv2.ml.ROW_SAMPLE, train_labels)
# 使用测试数据进行预测
ret, result, neighbours, dist = knn.findNearest(test_new, k=5)
# 计算准确率
matches = result == test_labels
correct = np.count_nonzero(matches)
accuracy = correct * 100.0 / result.size
print('当前识别KNN识别手写数字的准确率为:', accuracy)
这里的k值可以调整,当k值是5的时候, KNN识别手写数字的准确率为91.76%
导入新图像并进行预测
训练并测试好模型后我们自己导入一张20*20像素的手写图片来测试看看,我们可以使用画图工具来画一个
如何读取文件按照上面代码的方法进行操作:
# 读取新图像
new_img = cv2.imread('8.png')
# 将新图像转换为灰度图像
new_gray = cv2.cvtColor(new_img, cv2.COLOR_BGR2GRAY)
# 将新图像展平为一维数组,并转换为浮点型数据
new_test = new_gray.reshape(-1, 400).astype(np.float32)
# 使用训练好的 K 近邻分类器进行预测
ret, result, neighbours, dist = knn.findNearest(new_test, k=5)
# 输出预测结果
print("预测的数字为:", result)
最后预测的结果是1
结论
以上就是全部内容,通过本文的介绍,我们了解了 K 近邻算法的基本原理,并通过一个实际的手写数字识别案例展示了如何使用 KNN 进行图像分类。