栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

【机器学习】原理与实现k近邻算法

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

【机器学习】原理与实现k近邻算法

文章目录
  • 系列文章目录
  • 前言
  • 一、k近邻算法是什么?
  • 二、使用步骤
    • 1.引入库
    • 2.读入数据
  • 总结


前言

随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容——k近邻算法及python的实现。


提示:以下是本篇文章正文内容,下面案例可供参考

一、k近邻算法是什么?

        K最近邻(k—Nearest Neighborhood,KNN)分类算法,是1967年由Cover T和Hart P提出的一种基本分类与回归方法,也是最简单的机器学习算法之一。该方法的思路是:在特征空间中,如果一个样本附近的k个最近(即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。(近朱者赤近墨者黑)

        

二、k-近邻算法实战之sklearn手写数字识别 1.k-近邻算法的一般流程

(1)收集数据:可以使用爬虫进行数据的收集,也可以使用第三方提供的免费或收费的数据。一般来讲,数据放在txt文本文件中,按照一定的格式进行存储,便于解析及处理。
(2)准备数据:使用Python解析、预处理数据。
(3)分析数据:可以使用很多方法对数据进行分析,例如使用Matplotlib将数据可视化。
(4)测试算法:计算错误率。
(5)使用算法:错误率在可接受范围内,就可以运行k-近邻算法进行分类。

2.实战背景    

本节我们一步步地构造使用 K 近邻分类器的手写识别系统。为了简单起见,这里构造的系统只能识别数字 0 到 9,参见图 1-1。需要识别的数字已经使用图形处理软件,处理成具有相同的色彩和大小 1:宽高是 32 像素 x 32 像素的黑白图像。

尽管采用文本格式存储图像不能有效地利用内存空间,但是为了方便理解,我们还是将图像转换为文本格式。

                                          图1-1   手写数字数字数据集的例子

         为了使用前面两个例子的分类器,我们必须将图像格式化处理为一个向量。我们将把一个 32x32 的二进制图像矩阵转换为 1x1024 的向量,这样前两节使用的分类器就可以处理数字图像信息了。

3.准备数据:将图像转换为测试向量

下载数据集:
http://labfile.oss.aliyuncs.com/courses/777/digits.zip(来源网络)
digits 目录下有两个文件夹,分别是:
trainingDigits:训练数据,1934 个文件,每个数字大约 200 个文件。
testDigits:测试数据,946 个文件,每个数字大约 100 个文件。
每个文件中存储一个手写的数字,文件的命名类似 0_7.txt,第一个数字 0 表示文件中的手写数字是 0,后面的 7 是个序号。

        我们首先编写一段函数 img2vector,将图像转换为向量:该函数创建 1x1024 的 NumPy 数组,然后打开给定的文件,循环读出文件的前 32 行,并将每行的头 32 个字符值存储在 NumPy 数组中,最后返回数组。        

def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect
然后在Python命令行中输入下列命令测试img2vector函数,然后与文本编辑器打开的文件进行比较:
>>> testVector = kNN.img2vector('testDigits/0_13.txt')
>>> testVector[0,0:31]
array([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 1., 1., 1., 1., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])
>>> testVector[0,31:63]
array([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 1., 1., 1., 1., 1., 1., 1., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])
4.测试算法

我们已经将数据处理成分类器可以识别的格式。接下来,我们将这些数据输入到分类器,检测分类器的执行效果。在写入这些代码之前,我们必须确保将 from os import listdir 写入文件的起始部分,这段代码的主要功能是从 os 模块中导入函数 listdir,它可以列出给定目录的文件名。

测试的步骤:

(1)读取训练数据到向量(手写图片数据),从数据文件名中提取类别标签列表(每个向量对应的真实的数字)
(2)读取测试数据到向量,从数据文件名中提取类别标签
(3)执行K 近邻算法对测试数据进行测试,得到分类结果
(4)与实际的类别标签进行对比,记录分类错误率
(5)打印每个数据文件的分类数据及错误率作为最终的结果

def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir('digits/trainingDigits')
    m = len(trainingFileList)
    trainingMat = np.zeros((m, 1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        hwLabels.append(classNumStr)
        trainingMat[i, :] = img2vector(
            'digits/trainingDigits/%s' % fileNameStr)
    testFileList = listdir('digits/testDigits')
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('digits/testDigits/%s' % fileNameStr)
        classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
        print("测试样本 %d, 分类器预测: %d, 真实类别: %d" %
              (i+1, classifierResult, classNumStr))

        # 判断K 近邻算法结果是否准确
        if (classifierResult != classNumStr):
            errorCount += 1.0

    # 打印错误率
    print("n错误分类计数: %d" % errorCount)
    print("n错误分类比例: %f" % (errorCount/float(mTest)))

 最后,输入 handwritingClassTest(),测试该函数的输出结果:

kNN.handwritingClassTest()
the classifier came back with:6, the real answer is: 0
the classifier came back with:4, the real answer is: 0
………………
the classifier came back with:1, the real answer is: 7
the classifier came back with:1, the real answer is: 7
the classifier came back with:7, the real answer is: 7
the classifier came back with:0, the real answer is: 8

………………
the classifier came back with:7, the real answer is: 9
the classifier came back with:9, the real answer is: 9


the total number of errors is: 11

the total error rate is: 0.011628

k-近邻算法识别手写数字数据集,错误率为1.2%。改变k的值、修改函数handwritingClassTest随机选取训练样本、改变训练样本的数目,都会对k-近邻算法的错误率产生影响。


总结

        k-近邻算法是分类数据最简单有效的算法。k-近邻算法时基于实例的学习,使用算法时我们必须有接近实际数据的训练样本数据。k-近邻算法必须保存全部数据集,如果训练数据集很大,必须使用大量的存储空间。此外,必须对数据集中的每个数据计算距离值,实际使用时可能非常耗时。

        k-近邻算法的另一个缺陷是它无法给出任何数据的基础结构信息,因此我们也无法知晓平均实例样本和典型实例样本具有什么特征。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/293777.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号