k-近邻算法

Posted lamfai

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了k-近邻算法相关的知识,希望对你有一定的参考价值。

2.1  k-近邻算法概述

    k-近邻算法采用测量不同特征值之间的距离方法进行分类。

    优点:精度高、对异常值不敏感、无数据输入假定。

    确定:计算复杂度高、空间复杂度高。

    适用数据范围:数值型和标称型。

 

    工作原理:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最相邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。

    使用k-邻近算法分类爱情片和动作片。

    假如有一部未看过的电影,如何确定它是爱情片还是动作片?我们可以使用kNN来解决这个问题。

  技术图片

    首先我们需要知道这个未知电影存在多少个打斗镜头和接吻镜头,图2-1中问号位置是该未知电影出现的镜头数图形化展示,具体数字参照表2-1。

  技术图片

    即使不知道未知电影属于哪种类型,我们也可以通过某种方式计算出来。首先计算未知电影与样本集中其他电影的距离,如表2-2所示。

   技术图片

    现在我们得到了样本集中所有电影与未知电影的距离,按照距离递增排序,可以找出k个距离最近的电影。假定k=3,则三个最靠近的电影依次是He‘s Not Really into Dudes、Beautiful Woman和California Man。k-近邻算法按照距离最近的三部电影的类型,决定未知电影的类型,而这三部电影全是爱情片,因此我们判定未知电影是爱情片。

    k-邻近算法的一般流程

    (1)收集数据:可以使用任何方法。

    (2)准备数据:距离计算所需要的数值,最好是结构化的数据格式。

    (3)分析数据:可以使用任何方法。

    (4)训练算法:此步骤不适用于k-近邻算法。

    (5)测试算法:计算错误率。

    (6)使用算法:首先需要输入样本结构和结构化的输出结果,然后运行k-近邻算法判断输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。

   2.1.1 准备:使用 Python 导入数据

    首先,创建名为kNN.py的Python模块,所有代码放在这个文件中。

    在构造完整的k-近邻算法之前,我们还需要编写一些基本的通用函数,在kNN.py文件中增加下面的代码:

  

 

以上是关于k-近邻算法的主要内容,如果未能解决你的问题,请参考以下文章

机器学习K-近邻算法

实验二 K-近邻算法及应用

实验二 K-近邻算法及应用

实验二 K-近邻算法及应用

K近邻算法的理论基础

K-近邻算法(K-NN)