kNN(k-NearestNeighbor)算法
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kNN(k-NearestNeighbor)算法相关的知识,希望对你有一定的参考价值。
参考技术A参考《数据挖掘10大算法》对kNN算法进行基本总结,附有一个Python3的简例。
基本思想
从训练集中找出 k 个最接近测试对象的训练对象,再从这 k 个对象中找出居于主导的类别,将其赋给测试对象。
定位
由于这种总体占优的决策模式,对于类域的交叉、重叠较多的或者多模型、多标签的待分样本集来说,kNN方法较其他方法更为适合。kNN算法属于有监督学习的分类算法。
避开了两个问题
(1)分类时对象之间不可能完全匹配(kNN方法计算的是对象之间的距离);
(2)具有相同属性的对象有不同的类别(kNN方法依据总体占优的类别进行决策,而不是单一对象的类别进行决策)。
需要考虑几个关键要素
(1)训练集;
(2)用于计算对象之间临近的程度或者其他相似的指标;
(3)最近邻的个数 k;
(4)基于 k 个最近邻及其类别对目标对象类别进行判定的方法。
kNN方法很容易理解和实现,在一定条件下,其分类错误率不会超过最优贝叶斯错误率的两倍。一般情况下,kNN方法的错误率会逐渐收敛到最优贝叶斯错误率,可以用作后者的近似。
基本算法
算法的存储复杂度为O(n),时间复杂度为O(n),其中 n 为训练对象的数量。
影响kNN算法性能的几个关键因素
(1)k 值的选择;
如果 k 值选得过小,结果就会对噪声点特别敏感;k 值选得过大就会使得近邻中包含太多别的类的点。最佳 k 值的估计可以使用交叉验证的方法。通常,使用 k=1会有一个比较好的结果(特别是对于小数据集的情况)。但是,在样本很充足的情况下,选择较大的 k 值可以提高抗噪能力。
(2)类别决策时的综合方法;
对目标对象的类别进行决策,最简单的就是使用总体占优方法(简单投票,票数最多的一类胜出)。稍微复杂一点,考虑近邻中每个点与目标对象的距离不同,对决策的份量进行加权考虑。
(3)距离测量标准的选择。
距离测量的标准一般选择 欧几里得距离 或者 曼哈顿距离 。
简单例子
机器学习 sklearn 监督学习 分类算法 KNN K-NearestNeighbor
from sklearn.neighbors import KNeighborsClassifier
#创建一组一维数据 X 和它对应的标签 y
X=[[0],[1],[2],[3]]
y=[0,1,2,3]
#使用最近的1个邻居作为分类的依据,得到分类器
neigh = KNeighborsClassifier(n_neighbors=1)
#将训练数据 X 和 标签 y 送入分类器进行学习
neigh.fit(X, y)
#调用 predict() 函数,对未知分类样本 [2.2] 分类,可以直接并将需要分类
#的数据构造为数组形式作为参数传入,得到分类标签作为返回值
print(neigh.predict([[2.2],[2.3],[2.6]]))
#得到[2 2 3]
以上是关于kNN(k-NearestNeighbor)算法的主要内容,如果未能解决你的问题,请参考以下文章
机器学习 sklearn 监督学习 分类算法 KNN K-NearestNeighbor
机器学习 sklearn 监督学习 分类算法 KNN K-NearestNeighbor