机器学习算法(KNN)

Posted connorship

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习算法(KNN)相关的知识,希望对你有一定的参考价值。

KNN简介

KNN(k-NearestNeighbor)算法的思想总结一下:就是在数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类,其算法的描述为:

1.计算测试数据与各个训练数据之间的距离,选用欧式距离,计算每个点到数据集(训练集)的所有距离,

distance=((x1-x2)**2+(y1-y2)**2)**0.5

2.按照距离的递增关系进行排序,使用argsort(distances.argsort())函数,返回数据集从小到大排列的数据下表,
3.选取距离最小的K个点,与输入k值有关,使用for函数遍历k
4.确定前K个点所在类别的出现频率,class_count[label]=class_count.get(label,0)+1

5.返回前K个点中出现频率最高的类别作为测试数据的预测分类,sorted_class=sorted(class_count.items(),key=operator.itemgetter(1),reverse=True),sorted_class[0][0]。

 

代码如下:我们把收入工资和年龄作为数据集,进行判别某个年龄和对应收入,有没有资格谈恋爱!

 1 #!/usr/bin/python
 2 # -*- coding:<utf-8> -
 3 
 4 import numpy as np
 5 import operator
 6 
 7 def createDateset():
 8     group=np.array([[5000,25],[2200,32],[7000,32],[26000,29],[20000,35]])
 9     labels=(没有资格谈恋爱,有资格谈恋爱,没有资格谈恋爱,有资格谈恋爱,有资格谈恋爱)
10     return group,labels
11 
12 def classfy(input,dataSet,labels,k):
13 
14     datasize=dataSet.shape[0] #计算数组集的行数,numpy中shape[0]返回数组的行数,shape[1]返回列数
15     diffdata=np.tile(input,(datasize,1))-dataSet#np.tile(input,(datasize,1)),对测试数据进行横向复制,使其拥有与其数据集一样的维度
16     squrdata=diffdata**2#计算相减后的平方,欧式距离,distance=((x1-x2)**2+(y1-y2)**2)**0.5
17     sum_squr_data=squrdata.sum(axis=1)
18     distances=sum_squr_data**0#.欧式距离:distance=((x1-x2)**2+(y1-y2)**2)**0.5
19     print(测试的数据距离数据集的距离分别是:,distances)
20 
21     sorted_distance=distances.argsort()
22     print(距离从小到大的下标为:,sorted_distance)
23 
24     class_count={}
25     for i in range (k):
26         label=labels[sorted_distance[i]]
27         class_count[label]=class_count.get(label,0)+1#a[b]=a.get(b,0)+1,对字典a赋值,当在字典a中找到
28         #key为b的键值的时候,取1,找不到的时候取0并加1,即等号坐标为key,右边为value
29         print(class_count:,class_count)
30     sorted_class=sorted(class_count.items(),key=operator.itemgetter(1),reverse=True)##key=operator.itemgetter(1)根据字典的值进行排序
31     #key=operator.itemgetter(0)根据字典的键进行排序
32     print(sorted_class:,sorted_class)
33     return sorted_class[0][0]
34 
35 if __name__ == __main__:
36     group,labels=createDateset()
37     test=(6000,36)
38     test_class=classfy(test,group,labels,5)
39     print(test_class)
#运行结果如下:
测试的数据距离数据集的距离分别是: [1 1 1 1 1] 距离从小到大的下标为: [0 1 2 3 4] class_count: {没有资格谈恋爱: 1} class_count: {没有资格谈恋爱: 1, 有资格谈恋爱: 1} class_count: {没有资格谈恋爱: 2, 有资格谈恋爱: 1} class_count: {没有资格谈恋爱: 2, 有资格谈恋爱: 2} class_count: {没有资格谈恋爱: 2, 有资格谈恋爱: 3} sorted_class: [(有资格谈恋爱, 3), (没有资格谈恋爱, 2)] 有资格谈恋爱 Process finished with exit code 0

 

KNN算法的优点:

1.KNN理论简单,容易实现,简单,有效。

2、KNN是一种在线技术,新数据可以直接加入数据集而不必进行重新训练

KNN算法缺点:

1.KNN算法是懒散学习方法(lazy learning,基本上不学习),一些积极学习的算法要快很多。

2.对于样本容量大的数据集计算量比较大。

3.样本不平衡时,预测偏差比较大。如:某一类的样本比较少,而其它类样本比较多。

4.KNN每一次分类都会重新进行一次全局运算。

5.k值大小的选择。

 








以上是关于机器学习算法(KNN)的主要内容,如果未能解决你的问题,请参考以下文章

机器学习算法_knn(福利)

KNN算法的实现

机器学习实战☛k-近邻算法(K-Nearest Neighbor, KNN)

以❤️简单易懂❤️的语言带你搞懂有监督学习算法附Python代码详解机器学习系列之KNN篇

[机器学习与scikit-learn-18]:算法-K近邻算法KNN的原理与代码实例

机器学习实战☛k-近邻算法(K-Nearest Neighbor, KNN)