01=K-近邻算法(附完整代码)

Posted 伤心兮

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了01=K-近邻算法(附完整代码)相关的知识,希望对你有一定的参考价值。

一、概述

K-近邻算法是机器学习中最简单的算法,其核心是采用测量不同特征值之间的距离来进行分类,通俗来说就是距离待分类最近的K个点来决定该分类的类别。
如图所示,求当前蓝色属于哪一类,当K=1时,该类别就是class_1;当K=3时,该类别就是class_2。

二、算法公式

K-近邻算法一般使用的欧式距离, 对应的多个特征的公式为:
D i s t a n c e = ∑ i = 1 n ( x i − y i ) 2 Distance=\\sqrt\\sum_i=1^n(x_i-y_i)^2 Distance=i=1n(xiyi)2

  • 注意:这里边 x 1 , x 2 … … x n x_1,x_2……x_n x1,x2……xn都属于待分类的特征值。

举例说明:有四个特征,例如未知类别的特征为(1,3,5,2),已知class_1的特征值(7,6,9,4),class_2的特征值为(2,4,6,4),则未知类别与已知类别之间的距离分别为:
未知类别与class_1:
D 1 = ( 7 − 1 ) 2 + ( 6 − 3 ) 2 + ( 9 − 5 ) 2 + ( 4 − 2 ) 2 = 8.06 D_1=\\sqrt(7-1)^2 + (6-3)^2 + (9-5)^2+ (4-2)^2=8.06 D1=(71)2+(63)2+(95)2+(42)2 =8.06
未知类别与class_2:
D 2 = ( 2 − 1 ) 2 + ( 4 − 3 ) 2 + ( 6 − 5 ) 2 + ( 4 − 2 ) 2 = 2.64 D_2=\\sqrt(2-1)^2 + (4-3)^2 + (6-5)^2+ (4-2)^2=2.64 D2=(21)2+(43)2+(65)2+(42)2 =2.64
那么就可以把未知类别x分类为class_2。

三、算法实现

3.1 使用自己的方法

import matplotlib.pyplot as plt
import numpy as np
from math import sqrt
from collections import Counter


def knn_classify(k, x_train_total, y_train_total, x_test):
    """
    This function is myself KNN

    Parameters
    ----------
    :param k: 选取与当前点距离最小的k个点
    :param x_train_total:已知数据特征值
    :param y_train_total:已知数据目标值
    :param x_test:未知数据特征值
    :return:未知数据目标
    """
    distances = [sqrt(np.sum((x_train - x_test)**2)) for x_train in X_train]     # 计算距离
    nearest = np.argsort(distances)                       # 返回从小到大最大值索引
    y_top = [y_train_total[i] for i in nearest[:k]]       # 取出距离最短对应的目标
    votes = Counter(y_top)                                # 对数组内的元素进行频数统计

    return votes.most_common(1)[0][0]                     # 取出出现次数最多的目标值


if __name__ == '__main__':
    # 1.构建数据
    raw_data_X = [[1.0, 1.0],
                  [1.0, 2.0],
                  [2.0, 1.0],
                  [3.0, 3.0],
                  [5.0, 4.0],
                  [6.0, 2.0],
                  [7.0, 4.0],
                  [8.0, 4.0]
                  ]
    raw_data_y = [1, 1, 1, 1, 2, 2, 2, 2]
    X_train = np.array(raw_data_X)
    y_train = np.array(raw_data_y)
    x_test = np.array([4, 3])
    # 2.计算欧式距离
    result = knn_classify(1, X_train, y_train, x_test)
    print(result)
    # 3.画图
    plt.scatter(X_train[y_train == 1, 0], X_train[y_train == 1, 1], marker='x', color='g')
    plt.scatter(X_train[y_train == 2, 0], X_train[y_train == 2, 1], marker='o', color='r')
    plt.scatter(x_test[0], x_test[1], marker=('x' if result == 1 else 'o'), color=('g' if result == 1 else'r'))
    plt.grid(True, linestyle="--", alpha=0.5)
    plt.axis([0, 9, 0, 5])
    plt.show()

3.2 使用sklearn

from sklearn.neighbors import KNeighborsClassifier
import numpy as np
import matplotlib.pyplot as plt


def main():
    # 1.构建数据
    raw_data_X = [[1.0, 1.0],
                  [1.0, 2.0],
                  [2.0, 1.0],
                  [3.0, 3.0],
                  [5.0, 4.0],
                  [6.0, 2.0],
                  [7.0, 4.0],
                  [8.0, 4.0]
                  ]
    raw_data_y = [1, 1, 1, 1, 2, 2, 2, 2]
    X_train = np.array(raw_data_X)
    y_train = np.array(raw_data_y)
    x_test = np.array([4, 3])

    # 2.构建Knn实例
    Knn_Classifier = KNeighborsClassifier(n_neighbors=1)
    # 3.拟合
    Knn_Classifier.fit(X_train, y_train)
    # 4.预测,传入
    predict = Knn_Classifier.predict(x_test.reshape(1, -1))
    print(predict[0])
    # 5.画图
    plt.scatter(X_train[y_train == 1, 0], X_train[y_train == 1, 1], marker='x', color='g')
    plt.scatter(X_train[y_train == 2, 0], X_train[y_train == 2, 1], marker='o', color='r')
    plt.scatter(x_test[0], x_test[1], marker=('x' if predict[0] == 1 else 'o'), color=('g' if predict[0] == 1 else'r'))
    plt.grid(True, linestyle="--", alpha=0.5)
    plt.axis([0, 9, 0, 5])
    plt.show()


if __name__ == '__main__':
    main()

四、结果

K=1时(注意(4,3)这个点):

K=3时(注意(4,3)这个点):

以上是关于01=K-近邻算法(附完整代码)的主要内容,如果未能解决你的问题,请参考以下文章

万字详解·附代码机器学习分类算法之K近邻(KNN)

机器学习K-近邻算法

《机器学习实战》-k近邻算法

实验二 K-近邻算法及应用

实验二 K-近邻算法及应用

实验二 K-近邻算法及应用