K近邻算法-KNN
Posted jason来自星星
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了K近邻算法-KNN相关的知识,希望对你有一定的参考价值。
何谓K*邻算法,即K-Nearest Neighbor algorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最*的邻居,当K=1时,算法便成了最*邻算法,即寻找最*的那个邻居。为何要找邻居?打个比方来说,假设你来到一个陌生的村庄,现在你要找到与你有着相似特征的人群融入他们,所谓入伙。
用官方的话来说,所谓K*邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻*的K个实例(也就是上面所说的K个邻居),这K个实例的多数属于某个类,就把该输入实例分类到这个类中。根据这个说法,咱们来看下引自维基百科上的一幅图:
如上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。也就是说,现在,我们不知道中间那个绿色的数据是从属于哪一类(蓝色小正方形or红色小三角形),下面,我们就要解决这个问题:给这个绿色的圆分类。
• 如果K=3,绿色圆点的最*的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。
• 如果K=5,绿色圆点的最*的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。
于此我们看到,当无法判定当前待分类点是从属于已知分类中的哪一类时,我们可以依据统计学的理论看它所处的位置特征,衡量它周围邻居的权重,而把它归为(或分配)到权重更大的那一类。这就是K*邻算法的核心思想。
K值的选择
1. 如果选择较小的K值,就相当于用较小的领域中的训练实例进行预测,“学*”*似误差会减小,只有与输入实例较*或相似的训练实例才会对预测结果起作用,与此同时带来的问题是“学*”的估计误差会增大,换句话说,K值的减小就意味着整体模型变得复杂,容易发生过拟合;
2. 如果选择较大的K值,就相当于用较大领域中的训练实例进行预测,其优点是可以减少学*的估计误差,但缺点是学*的*似误差会增大。这时候,与输入实例较远(不相似的)训练实例也会对预测器作用,使预测发生错误,且K值的增大就意味着整体的模型变得简单。
3. K=N,则完全不足取,因为此时无论输入实例是什么,都只是简单的预测它属于在训练实例中最多的累,模型过于简单,忽略了训练实例中大量有用信息。
在实际应用中,K值一般取一个比较小的数值,例如采用交叉验证法(简单来说,就是一部分样本做训练集,一部分做测试集)来选择最优的K值。
以上是关于K近邻算法-KNN的主要内容,如果未能解决你的问题,请参考以下文章