您的位置:首页 > 其它

2-1 最近邻规则分类(K-Nearest Neighbor)KNN算法

2016-12-03 21:05 288 查看

最近邻规则分类(K-Nearest Neighbor)KNN算法

综述

Cover和Hart在1968年提出了最初的邻近算法

分类(classification)算法

输入基于实例的学习(instance-based learning), 懒惰学习(lazy learning)

示例



未知电影属于什么类型?



假如有三种豆子,我们如何给三个未知豆子分类呢.可以根据离未知豆子比较近的豆子分类



算法描述

步骤

为了判断未知实例的类别,以所有已知类别的实例作为参照

选择参数K

计算未知实例与所有已知实例的距离

选择最近K个已知实例

根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别

细节

关于K

关于距离的衡量方法:

Euclidean Distance 定义





其他距离衡量:余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance)

举例

如图所示K不同时问号可以分别属于绿色蓝色红等类别.



算法优缺点

法优点

简单

易于理解

容易实现

通过对K的选择可具备丢噪音数据的健壮性

算法缺点

需要大量空间储存所有已知实例

算法复杂度高(需要比较所有已知实例与要分类的实例)

当其样本分布不平衡时,比如其中一类样本过大(实例数量过多)占主导的时候,新的未知实例容易被归类为这个主导样本,因为这类样本实例的数量过大,但这个新的未知实例实际并木接近目标样本,如Y点

注意Y点的



改进版本

考虑距离,根据距离加上权重

比如: 1/d (d: 距离)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  算法 KNN 机器学习