您的位置:首页 > 其它

机器学习实战学习笔记(一):K-近邻算法

2017-03-20 21:40 330 查看

K-近邻算法优缺点

K-近邻算法采用测量不同特征值之间的距离方法进行分类。

优点:精度高、对异常值不敏感、无数据输入假定。

缺点:计算复杂度高、空间复杂度高。

适用数据范围:数值型和标称型。

原理

存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征和样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前K个最相似的数据,这就是K-近邻算法中K的出处,通常K是不大于20的整数。最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。

例子

电影名称打斗镜头接吻镜头电影类型(Tag)
California Man3104爱情片
He is Not Really into Dudes2100爱情片
Kevin Longblade10110动作片


输入一部电影A的信息,我们不知道这部电影是爱情片还是动作片,那么我们可以通过打斗镜头和接吻镜头两个特征,算出电影A与已知电影类型信息(样本集)的距离,取出前K(不大于20)个距离最近的电影样本,看看K个样本中类型最多的,即是电影A的类型。

距离的算法可以根据权重等,将特征标注在坐标中,比如打斗镜头是Y坐标,接吻镜头是X坐标,即可算出距离。

实际中的应用——手写识别系统(识别0 ~ 9)

将手写数据转换成32*32像素图片。0~9每个数有200个带标签的样本,通过将手写数的32*32像素与2000个样本比较,得出向量距离,取前K个,可以得出手写数字的值。

源码Python

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  机器学习