您的位置:首页 > 其它

Machine Learning in Action 学习笔记-(2)kNN k近邻算法

2016-06-01 11:05 375 查看
kNN是最常见的聚类算法,通过比较待测被试特征与训练样本之间的欧式距离,选取k个最近的点,然后找出出现概率最高的label作为我们的预测结果。

其中k的值,随机选择训练样本的方案,训练样本数目的变化都将会影响到我们最终的聚类准确率。

这种基于实例的算法将会使我们无法知道平均实例样本,也将会影响到我们对于典型实例样本特征的理解。

最大的收获是学会了更多的Python命令(在numPy)下的

.argsort() 返回数组中从小到大排列的索引

reload() 重新载入module

line.strip() 去掉所有的回车字符

tile为numPy函数,可以将前面的数组以相同元素扩充成和后面数组相同的维度

dataset.min(0)返回dataset中第一小的值

dataset.max(0)返回dataset中第一大的值

strline.append(A)将A添加到strline的最后作为新元素加入

在面试题中,也会有比如伐木场地址选择等问题,这时候就需要立刻能想到,用kNN算法可能是很好的解决方案

如果想要方便调试程序,可以在spyder的File explorer中选择我们程序所在的文件夹(比如说kNN.py)所在的文件夹然后右击-open Ipython here,这样就可以在这个目录下建立一个Ipython进程了
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: