机器学习实战学习笔记(一):K-近邻算法
2017-03-20 21:40
330 查看
K-近邻算法优缺点
K-近邻算法采用测量不同特征值之间的距离方法进行分类。优点:精度高、对异常值不敏感、无数据输入假定。
缺点:计算复杂度高、空间复杂度高。
适用数据范围:数值型和标称型。
原理
存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征和样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前K个最相似的数据,这就是K-近邻算法中K的出处,通常K是不大于20的整数。最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。例子
电影名称 | 打斗镜头 | 接吻镜头 | 电影类型(Tag) |
---|---|---|---|
California Man | 3 | 104 | 爱情片 |
He is Not Really into Dudes | 2 | 100 | 爱情片 |
Kevin Longblade | 101 | 10 | 动作片 |
输入一部电影A的信息,我们不知道这部电影是爱情片还是动作片,那么我们可以通过打斗镜头和接吻镜头两个特征,算出电影A与已知电影类型信息(样本集)的距离,取出前K(不大于20)个距离最近的电影样本,看看K个样本中类型最多的,即是电影A的类型。
距离的算法可以根据权重等,将特征标注在坐标中,比如打斗镜头是Y坐标,接吻镜头是X坐标,即可算出距离。
实际中的应用——手写识别系统(识别0 ~ 9)
将手写数据转换成32*32像素图片。0~9每个数有200个带标签的样本,通过将手写数的32*32像素与2000个样本比较,得出向量距离,取前K个,可以得出手写数字的值。源码Python
略相关文章推荐
- 手写识别系统(k-近邻算法)
- 机器学习笔记(一):K-近邻算法
- <Python><有监督>kNN--近邻分类算法
- KNN近邻算法
- 【机器学习】k-近邻算法笔记
- 【ML学习笔记】12:k-近邻算法的demo
- 机器学习实战笔记之k-近邻算法
- 【JAVA实现】K-近邻(KNN)分类算法
- [机器学习实战] k-近邻算法代码解析
- Python语言实现机器学习的K-近邻算法
- kNN k-近邻算法
- 一、K -近邻算法(KNN:k-Nearest Neighbors)
- k-近邻算法(kNN)
- [机器学习系列] k-近邻算法(K–nearest neighbors)
- 机器学习:K-近邻算法原理与Python代码实现
- 写程序学ML:K近邻(KNN)算法原理及实现(二)
- 《机器学习实战》——k-近邻算法Python实现问题记录
- K-近邻算法
- Kmeans(K均值)与Kmeans++和KNN(K近邻)算法比较
- 用scikit-learn估计值分类——近邻算法(KNN)