无监督学习简介
2017-11-28 21:23
295 查看
【无监督学习的目标】
利用无标签的数据学习数据的分布或数据与数据之间的关系被称作无监督学习。
有监督学习和无监督学习的最大区别在于数据是否有标签
无监督学习最常应用的场景是聚类(clustering)和降维(Dimension Reduction)
【聚类(clustering)】
聚类(clustering),就是根据数据的“相似性”将数据分为多类的过程。评估两个不同样本之间的“相似性” ,通常使用的方法就是计算两个样本之间的“距离”。使用不同的方法计算样本间的距离会关系到聚类结果的好坏。
欧氏距离
欧氏距离是最常用的一种距离度量方法,源于欧式空间中两点的距离。其计算方法如下:
曼哈顿距离
曼哈顿距离也称作“城市街区距离”,类似于在城市之中驾车行驶,从一个十字路口到另外一个十字楼口的距离。其计算方法如下:
马氏距离
马氏距离表示数据的协方差距离,是一种尺度无关的度量方式。也就是说马氏距离会先将样本点的各个属性标准化,再计算样本间的距离。其计算方式如下:(s是协方差矩阵,如图)
夹角余弦
余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个样本差异的大小。余弦值越接近1,说明两个向量夹角越接近0度,表明两个向量越相似。其计算方法如下:
Sklearn vs. 聚类
scikit-learn库(以后简称sklearn库)提供的常用聚类算法函数包含在sklearn.cluster这个模块中,如:K-Means,近邻传播算法,DBSCAN等。
以同样的数据集应用于不同的算法,可能会得到不同的结果,算法所耗费的时间也不尽相同,这是由算法的特性决定的。
右图是我们调用sklearn库的标准函数对不同数据集执行的聚类结果。
sklearn.cluster
sklearn.cluster模块提供的各聚类算法函数可以使用不同的数据形式作为输入:
标准数据输入格式:[样本个数,特征个数]定义的矩阵形式。
相似性矩阵输入格式:即由[样本数目,样本数目]定义的矩阵形式,矩阵中的每一个元素为两个样本的相似度,如DBSCAN, AffinityPropagation(近邻传播算法)接受这种输入。如果以余弦相似度为例,则对角线元素全为1. 矩阵中每个元素的取值范围为[0,1]。
【降维】
降维,就是在保证数据所具有的代表性特性或者分布的情况下,将高维数据转化为低维数据的过程:
数据的可视化
精简数据
聚类 vs.降维
聚类和降维都是无监督学习的典型任务,任务之间存在关联,比如某些高维数据的聚类可以通过降维处理更好的获得,另外学界研究也表明代表性的聚类算法如k-means与降维算法如NMF之间存在等价性,在此我们就不展开讨论了,有兴趣的同学可以参考我们推荐的阅读内容。
sklearn vs.降维
降维是机器学习领域的一个重要研究内容,有很多被工业界和学术界接受的典型算法,截止到目前sklearn库提供7种降维算法。
降维过程也可以被理解为对数据集的组成成份进行分解(decomposition)的过程,因此sklearn为降维模块命名为decomposition, 在对降维算法调用需要使用sklearn.decomposition模块
声明:本博客的内容来自于MOOC的《Python机器学习应用》课程,如有需要请登录MOOC,输入北京理工大学或者Python机器学习应用来查找。我的天,路转粉,开始打广告了,哈哈。
利用无标签的数据学习数据的分布或数据与数据之间的关系被称作无监督学习。
有监督学习和无监督学习的最大区别在于数据是否有标签
无监督学习最常应用的场景是聚类(clustering)和降维(Dimension Reduction)
【聚类(clustering)】
聚类(clustering),就是根据数据的“相似性”将数据分为多类的过程。评估两个不同样本之间的“相似性” ,通常使用的方法就是计算两个样本之间的“距离”。使用不同的方法计算样本间的距离会关系到聚类结果的好坏。
欧氏距离
欧氏距离是最常用的一种距离度量方法,源于欧式空间中两点的距离。其计算方法如下:
曼哈顿距离
曼哈顿距离也称作“城市街区距离”,类似于在城市之中驾车行驶,从一个十字路口到另外一个十字楼口的距离。其计算方法如下:
马氏距离
马氏距离表示数据的协方差距离,是一种尺度无关的度量方式。也就是说马氏距离会先将样本点的各个属性标准化,再计算样本间的距离。其计算方式如下:(s是协方差矩阵,如图)
夹角余弦
余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个样本差异的大小。余弦值越接近1,说明两个向量夹角越接近0度,表明两个向量越相似。其计算方法如下:
Sklearn vs. 聚类
scikit-learn库(以后简称sklearn库)提供的常用聚类算法函数包含在sklearn.cluster这个模块中,如:K-Means,近邻传播算法,DBSCAN等。
以同样的数据集应用于不同的算法,可能会得到不同的结果,算法所耗费的时间也不尽相同,这是由算法的特性决定的。
右图是我们调用sklearn库的标准函数对不同数据集执行的聚类结果。
sklearn.cluster
sklearn.cluster模块提供的各聚类算法函数可以使用不同的数据形式作为输入:
标准数据输入格式:[样本个数,特征个数]定义的矩阵形式。
相似性矩阵输入格式:即由[样本数目,样本数目]定义的矩阵形式,矩阵中的每一个元素为两个样本的相似度,如DBSCAN, AffinityPropagation(近邻传播算法)接受这种输入。如果以余弦相似度为例,则对角线元素全为1. 矩阵中每个元素的取值范围为[0,1]。
【降维】
降维,就是在保证数据所具有的代表性特性或者分布的情况下,将高维数据转化为低维数据的过程:
数据的可视化
精简数据
聚类 vs.降维
聚类和降维都是无监督学习的典型任务,任务之间存在关联,比如某些高维数据的聚类可以通过降维处理更好的获得,另外学界研究也表明代表性的聚类算法如k-means与降维算法如NMF之间存在等价性,在此我们就不展开讨论了,有兴趣的同学可以参考我们推荐的阅读内容。
sklearn vs.降维
降维是机器学习领域的一个重要研究内容,有很多被工业界和学术界接受的典型算法,截止到目前sklearn库提供7种降维算法。
降维过程也可以被理解为对数据集的组成成份进行分解(decomposition)的过程,因此sklearn为降维模块命名为decomposition, 在对降维算法调用需要使用sklearn.decomposition模块
声明:本博客的内容来自于MOOC的《Python机器学习应用》课程,如有需要请登录MOOC,输入北京理工大学或者Python机器学习应用来查找。我的天,路转粉,开始打广告了,哈哈。
相关文章推荐
- 第一章 统计学习方法概论 —— 第1~3节 统计学习及监督学习的简介、损失函数及风险函数的公式化表达
- 监督学习简介
- 2. 无监督学习简介
- 机器学习笔记(1)-简介监督学习与无监督学习
- 半监督学习【领域简介】
- boost学习之简介
- LFS-Linux From Scratch学习笔记——简介与准备工作
- 推荐JQuery学习简介
- Linux学习笔记--1.简介
- 【Scikit-Learn 中文文档】密度估计 - 无监督学习 - 用户指南 | ApacheCN
- 小蚂蚁学习数据结构(30)——图的其他知识点简介
- mongodb简介、安装、启停(转并学习)
- Swift学习笔记一:简介和数据类型
- 【Scikit-Learn 中文文档】支持向量机 - 监督学习 - 用户指南 | ApacheCN
- Java菜鸟学习笔记--数组篇(一):数组简介&foreach循环
- Android Binder 机制初步学习 笔记(三)—— Binder 进程通讯库简介
- 监督学习-k近邻算法模板
- Rootkit的学习与研究--简介和学习电子书籍
- 微软企业库4.1学习笔记(三十一)数据访问模块 简介
- 【机器学习】监督学习:分类和回归