MDS数据降维用于监督学习
2016-06-01 13:16
363 查看
转载:http://blog.csdn.net/songrotek/article/details/42235097
来自于:http://sanwen8.cn/p/164Q2dR.html
个人感觉上面两个博客讲的还比较清楚,同时又MATLAB的样例,比较适合学习。
手动标定样本间距离,根据MDS计算出适合的X1--Xn的合适向量,你会发现这些向量之间差异化很大。
将得到的X向量用于监督学习的输出信号,进行拟合学习。
可用于判断物体相似性程度。
来自于:http://sanwen8.cn/p/164Q2dR.html
个人感觉上面两个博客讲的还比较清楚,同时又MATLAB的样例,比较适合学习。
手动标定样本间距离,根据MDS计算出适合的X1--Xn的合适向量,你会发现这些向量之间差异化很大。
将得到的X向量用于监督学习的输出信号,进行拟合学习。
可用于判断物体相似性程度。
相关文章推荐
- 什么是对象存储?OSD架构及原理
- Cisco MDS
- PCA的数学原理
- 【Jason's_ACM_解题报告】Garbage Heap
- 数据分析的其中降维方法
- 【转】PCA和白化练习之处理二维数据
- 本人对Material Requirements Planning模块的一些了解
- Kernel PCA 原理和演示
- 最近邻方法和向量模型——第一部分
- PCA方法的应用场景
- R中进行PCA主成分分析
- 特征选择(一)-维数问题与类内距离
- LDA-线性判别分析(一)预备知识
- LDA-线性判别分析(二)Two-classes 情形的数学推导
- LDA-线性判别分析(三)推广到 Multi-classes 情形
- LDA-线性判别分析(四)其他几个相关问题
- 《机器学习实战》笔记之十三——利用PCA来简化数据
- poj 1050 To the Max (从O(N^6)到O(N^3))
- 降维(二)----Laplacian Eigenmaps
- PCA-特征提取