PCA与LDA区别与联系
2015-04-18 18:05
197 查看
这两种方法都是KL变换的一种形式吧,PCA主要是把高位数据投影到k个低维的正交坐标轴上,来实现尽量保留原始信息
LDA主要是类内与类外的散列程度,该方法投影后的坐标轴不一定正交(因为scatter矩阵不一定是对角的)
两种方法都会转化为求解矩阵特征值特征向量,而且是选择最大的K个特征值对应的特征向量
PCA选最大意味着在这K个轴中散列正度越大,LDA为什么选最大还有待考证
引用一张图:
![](http://images.cnitblog.com/blog2015/743682/201504/181759317926025.png)
图的左边是PCA,它所作的只是将整组数据整体映射到最方便表示这组数据的坐标轴上,映射时没有利用任何数据内部的分类信息。
因此,虽然做了PCA后,整组数据在表示上更加方便(降低了维数并将信息损失降到最低),但在分类上也许会变得更加困难。
图的右边是LDA,可以明显看出,在增加了分类信息之后,两组输入映射到了另外一个坐标轴上,有了这样一个映射,两组数据之间的就变得更易区分了(在低维上就可以区分,减少了很大的运算量)。
PCA 是无监督的, 它所作的只是将整组数据整体映射到最方便表示这组数据的坐标轴上,映射时没有 利用任何数据内部的分类信息。
线性代数真奇妙!!
LDA主要是类内与类外的散列程度,该方法投影后的坐标轴不一定正交(因为scatter矩阵不一定是对角的)
两种方法都会转化为求解矩阵特征值特征向量,而且是选择最大的K个特征值对应的特征向量
PCA选最大意味着在这K个轴中散列正度越大,LDA为什么选最大还有待考证
引用一张图:
![](http://images.cnitblog.com/blog2015/743682/201504/181759317926025.png)
图的左边是PCA,它所作的只是将整组数据整体映射到最方便表示这组数据的坐标轴上,映射时没有利用任何数据内部的分类信息。
因此,虽然做了PCA后,整组数据在表示上更加方便(降低了维数并将信息损失降到最低),但在分类上也许会变得更加困难。
图的右边是LDA,可以明显看出,在增加了分类信息之后,两组输入映射到了另外一个坐标轴上,有了这样一个映射,两组数据之间的就变得更易区分了(在低维上就可以区分,减少了很大的运算量)。
PCA 是无监督的, 它所作的只是将整组数据整体映射到最方便表示这组数据的坐标轴上,映射时没有 利用任何数据内部的分类信息。
线性代数真奇妙!!
相关文章推荐
- PCA与LDA的区别与联系
- 降维方法PCA与SVD的联系与区别
- PCA和SVD区别和联系
- PCA和LDA以及之间的区别
- pca 和lda区别
- PCA & LDA 区别
- LDA与PCA都是常用的降维方法,二者的区别
- feature extraction之 理解 LDA和PCA 的区别
- LDA(线性判别式分析)以及与PCA降维之间的区别
- princomp 与pca的区别与联系
- PCA(主成成分分析)和LDA(线性判别分析)详解-共性和区别
- PCA和SVD区别和联系
- LDA与PCA的一些区别总结
- 浅谈MVC、MVP、MVVM架构模式的区别和联系
- TCP,IP,HTTP,SOCKET简述区别和联系
- java类和对象的联系,区别
- px,rem,em的联系与区别
- CTFT DTFT DFT ZT 这些变换之间有什么联系和区别
- 视频码率,帧率和分辨率的联系与区别
- 计算机视觉,计算机图形学和数字图像处理,三者之间的联系和区别