降维分析之PCA分析及实现
2017-11-09 10:17
316 查看
引言
不知道大家还记不记得前面我们分享 支持向量机(SVM)的分析及python实现时说过,当数据遇到线性不可分时,我们可以利用kernel技巧将低维数据映射到高维数据上,从而使得数据线性可分,这是个“升维”操作。那么本章我们就来分享个“降维”操作。为什么要降维
众所周知,降维的目标就是对输入的数据进行削减,由此剔除数据中的噪声并提高机器学习方法的性能。那么为什么会有降维的操作呢?那是因为高维空间会出现样本稀疏、距离计算困难等问题,这些被我们称作“维数灾难”。缓解维数灾难的一个重要途径就是降维了。首先我们来分享第一个降维算法PCA。PCA简单数学原理
主成分分析(Principal Component Analysis,简称PCA)是最常用的一种降维方法。我们有一个假设,即样本点处于一个正交属性空间。存在一个超平面能够将这些样本恰当的表达,同时该超平面还满足如下性质:最近重构型:样本点到这个超平面的距离都足够近
最大可分性:样本点在超平面的投影能尽可能分开
基于这两个性质我们就能得到两种等价推导。这里我们不做推导的详细说明(详细过程,请戳:wiki),直接给条件,写出最后的结论。
假定数据样本进行了中心化,即∑ixi=0;再假定投影变换后得到的新坐标系为{w1,w2,...,wd},其中wi是标准正交基向量,即||wi||2=1,wTiwj=0,i≠j;最终通过一系列推导会得到:
XXTW=λW
于是我们只需对协方差矩阵XXT进行特征值分解,将求得的特征值排序:λ1⩾λ2⩾...⩾λd,再取前d′个特征值对应的特征向量构成W=(w1,w2,...,wd′)。这就是主成分分析的解。
PCA代码实现
那么PCA的伪代码如下:去除平均值(中心化)
计算协方差矩阵
计算协方差矩阵的特征值和特征向量
将特征值从大到小排序
保留最上面的N个特征向量
将数据转化到上述N个特征向量构建的新空间中
具体代码如下:
def pca(dataMat, topNfeat=9999999): meanVals = mean(dataMat, axis=0) meanRemoved = dataMat - meanVals #remove mean covMat = cov(meanRemoved, rowvar=0) eigVals,eigVects = linalg.eig(mat(covMat)) eigValInd = argsort(eigVals) #sort, sort goes smallest to largest eigValInd = eigValInd[:-(topNfeat+1):-1] #cut off unwanted dimensions redEigVects = eigVects[:,eigValInd] #reorganize eig vects largest to smallest lowDDataMat = meanRemoved * redEigVects#transform data into new dimensions reconMat = (lowDDataMat * redEigVects.T) + meanVals return lowDDataMat, reconMat
我们采用一个有1000个数据点组成的数据集对其进行PCA降维,运行效果:
import importlib import pca
importlib.reload(pca) dataMat = pca.loadDataSet('testSet.txt') lowDMat,reconMat = pca.pca(dataMat,1)
import numpy as np np.shape(lowDMat)
(1000, 1)
import matplotlib import matplotlib.pyplot as plt fig = plt.figure() ax = fig.add_subplot(111) ax.scatter(dataMat[:,0].flatten().A[0],dataMat[:,1].flatten().A[0],marker='^',s=90)
<matplotlib.collections.PathCollection at 0x1d8b72b6ac8>
ax.scatter(reconMat[:,0].flatten().A[0],reconMat[:,1].flatten().A[0],marker='o',s=50,c='red')
<matplotlib.collections.PathCollection at 0x1d8b6edb438>
plt.show()
总结
降维技术使得数据变得更易使用,并且它们往往能去除数据中的噪声,使得其他机器学习任务更加精确。相关文章推荐
- 【机器学习算法-python实现】PCA 主成分分析、降维
- python实现PCA(主成分分析)降维
- 【机器学习算法-python实现】PCA 主成分分析、降维
- 主成分分析(pca)算法的实现步骤及代码
- PCA(主成分分析)、主份重构、特征降维
- [机器学习笔记]主成分分析PCA简介及其python实现
- 基于GDAL实现的PCA变换(主成分分析)
- MATLAB自带工具箱实现PCA降维代码,着重介绍实现方法
- [置顶] PCA降维及其实现
- 主成分分析(PCA)原理与故障诊断(SPE、T^2以及结合二者的综合指标)-MATLAB实现
- (Python实现)数据PCA降维白化和L2归一化-深度学习实践常用数据预处理
- 机器学习算法笔记系列之深入理解主成分分析PCA-Python实现篇
- PCA降维 C++实现
- PCA降维算法总结以及matlab实现PCA(个人的一点理解)
- 基于GDAL实现的PCA变换(主成分分析)
- PCA降维算法总结以及matlab实现PCA(个人的一点理解)
- Day Two——填充缺失值、归一化数据、PCA降维分析
- 数据挖掘学习------------------1-数据准备-4-主成分分析(PCA)降维和相关系数降维
- 利用 主成分分析(PCA) 降维 个人理解
- deep learning PCA(主成分分析)、主份重构、特征降维