您的位置:首页 > 其它

数值分析相关

2014-06-08 19:09 204 查看
人脸识别上的协方差矩阵表示的意义就是不同纬度之间的联系,及相关度(像素之间的相关度)。

进而对其进行奇异值分解,找到了其特征矩阵(特征脸),然后对差值脸进行了映射,其作用有去掉了不同纬度之间的相关性! 进而将不同不同人的差值脸映射到这个特征脸的空间中,当新进来的人脸求其差值脸后映射之后和每一个样本的映射进行差值比较,当小于某个阈值时,我们就认为是同一张脸!

其间的奇异值分解的作用:对数据进行了主成分提取,达到了降维的作用。

奇异值分解:不同于特征值分解,能够对任何的矩阵进行分解,可以利用M=USV‘,进行对矩阵M的行的数据压缩和列的数据压缩,但是其压缩之后的数值空间不同与原样本的数值空间!

相关性分析:

CCA典型相关分析 :(canonical correlation analysis)利用综合变量对之间的相关关系来反映两组指标之间的整体相关性的多元统计分析方法。它的基本原理是:为了从总体上把握两组指标之间的相关关系,分别在两组变量中提取有代表性的两个综合变量U1和V1(分别为两个变量组中各变量的线性组合),利用这两个综合变量之间的相关关系来反映两组指标之间的整体相关性

* 此处的相关性分析只是对数据的相关性最大化进行了拟合! 注意区别后面的拟合数据的方差的最大!

相关性分析的标准:Mahout之(三)相似性度量

最小二乘法: 和fisher线性分类器有相似。

最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。
利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。
最小二乘法还可用于曲线拟合
回归分析: 回归分析(英语:Regression Analysis)是一种统计学上分析数据的方法,目的在于了解两个或多个变量间是否相关、相关方向与强度,并建立数学模型以便观察特定变量来预测研究者感兴趣的变量。
回归分析是建立因变量

(或称依变量,反应变量)与自变量

(或称独变量,解释变量)之间关系的模型。简单线性回归使用一个自变量

,复回归使用超过一个自变量(

)。
偏最小二乘法回归: 主要的优势直接建立了两组变量直接的映射关系(这是线性回归的功劳),权衡了映射的U,V 的数据的方差最大和相关性最大(这是最小二乘法的功劳)! 可根据主成分分析来停止对线性回归中残差矩阵的映射避免较多的映射(知识PCA的功劳)!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: