机器学习——特征工程之核化线性降维KPCA
2017-10-12 19:03
274 查看
一、前言
1、 线性降维的假设:从高维空间到低维空间的函数映射是线性的2、 然而,现实任务中大多数可能需要非线性映射才能找到恰当的低维嵌入
3、 低维嵌入:低维(“本真”)空间样本点采样后以某种分布嵌入(映射)到高维空间中
二、KPCA原理
1、 非线性降维常用方法之一:基于核技巧对线性降维方法进行“核化”2、 PCA求解目标:
a)
是样本点
在高维特征空间中的像
b) 简化得
3、 假定
是由原始属性空间中的样本点
通过映射
产生
a)
b)
c) 引入核函数
d) 化简后得
,其中K为
对应的核矩阵,
,
4、 新样本
,其投影后的第j维坐标为
(计算开销较大)
相关文章推荐
- 机器学习-特征选择(降维) 线性判别式分析(LDA)
- 机器学习——特征工程之线性判别分析LDA
- 【特征工程】2 机器学习中的数据清洗与特征处理综述
- 机器学习实践之特征工程
- [置顶] 机器学习中的特征工程
- 机器学习案例 特征组合——高帅富 冷启动——从微博等其他渠道搜集数据进行机器学习 用户年龄——线性分段处理
- 机器学习之特征工程
- 关于机器学习中特征工程的一些实战经验与可直接利用代码的分享
- 机器学习 数据特征分析 特征工程
- 机器学习——特征工程之数据预处理
- 机器学习的特征工程
- 机器学习中特征降维和特征选择的区别
- 机器学习之特征工程(二)
- 数据降维和特征工程方法综述
- 机器学习之特征工程
- 机器学习之特征工程
- 【Stanford|斯坦福-机器学习:线性回归-单特征梯度下降+动态图】python3实现
- 《Python机器学习及实践》----无监督学习之特征降维
- 机器学习(一)特征工程基本流程
- 机器学习之(四)特征工程以及特征选择的工程方法