机器学习——支持向量机SVM之核函数
2017-10-20 14:25
393 查看
1、在现实任务中,原始样本空间也许不存在一个能正确划分两类样本的超平面,虽然“软间隔”概念的引入在一定程度上缓解了该问题,但是当样本分布的非线性程度很高的时候,“软间隔”也无法解决这一问题
2、对于这类问题,SVM的处理方法是选择一个核函数,其通过将数据映射到更高维的特征空间(非线性映射),使得样本在这个特征空间内线性可分,以解决原始空间中线性不可分的问题
3、建立非线性学习器模型:
a) 使用非线性映射将数据变换到新的特征空间中
b) 在这个特征空间中,数据线性可分,可用线性学习器进行学习分类
4、优化目标:
5、对偶问题:
6、对偶问题的解决涉及
的计算,这是样本
和
映射到特征空间之后的内积,而特征空间的维数通常很高,乃至无穷维,因此直接计算通常是困难的。
a) 引入核函数:
,将高维内积转化为在原始空间中通过核函数计算
b) 重写对偶问题:
7、求解后得
8、Mercer定理:令
为输入空间,
是定义在
上的对称函数,则是核函数当且仅当对于任意数据,“核矩阵”K总是半正定的
9、Mercer定理表明为了证明
是有效的核函数,那么我们不用去寻找
,而只需要在训练集上求出各个
,然后判断矩阵K是否是半正定(使用左上角主子式大于等于零等方法)即可。
10、在不知道特征映射的形式时,我们并不知道什么样的核函数是合适的,而核函数也仅隐式地定义了这个特征空间,于是“核函数选择”称为支持向量机最大的变数
a) 线性核:
b) 多项式核:
c) 高斯核:
d) 拉普拉斯核:
e) sigmoid核:
11、核函数还可通过函数组合获得
a) 线性组合:
b) 直积:
c)
2、对于这类问题,SVM的处理方法是选择一个核函数,其通过将数据映射到更高维的特征空间(非线性映射),使得样本在这个特征空间内线性可分,以解决原始空间中线性不可分的问题
3、建立非线性学习器模型:
a) 使用非线性映射将数据变换到新的特征空间中
b) 在这个特征空间中,数据线性可分,可用线性学习器进行学习分类
4、优化目标:
5、对偶问题:
6、对偶问题的解决涉及
的计算,这是样本
和
映射到特征空间之后的内积,而特征空间的维数通常很高,乃至无穷维,因此直接计算通常是困难的。
a) 引入核函数:
,将高维内积转化为在原始空间中通过核函数计算
b) 重写对偶问题:
7、求解后得
8、Mercer定理:令
为输入空间,
是定义在
上的对称函数,则是核函数当且仅当对于任意数据,“核矩阵”K总是半正定的
9、Mercer定理表明为了证明
是有效的核函数,那么我们不用去寻找
,而只需要在训练集上求出各个
,然后判断矩阵K是否是半正定(使用左上角主子式大于等于零等方法)即可。
10、在不知道特征映射的形式时,我们并不知道什么样的核函数是合适的,而核函数也仅隐式地定义了这个特征空间,于是“核函数选择”称为支持向量机最大的变数
a) 线性核:
b) 多项式核:
c) 高斯核:
d) 拉普拉斯核:
e) sigmoid核:
11、核函数还可通过函数组合获得
a) 线性组合:
b) 直积:
c)
相关文章推荐
- 机器学习——支持向量机(SVM)之核函数(kernel)
- 机器学习--SVM(支持向量机)核函数原理以及高斯核函数
- 机器学习中的算法(2)-支持向量机(SVM)基础
- 机器学习之svm(3)回归模型与神秘的核函数之间有什么联系吗?
- 机器学习——支持向量机SVM之软间隔与正则化
- Stanford机器学习---第八讲. 支持向量机SVM
- 【机器学习】支持向量机SVM总结
- 机器学习笔记八 - SVM(Support Vector Machine,支持向量机)的剩余部分。即核技法、软间隔分类器、对SVM求解的序列最小化算法以及SVM的一些应用
- 从软件工程的角度写机器学习5——SVM(支持向量机)实现
- 机器学习之支持向量机(SVM)
- 机器学习--svm不同核函数介绍及选择
- 机器学习中的算法(2)-支持向量机(SVM)基础
- 机器学习 - 支持向量机(SVM)
- 机器学习-python通过序列最小优化算法(SMO)方法编写支持向量机(SVM)
- 机器学习十八:支持向量机(LinearSVM)
- 机器学习总结(三):SVM支持向量机(面试必考)
- 机器学习:Python中如何使用支持向量机(SVM)算法
- 机器学习中的算法(2)-支持向量机(SVM)基础
- Stanford机器学习---第八讲. 支持向量机SVM
- 【机器学习】支持向量机SVM - 对SVM与核函数的理解及sklearn参数详解