《机器学习》--周志华 (第六章学习笔记)
2017-07-30 08:31
417 查看
支持向量机
间隔与支持向量
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/42eb3ef638c8b1c545bf50b7a370b838.jpg)
在样本空间中寻找一个超平面,将不同类别的样本分开
“正中间”的:鲁棒性最好,泛化能力最强
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/7597e6ead639ee3002a96e7b0dfe41b0.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/ab56078f840cba030c89de329e64f755.jpg)
对偶问题
拉格朗日乘子法第一步:引入拉格朗日乘子ai>=0 得到拉格朗日函数
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/1a249b98224f635cefc78f1a6cc82efc.jpg)
第二步:令L(w,b,a)对w和b的偏导为零可得
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/cda1793c5f8d3824a6e2778c5fe6e935.jpg)
第三步:回代可得
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/40b6e80f888a38d535c59978669ec672.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/a1d2bccd0d5d7b2db339d735a6c49f7c.jpg)
最终模型
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/5cce190e9c7916d5d59ebbf5ab3217b2.jpg)
KKT条件
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/7b231a714a9d77facf117ded37067960.jpg)
必有ai=0或yif(xi)=1
解的稀疏性:
训练完成后,最终模型仅与支持向量有关
核函数
特征空间映射如果不存在一个能正确划分两类样本的超平面,将样本从原始空间映射到一个更高维的特征空间,是样本在这个特征空间内线性可分
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/d5ab8d84d68ab11b83643e5653cba31b.jpg)
如果原始空间是有限维(属性数有限),那么一定存在一个高维特征空间使样本可分
在特征空间中
设样本x 映射后的向量为ϕ(x),划分超平面为f(x)=wTϕ(x)+b
原始问题
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/f3915d7e19a707b661c0b60a9fb81385.jpg)
对偶问题
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/5e392131bbddeabc219fa3d272907d34.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/0185856ff6bcd4ac42e91b77ed295f2e.jpg)
预测
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/741e0f223a5ef53e16fc1b5d678bd1b9.jpg)
核函数
基本思路: 设计核函数
k(xi,xj)=ϕ(xi)Tϕ(xj)
绕过显式考虑特征映射、以及计算高维内积的困难
Mercer定理
若一个对称函数所对应的核矩阵半正定,则它就能作为核函数来使用
任意一个核函数,都隐式地定义了一个RKHS(Reproducing Kernel Hilbert Space,再生核希尔伯特空间)
“核函数选择” 成为决定支持向量机性能的关键
常用核函数
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/c4a645e897eaa458c40c508f06884f18.jpg)
基本经验:文本数据常用线性核,情况不明时可先尝试高斯核
可通过函数组合得到
若k1 和k2 是核函数,则对任意正数γ1、γ2和任意函数g(x)
均为核函数
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/8ff1f8817c99671a847456138efeace3.jpg)
软间隔与正规化
软间隔![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/6a0467233d277385d273c53e4d3b030a.jpg)
现实中很难确定合适的核函数,使训练样本在特征空间中线性可分,即便貌似线性可分,也很难判定是否是因过拟合造成的
引入软间隔,允许在一些样本上不满足约束
优化目标
基本思路:
最大化间隔的同时,让不满足约束 yi(wTxi)+b≥1 的样本尽可能少
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/06473ec99f25c32598bc78e42c6b672f.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/d98782ea76e14e280bb90e6b00b4cc5b.jpg)
替代损失
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/a87b28e643a9d310d49c1f52910b7672.jpg)
替代损失函数性质较好,一般是0/1损失函数的上界
采用替代损失函数,是在解决困难问题时的常见技巧
求解替代函数得到的解是否仍是原问题的解?理论上称为替代损失的“一致性”问题
软间隔支持向量机
原始问题
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/e0318b5fa8c0ea7fbf37f02e418ff384.jpg)
引入“松弛变量”
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/ecb53f68caf3e61e7167846cdfccdaa9.jpg)
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/a6eeeb3fe5f75a78493aee364c3e5915.jpg)
对偶问题
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/7a8539162e33951b0ad36c249ec7744f.jpg)
根据KKT条件可知,最终模型仅与支持向量有关,也即采用hinge损失函数后仍保持了SVM解的稀疏性
正规化
正规化可理解为“罚函数法”
通过对不希望的结果施以惩罚,使得优化过程趋向于希望目标
从贝叶斯估计的角度,则可认为是提供了模型的先验概率
支持向量回归
示意图
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/2063c42f85c217913b547be06ff80631.jpg)
基本思路: 允许模型输出与实际输出间存在2ε 的差别
ε-不敏感损失函数
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/cf72426456c533aab952da91b8620708.jpg)
支持向量回归
原始问题
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/a80ed2fa3d18037c5880343953c1169d.jpg)
对偶问题
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/3a6e4533f5731f272bbf37e7bb8b0dde.jpg)
预测
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/2bccbd20482517015c74794fb3ebf085.jpg)
核方法
表示定理![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/3fde7994d16d2acc6e87d4fc91f074ee.jpg)
基于表示定理能得到很多线性模型的“核化”版本
核线性判别分析
学习目标
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/92df73a4215e05fc475c571ecac2adf7.jpg)
分析后
![](https://oscdn.geek-share.com/Uploads/Images/Content/201707/30/abf95fd95ff686f50617d78d118f1cf7.jpg)
相关文章推荐
- 《机器学习》-- 周志华 (第一章学习笔记)
- 『机器学习——周志华』学习笔记——第二章:模型评估与选择
- 《机器学习》(周志华)学习笔记(一)
- 绪论(3)--周志华机器学习学习笔记与课后习题
- 《机器学习》 -- 周志华 (第二章学习笔记)
- 绪论(1)--周志华机器学习学习笔记与课后习题
- 《机器学习》周志华学习笔记——第一章 绪论
- 周志华《机器学习》 学习笔记(三) 经验误差、过拟合与评估方法
- 『机器学习——周志华』学习笔记——第一章
- 《机器学习》周志华(西瓜书)学习笔记
- 周志华 机器学习 学习笔记 (1)
- 绪论(2)--周志华机器学习学习笔记与课后习题
- 周志华《机器学习》 学习笔记(一) 引言与基本术语
- 周志华《机器学习》 学习笔记(四) 性能度量
- 《机器学习》--周志华 (第三章学习笔记)
- 周志华《机器学习》——学习笔记
- 《机器学习》--周志华 (第五章学习笔记)
- 《机器学习》--周志华 (第九章学习笔记)
- 《机器学习》(周志华)学习笔记(二)模型评估与选择
- 吴恩达斯坦福大学机器学习 CS229 课程学习笔记(一)