吴恩达机器学习之顺序最小化优化算法
2017-12-19 15:36
423 查看
核函数的定义
定义映射x→ϕ(x),其中x∈R,ϕ(x)是一个向量核函数定义①:
k(x,z)=(xTz)2=(∑ix
4000
izi)(∑jxjzj)
=∑i∑j(xixj)(zizj)=(ϕ(x)Tϕ(z))
其中x,z∈Rn,,ϕ(x)=⎧⎩⎨⎪⎪⎪⎪⎪⎪x1x1x1x2⋮xnxn,是一个nxn维向量
核函数定义②:
k(x,z)=(xTz+c)2
核函数定义②:
k(x,z)=(xTz+c)d
x→ϕ(x),z→ϕ(z),k(x,z)={largesmallx,z是相似的otherwise
可以用一种高效的算法也就是内积去计算k(x,z)而不用显式的表示出ϕ(x)
核函数k(x,z)是衡量x,z的相似度
我们的目的是证明存在ϕ,使得k(x,z)=<ϕ(x),ϕ(z)>
假设k是一个有效的核函数,给定一个样本集{x1,x2,⋯,xm}
令kij=k(xi,xj)
zTkz=∑i∑jzikijzj=∑i∑jziϕ(xi)Tϕ(xj)zj
=∑i∑jzi∑kϕ(xi)kϕ(xj)kzj
=∑k∑i∑jziϕ(xi)kϕ(xj)kzj
=∑k(∑iziϕ(xi)k)2≥0,所以k是一个半正定矩阵
非线性决策边界(L1 norm 软间隔SVM)
SVM原始问题:min_w,bfrac12∣w∣2,s.t.:yi(wTxi+b)≥1
在软间隔SVM,原始问题变成:
minw,b,ξ12∣w∣2+c∑iξi,s.t.:yi(wTxi+b)≥1−ξi,ξi≥0
拉格朗日算子:
L(w.b,ξ,α,r)=12∣w∣2+c∑iξi−∑iαi(yi(wTxi+b)−1+ξi)−∑iriξi
对偶问题
maxW(α)=∑iαi−12∑i∑jyiyjαiαj<xi,xj>,s.t.:∑iαiyi=0,0≤αi≤c
收敛条件:
αi=0⇒yi(wTxi+b)≥1
αi=c⇒yi(wTxi+b)≤1
c>αi>0⇒yi(wTxi+b)=1
坐标上升法
对于没有限制的优化问题maxW(α1.α2,⋯,αm),除了用牛顿法和梯度下降法,还可以用坐标上升法。坐标上升法的原理是每次改变一个参数αi,求解αi=maxW(α1,α2,⋯,αi−1,α−i,αi+1,⋯,αm),然后对i做循环1到m
smo算法(序列最小化算法)
该算法对坐标上升法进行改进,每次改变两个参数选择参数αi,αj,固定其他参数,使得W对这两个参数最优且满足约束条件
仅对α1,α2进行推导(∑iαiyi=0)
更新α1,α2,α1y1+α2y=−∑mi=3αiyi=ξ
W(α1,α2,⋯,αm)=w(ξ−α2y2y1,α2,⋯,αm)=aα22+bα2+c
相关文章推荐
- 【吴恩达机器学习】学习笔记——2.7第一个学习算法=线性回归+梯度下降
- 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(2-2)-- 优化算法
- 吴恩达深度学习笔记 course2 week2 优化算法
- 深度学习与神经网络-吴恩达-第二周优化算法
- 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(2-2)-- 优化算法
- 吴恩达《深度学习-改善深层神经网络》2--优化算法
- 吴恩达神经网络和深度学习课程自学笔记(六)之优化算法
- 吴恩达机器学习之经验风险最小化
- 机器学习实战 kNN算法
- 算法学习【9】判断是否为栈的弹出顺序
- 机器学习实战-基本算法总结2
- Python语言描述机器学习之Logistic回归算法
- 机器学习10大经典算法
- 从机器学习到学习的机器,数据分析算法也需要好管家
- 深度学习:基于梯度下降不同优化算法的比较总结
- 【深度干货】2017年深度学习优化算法研究亮点最新综述(附slide下载)
- 算法学习----给定入栈的顺序,判断另一个顺序是否为该入栈顺序的一个弹出顺序
- 英特尔Nervana发布强化学习库Coach:支持多种价值与策略优化算法
- 机器学习经典算法4-logistic回归
- 机器学习经典算法之-----最小二乘法