数值优化(Numerical Optimization)学习系列-线搜索方法(LineSearch)
2015-12-27 18:44
1041 查看
概述
在求解最优化问题中,线搜索是一类非常重要的迭代算法。线搜索的迭代过程是xk+1=xk+αkpkx_{k+1}=x_k+\alpha_k p_k。其中αk\alpha_k和pkp_k分别表示搜索步长和搜索方向,因此线搜索需要解决如何求解步长和确定搜索方向,该小结主要介绍1. 步长αk\alpha_k的选择
2. 步长的实现算法
2. 线搜索的收敛性
3. 牛顿方法的优化
步长α\alpha的选择
根据迭代算法xk+1=xk+αkpkx_{k+1}=x_k+\alpha_k p_k,根据之前的介绍搜索方向pkp_k需要满足,它是一个下降方向,即满足∇fkpk≤0\nabla f_k p_k \le 0,则pk=−B−1k∇fkp_k=-B_k^{-1}\nabla f_k,B为对称非奇异矩阵,根据BkB_k的选择会产生以下几个方向:1. Bk=IB_k=\mathbf I时,搜索方向为负梯度方向,该方法为最速下降方向。
2. Bk=∇2fkB_k=\nabla^2f_k时,该方法为牛顿方法。
3. BkB_k需要满足对称正定矩阵,该方法为拟牛顿方法。
当搜索方向确定后,下一步就要确定步长。
问题形式
求解步长需要解决的一个最优化问题是,在确定了下降方向pkp_k后,求解一个一元最优化问题minϕ(α)=f(xk+αpk)min \phi(\alpha)=f(x_k+\alpha p_k).精确算法
对于一个一元二次问题,最优解形式为∇Tf(xk+αpk)pk=0\nabla^Tf(x_k+\alpha p_k) p_k=0,即∇Tfk+1pk=0\nabla^Tf_{k+1}p_k=0性质:对于最速下降法,当选择最优步长时,每一步的搜索方向和上一步是正交的,即pTk+1pk=0p_{k+1}^Tp_k=0
证明:由于当选择为最优步长时满足∇Tfk+1pk=0\nabla^Tf_{k+1}p_k=0。因此性质成立,pk+1=−∇fTk+1p_{k+1}=-\nabla f_{k+1}^T
非精确算法
非精确算法的思路就是寻找步长α\alpha的一个区间,通过逐步二分的方法去寻找满足条件的点。当搜索结束时,需要满足该步长能够对目标函数带来充分的减少。为提高非精确算法的搜索效率,α\alpha需要满足一定的条件。Armijo条件
Armijo是一个相对比较简单的条件,即目标函数需要充分小。f(xk+αpk)≤f(xk)+c1α∇fTkpk,c1∈(0,1)f(x_k+\alpha p_k) \le f(x_k)+c_1\alpha \nabla f_k^Tp_k ,\quad c_1 \in (0,1)通常情况下记:
ϕ(α)=f(xk+αpk)\phi(\alpha)=f(x_k+\alpha p_k)表示原始最优化目标函数。l(α)=f(xk)+c1α∇fTkpkl(\alpha)=f(x_k)+c_1\alpha \nabla f_k^Tp_k表示退化后的目标函数。
在实际应用中,c1c_1选择为10^-4,满足Armijo条件的情况如下图所示
Curvature条件
Curvature条件是指:∇f(xk+αkpk)Tpk≥c2∇fTkpk,c2∈(c1,1)\nabla f(x_k+\alpha_kp_k)^Tp_k \ge c_2\nabla f_k^Tp_k,\quad c_2 \in (c_1, 1)其中c1就是Armijo中的c1.Curvature条件中的左边就是ϕ′(αk)\phi'(\alpha_k),而右边是ϕ′(0)\phi'(0),或者l′(α)l'(\alpha),即在第K点的曲率要比初始点的曲率要大。由于右边是负值,则左边就是一个接近0或者大于0的一个值。
直观上看,如果该值接近0时,曲率接近水平,这样就接近最优解。图示如下
Wolfe条件
把上面两个条件组合后就是Wolfe条件,即需要满足f(xk+αpk)≤f(xk)+c1α∇fTkpk∇f(xk+αkpk)Tpk≥c2∇fTkpk0<c1<c2<1f(x_k+\alpha p_k) \le f(x_k)+c_1\alpha \nabla f_k^Tp_k \\ \nabla f(x_k+\alpha_kp_k)^Tp_k \ge c_2\nabla f_k^Tp_k \\ 0如果进一步进行约束,强Wolfe条件需要满足f(xk+αpk)≤f(xk)+c1α∇fTkpk|∇f(xk+αkpk)Tpk|≤c2|∇fTkpk|0<c1<c2<1f(x_k+\alpha p_k) \le f(x_k)+c_1\alpha \nabla f_k^Tp_k \\ |\nabla f(x_k+\alpha_kp_k)^Tp_k| \le c_2|\nabla f_k^Tp_k| \\ 0强Wolfe条件对正负曲率都进行了约束,条件更强。
满足Wolfe条件的区间如下图
满足强Wolfe条件的区间如下图
Wolfe条件存在性证明
定理:假设目标函数f是一个连续可导的,并且搜索方向pkp_k为下降方向,同时函数f是有界的,在射线xk+αpkx_k+\alpha p_k之下,则如果0<c1<c2<10,存在步长α\alpha满足Wolfe条件和强Wolfe条件。证明:由于f在被限定在射线xk+αpkx_k+\alpha p_k之下,则函数ϕ(α)=f(xk+αpk)\phi(\alpha)=f(x_k+\alpha p_k)和函数l(α)=fk+αc1∇fTkpkl(\alpha)=f_k+\alpha c_1\nabla f_k^T p_k存在交点。
1. 记最小的交点为α′\alpha',则小于α′\alpha'的区间都满足Wolfe的第一个条件。交点满足f(xk+α′)=f(xk)+α′c1∇fTkpkf(x_k+\alpha')=f(x_k)+\alpha' c_1\nabla f_k^Tp_k
2. 随机选择α′′∈(0,α′)\alpha'' \in (0, \alpha'),根据中值定理有f(xk+α′)−f(xk)=α′∇f(xk+α′′pk)Tpkf(x_k+\alpha')-f(x_k)=\alpha' \nabla f(x_k+\alpha''p_k)^Tp_k
3. 根据上面两个等式有c1∇fTkpk=∇f(xk+α′′pk)Tpk≤c2∇fTkpkc_1\nabla f_k^Tp_k=\nabla f(x_k+\alpha''p_k)^Tp_k \le c_2\nabla f_k^Tp_k
此时α′′\alpha''满足Wolfe的第二个条件
Goldstein条件
该条件类似于Wolfe条件,但是需要步长减少的不能太少。该条件为fk+(1−c)αk∇fTkpk≤f(xk+αkpk)≠fk+(c)αk∇fTkpkf_k+(1-c)\alpha_k\nabla f_k^Tp_k \le f(x_k+\alpha_kp_k)\ne f_k+(c)\alpha_k\nabla f_k^Tp_k参数c∈(0,0.5)c \in (0,0.5)满足该条件的步长被两个射线包围着,使用该方法可能会错过最优解,图示如下
步长α\alpha求解算法
根据上面的介绍,我们可以知道求解步长,需要解决的问题是αk=arg minϕ(α)=arg minf(xk+αpk)\alpha_k = arg \ min \phi(\alpha)=arg \ min f(x_k+\alpha p_k)分两类问题进行讨论:1. 如果目标函数是凸函数,并且f(x)=12xTQx−bTxf(x)=\frac12x^TQx-b^Tx,则步长的最优解为α=−∇fTkpkpTkQpk\alpha=-\frac {\nabla f_k^Tp_k}{p_k^TQp_k}
2. 如果目标函数是一个非线性问题,就需要用到迭代算法求解,寻找最优步长或者满足上述必要条件的步长。本节主要讨论目标函数的梯度存在,如果不存在还会有其他算法。求解步骤一般分为两步,一是寻找一个包含解的区间,二是逐渐放大该步长,直到满足条件。
插值法
使用插值法的目标是寻找一个步长的递减序列,直到找到一个满足约束的步长。二次插值
根据Armijo条件,步长的选择应该满足使得目标函数充分减小,该条件为f(xk+αpk)≤f(xk)+c1α∇fTkpkf(x_k+\alpha p_k) \le f(x_k)+c_1\alpha \nabla f_k^Tp_k对于第K步的α\alpha应该满足:ϕ(αk)≤ϕ(0)+c1αkϕ′(0)\phi(\alpha_k) \le \phi(0)+c_1\alpha_k\phi'(0)对于初始值α0\alpha_0满足上述约束,则结束。否则减小步长值,即α1∈(0,α0)\alpha_1 \in (0,\alpha_0)。
此时运用二次插值法,寻找插值函数ϕq(α)\phi_q(\alpha)满足一下条件ϕq(0)=ϕ(0),ϕ′q(0)=ϕ′(0),ϕq(α0)=ϕ(α0)\phi_q(0)=\phi(0),\phi_q'(0)=\phi'(0),\phi_q(\alpha_0)=\phi(\alpha_0),根据上述条件,求得ϕq(α)\phi_q(\alpha)为:
ϕq(α)=(ϕ(α0)−ϕ(0)−α0ϕ′(0)α20)α2+ϕ′(0)α+ϕ(0)\phi_q(\alpha)=(\frac{\phi(\alpha_0)-\phi(0)-\alpha_0 \phi'(0)}{\alpha_0^2})\alpha^2+\phi'(0)\alpha+\phi(0)求解该一元二次最优化问题可以得到α1=ϕ′(0)α202(ϕ(α0)−ϕ(0)−α0ϕ′(0))\alpha_1=\frac{\phi'(0)\alpha_0^2}{2(\phi(\alpha_0)-\phi(0)-\alpha_0 \phi'(0))}
三次插值
如果上述\alpha_1满足约束条件则结束,否则需要进行三次插值,即寻找插值函数ϕc(α)\phi_c(\alpha)满足一下值相等,ϕ(0),ϕ′(0),ϕ(α0),ϕ(α1)\phi(0),\phi'(0),\phi(\alpha_0),\phi(\alpha_1)。假设求得ϕc(α)\phi_c(\alpha)为ϕc(α)=aα3+bα2+aϕ′(0)+ϕ(0)\phi_c(\alpha)=a\alpha^3+b\alpha^2+a\phi'(0)+\phi(0)可以根据代入法求解参数值,此时下一个步长α2\alpha_2为α2=−b+b2−3aϕ′(0)−−−−−−−−−−√3a\alpha_2=\frac{-b+\sqrt{b^2-3a\phi'(0)}}{3a}如果满足约束则结束,否则继续利用最近的两个步长值和初始值继续进行三次插值,直到结束。如果两次的步长比较相近,则αk=αk−12\alpha_k=\frac{\alpha_{k-1}}{2}
初始化步长选择
对于牛顿或者拟牛顿法,初始化步长可以选择为1,对于其他非scaled的方法,初始化比较重要。1. 方法一假设在xk和xk−1x_k和x_{k-1}处一阶梯度改变相同,即满足α0∇fTkpk=αk−1∇fTk−1pk−1\alpha_0\nabla f_k^Tp_k=\alpha_{k-1}\nabla f_{k-1}^Tp_{k-1}
2. 在f(xk−1),f(xk),∇fTk−1pk−1f(x_{k-1}),f(x_k),\nabla f_{k-1}^Tp_{k-1}处进行二次插值,此时α0=2(fk−fk−1)ϕ′(0)\alpha_0=\frac{2(f_k-f_{k-1})}{\phi'(0)}
步长求解算法
寻找满足强Wolfe条件的步长,该条件为f(xk+αpk)≤f(xk)+c1α∇fTkpk|∇f(xk+αkpk)Tpk|≤c2|∇fTkpk|0<c1<c2<1f(x_k+\alpha p_k) \le f(x_k)+c_1\alpha \nabla f_k^Tp_k \\ |\nabla f(x_k+\alpha_kp_k)^Tp_k| \le c_2|\nabla f_k^Tp_k| \\ 0该算法分为两步,一是寻找一个包含解的区间;二是运用zoom算法寻找满足约束条件的解。
算法框架
在调用zoom算法前,寻找一个步长的下界使得在该区间内包含最优解α∗\alpha^*,算法描述如下算法主要包含以下4步
1. 评价当前步长,判断是否满足充分小条件,如果不满足说明最优解在(αi−1,αi)(\alpha_{i-1},\alpha_i)之间。
2. 否则满足强Wolfe的条件1,验证条件2是否满足,如果满足则结束。
3. 如果不满足条件2,并且当前梯度为正值时,交互上一个步长调用zoom算法结束(为什么调换,看zoom算法介绍)
4. 求解下一个步长点,可以采用插值法。
下图描述了需要调用zoom算法的两类条件,分别对应1和3:
zoom算法
zoom算法的输入比较特殊,输入需要满足(αl,αh)(\alpha_l,\alpha_h)1. 该区间内包含满足强Wolfe条件的步长
2. 步长αl\alpha_l是两个值中目标函数值较小的一个
3. 选择αh\alpha_h如果该点满足ϕ′(αl)(αh−αl)<0,表明该区间是一个连续下降的区间\phi'(\alpha_l)(\alpha_h-\alpha_l) < 0,表明该区间是一个连续下降的区间
zoom算法描述如下
算法流程为
1. 检查是否满足Wolfe的条件一,如果不满足缩减区间。
2. 检查是否满足条件2 ,如果满足则返回
3. 检查是否是递增区间,如果是进行调整,使其满足zoom输入条件。
线搜索的收敛性
如果搜索方向选择为“最速下降方向”即负梯度方向,则能达到一个“全局收敛”状态,此时满足limk→∞||∇fk||=0\lim_ {k→∞}||∇fk||=0对于牛顿方法或者伪牛顿方法(pNk=−B−1k∇fk)(p_k^N=−B_k^{−1}\nabla f_k)只要满足Bk的条件数有界限并且正定则也能达到全局收敛。
对于共轭梯度方法,只要满足limk→∞inf||∇fk||=0lim_{k→∞} inf ||\nabla f_k||=0,即只要一个子序列收敛即可。
对于任何搜索方向,只要满足1)每一个步目标值都在下降2)每隔一定步数都能达到一个最优下降方向,都能收敛。即不要求每一步都下降,可以周期性下降。
收敛速度
当搜索方向为最优下降方向是,为线性收敛速度。当搜索方向为牛顿方向,即pNk=−∇2f−1k∇fkp_k^N=−\nabla ^2f_k^{-1}\nabla f_k,如果∇2fk\nabla ^2f_k正定,则牛顿法为二次收敛。(但是牛顿方向不总是为正定,因此Hessian在使用时需要进一步调整)
当搜索方向为伪牛顿方向时,收敛速度为超线性。
牛顿方法–Hessian矩阵替代品
牛顿方法中,搜索方向需要满足∇2fkpNk=−∇fk\nabla^2f_kp_k^N=−\nabla f_k,如果∇2fk\nabla^2f_k正定,可以得到搜索方向牛顿方法中,Hessian矩阵不总是正定的,会导致搜索方向不总是下降方向,从而导致牛顿方法不总能找到最优解。
但是可以找到一些替代方法,例如
通过特征值修改:∇2fk=QΛQ\nabla ^2f_k=QΛQ
添加常数因子,$B_k=\nabla^2f_k+λI\$
修改Cholesky算法
总结
通过该章的学习,能够了解1. 线搜索的基本形式以及需要解决的问题
2. 常见步长α\alpha需要满足的条件以及实现算法
3. 线搜索的收敛速度
4. 牛顿方法的优化
相关文章推荐
- 数值优化(Numerical Optimization)学习系列-概述
- Apache 集成subversion
- LINUX启动运行的脚本
- Linux下mysql安装笔记
- centos提示bash: service: command not found
- linux jexus 服务 设置开机启动
- 我眼中的Linux设备树(四 中断)
- linux之postfix服务器虚拟域和虚拟用户
- htop/dstat/ps命令的使用
- linux redhat下载地址
- CentOS 7部署OpenStack(2)―安装keystone服务
- Linux 正则表达式 流编辑之sed awk
- linux(CentOS)之postfix服务器sasl认证和基于cyrus-sasl访问控制
- Hadoop集群完全分布式搭建教程-CentOS
- hihocoder 1107 : Shortest Proper Prefix
- 我的第一个docker镜像
- 【hadoop】ssh localhost 免密码登陆(图解)
- linux(CentOS)之postfix服务器Dovecot接收邮件
- why open returns zero?
- Hadoop常用命令