内点法介绍(Interior-Point-).doc_第1页
内点法介绍(Interior-Point-).doc_第2页
内点法介绍(Interior-Point-).doc_第3页
内点法介绍(Interior-Point-).doc_第4页
内点法介绍(Interior-Point-).doc_第5页
已阅读5页,还剩7页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

内点法介绍(Interior Point Method) 在面对无约束的优化命题时,我们可以采用牛顿法等方法来求解。而面对有约束的命题时,我们往往需要更高级的算法。单纯形法(Simplex Method)可以用来求解带约束的线性规划命题(LP),与之类似的有效集法(Active Set Method)可以用来求解带约束的二次规划(QP),而内点法(Interior Point Method)则是另一种用于求解带约束的优化命题的方法。而且无论是面对LP还是QP,内点法都显示出了相当的极好的性能,例如多项式的算法复杂度。本文主要介绍两种内点法,障碍函数法(Barrier Method)和原始对偶法(Primal-Dual Method)。其中障碍函数法的内容主要来源于Stephen Boyd与Lieven Vandenberghe的Convex Optimization一书,原始对偶法的内容主要来源于Jorge Nocedal和Stephen J. Wright的Numerical Optimization一书(第二版)。为了便于与原书对照理解,后面的命题与公式分别采用了对应书中的记法,并且两者方法针对的是不同的命题。两种方法中的同一变量可能在不同的方法中有不同的意义,如 。在介绍玩两种方法后会有一些比较。障碍函数法Barrier MethodCentral Path举例原始对偶内点法Primal Dual Interior Point MethodCentral Path举例几个问题障碍函数法(Barrier Method)对于障碍函数法,我们考虑一个一般性的优化命题:minsubject tof0(x)fi(x)0,i=1,.,mAx=b(1) 这里 f0,.,fm:RnR 是二阶可导的凸函数。同时我也要求命题是有解的,即最优解 x 存在,且其对应的目标函数为 p。此外,我们还假设原命题是可行的(feasible)。此时,存在最优的对偶变量 和 ,与原始变量 x 一道,满足如下的KKT条件: f0(x)+i=1mifi(x)+ATAxfi(x)ifi(x)=0=b0,i=1,.,m0=0,i=1,.,m(2) 其中,ifi(x)=0 被称为Complementary Condition。我们可以看出,KKT条件中的不等式使得对KKT系统的求解难以为继,因此Barrier Method的思想就是通过在原始的目标函数中添加一个障碍函数(也可以理解成惩罚函数)来代替约束条件中的不等式约束。也就是说,把命题(1)变成下面的样子:minsubject tof0(x)+i=1mI(fi(x)Ax=b(3) 然后我们再考虑 I(u) 这个函数究竟选择什么样的一种函数好呢,其实最好是像一堵墙的一样的函数,在没有违反约束时,函数值为0,当违反约束时,函数值为正无穷,就像下图中红色虚线这样一个函数 但是很可惜,红色虚线的这个函数在某些点上是不可导的,因此并不适用,那么下面的想法就是用类似的函数,比如上图中的几条蓝色曲线表示的函数来近似这个函数。这样一个近似的函数的表达式如下:I(u)=(1/t)log(u) 其中 t 是用于调整近似程度的参数,从上图可以看出,t 越大近似效果越好。将上面的近似函数替换到(3)的优化命题中,可以得到如下的一个近似的优化命题:minsubject tof0(x)+i=1m(1/t)log(fi(x)Ax=b(4) 这里我们定义如下的对数障碍(logarithmic barrier):(x)=i=1mlog(fi(x)(5) 因此,我们后面的讨论就集中与下面这个命题:minsubject totf0(x)+(x)Ax=b(6) Central Path针对(6)中不同的 t>0 值,我们定义 x(t) 为相应优化命题的解。那么,central path 就是指所有点 x(t),t>0 的集合,其中的点被称为 central points。central path 上的点满足如下的充分必要条件,首先 x(t) 都是严格可行的,即:Ax(t)=b,fi(x(t)<0,i=1,.,m此外还存在对偶变量 使得下面的等式成立(Lagrangian函数的导数为0):0=tf0(x(t)+(x(t)+AT=tf0(x(t)+i=1m1fi(x(t)fi(x(t)+AT(7)我们可以从对偶变量的角度进一步研究上式,给等号两边都乘上 1t ,我们有:0=f0(x(t)+i=1m1tfi(x(t)fi(x(t)+ATt 我们发现如果令i(t)=1tfi(x(t),=t(8) 就取得了与(2)式中的第一个等式基本一致的结果。也就是说,x(t) 能最小化 Lagrangian函数 L(x,)=f0(x)+i=1mifi(x)+T(Axb) 即,(t) 和 (t) 是原命题(1)的一组可行的对偶变量(dual feasible),其实可以理解为能使 Lagrangian函数倒数为0的就是 dual feasible 的。那么此时,对偶命题的目标函数值为:g(t),(t)=f0(x(t)+i=1mi(t)fi(x(t)+(t)T(Ax(t)b)=f0(x(t)mt 上式中的等号可能有点难以理解,但其实就是把(8)式代入的结果。如果我们记原命题(1)的目标函数的最小值为 p ,那么由优化命题的对偶理论可知(可以参考另一篇博文优化命题的对偶性(Duality)f0(x(t)mtq 即 f0(x(t)qmt 从这里可以形象地看出,随着 t 取值增大,x(t) 可以最终收敛到最优解。其中,原始命题与对偶命题的解的差,即 f0(x(t)q 被称为 duality gap。因此这里可以给出一个 Barried Method 算法的框架(来自Convex Optimization, Algorithm 11.1):Barrier Method given strictly feasible x,t:=t(0)>0,>1,tolerance >0 repeat Centering step. Compute x(t) by minimizing tf0+, subject to Ax=b, starting at x.Update. x:=x(t).Stopping criterion. quit if m/t<.Increase t. t=t举例这里用一个例子进行一些补充说明。考察一个简单的线性规划:mincTxsubject to x0 首先令 c=(11),t(0)=4,x 的初始点为(1.3,1) 下面两图是第一次迭代,t=4 时的 tf0(x)+(x) 函数图象和平面的等高图,同时第二张图上还标出了迭代点的轨迹。 下面是t=8 时的 tf0(x)+(x) 函数图象和平面的等高图,同时第二张图上还标出了迭代点的轨迹。 对于本例,central path 就是 x1=x2 这条直线。从迭代点的轨迹可以看出,在第一次迭代后,迭代点一直在central path上移动。其实对于Barrier Method,我自己之前有个疑问就是,既然我们知道在 x(t) 处的目标函数值与最优解的差肯定小于 mt,那为什么不直接给一个较大的 t 值通过较少的几次迭代就能算出最有解了呢。真对这一问题,原因可能是这样的,Barrier Method的计算量是由内外两层迭代组成的,外层对 t 进行更新:t=t,内层用牛顿法求 tf0+ 的解。有仿真结果表明,随着 值的加大,总的计算量(牛顿迭代次数)在呈现一定阶段的下降后并没有明显下降。而对与 值的选取则是一个内层迭代次数和外层迭代次数的权衡。 值较大时,外层迭代次数少,内层迭代次数多; 值较小时情况则相反。一般来说 的取值在 10到20 之间比较合适。原始对偶内点法(Primal Dual Interior Point Method)在 Primal Dual 的方法中,我们直接考虑一个标准的 LP 命题。mincTx,subject to Ax=b,x0(9) 它的对偶命题为:maxbT,subject to AT+s=c,s0(10) 上面两个命题的KKT条件为: AT+sAxxisi(x,s)=c,=b,=0,i=1,.,n0.(11a)(11b)(11c)(11d) 为了后面的推导方便,将上面的KKT条件化为矩阵形式如下:F(x,s)=AT+scAxbXSe(x,s)=0.0,(12a)(12b) 其中,X=diag(x1,x2,.,xn),S=diag(s1,s2,.,sn),e=(1,1,.1)T如同一般的优化算法,这里需要定义一个量来检验当前的迭代点与最优点的差距。在Barrier Method中,使用 duality gap 的上界 mt 来检验的,在 Primal Dual Method 中,我们定义一个新的 duality measure 来进行某种衡量:=1ni=1nxisi=xTsn 注意:这里的 与 Barrier Method 中的 意义不同,为了与各自书中的表达方式对应,分别选用了各自书中的变量记法。要求解原始的优化命题,需要做的就是去求解 (12) 这样一个方程组,由于 F 阵第三行中 XS 一项的存在,因此这是一个非线性系统。要求解这样一个非线性系统,一种实用的方法就是牛顿法。(注意,这里说的牛顿法是一种求解非线性方程组的方法,与求解优化命题的牛顿法并不完全一样,但核心思路是一致的,都是在迭代点处进行二阶展开。)在当前点处求解一个前进方向,并通过迭代逼近非线性系统的解。J(x,s)xs=F(x,s) 其中 J 是F 阵的雅各比矩阵。我们将 F 阵中的前两行分别记为:rb=Axb,rc=AT+sc(13) 那么在每次迭代中需要求解的线性系统为:0ASAT00I0Xxs=rcrbXSe 因此,在求解得到相应的前进方向后,需要做的就是求解确定一个步长 来进行如下的更新 (x,s)+(x,s) 其中 (0,1 的选取要使得原始变量和对偶变量都满足相应的约束。看起来这种方法似乎已经可以了,但通过这种被称为 affine scaling direction 的方向所得到的 往往很小。也就是说,很难在迭代中取得进展。一开始看到这个说法时,我也很难理解这句话的意思。所以在这里我们用一个图来说明,令 (9) 中的 c=(101),初始点为(0.7,2),这里不考虑等式约束,直接采用affine scaling direction 的方向得到的迭代点的轨迹为 从图中可以看出,几乎在从第二次迭代开始,迭代点就一头撞上了约束。后面的迭代也只能贴着约束的边缘来走,因为要保迭代点不能违反约束,因此每次的步长 都只能取得很小。在这一过程中,一共进行了11次迭代才使得 duality measure <105 。因此,实际上内点法采用的是一个不那么 aggressive 的牛顿方向,也就是控制迭代点使其徐徐想约束边界和最优点处靠近。具体的方法是,我们在用牛顿法求解非线性系统时,在每次迭代中并不要求直接实现 xisi=0,而是令其等于一个逐渐减少的值,具体来说就是 xisi=,其中 是当前的 duality measure,0,1 是用于控制下降速度的下降因子。也就是说,在每次迭代中要求解的方程组应该是 0ASAT00I0Xxs=rcrbXSe+e(14) 其中, 被称为 center parameter 。意在表示我们要通过调整 使得迭代点的轨迹在 central path 附近。Central Path在内点法中,central path 是指满足下面一组方程式的迭代点所组成的所组成的一条弧线 AT+sAxxisi(x,s)=c,=b,=,i=1,2.n.>0(15a)(15b)(15c)(15d) 这与 (11) 中的KKT 条件的区别就在于在第三个条件的等式右端的 0 被 >0 替代了。也就是说,对偶内点法的基本思路就是依据 central path 计算出相应的方向,并控制步长 的选择使得迭代点位于 central path 的某一个邻域内。(有关central path 的邻域的内容,和具体的原始对偶内点法的算法在这里不作详细说明,有兴趣这可以参考相应书籍。)关于步长 的选取,central parameter 的更新,以及更多的收敛性分析的内容,在这里不作展开。举例与上一张图对应,我们同样取 c=(101),初始点为(0.7,2),不考虑等式约束。采用对偶内点法的迭代点的轨迹为 可以看出,引入 central path 后,迭代点能在贴近约束边界后再次远离约束边界(也就是靠近 central path) ,从而保证下一次迭代能取得更大的进步。在这一过程中,一共进行了6次迭代就使得 duality measure <105 。几个问题1 Barrier Method 中的 central path 与 Primal Dual Method 中的 central path 是不是一个东西?是一个东西,我们可以从优化命题的 Lagrangian 函数这一角度出发分析这一点。Barrier Method 中的优化命题的 Lagrangian 函数为:L(x,)=f0(x(t)+i=1m1tfi(x(t)fi(x(t)+T(Ax(t)b)=f0(x(t)+i=1mifi(x(t)+T(Ax(t)b)=f0(x(t)mt Primal Dual Method 中优化命题的 Lagrangian 函数为:L(x,s,)=cTxi=1nxisiT(Axb)从这里我们可以看出来,Barrier Method 中我们控制 t 使得 duality gap 为 mt,在Primal Dual 内点法中我们控制 ni=1xisi= 其实是一致的。而且有 mt= 这样一个关系的存在。因此我们在 Barrier Method 中增加 t 和与在 Primal Dual 的方法中使 下降其实是在做一件事情。2 Central Path 有啥好处?从上面的举例可以看出,如果没有 central path ,迭代点往往非常靠近约束边界。如果我们能够将迭代点拉回到 central path 附近,那么即使这次迭代对与目标函数下降的贡献不大,那么也可以使得在下次迭代时目标函数能够取得较大下降。此外,central path 还对算法的热启动(warm start)有影响。因为在很多场合(例如 MPC),我们需要求解一系列结构

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论