其他分享
首页 > 其他分享> > 拉格朗日对偶问题 Lagrange duality

拉格朗日对偶问题 Lagrange duality

作者:互联网

拉格朗日对偶问题

前情提要:拉格朗日函数

$L(x,\lambda,\nu)=f_0(x)+\sum \lambda_i f_i(x)+\sum \nu_i h_i(x)$           对偶函数:$g(\lambda,\nu)=\min_x L(x,\lambda,\nu)$

原问题为                       对偶问题

$\min_x \max_{\lambda,\nu} L(x,\lambda,\nu)\\$                 $\max_{\lambda,\nu}g(\lambda,\nu)=\max_{\lambda,\nu} \min_x L(x,\lambda,\nu)$      

$s.t. \lambda \ge 0$                      $s.t. \lambda \ge 0$

对偶问题转化为约束形式

$\max_{\lambda,\nu} g(\lambda,\nu)$

$s.t. \nabla_xL(x,\lambda,\nu)=0$

      $\lambda \ge 0$

对偶问题也可写作有约束条件的形式

原问题和对偶问题的关系

所以原问题的解$\ge$对偶问题的解

那么问题来了,何时原问题才能和对偶问题有相同的解呢?

问题简化

首先,先将问题简化一下

注意,此时原问题中$x$的可行域(feasible region)在约束空间中,而对偶问题中的$x$无约束

所以$G_1 \subseteq G_2$

这样简化之后就可以从图像上直观的表示出来,其中可以把$t$看作$y$,把$u$看作$x$,那么就可以表示成一个线性函数

图像直观理解原问题和对偶问题

因为$u \le 0$,所以$G_1$在左半部分,而假设$G_2$是整个蓝线围成的域

原问题找到最小值即为$P^*$

对偶问题先对于$x$找函数的最小值,再通过调整斜率,找到对于$\lambda$变量,函数的最大值

有两点需要注意

这里不太理解,先调整$x$得到最小值,再调整$\lambda$使函数最大,此时$x$已为定值,调整$\lambda$后还与右边相切吗?

「这个过程是在每个固定斜率下求最小截距,然后从在不同斜率下求得的最小截距中找最大的」具体见这篇博客

 

直线的截距$D^*$即为对偶问题的解

从图像也可看出原问题的解大于等于对偶问题的解,这种关系其实是一种若对偶关系

那么什么条件下原问题和对偶问题是等价的呢?

强对偶关系

 

 

不难想象,可行域的范围是一个凸集时,两值相等(注意:斜率一定$\le 0$)

但是,$G$为凸集只是强对偶的充分非必要条件

比如下图的可行域范围是非凸集,但原问题和对偶问题依然等价

Slater条件

只有满足了Slater条件,凸优化问题才是强对偶问题,是充分条件

KKT条件

KKT条件是强对偶问题的必要条件

 

 

 如果$x$在可行域内,$g_i(x)$是松弛的,此时的$g_i(x)<0$,$\lambda_i=0, \lambda_ig(i)=0$

 如果最小值点不在可行域内,那么极值点在边界上,$g_i(x)=0$,$\lambda_ig(i)=0$

上述的紧致和松弛也就对应着前面强对偶关系的两种情况的图像

对偶问题一定是凸优化问题

格朗日对偶函数是凹函数,证明看这个链接,凹函数属于凸优化问题

应用

最后再回到机器学习的应用中

在求最大熵的时候,就是将原问题转化为对偶问题处理的

转化成对偶问题,先将P的形式定下来,就是确定了模型,然后再调整$\lambda$,也就是调参的过程

但在神经网络中,由于有隐藏层的存在,调整参数$\lambda$后,$x,y$的值不再是已经确定的了,还要重新计算,所以求最小值的过程其实与最大化相互耦合

所以从整体来看并不是凸优化问题,但通过反向传播,在最后的输出层上形成一个局部的凸优化问题

神经网络相当于一个筛选器,把现实中非凸优化的问题转化成凸优化问题,通过隐藏层只留下凸优化的因素,送到最后的输出层

未完待续。。。还有几点不太清楚

 

标签:拉格朗,duality,问题,斜率,ge,Lagrange,对偶,nu,lambda
来源: https://www.cnblogs.com/xiaoqian-shen/p/15439818.html