HomeBlogTopicsPublish
  • rss

  • contact

© 2025 MIT Licensed

Topics→Machine Learning→Linear Dual

Machine Learning

Fundamentals
Decision TreeBackpropagationLinear 1Linear 2Linear 3Linear DualLinear IntroML Numerical MethodsNaive SolveLagrangian Conditions under Equality ConstraintsLagrangian Conditions under Inequality ConstraintsSupport Vector Machine 1Support Vector Machine 2Support Vector Machine 3Convex
Deep Learning Acceleration
Paper DartsPaper MobileNetsPaper ShuffleNetPaper HashingTricksPaper ShuffleNetV2Neural Architecture Search MilestonePyTorch Training Acceleration
Computer Vision
Paper RobotPaper InceptionV4Dataset Cityscapes
Reinforcement Learning
Paper Deep Q-Network

Linear Dual

September 8, 2017

by Frank

每个线性规划问题都有一个与之对应的对偶问题,对偶问题也是一个线性规划问题,并且对偶问题的对偶问题是原问题。原问题的最优解可以由对偶问题得到,有时候利用对偶理论求解线性规划问题更加简单,也更能了解问题的本质。在对偶理论的启发下,单纯形法的性能得到了改进,也出现了一些求解线性规划问题的非单纯形法,本文暂不详解。

每个线性规划问题都有一个与之对应的对偶问题,对偶问题也是一个线性规划问题,并且对偶问题的对偶问题是原问题。原问题的最优解可以由对偶问题得到,有时候利用对偶理论求解线性规划问题更加简单,也更能了解问题的本质。在对偶理论的启发下,单纯形法的性能得到了改进,也出现了一些求解线性规划问题的非单纯形法,本文暂不详解。

对偶关系

考虑如下形式的对偶问题

minimizecTxsubject toAx≥bA≥0\begin{align*} minimize\quad c^{T}x \\ subject\ to\quad Ax\ge b\\ A\ge0 \end{align*}minimizecTxsubject toAx≥bA≥0​

将其称为原问题,其相应的对偶形式定义为

maximizeλTbsubject toλTA≤cTλ≥0\begin{align*} maximize\quad \lambda^{T}b \\ subject\ to\quad \lambda^{T} A\le c^{T}\\ \lambda \ge0 \end{align*}maximizeλTbsubject toλTA≤cTλ≥0​

其中λ\lambdaλ称为对偶向量,这种对偶称为对称形式的对偶。 另外对于线性规划的标准形,其约束为Ax=bAx=bAx=b,等价于

Ax≥b−Ax≥−b\begin{align*} Ax\ge b\\ -Ax\ge -b \end{align*}Ax≥b−Ax≥−b​

因此含有等式约束的原问题可以写为

minimizecTxsubject to[A−A]x≥[b−b]x≥0\begin{align*} minimize\quad c^{T}x\\ subject\ to\quad \begin{bmatrix} A\\-A \end{bmatrix}x\ge \begin{bmatrix} b\\-b \end{bmatrix}\\ x\ge 0 \end{align*}minimizecTxsubject to[A−A​]x≥[b−b​]x≥0​

这与对称形式的原问题具有相同的结构,因此上述问题的对偶问题为

maximize[uT vT][b−b]subject to[uT vT][A−A]≤cTu,v≥0\begin{align*} maximize\quad [u^{T}\ v^{T}] \begin{bmatrix} b\\-b \end{bmatrix}\\ subject\ to\quad [u^{T}\ v^{T}] \begin{bmatrix} A\\-A \end{bmatrix}\le c^{T}\\ u,v\ge 0 \end{align*}maximize[uT vT][b−b​]subject to[uT vT][A−A​]≤cTu,v≥0​

对偶问题可以整理为

maximize(u−v)Tbsubject to(u−v)TA≤cTu,v≥0\begin{align*} maximize\quad (u-v)^{T}b\\ subject\ to\quad (u-v)^{T}A\le c^{T}\\ u,v\ge 0 \end{align*}maximize(u−v)Tbsubject to(u−v)TA≤cTu,v≥0​

令λ=u−v\lambda=u-vλ=u−v,上述问题则变为

maximizeλTbsubject toλTA≤cT\begin{align*} maximize\quad \lambda^{T}b\\ subject\ to\quad \lambda^{T}A\le c^{T} \end{align*}maximizeλTbsubject toλTA≤cT​

注意此时由于u,v≥0,λ=u−vu,v\ge 0,\lambda=u-vu,v≥0,λ=u−v,没有了非负约束,将这种关系称为非对称形式的对偶。##对偶问题的性质 在这里给出对偶问题的一些基本结论,暂不做证明 弱对偶引理:假设xxx和λ\lambdaλ分别是线性规划的原问题和对偶问题(对称形式及非对称形式)的可行解,则xTx≥λTbx^{T}x\ge \lambda^{T}bxTx≥λTb,即“极大值≤\le≤极小值”。

定理 1:假设x0x_{0}x0​和λ0\lambda_{0}λ0​分别是原问题和对偶问题的可行解,如果cTx0=λ0Tbc^{T}x_{0}=\lambda_{0}^{T}bcTx0​=λ0T​b,那么x0x_{0}x0​和λ0\lambda_{0}λ0​分别是各自问题的最优解。

定理 2(对偶定理):如果原问题有最优解,那么其对偶问题也有最优解,并且它们目标函数的最优解相同。

定理 3(互补松弛条件):xxx和λ\lambdaλ分别是原问题和对偶问题的可行解,则它们分别是各自问题的最优解的充分必要条件为

1.(cT−λTA)x=02.λT(Ax−b)=0\begin{align*} 1.\quad(c^{T}-\lambda^{T}A)x=0\\ 2.\quad\lambda^{T}(Ax-b)=0 \end{align*}1.(cT−λTA)x=02.λT(Ax−b)=0​
←Previous: Linear 3Next: Linear Intro→

Comments