Komplementaritätsbedingung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Komplementaritätsbedingung, auch komplementärer Schlupf genannt (englisch complementary Slackness), ist eine Aussage der mathematischen Optimierung, die eine Verbindung zwischen den Optimalpunkten zweier Optimierungsprobleme knüpft, die zueinander dual bezüglich der Lagrange-Dualität sind. Die Komplementaritätsbedingung ist ein notwendiges Optimalitätskriterium und findet Anwendung bei Innere-Punkte-Verfahren und den Karush-Kuhn-Tucker-Bedingungen.

Allgemeiner Fall

[Bearbeiten | Quelltext bearbeiten ]

Problemstellung

[Bearbeiten | Quelltext bearbeiten ]

Gegeben seien zwei Optimierungsprobleme wie in der nachfolgenden Tabelle:

Primales Problem Duales Problem
Minimiere  f ( x ) unter den Nebenbedingungen  g i ( x ) 0 i = 1 , , p h j ( x ) = 0 j = 1 , , q x X {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\leq 0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\leq 0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} Maximiere  q ( λ , μ ) unter den Nebenbedingungen  λ i 0 i = 1 , , p {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\geq 0&i=1,\dotsc ,p\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\geq 0&i=1,\dotsc ,p\end{aligned}}}

Dabei ist

q ( λ , μ ) = inf x X ( f ( x ) + i = 1 p λ i g i ( x ) + j = 1 q μ j h j ( x ) ) {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}h_{j}(x)\right)} {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}h_{j}(x)\right)}

die duale Funktion und f , g i , h j : R n R {\displaystyle f,g_{i},h_{j}:\mathbb {R} ^{n}\mapsto \mathbb {R} } {\displaystyle f,g_{i},h_{j}:\mathbb {R} ^{n}\mapsto \mathbb {R} }

Die Komplementaritätsbedingung lautet nun

λ i g i ( x ) = 0  für alle  i = 1 , , p {\displaystyle \lambda _{i}^{*}g_{i}(x^{*})=0{\text{ für alle }}i=1,\dotsc ,p} {\displaystyle \lambda _{i}^{*}g_{i}(x^{*})=0{\text{ für alle }}i=1,\dotsc ,p}

für zulässige x , λ {\displaystyle x^{*},\lambda ^{*}} {\displaystyle x^{*},\lambda ^{*}}. Eine alternative Formulierung in Vektorschreibweise mit g ( x ) = ( g 1 ( x ) , , g p ( x ) ) T {\displaystyle g(x)=(g_{1}(x),\dots ,g_{p}(x))^{T}} {\displaystyle g(x)=(g_{1}(x),\dots ,g_{p}(x))^{T}} und λ = ( λ 1 , , λ p ) T {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{p})^{T}} {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{p})^{T}} ist

( λ ) T g ( x ) = 0 {\displaystyle (\lambda ^{*})^{T}g(x^{*})=0} {\displaystyle (\lambda ^{*})^{T}g(x^{*})=0}.

Ist der i {\displaystyle i} {\displaystyle i}-te Lagrange-Multiplikator (die i {\displaystyle i} {\displaystyle i}-te Ungleichungsrestriktion) ungleich Null, so muss die i {\displaystyle i} {\displaystyle i}-te Ungleichungsrestriktion (der i {\displaystyle i} {\displaystyle i}-te Lagrange-Multiplikator) folglich gleich Null sein:

λ i > 0 g i ( x ) = 0 g i ( x ) < 0 λ i = 0 {\displaystyle {\begin{aligned}\lambda _{i}^{*}>0\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<0\implies \lambda _{i}^{*}=0\end{aligned}}} {\displaystyle {\begin{aligned}\lambda _{i}^{*}>0\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<0\implies \lambda _{i}^{*}=0\end{aligned}}}.

Es muss also stets mindestens einer der beiden Faktoren null sein. Dies folgt daraus, dass λ i 0 {\displaystyle \lambda _{i}^{*}\geq 0} {\displaystyle \lambda _{i}^{*}\geq 0} und g i ( x ) 0 {\displaystyle g_{i}(x^{*})\leq 0} {\displaystyle g_{i}(x^{*})\leq 0} gilt, da beide dual bzw. primal zulässig sind.

Gilt die starke Dualität (d. h. sind der Optimalwert des primalen und des dualen Problems gleich), wird der Optimalwert in x {\displaystyle x^{*}} {\displaystyle x^{*}} und ( λ , μ ) {\displaystyle (\lambda ^{*},\mu ^{*})} {\displaystyle (\lambda ^{*},\mu ^{*})} angenommen und ist er endlich, so gilt die Komplementaritätsbedingung.

Alternativ findet sich auch im Rahmen der KKT-Bedingungen die Formulierung, dass wenn x {\displaystyle x^{*}} {\displaystyle x^{*}} optimal für das primale Problem ist, f ( x ) {\displaystyle f(x^{*})} {\displaystyle f(x^{*})} endlich ist und gewisse Regularitätsbedingungen (auch constraint qualifications genannt) gelten, so existieren λ i 0 {\displaystyle \lambda _{i}^{*}\geq 0} {\displaystyle \lambda _{i}^{*}\geq 0}, so dass für x , λ {\displaystyle x^{*},\lambda ^{*}} {\displaystyle x^{*},\lambda ^{*}} die Komplementaritätsbedingung gilt. Die Regularitätsbedingungen garantieren die starke Dualität (meist nur im Punkt x {\displaystyle x^{*}} {\displaystyle x^{*}}) und ermöglichen damit die Ergänzung der primalen Optimallösung um die duale Optimallösung.

Für lineare Programme

[Bearbeiten | Quelltext bearbeiten ]

Problemstellung

[Bearbeiten | Quelltext bearbeiten ]

Handelt es sich bei den Optimierungsproblemen um lineare Programme, so nehmen das primale und das duale Problem eine besondere Form an und der komplementäre Schlupf vereinfacht sich.

Primales Problem Duales Problem
Minimiere  c T x unter den Nebenbedingungen  A x = b x 0 {\displaystyle {\begin{aligned}{\text{Minimiere }}&c^{T}x&\\{\text{unter den Nebenbedingungen }}&Ax=b\\&x\geq 0\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&c^{T}x&\\{\text{unter den Nebenbedingungen }}&Ax=b\\&x\geq 0\end{aligned}}} Maximiere  b T y unter den Nebenbedingungen  A T y c {\displaystyle {\begin{aligned}{\text{Maximiere }}&b^{T}y&\\{\text{unter den Nebenbedingungen }}&A^{T}y\leq c\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&b^{T}y&\\{\text{unter den Nebenbedingungen }}&A^{T}y\leq c\end{aligned}}}

Dabei ist x , c R n , b , y R m {\displaystyle x,c\in \mathbb {R} ^{n},,円,円b,y\in \mathbb {R} ^{m}} {\displaystyle x,c\in \mathbb {R} ^{n},,円,円b,y\in \mathbb {R} ^{m}} und A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} {\displaystyle A\in \mathbb {R} ^{m\times n}}.

Bezeichne [ x ] i {\displaystyle [x]_{i}} {\displaystyle [x]_{i}} die i-te Komponente des Vektors x {\displaystyle x} {\displaystyle x}. Dann lautet die Komplementaritätsbedingung für zulässige x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}}

( x ) T ( A T y c ) = 0  bzw.  [ x ] i [ A T y c ] i = 0 {\displaystyle (x^{*})^{T}(A^{T}y^{*}-c)=0{\text{ bzw. }}[x^{*}]_{i}\cdot [A^{T}y^{*}-c]_{i}=0} {\displaystyle (x^{*})^{T}(A^{T}y^{*}-c)=0{\text{ bzw. }}[x^{*}]_{i}\cdot [A^{T}y^{*}-c]_{i}=0}.

Damit folgt

[ x ] i > 0 [ A T y ] i = [ c ] i [ A T y c ] i < 0 [ x ] i = 0 {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[A^{T}y^{*}\right]_{i}=\left[c\right]_{i}\\\left[A^{T}y^{*}-c\right]_{i}<0\implies \left[x^{*}\right]_{i}=0\end{aligned}}} {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[A^{T}y^{*}\right]_{i}=\left[c\right]_{i}\\\left[A^{T}y^{*}-c\right]_{i}<0\implies \left[x^{*}\right]_{i}=0\end{aligned}}}.

Ist das duale Problem mit einer Schlupfvariable s R n {\displaystyle s\in \mathbb {R} ^{n}} {\displaystyle s\in \mathbb {R} ^{n}} formuliert, lauten die Nebenbedingungen also

A T y + s = c , s 0 , {\displaystyle A^{T}y+s=c,,円,円s\geq 0,} {\displaystyle A^{T}y+s=c,,円,円s\geq 0,}

so lautet die Komplementaritätsbedingung

( x ) T s = 0  bzw.  [ x ] i [ s ] i = 0 {\displaystyle (x^{*})^{T}s^{*}=0{\text{ bzw. }}[x^{*}]_{i}\cdot [s]_{i}=0} {\displaystyle (x^{*})^{T}s^{*}=0{\text{ bzw. }}[x^{*}]_{i}\cdot [s]_{i}=0}

und

[ x ] i > 0 [ s ] i = 0 [ s ] i > 0 [ x ] i = 0 {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[s^{*}\right]_{i}=0\\\left[s^{*}\right]_{i}>0\implies \left[x^{*}\right]_{i}=0\end{aligned}}} {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[s^{*}\right]_{i}=0\\\left[s^{*}\right]_{i}>0\implies \left[x^{*}\right]_{i}=0\end{aligned}}}.

Dies erklärt die Namensgebung als komplementärer Schlupf: Entweder die Schlupfvariable ist null oder die primale Variable ist null.

Die Formulierung der Komplementaritätsbedingung basiert auf der Tatsache, dass für lineare Programme starke Dualität gilt und der Optimalwert endlich ist, genau dann, wenn sowohl das primale als auch das duale Problem einen zulässigen Punkt besitzen.

Die Formulierung lautet also, dass falls das primale und das duale Problem zulässige Lösungen besitzen, zulässige Lösungen x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}} (bzw. je nach Formulierung s {\displaystyle s^{*}} {\displaystyle s^{*}}) existieren, die die Komplementaritätsbedingung erfüllen. Die x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}} sind dann Optimallösungen des primalen und dualen Problems.

Umgekehrt erfüllt jedes endliche primal-duale Optimalpaar x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}} die Komplementaritätsbedingung.

Wir betrachten das primale lineare Programm

Minimiere  ( 1 , 0 , 0 ) x unter den Nebenbedingungen  ( 1 , 1 , 1 ) x = 1 x 0 {\displaystyle {\begin{aligned}{\text{Minimiere }}&(-1,0,0)x\\{\text{unter den Nebenbedingungen }}&(1,1,1)x=1\\&x\geq 0\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&(-1,0,0)x\\{\text{unter den Nebenbedingungen }}&(1,1,1)x=1\\&x\geq 0\end{aligned}}}

und das zugehörige duale Programm

Maximiere  y 1 unter den Nebenbedingungen  ( 1 1 1 ) y ( 1 0 0 ) {\displaystyle {\begin{aligned}{\text{Maximiere }}&y_{1}\\{\text{unter den Nebenbedingungen }}&{\begin{pmatrix}1\1円\1円\end{pmatrix}}y\leq {\begin{pmatrix}-1\0円\0円\end{pmatrix}}\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&y_{1}\\{\text{unter den Nebenbedingungen }}&{\begin{pmatrix}1\1円\1円\end{pmatrix}}y\leq {\begin{pmatrix}-1\0円\0円\end{pmatrix}}\end{aligned}}}

Beide Probleme besitzen einen zulässigen Punkt, somit gilt starke Dualität. Der optimale duale Zielfunktionswert ist y 1 = 1 {\displaystyle y_{1}=-1} {\displaystyle y_{1}=-1}. Aus der starken Dualität folgert man wegen c T x = b T y {\displaystyle c^{T}x=b^{T}y} {\displaystyle c^{T}x=b^{T}y}, dass x 1 = 1 {\displaystyle x_{1}=1} {\displaystyle x_{1}=1} ist. Der komplementäre Schlupf liefert nun

x 2 ( y 1 0 ) = 0 x 3 ( y 1 0 ) = 0 {\displaystyle {\begin{aligned}x_{2}\cdot (y_{1}-0)=0\\x_{3}\cdot (y_{1}-0)=0\end{aligned}}} {\displaystyle {\begin{aligned}x_{2}\cdot (y_{1}-0)=0\\x_{3}\cdot (y_{1}-0)=0\end{aligned}}}

und damit x 2 = x 3 = 0 {\displaystyle x_{2}=x_{3}=0} {\displaystyle x_{2}=x_{3}=0}. Somit liefert hier der komplementäre Schlupf den vollständigen primalen Optimalpunkt. Umgekehrt kann man auch bei gegebenen primalen und dualen Punkten überprüfen, ob diese Optimalpunkte sind: Wenn sie optimal sind, müssen sie den komplementären Schlupf erfüllen.

Sei x {\displaystyle x^{*}} {\displaystyle x^{*}} primal optimal und ( λ , μ ) {\displaystyle (\lambda ^{*},\mu ^{*})} {\displaystyle (\lambda ^{*},\mu ^{*})} dual optimal. Dann ist g i ( x ) 0 {\displaystyle g_{i}(x^{*})\leq 0} {\displaystyle g_{i}(x^{*})\leq 0} und λ i 0 {\displaystyle \lambda _{i}^{*}\geq 0} {\displaystyle \lambda _{i}^{*}\geq 0}, da die Optimalpunkte zulässig sind. Somit ist λ g i ( x ) 0 {\displaystyle \lambda ^{*}g_{i}(x^{*})\leq 0} {\displaystyle \lambda ^{*}g_{i}(x^{*})\leq 0}. Wegen der starken Dualität ist

f ( x ) = q ( λ , μ ) = inf x X ( f ( x ) + i = 1 p λ i g i ( x ) + j = 1 q μ j h j ( x ) ) f ( x ) + i = 1 p λ i g i ( x ) 0 + j = 1 q μ j h j ( x ) = 0 f ( x ) {\displaystyle {\begin{aligned}f(x^{*})=q(\lambda ^{*},\mu ^{*})=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}^{*}h_{j}(x)\right)\\\leq f(x^{*})+\sum _{i=1}^{p}\underbrace {\lambda _{i}^{*}g_{i}(x^{*})} _{\leq 0}+\sum _{j=1}^{q}\underbrace {\mu _{j}^{*}h_{j}(x^{*})} _{=0}\leq f(x^{*})\end{aligned}}} {\displaystyle {\begin{aligned}f(x^{*})=q(\lambda ^{*},\mu ^{*})=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}^{*}h_{j}(x)\right)\\\leq f(x^{*})+\sum _{i=1}^{p}\underbrace {\lambda _{i}^{*}g_{i}(x^{*})} _{\leq 0}+\sum _{j=1}^{q}\underbrace {\mu _{j}^{*}h_{j}(x^{*})} _{=0}\leq f(x^{*})\end{aligned}}}

Die erste geschweifte Klammer folgt aus der oben gezeigten Identität, die zweite aus der Tatsache, dass h j ( x ) = 0 {\displaystyle h_{j}(x^{*})=0} {\displaystyle h_{j}(x^{*})=0}, da x {\displaystyle x^{*}} {\displaystyle x^{*}} zulässig ist. Ist nun f ( x ) {\displaystyle f(x^{*})} {\displaystyle f(x^{*})} endlich, so gilt in der Ungleichung Gleichheit und es folgt

i = 1 p λ i g i ( x ) = 0 {\displaystyle \sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x^{*})=0} {\displaystyle \sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x^{*})=0},

was die Behauptung impliziert, da jeder der Summanden kleinergleich null ist.

Verallgemeinerungen

[Bearbeiten | Quelltext bearbeiten ]

Der komplementäre Schlupf lässt sich auch allgemeiner formulieren für Abbildungen zwischen vollständigen reellen Vektorräumen, die mit Skalarprodukt versehen sind und auf denen eine verallgemeinerte Ungleichung K {\displaystyle \preccurlyeq _{K}} {\displaystyle \preccurlyeq _{K}} bzw. ein Ordnungskegel definiert ist. Die Funktionen g i {\displaystyle g_{i}} {\displaystyle g_{i}} bilden in den Vektorraum V i {\displaystyle V_{i}} {\displaystyle V_{i}} versehen mit dem Skalarprodukt ; i {\displaystyle \langle \cdot ;\cdot \rangle _{i}} {\displaystyle \langle \cdot ;\cdot \rangle _{i}} ab, ebenso bilden die Funktionen h j {\displaystyle h_{j}} {\displaystyle h_{j}} in den Vektorraum V j {\displaystyle V_{j}} {\displaystyle V_{j}} versehen mit dem Skalarprodukt ; j {\displaystyle \langle \cdot ;\cdot \rangle _{j}} {\displaystyle \langle \cdot ;\cdot \rangle _{j}} ab. Das primale und duale Problem lauten dann

Primales Problem Duales Problem
Minimiere  f ( x ) unter den Nebenbedingungen  g i ( x ) K i 0 i = 1 , , p h j ( x ) = 0 j = 1 , , q x X {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\preccurlyeq _{K_{i}}0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\preccurlyeq _{K_{i}}0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} Maximiere  q ( λ , μ ) unter den Nebenbedingungen  λ i K i 0 i = 1 , , p {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\succcurlyeq _{K_{i}^{*}}0&i=1,\dotsc ,p\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\succcurlyeq _{K_{i}^{*}}0&i=1,\dotsc ,p\end{aligned}}}.

Dabei ist

q ( λ , μ ) = inf x X ( f ( x ) + i = 1 p λ ; g ( x ) i + j = 1 q μ j ; h j ( x ) j ) {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\langle \lambda ;g(x)\rangle _{i}+\sum _{j=1}^{q}\langle \mu _{j};h_{j}(x)\rangle _{j}\right)} {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\langle \lambda ;g(x)\rangle _{i}+\sum _{j=1}^{q}\langle \mu _{j};h_{j}(x)\rangle _{j}\right)}

die duale Funktion und K {\displaystyle K^{*}} {\displaystyle K^{*}} der duale Kegel zu K {\displaystyle K} {\displaystyle K}.

Gilt starke Dualität und sind die Punkte x {\displaystyle x^{*}} {\displaystyle x^{*}} sowie ( λ , μ ) {\displaystyle (\lambda ^{*},\mu ^{*})} {\displaystyle (\lambda ^{*},\mu ^{*})} optimal und ist der Zielfunktionswert endlich, so gilt

λ i ; g i ( x ) i = 0  für  i = 1 , , p {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p} {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p}.

Daraus folgt

λ i > K i 0 g i ( x ) = 0 g i ( x ) < K i 0 λ i = 0 {\displaystyle {\begin{aligned}\lambda _{i}^{*}>_{K_{i}^{*}}0&\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<_{K_{i}}0&\implies \lambda _{i}^{*}=0\end{aligned}}} {\displaystyle {\begin{aligned}\lambda _{i}^{*}>_{K_{i}^{*}}0&\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<_{K_{i}}0&\implies \lambda _{i}^{*}=0\end{aligned}}}

Die Herleitung für diesen allgemeinen Fall ist größtenteils analog zur obigen Vorgehensweise unter Ausnutzung der Tatsache, dass wenn a K 0 , b K 0 {\displaystyle a\preccurlyeq _{K}0,b\succcurlyeq _{K^{*}}0} {\displaystyle a\preccurlyeq _{K}0,b\succcurlyeq _{K^{*}}0} ist, folgt, dass a ; b 0 {\displaystyle \langle a;b\rangle \leq 0} {\displaystyle \langle a;b\rangle \leq 0}.

Formuliert man das Problem mit Ordnungskegeln, sind also die Ungleichungsrestriktionen von der Form g i ( x ) K i {\displaystyle g_{i}(x)\in -K_{i}} {\displaystyle g_{i}(x)\in -K_{i}} bzw. λ K i {\displaystyle \lambda \in K_{i}^{*}} {\displaystyle \lambda \in K_{i}^{*}}, so gilt genauso wie oben

λ i ; g i ( x ) i = 0  für  i = 1 , , p {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p} {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p}.

Die Aussage

λ i int ( K i ) g i ( x ) = 0 {\displaystyle \lambda _{i}^{*}\in \operatorname {int} (K_{i}^{*})\implies g_{i}(x^{*})=0} {\displaystyle \lambda _{i}^{*}\in \operatorname {int} (K_{i}^{*})\implies g_{i}(x^{*})=0}

gilt aber nur, wenn der Kegel K i {\displaystyle K_{i}^{*}} {\displaystyle K_{i}^{*}} ein nichtleeres Inneres hat. Analog gilt

g i ( x ) int ( K i ) λ i = 0 {\displaystyle g_{i}(x^{*})\in \operatorname {int} (-K_{i})\implies \lambda _{i}^{*}=0} {\displaystyle g_{i}(x^{*})\in \operatorname {int} (-K_{i})\implies \lambda _{i}^{*}=0}

nur, wenn das Innere von K i {\displaystyle K_{i}} {\displaystyle K_{i}} nicht leer ist.

  • Boyd, Stephen; Vandenberghe, Lieven (2004). Convex Optimization. Cambridge University Press. ISBN 978-0-521-83378-3. (online)
  • C. Geiger, C. Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben. Springer, 2002. ISBN 3-540-42790-2.
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Komplementaritätsbedingung&oldid=215097708"