Komplementaritätsbedingung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Die Druckversion wird nicht mehr unterstützt und kann Darstellungsfehler aufweisen. Bitte aktualisiere deine Browser-Lesezeichen und verwende stattdessen die Standard-Druckfunktion des Browsers.

Die Komplementaritätsbedingung, auch komplementärer Schlupf genannt (englisch complementary Slackness), ist eine Aussage der mathematischen Optimierung, die eine Verbindung zwischen den Optimalpunkten zweier Optimierungsprobleme knüpft, die zueinander dual bezüglich der Lagrange-Dualität sind. Die Komplementaritätsbedingung ist ein notwendiges Optimalitätskriterium und findet Anwendung bei Innere-Punkte-Verfahren und den Karush-Kuhn-Tucker-Bedingungen.

Aussage

Allgemeiner Fall

Problemstellung

Gegeben seien zwei Optimierungsprobleme wie in der nachfolgenden Tabelle:

Primales Problem Duales Problem
Minimiere  f ( x ) unter den Nebenbedingungen  g i ( x ) 0 i = 1 , , p h j ( x ) = 0 j = 1 , , q x X {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\leq 0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\leq 0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} Maximiere  q ( λ , μ ) unter den Nebenbedingungen  λ i 0 i = 1 , , p {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\geq 0&i=1,\dotsc ,p\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\geq 0&i=1,\dotsc ,p\end{aligned}}}

Dabei ist

q ( λ , μ ) = inf x X ( f ( x ) + i = 1 p λ i g i ( x ) + j = 1 q μ j h j ( x ) ) {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}h_{j}(x)\right)} {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}h_{j}(x)\right)}

die duale Funktion und f , g i , h j : R n R {\displaystyle f,g_{i},h_{j}:\mathbb {R} ^{n}\mapsto \mathbb {R} } {\displaystyle f,g_{i},h_{j}:\mathbb {R} ^{n}\mapsto \mathbb {R} }

Aussage

Die Komplementaritätsbedingung lautet nun

λ i g i ( x ) = 0  für alle  i = 1 , , p {\displaystyle \lambda _{i}^{*}g_{i}(x^{*})=0{\text{ für alle }}i=1,\dotsc ,p} {\displaystyle \lambda _{i}^{*}g_{i}(x^{*})=0{\text{ für alle }}i=1,\dotsc ,p}

für zulässige x , λ {\displaystyle x^{*},\lambda ^{*}} {\displaystyle x^{*},\lambda ^{*}}. Eine alternative Formulierung in Vektorschreibweise mit g ( x ) = ( g 1 ( x ) , , g p ( x ) ) T {\displaystyle g(x)=(g_{1}(x),\dots ,g_{p}(x))^{T}} {\displaystyle g(x)=(g_{1}(x),\dots ,g_{p}(x))^{T}} und λ = ( λ 1 , , λ p ) T {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{p})^{T}} {\displaystyle \lambda =(\lambda _{1},\dots ,\lambda _{p})^{T}} ist

( λ ) T g ( x ) = 0 {\displaystyle (\lambda ^{*})^{T}g(x^{*})=0} {\displaystyle (\lambda ^{*})^{T}g(x^{*})=0}.

Ist der i {\displaystyle i} {\displaystyle i}-te Lagrange-Multiplikator (die i {\displaystyle i} {\displaystyle i}-te Ungleichungsrestriktion) ungleich Null, so muss die i {\displaystyle i} {\displaystyle i}-te Ungleichungsrestriktion (der i {\displaystyle i} {\displaystyle i}-te Lagrange-Multiplikator) folglich gleich Null sein:

λ i > 0 g i ( x ) = 0 g i ( x ) < 0 λ i = 0 {\displaystyle {\begin{aligned}\lambda _{i}^{*}>0\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<0\implies \lambda _{i}^{*}=0\end{aligned}}} {\displaystyle {\begin{aligned}\lambda _{i}^{*}>0\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<0\implies \lambda _{i}^{*}=0\end{aligned}}}.

Es muss also stets mindestens einer der beiden Faktoren null sein. Dies folgt daraus, dass λ i 0 {\displaystyle \lambda _{i}^{*}\geq 0} {\displaystyle \lambda _{i}^{*}\geq 0} und g i ( x ) 0 {\displaystyle g_{i}(x^{*})\leq 0} {\displaystyle g_{i}(x^{*})\leq 0} gilt, da beide dual bzw. primal zulässig sind.

Gültigkeit

Gilt die starke Dualität (d. h. sind der Optimalwert des primalen und des dualen Problems gleich), wird der Optimalwert in x {\displaystyle x^{*}} {\displaystyle x^{*}} und ( λ , μ ) {\displaystyle (\lambda ^{*},\mu ^{*})} {\displaystyle (\lambda ^{*},\mu ^{*})} angenommen und ist er endlich, so gilt die Komplementaritätsbedingung.

Alternativ findet sich auch im Rahmen der KKT-Bedingungen die Formulierung, dass wenn x {\displaystyle x^{*}} {\displaystyle x^{*}} optimal für das primale Problem ist, f ( x ) {\displaystyle f(x^{*})} {\displaystyle f(x^{*})} endlich ist und gewisse Regularitätsbedingungen (auch constraint qualifications genannt) gelten, so existieren λ i 0 {\displaystyle \lambda _{i}^{*}\geq 0} {\displaystyle \lambda _{i}^{*}\geq 0}, so dass für x , λ {\displaystyle x^{*},\lambda ^{*}} {\displaystyle x^{*},\lambda ^{*}} die Komplementaritätsbedingung gilt. Die Regularitätsbedingungen garantieren die starke Dualität (meist nur im Punkt x {\displaystyle x^{*}} {\displaystyle x^{*}}) und ermöglichen damit die Ergänzung der primalen Optimallösung um die duale Optimallösung.

Für lineare Programme

Problemstellung

Handelt es sich bei den Optimierungsproblemen um lineare Programme, so nehmen das primale und das duale Problem eine besondere Form an und der komplementäre Schlupf vereinfacht sich.

Primales Problem Duales Problem
Minimiere  c T x unter den Nebenbedingungen  A x = b x 0 {\displaystyle {\begin{aligned}{\text{Minimiere }}&c^{T}x&\\{\text{unter den Nebenbedingungen }}&Ax=b\\&x\geq 0\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&c^{T}x&\\{\text{unter den Nebenbedingungen }}&Ax=b\\&x\geq 0\end{aligned}}} Maximiere  b T y unter den Nebenbedingungen  A T y c {\displaystyle {\begin{aligned}{\text{Maximiere }}&b^{T}y&\\{\text{unter den Nebenbedingungen }}&A^{T}y\leq c\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&b^{T}y&\\{\text{unter den Nebenbedingungen }}&A^{T}y\leq c\end{aligned}}}

Dabei ist x , c R n , b , y R m {\displaystyle x,c\in \mathbb {R} ^{n},,円,円b,y\in \mathbb {R} ^{m}} {\displaystyle x,c\in \mathbb {R} ^{n},,円,円b,y\in \mathbb {R} ^{m}} und A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} {\displaystyle A\in \mathbb {R} ^{m\times n}}.

Aussage

Bezeichne [ x ] i {\displaystyle [x]_{i}} {\displaystyle [x]_{i}} die i-te Komponente des Vektors x {\displaystyle x} {\displaystyle x}. Dann lautet die Komplementaritätsbedingung für zulässige x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}}

( x ) T ( A T y c ) = 0  bzw.  [ x ] i [ A T y c ] i = 0 {\displaystyle (x^{*})^{T}(A^{T}y^{*}-c)=0{\text{ bzw. }}[x^{*}]_{i}\cdot [A^{T}y^{*}-c]_{i}=0} {\displaystyle (x^{*})^{T}(A^{T}y^{*}-c)=0{\text{ bzw. }}[x^{*}]_{i}\cdot [A^{T}y^{*}-c]_{i}=0}.

Damit folgt

[ x ] i > 0 [ A T y ] i = [ c ] i [ A T y c ] i < 0 [ x ] i = 0 {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[A^{T}y^{*}\right]_{i}=\left[c\right]_{i}\\\left[A^{T}y^{*}-c\right]_{i}<0\implies \left[x^{*}\right]_{i}=0\end{aligned}}} {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[A^{T}y^{*}\right]_{i}=\left[c\right]_{i}\\\left[A^{T}y^{*}-c\right]_{i}<0\implies \left[x^{*}\right]_{i}=0\end{aligned}}}.

Ist das duale Problem mit einer Schlupfvariable s R n {\displaystyle s\in \mathbb {R} ^{n}} {\displaystyle s\in \mathbb {R} ^{n}} formuliert, lauten die Nebenbedingungen also

A T y + s = c , s 0 , {\displaystyle A^{T}y+s=c,,円,円s\geq 0,} {\displaystyle A^{T}y+s=c,,円,円s\geq 0,}

so lautet die Komplementaritätsbedingung

( x ) T s = 0  bzw.  [ x ] i [ s ] i = 0 {\displaystyle (x^{*})^{T}s^{*}=0{\text{ bzw. }}[x^{*}]_{i}\cdot [s]_{i}=0} {\displaystyle (x^{*})^{T}s^{*}=0{\text{ bzw. }}[x^{*}]_{i}\cdot [s]_{i}=0}

und

[ x ] i > 0 [ s ] i = 0 [ s ] i > 0 [ x ] i = 0 {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[s^{*}\right]_{i}=0\\\left[s^{*}\right]_{i}>0\implies \left[x^{*}\right]_{i}=0\end{aligned}}} {\displaystyle {\begin{aligned}\left[x^{*}\right]_{i}>0\implies \left[s^{*}\right]_{i}=0\\\left[s^{*}\right]_{i}>0\implies \left[x^{*}\right]_{i}=0\end{aligned}}}.

Dies erklärt die Namensgebung als komplementärer Schlupf: Entweder die Schlupfvariable ist null oder die primale Variable ist null.

Gültigkeit

Die Formulierung der Komplementaritätsbedingung basiert auf der Tatsache, dass für lineare Programme starke Dualität gilt und der Optimalwert endlich ist, genau dann, wenn sowohl das primale als auch das duale Problem einen zulässigen Punkt besitzen.

Die Formulierung lautet also, dass falls das primale und das duale Problem zulässige Lösungen besitzen, zulässige Lösungen x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}} (bzw. je nach Formulierung s {\displaystyle s^{*}} {\displaystyle s^{*}}) existieren, die die Komplementaritätsbedingung erfüllen. Die x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}} sind dann Optimallösungen des primalen und dualen Problems.

Umgekehrt erfüllt jedes endliche primal-duale Optimalpaar x , y {\displaystyle x^{*},y^{*}} {\displaystyle x^{*},y^{*}} die Komplementaritätsbedingung.

Beispiel

Wir betrachten das primale lineare Programm

Minimiere  ( 1 , 0 , 0 ) x unter den Nebenbedingungen  ( 1 , 1 , 1 ) x = 1 x 0 {\displaystyle {\begin{aligned}{\text{Minimiere }}&(-1,0,0)x\\{\text{unter den Nebenbedingungen }}&(1,1,1)x=1\\&x\geq 0\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&(-1,0,0)x\\{\text{unter den Nebenbedingungen }}&(1,1,1)x=1\\&x\geq 0\end{aligned}}}

und das zugehörige duale Programm

Maximiere  y 1 unter den Nebenbedingungen  ( 1 1 1 ) y ( 1 0 0 ) {\displaystyle {\begin{aligned}{\text{Maximiere }}&y_{1}\\{\text{unter den Nebenbedingungen }}&{\begin{pmatrix}1\1円\1円\end{pmatrix}}y\leq {\begin{pmatrix}-1\0円\0円\end{pmatrix}}\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&y_{1}\\{\text{unter den Nebenbedingungen }}&{\begin{pmatrix}1\1円\1円\end{pmatrix}}y\leq {\begin{pmatrix}-1\0円\0円\end{pmatrix}}\end{aligned}}}

Beide Probleme besitzen einen zulässigen Punkt, somit gilt starke Dualität. Der optimale duale Zielfunktionswert ist y 1 = 1 {\displaystyle y_{1}=-1} {\displaystyle y_{1}=-1}. Aus der starken Dualität folgert man wegen c T x = b T y {\displaystyle c^{T}x=b^{T}y} {\displaystyle c^{T}x=b^{T}y}, dass x 1 = 1 {\displaystyle x_{1}=1} {\displaystyle x_{1}=1} ist. Der komplementäre Schlupf liefert nun

x 2 ( y 1 0 ) = 0 x 3 ( y 1 0 ) = 0 {\displaystyle {\begin{aligned}x_{2}\cdot (y_{1}-0)=0\\x_{3}\cdot (y_{1}-0)=0\end{aligned}}} {\displaystyle {\begin{aligned}x_{2}\cdot (y_{1}-0)=0\\x_{3}\cdot (y_{1}-0)=0\end{aligned}}}

und damit x 2 = x 3 = 0 {\displaystyle x_{2}=x_{3}=0} {\displaystyle x_{2}=x_{3}=0}. Somit liefert hier der komplementäre Schlupf den vollständigen primalen Optimalpunkt. Umgekehrt kann man auch bei gegebenen primalen und dualen Punkten überprüfen, ob diese Optimalpunkte sind: Wenn sie optimal sind, müssen sie den komplementären Schlupf erfüllen.

Herleitung

Sei x {\displaystyle x^{*}} {\displaystyle x^{*}} primal optimal und ( λ , μ ) {\displaystyle (\lambda ^{*},\mu ^{*})} {\displaystyle (\lambda ^{*},\mu ^{*})} dual optimal. Dann ist g i ( x ) 0 {\displaystyle g_{i}(x^{*})\leq 0} {\displaystyle g_{i}(x^{*})\leq 0} und λ i 0 {\displaystyle \lambda _{i}^{*}\geq 0} {\displaystyle \lambda _{i}^{*}\geq 0}, da die Optimalpunkte zulässig sind. Somit ist λ g i ( x ) 0 {\displaystyle \lambda ^{*}g_{i}(x^{*})\leq 0} {\displaystyle \lambda ^{*}g_{i}(x^{*})\leq 0}. Wegen der starken Dualität ist

f ( x ) = q ( λ , μ ) = inf x X ( f ( x ) + i = 1 p λ i g i ( x ) + j = 1 q μ j h j ( x ) ) f ( x ) + i = 1 p λ i g i ( x ) 0 + j = 1 q μ j h j ( x ) = 0 f ( x ) {\displaystyle {\begin{aligned}f(x^{*})=q(\lambda ^{*},\mu ^{*})=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}^{*}h_{j}(x)\right)\\\leq f(x^{*})+\sum _{i=1}^{p}\underbrace {\lambda _{i}^{*}g_{i}(x^{*})} _{\leq 0}+\sum _{j=1}^{q}\underbrace {\mu _{j}^{*}h_{j}(x^{*})} _{=0}\leq f(x^{*})\end{aligned}}} {\displaystyle {\begin{aligned}f(x^{*})=q(\lambda ^{*},\mu ^{*})=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x)+\sum _{j=1}^{q}\mu _{j}^{*}h_{j}(x)\right)\\\leq f(x^{*})+\sum _{i=1}^{p}\underbrace {\lambda _{i}^{*}g_{i}(x^{*})} _{\leq 0}+\sum _{j=1}^{q}\underbrace {\mu _{j}^{*}h_{j}(x^{*})} _{=0}\leq f(x^{*})\end{aligned}}}

Die erste geschweifte Klammer folgt aus der oben gezeigten Identität, die zweite aus der Tatsache, dass h j ( x ) = 0 {\displaystyle h_{j}(x^{*})=0} {\displaystyle h_{j}(x^{*})=0}, da x {\displaystyle x^{*}} {\displaystyle x^{*}} zulässig ist. Ist nun f ( x ) {\displaystyle f(x^{*})} {\displaystyle f(x^{*})} endlich, so gilt in der Ungleichung Gleichheit und es folgt

i = 1 p λ i g i ( x ) = 0 {\displaystyle \sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x^{*})=0} {\displaystyle \sum _{i=1}^{p}\lambda _{i}^{*}g_{i}(x^{*})=0},

was die Behauptung impliziert, da jeder der Summanden kleinergleich null ist.

Verallgemeinerungen

Der komplementäre Schlupf lässt sich auch allgemeiner formulieren für Abbildungen zwischen vollständigen reellen Vektorräumen, die mit Skalarprodukt versehen sind und auf denen eine verallgemeinerte Ungleichung K {\displaystyle \preccurlyeq _{K}} {\displaystyle \preccurlyeq _{K}} bzw. ein Ordnungskegel definiert ist. Die Funktionen g i {\displaystyle g_{i}} {\displaystyle g_{i}} bilden in den Vektorraum V i {\displaystyle V_{i}} {\displaystyle V_{i}} versehen mit dem Skalarprodukt ; i {\displaystyle \langle \cdot ;\cdot \rangle _{i}} {\displaystyle \langle \cdot ;\cdot \rangle _{i}} ab, ebenso bilden die Funktionen h j {\displaystyle h_{j}} {\displaystyle h_{j}} in den Vektorraum V j {\displaystyle V_{j}} {\displaystyle V_{j}} versehen mit dem Skalarprodukt ; j {\displaystyle \langle \cdot ;\cdot \rangle _{j}} {\displaystyle \langle \cdot ;\cdot \rangle _{j}} ab. Das primale und duale Problem lauten dann

Primales Problem Duales Problem
Minimiere  f ( x ) unter den Nebenbedingungen  g i ( x ) K i 0 i = 1 , , p h j ( x ) = 0 j = 1 , , q x X {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\preccurlyeq _{K_{i}}0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Minimiere }}&f(x)&\\{\text{unter den Nebenbedingungen }}&g_{i}(x)\preccurlyeq _{K_{i}}0&i=1,\dotsc ,p\\&h_{j}(x)=0&j=1,\dotsc ,q\\&x\in X&\end{aligned}}} Maximiere  q ( λ , μ ) unter den Nebenbedingungen  λ i K i 0 i = 1 , , p {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\succcurlyeq _{K_{i}^{*}}0&i=1,\dotsc ,p\end{aligned}}} {\displaystyle {\begin{aligned}{\text{Maximiere }}&q(\lambda ,\mu )&\\{\text{unter den Nebenbedingungen }}&\lambda _{i}\succcurlyeq _{K_{i}^{*}}0&i=1,\dotsc ,p\end{aligned}}}.

Dabei ist

q ( λ , μ ) = inf x X ( f ( x ) + i = 1 p λ ; g ( x ) i + j = 1 q μ j ; h j ( x ) j ) {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\langle \lambda ;g(x)\rangle _{i}+\sum _{j=1}^{q}\langle \mu _{j};h_{j}(x)\rangle _{j}\right)} {\displaystyle q(\lambda ,\mu )=\inf _{x\in X}\left(f(x)+\sum _{i=1}^{p}\langle \lambda ;g(x)\rangle _{i}+\sum _{j=1}^{q}\langle \mu _{j};h_{j}(x)\rangle _{j}\right)}

die duale Funktion und K {\displaystyle K^{*}} {\displaystyle K^{*}} der duale Kegel zu K {\displaystyle K} {\displaystyle K}.

Gilt starke Dualität und sind die Punkte x {\displaystyle x^{*}} {\displaystyle x^{*}} sowie ( λ , μ ) {\displaystyle (\lambda ^{*},\mu ^{*})} {\displaystyle (\lambda ^{*},\mu ^{*})} optimal und ist der Zielfunktionswert endlich, so gilt

λ i ; g i ( x ) i = 0  für  i = 1 , , p {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p} {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p}.

Daraus folgt

λ i > K i 0 g i ( x ) = 0 g i ( x ) < K i 0 λ i = 0 {\displaystyle {\begin{aligned}\lambda _{i}^{*}>_{K_{i}^{*}}0&\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<_{K_{i}}0&\implies \lambda _{i}^{*}=0\end{aligned}}} {\displaystyle {\begin{aligned}\lambda _{i}^{*}>_{K_{i}^{*}}0&\implies g_{i}(x^{*})=0\\g_{i}(x^{*})<_{K_{i}}0&\implies \lambda _{i}^{*}=0\end{aligned}}}

Die Herleitung für diesen allgemeinen Fall ist größtenteils analog zur obigen Vorgehensweise unter Ausnutzung der Tatsache, dass wenn a K 0 , b K 0 {\displaystyle a\preccurlyeq _{K}0,b\succcurlyeq _{K^{*}}0} {\displaystyle a\preccurlyeq _{K}0,b\succcurlyeq _{K^{*}}0} ist, folgt, dass a ; b 0 {\displaystyle \langle a;b\rangle \leq 0} {\displaystyle \langle a;b\rangle \leq 0}.

Formuliert man das Problem mit Ordnungskegeln, sind also die Ungleichungsrestriktionen von der Form g i ( x ) K i {\displaystyle g_{i}(x)\in -K_{i}} {\displaystyle g_{i}(x)\in -K_{i}} bzw. λ K i {\displaystyle \lambda \in K_{i}^{*}} {\displaystyle \lambda \in K_{i}^{*}}, so gilt genauso wie oben

λ i ; g i ( x ) i = 0  für  i = 1 , , p {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p} {\displaystyle \langle \lambda _{i}^{*};g_{i}(x^{*})\rangle _{i}=0{\text{ für }}i=1,\dots ,p}.

Die Aussage

λ i int ( K i ) g i ( x ) = 0 {\displaystyle \lambda _{i}^{*}\in \operatorname {int} (K_{i}^{*})\implies g_{i}(x^{*})=0} {\displaystyle \lambda _{i}^{*}\in \operatorname {int} (K_{i}^{*})\implies g_{i}(x^{*})=0}

gilt aber nur, wenn der Kegel K i {\displaystyle K_{i}^{*}} {\displaystyle K_{i}^{*}} ein nichtleeres Inneres hat. Analog gilt

g i ( x ) int ( K i ) λ i = 0 {\displaystyle g_{i}(x^{*})\in \operatorname {int} (-K_{i})\implies \lambda _{i}^{*}=0} {\displaystyle g_{i}(x^{*})\in \operatorname {int} (-K_{i})\implies \lambda _{i}^{*}=0}

nur, wenn das Innere von K i {\displaystyle K_{i}} {\displaystyle K_{i}} nicht leer ist.

Literatur

  • Boyd, Stephen; Vandenberghe, Lieven (2004). Convex Optimization. Cambridge University Press. ISBN 978-0-521-83378-3. (online)
  • C. Geiger, C. Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben. Springer, 2002. ISBN 3-540-42790-2.
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Komplementaritätsbedingung&oldid=215097708"