Benutzer:Sigma^2/Baustelle

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Die Druckversion wird nicht mehr unterstützt und kann Darstellungsfehler aufweisen. Bitte aktualisiere deine Browser-Lesezeichen und verwende stattdessen die Standard-Druckfunktion des Browsers.

Geplante Ergänzungen

  1. zum Artikel Stichprobenverteilung
  2. zum Artikel Hahn-Jordan-Zerlegung

Bayesianische Inferenzstatistik

Bei der bayesianischen Inferenz wird die A-priori-Verteilung, die auf dem Parameterraum eines zu schätzenden Parameters definiert ist, unter Berücksichtigung der Wahrscheinlichkeitsverteilung des Stichprobenvektors X = ( X 1 , , X n ) {\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})} {\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})} und unter Verwendung eines realisierten und beobachteten Wertes x = ( x 1 , , x n ) {\displaystyle \mathbf {x} =(x_{1},\dots ,x_{n})} {\displaystyle \mathbf {x} =(x_{1},\dots ,x_{n})} des Stichprobenvektors in die A-posteriori-Verteilung transformiert. Dabei ist die A-posteriori-Verteilung proportional zum Produkt aus A-priori-Verteilung und der Likelihoodfunktion. Die Likelihoodfunktion gibt im diskreten Fall die Wahrscheinlichkeit und im stetigen Fall die Wahrscheinlichkeitsdichte des beobachten Wertes x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } für alternative Parameter an und wird als Funktion auf dem Parameterraum interpretiert.

Falls eine suffiziente Stichprobenfunktion (suffiziente Statistik) existiert, kann die Stichprobenverteilung dieser Stichprobenfunktion an die Stelle der Verteilung des Stichprobenvektors treten, ohne dass sich die resultierende A-posteriori-Verteilung ändert.

Beispiel

Die Stichprobenvariablen X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} {\displaystyle X_{1},\dots ,X_{n}} seien stochastisch unabhängig und identisch Bernoulli-verteilt mit unbekanntem Bernoulli-Parameter 0 < p < 1 {\displaystyle 0<p<1} {\displaystyle 0<p<1}. Die Wahrscheinlichkeitsverteilung des Stichprobenvektors X = ( X 1 , , X n ) {\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})} {\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})} ist dann

P p ( X = x ) = { p k ( 1 p ) n k , falls  x = ( x 1 , , x n ) { 0 , 1 } n 0 sonst , {\displaystyle P_{p}(\mathbf {X} =\mathbf {x} )={\begin{cases}p^{k}(1-p)^{n-k},&{\text{falls }}\mathbf {x} =(x_{1},\dots ,x_{n})\in \{0,1\}^{n}\0円&{\text{sonst}}\end{cases}}\;,} {\displaystyle P_{p}(\mathbf {X} =\mathbf {x} )={\begin{cases}p^{k}(1-p)^{n-k},&{\text{falls }}\mathbf {x} =(x_{1},\dots ,x_{n})\in \{0,1\}^{n}\0円&{\text{sonst}}\end{cases}}\;,}

wobei k := i = 1 n x i {\displaystyle k:=\sum _{i=1}^{n}x_{i}} {\displaystyle k:=\sum _{i=1}^{n}x_{i}}. Wenn f 0 {\displaystyle f_{0}} {\displaystyle f_{0}} die gegebene Dichtefunktion einer A-Priori-Verteilung auf dem Intervall ( 0 , 1 ) {\displaystyle (0,1)} {\displaystyle (0,1)} ist und x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } ein relasierter und beobachteter Wert des Suchprobenvektors X = ( X 1 , , X n ) {\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})} {\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})} ist, dann ist die Dichtefunktion f 1 {\displaystyle f_{1}} {\displaystyle f_{1}} der A-Posteriori-Verteilung proportional zum Produkt aus f 0 {\displaystyle f_{0}} {\displaystyle f_{0}} und der Likelihoodfunktion

L x ( p ) := P p ( X = x ) , 0 < p < 1 . {\displaystyle L_{\mathbf {x} }(p):=P_{p}(\mathbf {X} =\mathbf {x} ),\quad 0<p<1\;.} {\displaystyle L_{\mathbf {x} }(p):=P_{p}(\mathbf {X} =\mathbf {x} ),\quad 0<p<1\;.}

Es gilt also

f 1 ( p ; x ) = c L x ( p ) f 0 ( p ) , 0 < p < 1 {\displaystyle f_{1}(p;\mathbf {x} )=c\cdot L_{\mathbf {x} }(p)\cdot f_{0}(p),\quad 0<p<1} {\displaystyle f_{1}(p;\mathbf {x} )=c\cdot L_{\mathbf {x} }(p)\cdot f_{0}(p),\quad 0<p<1}.

Die Summe K = i = 1 n X i {\displaystyle K=\sum _{i=1}^{n}X_{i}} {\displaystyle K=\sum _{i=1}^{n}X_{i}} der Stichprobenvariablen ist eine suffiziente Stichprobenfunktion für den Parameter p {\displaystyle p} {\displaystyle p} mit der Stichprobenverteilung

P p ( K = k ) = { ( n k ) p k ( 1 p ) n k , falls  k { 0 , 1 , , n } 0 sonst {\displaystyle P_{p}(K=k)={\begin{cases}{\binom {n}{k}}p^{k}(1-p)^{n-k},&{\text{falls }}k\in \{0,1,\dots ,n\}\0円&{\text{sonst}}\end{cases}}} {\displaystyle P_{p}(K=k)={\begin{cases}{\binom {n}{k}}p^{k}(1-p)^{n-k},&{\text{falls }}k\in \{0,1,\dots ,n\}\0円&{\text{sonst}}\end{cases}}}

und der Likelihoodfunktion

L k ( p ) := P p ( K = k ) , 0 < p < 1 . {\displaystyle L_{k}(p):=P_{p}(K=k),\quad 0<p<1\;.} {\displaystyle L_{k}(p):=P_{p}(K=k),\quad 0<p<1\;.}

Da sich die Likelihoodfunktionen L x {\displaystyle L_{\mathbf {x} }} {\displaystyle L_{\mathbf {x} }} und L k {\displaystyle L_{k}} {\displaystyle L_{k}} nur durch einen konstanten Faktor unterscheiden, gilt auch

f 1 ( p ; x ) = c L k ( p ) f 0 ( p ) , 0 < p < 1 {\displaystyle f_{1}(p;\mathbf {x} )=c'\cdot L_{k}(p)\cdot f_{0}(p),\quad 0<p<1} {\displaystyle f_{1}(p;\mathbf {x} )=c'\cdot L_{k}(p)\cdot f_{0}(p),\quad 0<p<1}.

Die bayessche Inferenz beruhend auf der Verteilung des Stichprobenvektors und auf der Stichprobenverteilung der suffizienten Stichprobenfunktion führt zur selben A-Posteriori-Verteilung. Zu diesem Beispiel siehe auch Bayessche Statistik#Bayessche Inferenz am Beispiel des Münzwurfes und Suffiziente Statistik#Beispiel Binomialverteilung.

Beispiel zur Hahn-Jordan-Zerlegung

Gegeben sei der signierte Maßraum ( Ω , 2 Ω , μ ) {\displaystyle (\Omega ,2^{\Omega },\mu )} {\displaystyle (\Omega ,2^{\Omega },\mu )} mit Ω = { 1 , 2 } {\displaystyle \Omega =\{1,2\}} {\displaystyle \Omega =\{1,2\}} und mit μ ( { 1 } ) = 3 {\displaystyle \mu (\{1\})=3} {\displaystyle \mu (\{1\})=3} und μ ( { 2 } ) = 4 {\displaystyle \mu (\{2\})=-4} {\displaystyle \mu (\{2\})=-4}. Es ist P = { 1 } {\displaystyle P=\{1\}} {\displaystyle P=\{1\}} und N = { 2 } {\displaystyle N=\{2\}} {\displaystyle N=\{2\}}.

A {\displaystyle A} {\displaystyle A} μ ( A ) {\displaystyle \mu (A)} {\displaystyle \mu (A)} | μ ( A ) | {\displaystyle |\mu (A)|} {\displaystyle |\mu (A)|} μ + ( A ) {\displaystyle \mu ^{+}(A)} {\displaystyle \mu ^{+}(A)} μ ( A ) {\displaystyle \mu ^{-}(A)} {\displaystyle \mu ^{-}(A)} | μ | ( A ) {\displaystyle |\mu |(A)} {\displaystyle |\mu |(A)}
{\displaystyle \emptyset } {\displaystyle \emptyset } 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0}
{ 1 } {\displaystyle \{1\}} {\displaystyle \{1\}} 3 {\displaystyle 3} {\displaystyle 3} 3 {\displaystyle 3} {\displaystyle 3} 3 {\displaystyle 3} {\displaystyle 3} 0 {\displaystyle 0} {\displaystyle 0} 3 {\displaystyle 3} {\displaystyle 3}
{ 2 } {\displaystyle \{2\}} {\displaystyle \{2\}} 4 {\displaystyle -4} {\displaystyle -4} 4 {\displaystyle 4} {\displaystyle 4} 0 {\displaystyle 0} {\displaystyle 0} 4 {\displaystyle 4} {\displaystyle 4} 4 {\displaystyle 4} {\displaystyle 4}
{ 1 , 2 } = Ω {\displaystyle \{1,2\}=\Omega } {\displaystyle \{1,2\}=\Omega } 1 {\displaystyle -1} {\displaystyle -1} 1 {\displaystyle 1} {\displaystyle 1} 3 {\displaystyle 3} {\displaystyle 3} 4 {\displaystyle 4} {\displaystyle 4} 7 {\displaystyle 7} {\displaystyle 7}

μ {\displaystyle \mu } {\displaystyle \mu } ist ein signiertes Maß; μ + , μ {\displaystyle \mu ^{+},\mu ^{-}} {\displaystyle \mu ^{+},\mu ^{-}} und | μ | {\displaystyle |\mu |} {\displaystyle |\mu |} sind Maße. Die Mengenfunktion | μ ( ) | {\displaystyle |\mu (\cdot )|} {\displaystyle |\mu (\cdot )|} ist nicht additiv und darf nicht mit der Totalvariation | μ | ( ) {\displaystyle |\mu |(\cdot )} {\displaystyle |\mu |(\cdot )} verwechselt werden. Die Totalvariationsnorm des signierten Maßes μ {\displaystyle \mu } {\displaystyle \mu } ist | μ | ( Ω ) = 7 {\displaystyle |\mu |(\Omega )=7} {\displaystyle |\mu |(\Omega )=7}.

Beispiele zum Variationsabstand von Wahrscheinlichkeitsmaßen

Gegeben seien der Meßraum ( Ω , F ) {\displaystyle (\Omega ,{\mathcal {F}})} {\displaystyle (\Omega ,{\mathcal {F}})} mit Ω = { 1 , 2 } {\displaystyle \Omega =\{1,2\}} {\displaystyle \Omega =\{1,2\}}, F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }} {\displaystyle {\mathcal {F}}=2^{\Omega }} und die beiden Wahrscheinlichkeitsmaße P ( { 1 } ) = 1 {\displaystyle P(\{1\})=1} {\displaystyle P(\{1\})=1} und Q ( { 2 } ) = 1 {\displaystyle Q(\{2\})=1} {\displaystyle Q(\{2\})=1}.

A F {\displaystyle A\in {\mathcal {F}}} {\displaystyle A\in {\mathcal {F}}} P ( A ) {\displaystyle P(A)} {\displaystyle P(A)} Q ( A ) {\displaystyle Q(A)} {\displaystyle Q(A)} P ( A ) Q ( A ) {\displaystyle P(A)-Q(A)} {\displaystyle P(A)-Q(A)} ( P Q ) + ( A ) {\displaystyle (P-Q)^{+}(A)} {\displaystyle (P-Q)^{+}(A)} ( P Q ) ( A ) {\displaystyle (P-Q)^{-}(A)} {\displaystyle (P-Q)^{-}(A)} | P Q | ( A ) {\displaystyle |P-Q|(A)} {\displaystyle |P-Q|(A)} | P ( A ) Q ( A ) | {\displaystyle |P(A)-Q(A)|} {\displaystyle |P(A)-Q(A)|}
{\displaystyle \emptyset } {\displaystyle \emptyset } 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0}
{ 1 } {\displaystyle \{1\}} {\displaystyle \{1\}} 1 {\displaystyle 1} {\displaystyle 1} 0 {\displaystyle 0} {\displaystyle 0} 1 {\displaystyle 1} {\displaystyle 1} 1 {\displaystyle 1} {\displaystyle 1} 0 {\displaystyle 0} {\displaystyle 0} 1 {\displaystyle 1} {\displaystyle 1} 1 {\displaystyle 1} {\displaystyle 1}
{ 2 } {\displaystyle \{2\}} {\displaystyle \{2\}} 0 {\displaystyle 0} {\displaystyle 0} 1 {\displaystyle 1} {\displaystyle 1} 1 {\displaystyle -1} {\displaystyle -1} 0 {\displaystyle 0} {\displaystyle 0} 1 {\displaystyle 1} {\displaystyle 1} 1 {\displaystyle 1} {\displaystyle 1} 1 {\displaystyle 1} {\displaystyle 1}
{ 1 , 2 } = Ω {\displaystyle \{1,2\}=\Omega } {\displaystyle \{1,2\}=\Omega } 1 {\displaystyle 1} {\displaystyle 1} 1 {\displaystyle 1} {\displaystyle 1} 0 {\displaystyle 0} {\displaystyle 0} 1 {\displaystyle 1} {\displaystyle 1} 1 {\displaystyle 1} {\displaystyle 1} 2 {\displaystyle 2} {\displaystyle 2} 0 {\displaystyle 0} {\displaystyle 0}

Der Variationsabstand[1] zweier Wahrscheinlichkeitsmaße P {\displaystyle P} {\displaystyle P} und Q {\displaystyle Q} {\displaystyle Q}, die auf demselben Messraum definiert sind, ist die Totalvariationsnorm des signierten Maßes P Q {\displaystyle P-Q} {\displaystyle P-Q}

d T V ( P , Q ) := P Q T V = | P Q | ( Ω ) . {\displaystyle d_{\mathrm {TV} }(P,Q):=\|P-Q\|_{\mathrm {TV} }=|P-Q|(\Omega )\;.} {\displaystyle d_{\mathrm {TV} }(P,Q):=\|P-Q\|_{\mathrm {TV} }=|P-Q|(\Omega )\;.}

Im Beispiel gilt | P Q | ( Ω ) = 2 {\displaystyle |P-Q|(\Omega )=2} {\displaystyle |P-Q|(\Omega )=2}. Eine ähnliche Distanz ist

d F ( P , Q ) := sup A F | P ( A ) Q ( A ) | {\displaystyle d_{\mathcal {F}}(P,Q):=\sup _{A\in {\mathcal {F}}}|P(A)-Q(A)|} {\displaystyle d_{\mathcal {F}}(P,Q):=\sup _{A\in {\mathcal {F}}}|P(A)-Q(A)|}.

Allgemein gilt für zwei Wahrscheinlichkeitsmaße auf demselben Messraum

d T V ( P , Q ) = 2 d F ( P , Q ) . {\displaystyle d_{\mathrm {TV} }(P,Q)=2d_{\mathcal {F}}(P,Q).} {\displaystyle d_{\mathrm {TV} }(P,Q)=2d_{\mathcal {F}}(P,Q).}

(Quelle?, Beweis?) Im Beispiel ist d F ( P , Q ) = 1 {\displaystyle d_{\mathcal {F}}(P,Q)=1} {\displaystyle d_{\mathcal {F}}(P,Q)=1}. Von einigen Autoren wird die Distanz d F ( P , Q ) {\displaystyle d_{\mathcal {F}}(P,Q)} {\displaystyle d_{\mathcal {F}}(P,Q)} als Variationsabstand oder Totalvariationsdistanz bezeichnet, obwohl sich die beiden Distanzen um den Faktor 2 unterscheiden. Daraus ergeben sich Verwechselungen und Inkonsistenzen in der Literatur. (Z. B. Abweichung zwischen englischer und französischer Wikipedia).

Für einen diskreten Messraum ( Ω , 2 Ω ) {\displaystyle (\Omega ,2^{\Omega })} {\displaystyle (\Omega ,2^{\Omega })} mit abzählbarem Ω {\displaystyle \Omega } {\displaystyle \Omega } und zwei Wahrscheinlichkeitsmaße P {\displaystyle P} {\displaystyle P} und Q {\displaystyle Q} {\displaystyle Q}, die auf ( Ω , 2 Ω ) {\displaystyle (\Omega ,2^{\Omega })} {\displaystyle (\Omega ,2^{\Omega })} definiert sind, gilt

x Ω | P ( { x } ) Q ( { x } | = d T V ( P , Q ) = 2 d F ( P , Q ) . {\displaystyle \sum _{x\in \Omega }|P(\{x\})-Q(\{x\}|=d_{\mathrm {TV} }(P,Q)=2d_{\mathcal {F}}(P,Q)\;.} {\displaystyle \sum _{x\in \Omega }|P(\{x\})-Q(\{x\}|=d_{\mathrm {TV} }(P,Q)=2d_{\mathcal {F}}(P,Q)\;.}

Variationsabstand und signierte Maße

Gegeben seien der Meßraum ( Ω , F ) {\displaystyle (\Omega ,{\mathcal {F}})} {\displaystyle (\Omega ,{\mathcal {F}})} mit Ω = { 1 , 2 } {\displaystyle \Omega =\{1,2\}} {\displaystyle \Omega =\{1,2\}}, F = 2 Ω {\displaystyle {\mathcal {F}}=2^{\Omega }} {\displaystyle {\mathcal {F}}=2^{\Omega }} und die beiden endlichen signierten Maße μ {\displaystyle \mu } {\displaystyle \mu } und ν {\displaystyle \nu } {\displaystyle \nu } mit ν i = ν ( { i } ) {\displaystyle \nu _{i}=\nu (\{i\})} {\displaystyle \nu _{i}=\nu (\{i\})} und μ i = μ ( { i } ) {\displaystyle \mu _{i}=\mu (\{i\})} {\displaystyle \mu _{i}=\mu (\{i\})} für i = 1 , 2 {\displaystyle i=1,2} {\displaystyle i=1,2}.

A F {\displaystyle A\in {\mathcal {F}}} {\displaystyle A\in {\mathcal {F}}} μ ( A ) {\displaystyle \mu (A)} {\displaystyle \mu (A)} ν ( A ) {\displaystyle \nu (A)} {\displaystyle \nu (A)} μ ( A ) ν ( A ) {\displaystyle \mu (A)-\nu (A)} {\displaystyle \mu (A)-\nu (A)} | μ ν | ( A ) {\displaystyle |\mu -\nu |(A)} {\displaystyle |\mu -\nu |(A)} | μ ( A ) ν ( A ) | {\displaystyle |\mu (A)-\nu (A)|} {\displaystyle |\mu (A)-\nu (A)|}
{\displaystyle \emptyset } {\displaystyle \emptyset } 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0} 0 {\displaystyle 0} {\displaystyle 0}
{ 1 } {\displaystyle \{1\}} {\displaystyle \{1\}} μ 1 {\displaystyle \mu _{1}} {\displaystyle \mu _{1}} ν 1 {\displaystyle \nu _{1}} {\displaystyle \nu _{1}} μ 1 ν 1 {\displaystyle \mu _{1}-\nu _{1}} {\displaystyle \mu _{1}-\nu _{1}} | μ 1 ν 1 | {\displaystyle |\mu _{1}-\nu _{1}|} {\displaystyle |\mu _{1}-\nu _{1}|} | μ 1 ν 1 | {\displaystyle |\mu _{1}-\nu _{1}|} {\displaystyle |\mu _{1}-\nu _{1}|}
{ 2 } {\displaystyle \{2\}} {\displaystyle \{2\}} μ 2 {\displaystyle \mu _{2}} {\displaystyle \mu _{2}} ν 2 {\displaystyle \nu _{2}} {\displaystyle \nu _{2}} μ 2 ν 2 {\displaystyle \mu _{2}-\nu _{2}} {\displaystyle \mu _{2}-\nu _{2}} | μ 2 ν 2 | {\displaystyle |\mu _{2}-\nu _{2}|} {\displaystyle |\mu _{2}-\nu _{2}|} | μ 2 ν 2 | {\displaystyle |\mu _{2}-\nu _{2}|} {\displaystyle |\mu _{2}-\nu _{2}|}
{ 1 , 2 } = Ω {\displaystyle \{1,2\}=\Omega } {\displaystyle \{1,2\}=\Omega } μ 1 + μ 2 {\displaystyle \mu _{1}+\mu _{2}} {\displaystyle \mu _{1}+\mu _{2}} ν 1 + ν 2 {\displaystyle \nu _{1}+\nu _{2}} {\displaystyle \nu _{1}+\nu _{2}} μ 1 ν 1 + μ 2 ν 2 {\displaystyle \mu _{1}-\nu _{1}+\mu _{2}-\nu _{2}} {\displaystyle \mu _{1}-\nu _{1}+\mu _{2}-\nu _{2}} | μ 1 ν 1 | + | μ 2 ν 2 | {\displaystyle |\mu _{1}-\nu _{1}|+|\mu _{2}-\nu _{2}|} {\displaystyle |\mu _{1}-\nu _{1}|+|\mu _{2}-\nu _{2}|} | μ 1 ν 1 + μ 2 ν 2 | {\displaystyle |\mu _{1}-\nu _{1}+\mu _{2}-\nu _{2}|} {\displaystyle |\mu _{1}-\nu _{1}+\mu _{2}-\nu _{2}|}

Der Variationsabstand der signierten Maße μ {\displaystyle \mu } {\displaystyle \mu } und ν {\displaystyle \nu } {\displaystyle \nu } ist

d T V ( μ , ν ) := μ ν T V = | μ ν | ( Ω ) = | μ 1 ν 1 | + | μ 2 ν 2 | . {\displaystyle d_{\mathrm {TV} }(\mu ,\nu ):=\|\mu -\nu \|_{\mathrm {TV} }=|\mu -\nu |(\Omega )=|\mu _{1}-\nu _{1}|+|\mu _{2}-\nu _{2}|\;.} {\displaystyle d_{\mathrm {TV} }(\mu ,\nu ):=\|\mu -\nu \|_{\mathrm {TV} }=|\mu -\nu |(\Omega )=|\mu _{1}-\nu _{1}|+|\mu _{2}-\nu _{2}|\;.}

Für die Distanz d F {\displaystyle d_{\mathcal {F}}} {\displaystyle d_{\mathcal {F}}} gilt

d F ( μ , ν ) = max { | μ 1 ν 1 | , | μ 2 ν 2 | , | μ 1 ν 1 + μ 2 ν 2 | } d T V ( μ , ν ) {\displaystyle d_{\mathcal {F}}(\mu ,\nu )=\max\{|\mu _{1}-\nu _{1}|,|\mu _{2}-\nu _{2}|,|\mu _{1}-\nu _{1}+\mu _{2}-\nu _{2}|\}\leq d_{\mathrm {TV} }(\mu ,\nu )} {\displaystyle d_{\mathcal {F}}(\mu ,\nu )=\max\{|\mu _{1}-\nu _{1}|,|\mu _{2}-\nu _{2}|,|\mu _{1}-\nu _{1}+\mu _{2}-\nu _{2}|\}\leq d_{\mathrm {TV} }(\mu ,\nu )}.

Die für zwei Wahrscheinlichkeitsmaße gültige Proportionalität

d T V ( P , Q ) = 2 d F ( P , Q ) {\displaystyle d_{\mathrm {TV} }(P,Q)=2d_{\mathcal {F}}(P,Q)} {\displaystyle d_{\mathrm {TV} }(P,Q)=2d_{\mathcal {F}}(P,Q)}

gilt nicht analog für signierte Maße, Für μ 1 ν 1 = 1 {\displaystyle \mu _{1}-\nu _{1}=1} {\displaystyle \mu _{1}-\nu _{1}=1} und μ 2 ν 2 = 1 {\displaystyle \mu _{2}-\nu _{2}=-1} {\displaystyle \mu _{2}-\nu _{2}=-1} gilt d T V ( μ , ν ) = 2 {\displaystyle d_{\mathrm {TV} }(\mu ,\nu )=2} {\displaystyle d_{\mathrm {TV} }(\mu ,\nu )=2} und d F ( μ , ν ) = 1 {\displaystyle d_{\mathcal {F}}(\mu ,\nu )=1} {\displaystyle d_{\mathcal {F}}(\mu ,\nu )=1}. Für μ 1 ν 1 = 1 {\displaystyle \mu _{1}-\nu _{1}=1} {\displaystyle \mu _{1}-\nu _{1}=1} und μ 2 ν 2 = 2 {\displaystyle \mu _{2}-\nu _{2}=-2} {\displaystyle \mu _{2}-\nu _{2}=-2} gilt d T V ( μ , ν ) = 3 {\displaystyle d_{\mathrm {TV} }(\mu ,\nu )=3} {\displaystyle d_{\mathrm {TV} }(\mu ,\nu )=3} und d F ( μ , ν ) = 2 {\displaystyle d_{\mathcal {F}}(\mu ,\nu )=2} {\displaystyle d_{\mathcal {F}}(\mu ,\nu )=2}.

  1. Metriken in der Wahrscheinlichkeitstheorie. In: P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 257–259. 
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Benutzer:Sigma%5E2/Baustelle&oldid=248224000"