Operationscharakteristik

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Abhängigkeit des Risikos 2. Art von der wahren Lage des Gegenparameters μ1 (im nebenstehenden Text θ1 genannt) bei einem ein- sowie zweiseitigen Hypothesentest.

In der Statistik ist die Operationscharakteristik, auch OC-Kurve (OC: englisch für operating characteristic) oder OC-Funktion[1] genannt, ein Konzept aus der Theorie statistischer Tests, mit dem ein funktionaler Zusammenhang zwischen der Wahrscheinlichkeit eines Fehlers 2. Art und der tatsächlichen Lage des unbekannten Parameters θ {\displaystyle \theta } {\displaystyle \theta } einer Verteilungsfunktion F ( x | θ ) {\displaystyle F(x|\theta )} {\displaystyle F(x|\theta )} hergestellt wird.

Einfluss des Stichprobenumfangs auf die Gütefunktion bzw. Teststärke eines rechts-einseitigen Tests
Einfluss des Stichprobenumfangs auf die Gütefunktion bzw. Teststärke eines zweiseitigen Tests

Gegeben ist eine Zufallsvariable X {\displaystyle X} {\displaystyle X} mit einer Verteilungsfunktion F ( x | θ ) {\displaystyle F(x|\theta )} {\displaystyle F(x|\theta )}, die von einem unbekannten Parameter θ {\displaystyle \theta } {\displaystyle \theta } abhängt. Für die Schätzung des Parameters werden n {\displaystyle n} {\displaystyle n} Beobachtungen der Zufallsvariablen gemacht. Der Parameter kann dann durch eine Schätzfunktion

θ ^ = t ( X 1 , X 2 , , X n ) {\displaystyle {\hat {\theta }}=t\left(X_{1},X_{2},\dotsc ,X_{n}\right)} {\displaystyle {\hat {\theta }}=t\left(X_{1},X_{2},\dotsc ,X_{n}\right)}

geschätzt werden. Es soll eine Vermutung bezüglich des wahren, unbekannten Parameters statistisch überprüft werden. Es wird also eine Hypothese bezüglich dieses Parameters aufgestellt, die sogenannte Nullhypothese H 0 {\displaystyle H_{0}} {\displaystyle H_{0}}. Man geht nun davon aus, dass bei Wahrheit der Nullhypothese der Schätzwert θ ^ {\displaystyle {\hat {\theta }}} {\displaystyle {\hat {\theta }}} in der Nähe des wahren Parameters θ {\displaystyle \theta } {\displaystyle \theta } liegen müsste, und lehnt H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} ab, wenn die Distanz zu groß ist, wenn also θ ^ {\displaystyle {\hat {\theta }}} {\displaystyle {\hat {\theta }}} in den Ablehnungsbereich des Tests fällt. Der Ablehnungsbereich A B {\displaystyle AB} {\displaystyle AB} wird so festgelegt, dass von allen Stichproben selbst dann, wenn H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} wahr wäre, ein Anteil von α {\displaystyle \alpha } {\displaystyle \alpha } (häufig wählt man α = 5   % {\displaystyle \alpha =5\ \%} {\displaystyle \alpha =5\ \%}) abgelehnt würde.

Man kann im Hypothesentest zwei Arten von Fehlern begehen:

  • Man lehnt H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} ab, obwohl θ 0 {\displaystyle \theta _{0}} {\displaystyle \theta _{0}} der wahre Parameter ist. Es handelt sich also um einen Fehler, den sogenannten α-Fehler oder Fehler 1. Art.
  • Man lehnt H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} nicht ab, obwohl ein anderer Parameter θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} der wahre Parameter ist. Das ist der β-Fehler oder Fehler 2. Art.

α {\displaystyle \alpha } {\displaystyle \alpha } wird vor der Testprozedur festgelegt, β {\displaystyle \beta } {\displaystyle \beta } dagegen hängt vom wahren Parameter θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} ab, der in der Regel unbekannt ist. Man kann für die Risikoabschätzung einer falschen Entscheidung die β-Fehler für verschiedene alternative Parameterwerte θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} berechnen. Der β-Fehler für einen alternativen Parameter θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} berechnet sich als Wahrscheinlichkeit, dass θ ^ {\displaystyle {\hat {\theta }}} {\displaystyle {\hat {\theta }}} in den Nichtablehnungsbereich N A B {\displaystyle NAB} {\displaystyle NAB} der Nullhypothese H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} fällt, wenn bzw. obwohl in Wahrheit θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} die Verteilung von θ ^ {\displaystyle {\hat {\theta }}} {\displaystyle {\hat {\theta }}} regiert:

β = P ( θ ^ N A B θ 1 ) {\displaystyle \beta =\operatorname {P} \left({\hat {\theta }}\in NAB\mid \theta _{1}\right)} {\displaystyle \beta =\operatorname {P} \left({\hat {\theta }}\in NAB\mid \theta _{1}\right)}.

β {\displaystyle \beta } {\displaystyle \beta } hängt also von θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} ab und kann daher auch als Funktion des alternativen Parameters θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} dargestellt werden:

β = f ( θ 1 ) {\displaystyle \beta =f(\theta _{1})} {\displaystyle \beta =f(\theta _{1})}.

Diese Funktion wird als Operationscharakteristik, häufig auch O C ( θ 1 ) {\displaystyle OC(\theta _{1})} {\displaystyle OC(\theta _{1})} geschrieben, bezeichnet. Die Gegenwahrscheinlichkeit zu β {\displaystyle \beta } {\displaystyle \beta } ist die Wahrscheinlichkeit, dass H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} abgelehnt und dafür H 1 {\displaystyle H_{1}} {\displaystyle H_{1}} akzeptiert wird, wenn θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} der wahre Parameter ist. Hier ist die Ablehnung von H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} zu Gunsten von H 1 {\displaystyle H_{1}} {\displaystyle H_{1}} also erwünscht, weshalb die entsprechende Funktion γ ( θ 1 ) = 1 O C ( θ 1 ) {\displaystyle \gamma (\theta _{1})=1-OC(\theta _{1})} {\displaystyle \gamma (\theta _{1})=1-OC(\theta _{1})} auch Gütefunktion (und ihr Funktionswert für gegebenes θ 1 {\displaystyle \theta _{1}} {\displaystyle \theta _{1}} Trennschärfe oder Teststärke) genannt wird.

Gütefunktion und Operationscharakteristik stellen damit beide vollständige Charakterisierungen des zugehörigen Tests dar. Man erkennt an ihnen bspw., ob der Test mit wachsender Beobachtungszahl immer besser wird (Konsistenz) und ob die Wahrscheinlichkeit, H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} abzulehnen, größer ist, wenn H 1 {\displaystyle H_{1}} {\displaystyle H_{1}} zutrifft, als wenn H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} zutrifft (Unverfälschtheit).

β-Fehler: Die rote Normalverteilungskurve gibt an, wie der Stichprobenmittelwert X verteilt wäre, wenn μ = 260 g ist. Die rote Fläche repräsentiert den α-Fehler von 5 %. Die blaue Kurve zeigt die Verteilung von X, wenn μ in Wahrheit 255 g betrüge. Die blaue Fläche ist dann die Wahrscheinlichkeit, dass X ≥ 256,7 ist und H0 damit nicht abgelehnt wird, obwohl die Forellen im Durchschnitt untergewichtig sind. Entsprechendes gilt für die grüne Kurve, bei der das wahre Durchschnittsgewicht der Forellen sogar nur noch 252 g beträgt – wie zu sehen, ist das Risiko 2. Art, sie dennoch als normalgewichtig einzustufen, nun wesentlich kleiner.
Operationscharakteristik: Der Ordinatenwert der Grafik gibt den β-Fehler in Abhängigkeit vom unbekannten Parameter μ1 an. Für μ = 260 ist der Wert 0,95, also gerade 1 - α.

Ein Forellenzüchter liefert seinem Großabnehmer Forellen, die im Durchschnitt mindestens 260 g wiegen sollen. Bei Lieferung wird getestet, ob das Durchschnittsgewicht mindestens 260 Gramm beträgt. Wird die Hypothese abgelehnt, wird die Lieferung beanstandet. Es sei bekannt, dass das Gewicht X {\displaystyle X} {\displaystyle X} der Forellen normalverteilt ist mit der Varianz σ 2 = 64   g 2 {\displaystyle \sigma ^{2}=64\ \mathrm {g} ^{2}} {\displaystyle \sigma ^{2}=64\ \mathrm {g} ^{2}} und einem unbekannten Erwartungswert μ {\displaystyle \mu } {\displaystyle \mu }. Es werden in einer Stichprobe n = 16 {\displaystyle n=16} {\displaystyle n=16} Forellen gewogen, wobei die i {\displaystyle i} {\displaystyle i}-te Forelle x i   g {\displaystyle x_{i}\ \mathrm {g} } {\displaystyle x_{i}\ \mathrm {g} } wiegt. Das Durchschnittsgewicht

x ¯ = 1 n i = 1 n x i {\displaystyle {\overline {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}} {\displaystyle {\overline {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}

dieser Forellen wird ermittelt. Da der Mittelwert bei jedem Versuch anders ausfällt, ist diese Größe ebenfalls eine Zufallsvariable X ¯ {\displaystyle {\overline {X}}} {\displaystyle {\overline {X}}} und normalverteilt mit den Parametern

μ {\displaystyle \mu \;} {\displaystyle \mu \;} und Var ( X ¯ ) = σ 2 n {\displaystyle \;\operatorname {Var} \left({\overline {X}}\right)={\frac {\sigma ^{2}}{n}}} {\displaystyle \;\operatorname {Var} \left({\overline {X}}\right)={\frac {\sigma ^{2}}{n}}}.

Die Hypothesen lauten nun H 0 : μ μ 0 = 260 {\displaystyle H_{0}\colon \mu \geq \mu _{0}=260\;} {\displaystyle H_{0}\colon \mu \geq \mu _{0}=260\;} und H 1 : μ < 260 {\displaystyle \;H_{1}\colon \mu <260} {\displaystyle \;H_{1}\colon \mu <260}.

Soll der Fehler erster Art beispielsweise α = 0 , 05 {\displaystyle \alpha =0{,}05} {\displaystyle \alpha =0{,}05} betragen, ergibt sich der kritische Wert für die Prüfgröße X ¯ {\displaystyle {\overline {X}}} {\displaystyle {\overline {X}}} als

μ 0 z ( 1 α ) σ n = 260 1 , 65 8 4 = 256 , 7 {\displaystyle \mu _{0}-z(1-\alpha )\cdot {\frac {\sigma }{\sqrt {n}}}=260-1{,}65\cdot {\frac {8}{4}}=256{,}7} {\displaystyle \mu _{0}-z(1-\alpha )\cdot {\frac {\sigma }{\sqrt {n}}}=260-1{,}65\cdot {\frac {8}{4}}=256{,}7}

mit z ( 1 α ) {\displaystyle z(1-\alpha )} {\displaystyle z(1-\alpha )} als ( 1 α ) {\displaystyle (1-\alpha )} {\displaystyle (1-\alpha )}-Quantil der Standardnormalverteilung.

H 0 {\displaystyle H_{0}} {\displaystyle H_{0}} wird also abgelehnt, wenn x ¯ < 256 , 7 {\displaystyle {\overline {x}}<256{,}7} {\displaystyle {\overline {x}}<256{,}7} ist, der Ablehnungsbereich ist ( ; 256 , 7 ) {\displaystyle (-\infty ;256{,}7)} {\displaystyle (-\infty ;256{,}7)}. Ist jetzt tatsächlich μ = μ 0 {\displaystyle \mu =\mu _{0}} {\displaystyle \mu =\mu _{0}} wahr, würde in 5 % aller Stichproben x ¯ {\displaystyle {\overline {x}}} {\displaystyle {\overline {x}}} in den Ablehnungsbereich fallen, es würde die Lieferung zu Unrecht zurückgeschickt werden, was dem α-Fehler entspricht.

Es kann aber beispielsweise auch vorkommen, dass das Durchschnittsgewicht in Wahrheit μ = 255   g {\displaystyle \mu =255\ \mathrm {g} } {\displaystyle \mu =255\ \mathrm {g} } beträgt, dass aber zufällig x ¯ > 256 , 7   g {\displaystyle {\overline {x}}>256{,}7\ \mathrm {g} } {\displaystyle {\overline {x}}>256{,}7\ \mathrm {g} } ist. Das ist der β-Fehler für μ = 255   g {\displaystyle \mu =255\ \mathrm {g} } {\displaystyle \mu =255\ \mathrm {g} }. Die Prüfgröße X ¯ {\displaystyle {\overline {X}}} {\displaystyle {\overline {X}}} ist nun bei unveränderter Varianz in Wahrheit normalverteilt wie

X ¯ N ( 255 ; 2 ) {\displaystyle {\overline {X}}\sim {\mathcal {N}}(255;2)} {\displaystyle {\overline {X}}\sim {\mathcal {N}}(255;2)}.

Die Wahrscheinlichkeit, dass die Nullhypothese nicht abgelehnt wird, ist dann

P ( X ¯ 256 , 7 μ 1 = 255 ) {\displaystyle P({\overline {X}}\geq 256{,}7\mid \mu _{1}=255)} {\displaystyle P({\overline {X}}\geq 256{,}7\mid \mu _{1}=255)}

und berechnet sich mit Hilfe der Normalverteilung als

1 Φ ( 256 , 7 255 ; 64 16 ) = 1 Φ z ( 256 , 7 255 2 ) {\displaystyle 1-\Phi \left(256{,}7\mid 255;{\frac {\sqrt {64}}{\sqrt {16}}}\right)=1-\Phi _{z}\left({\frac {256{,}7-255}{2}}\right)} {\displaystyle 1-\Phi \left(256{,}7\mid 255;{\frac {\sqrt {64}}{\sqrt {16}}}\right)=1-\Phi _{z}\left({\frac {256{,}7-255}{2}}\right)}
= 1 0,802 3 = 0,197 7 {\displaystyle =1-0{,}8023=0{,}1977} {\displaystyle =1-0{,}8023=0{,}1977},

wobei Φ ( 256 , 7 255 ; 2 ) {\displaystyle \Phi (256{,}7\mid 255;2)} {\displaystyle \Phi (256{,}7\mid 255;2)} der Wert der Normalverteilungsfunktion mit den Parametern 255 und 2 an der Stelle 256,7 ist und Φ z {\displaystyle \Phi _{z}} {\displaystyle \Phi _{z}} der entsprechende Wert der Standardnormalverteilung. Es würde also in ca. 20 % aller Stichproben die Lieferung akzeptiert werden, obwohl die Forellen im Durchschnitt untergewichtig sind. Beträgt dagegen in Wahrheit μ = 252 {\displaystyle \mu =252} {\displaystyle \mu =252}, ergibt sich der β-Fehler als

1 Φ ( 256 , 7 252 ; 2 ) = 0,009 4 {\displaystyle 1-\Phi (256{,}7\mid 252;2)=0{,}0094} {\displaystyle 1-\Phi (256{,}7\mid 252;2)=0{,}0094};

hier ist die Gefahr einer falschen Entscheidung nur noch sehr gering. Die Grafik der Operationscharakteristik zeigt, wie mit wachsender Entfernung von μ 0 {\displaystyle \mu _{0}} {\displaystyle \mu _{0}} der β-Fehler sinkt. Man ist bestrebt, möglichst schnell in den Bereich eines kleinen β-Fehlers zu kommen. Mit der Erhöhung des Stichprobenumfangs kann man den β-Fehler reduzieren. Einen Test mit kleinem β-Fehler nennt man auch trennscharf, weil hier die Verteilungen stark getrennt sind.

  • Hartung, Joachim/Elpelt, Bärbel/Klösener, Karl-Heinz: Statistik – Lehr- und Handbuch der angewandten Statistik. 9., durchges. Aufl., Oldenbourg, München 1993, insbesondere Seite 135ff und 381ff.
Commons: Operating characteristics  – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten ]
  1. Bernd Rönz, Hans G. Strohe (1994), Lexikon Statistik, Gabler Verlag, S. 268
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Operationscharakteristik&oldid=234542978"