Umbrella-Test

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Der Umbrella-Test nach Mack und Wolfe[1] stellt die Verallgemeinerung des Jonkheere-Terpstra-Testes dar. Im Unterschied zu diesem Test wird jedoch nicht von einem monotonen Trend ausgegangen, sondern von Trends mit einem Gipfel.

Die Nullhypothese H0 lautet für die Erwartungswerte G der Gruppen: G 1   =   G 2   =     =   G c {\displaystyle G_{1}\ =\ G_{2}\ =\ \dots \ =\ G_{c}} {\displaystyle G_{1}\ =\ G_{2}\ =\ \dots \ =\ G_{c}}

Als Alternativhypothese HA gilt: G 1     G 2         G l     G l + 1         G c {\displaystyle G_{1}\ \leq \ G_{2}\ \leq \ \dots \ \leq \ G_{l}\ \geq \ G_{l+1}\ \geq \ \dots \ \geq \ G_{c}} {\displaystyle G_{1}\ \leq \ G_{2}\ \leq \ \dots \ \leq \ G_{l}\ \geq \ G_{l+1}\ \geq \ \dots \ \geq \ G_{c}}, wobei mindestens eine strikte Ungleichung gilt.

Berechnung der Prüfgröße

[Bearbeiten | Quelltext bearbeiten ]

Die Teststatistik MW lautet für eine Anzahl c {\displaystyle c} {\displaystyle c} von Gruppen mit einem Gipfel bei l {\displaystyle l} {\displaystyle l} mit jeweils n {\displaystyle n} {\displaystyle n} Messungen:

M W   =   r = 1 l 1   s = r + 1 l U r s   +   r = l c 1   s = r + 1 c U s r {\displaystyle MW\ =\ \sum _{r=1}^{l-1}\ \sum _{s=r+1}^{l}U_{rs}\ +\ \sum _{r=l}^{c-1}\ \sum _{s=r+1}^{c}U_{sr}} {\displaystyle MW\ =\ \sum _{r=1}^{l-1}\ \sum _{s=r+1}^{l}U_{rs}\ +\ \sum _{r=l}^{c-1}\ \sum _{s=r+1}^{c}U_{sr}}

Dabei ist U r s {\displaystyle U_{rs}} {\displaystyle U_{rs}} bzw. U s r {\displaystyle U_{sr}} {\displaystyle U_{sr}} für die r-te und das s-te Gruppe mit 1 r   < s c {\displaystyle 1\leq r\ <s\leq c} {\displaystyle 1\leq r\ <s\leq c} definiert als

U r s   =   h = 1 n r   i = 1 n s Ψ ( X r h     X s i ) {\displaystyle U_{rs}\ =\ \sum _{h=1}^{n_{r}}\ \sum _{i=1}^{n_{s}}\Psi (X_{rh}\ -\ X_{si})} {\displaystyle U_{rs}\ =\ \sum _{h=1}^{n_{r}}\ \sum _{i=1}^{n_{s}}\Psi (X_{rh}\ -\ X_{si})}

und

U s r   =   n r n s     U r s {\displaystyle U_{sr}\ =\ n_{r}n_{s}\ -\ U_{rs}} {\displaystyle U_{sr}\ =\ n_{r}n_{s}\ -\ U_{rs}}

mit

Ψ ( u )   = { 1 wenn  u > 0 0 wenn  u 0   {\displaystyle \Psi (u)\ ={\begin{cases}1&{\text{wenn }}u>0\0円&{\text{wenn }}u\leq 0\end{cases}}\ } {\displaystyle \Psi (u)\ ={\begin{cases}1&{\text{wenn }}u>0\0円&{\text{wenn }}u\leq 0\end{cases}}\ } oder im Falle von Bindungen (gleichen Messwerten)   Ψ ( u )   = { 1 wenn  u > 0 1 / 2 wenn  u = 0 0 wenn  u < 0 {\displaystyle \ \Psi (u)\ ={\begin{cases}1&{\text{wenn }}u>0\1円/2&{\text{wenn }}u=0\0円&{\text{wenn }}u<0\end{cases}}} {\displaystyle \ \Psi (u)\ ={\begin{cases}1&{\text{wenn }}u>0\1円/2&{\text{wenn }}u=0\0円&{\text{wenn }}u<0\end{cases}}}

Die berechnete Prüfgröße M W {\displaystyle MW} {\displaystyle MW} wird größer, wenn ein biphasischer Trend zwischen den Gruppen vorhanden ist.

Unter allgemeinen Bedingungen weist die Prüfgröße M W {\displaystyle MW} {\displaystyle MW} eine Normalverteilung auf.

Überprüfung der Signifikanz

[Bearbeiten | Quelltext bearbeiten ]

Für den Erwartungswert μ M W {\displaystyle \mu _{MW}} {\displaystyle \mu _{MW}} und dessen Varianz σ M W {\displaystyle \sigma _{MW}} {\displaystyle \sigma _{MW}} gelten folgende Formeln, die sich letztendlich aus einer Addition der Statistiken des Jonkheere-Terpstra-Tests [2] [3] ergeben:

μ M W   =   m 1 2   +   m 2 2     i = 1 c n i 2     n l 2 4   {\displaystyle \mu _{MW}\ =\ {\frac {m_{1}^{2}\ +\ m_{2}^{2}\ -\ \sum _{i=1}^{c}n_{i}^{2}\ -\ n_{l}^{2}}{4}}\ } {\displaystyle \mu _{MW}\ =\ {\frac {m_{1}^{2}\ +\ m_{2}^{2}\ -\ \sum _{i=1}^{c}n_{i}^{2}\ -\ n_{l}^{2}}{4}}\ }

und

  σ M W   =   2 ( m 1 3 + m 2 3 )   +   3 ( m 1 2 + m 2 2 )     i = 1 c n i 2 ( 2 n i + 3 )     n l 2 ( 2 n l + 3 )   +   12 n l m 1 m 2     12 n l 2 N 72 {\displaystyle \ \sigma _{MW}\ =\ {\sqrt {\frac {2(m_{1}^{3}+m_{2}^{3})\ +\ 3(m_{1}^{2}+m_{2}^{2})\ -\ \sum _{i=1}^{c}n_{i}^{2}(2n_{i}+3)\ -\ n_{l}^{2}(2n_{l}+3)\ +\ 12n_{l}m_{1}m_{2}\ -\ 12n_{l}^{2}N}{72}}}} {\displaystyle \ \sigma _{MW}\ =\ {\sqrt {\frac {2(m_{1}^{3}+m_{2}^{3})\ +\ 3(m_{1}^{2}+m_{2}^{2})\ -\ \sum _{i=1}^{c}n_{i}^{2}(2n_{i}+3)\ -\ n_{l}^{2}(2n_{l}+3)\ +\ 12n_{l}m_{1}m_{2}\ -\ 12n_{l}^{2}N}{72}}}}

mit

N   =   i = 1 c n i , m 1   =   i = 1 l n i und   m 2   =   i = l c n i {\displaystyle N\ =\ \sum _{i=1}^{c}n_{i},\quad m_{1}\ =\ \sum _{i=1}^{l}n_{i}\quad {\text{und}}\ m_{2}\ =\ \sum _{i=l}^{c}n_{i}} {\displaystyle N\ =\ \sum _{i=1}^{c}n_{i},\quad m_{1}\ =\ \sum _{i=1}^{l}n_{i}\quad {\text{und}}\ m_{2}\ =\ \sum _{i=l}^{c}n_{i}}

Die daraus folgende Variable Z {\displaystyle Z} {\displaystyle Z} ist standardnormalverteilt, wenn die Gesamtzahl aller Stichproben größer 12 ist:

Z   =   M W     μ M W σ M W {\displaystyle Z\ =\ {\frac {{MW}\ -\ \mu _{MW}}{\sigma _{MW}}}} {\displaystyle Z\ =\ {\frac {{MW}\ -\ \mu _{MW}}{\sigma _{MW}}}}

Oder anders ausgedrückt: bei einem einseitigen Test auf 5 %-Niveau (Fehler 1. Art) ist der Test signifikant, wenn

M W   >   μ M W   +   1 , 645 σ M W {\displaystyle {MW}\ >\ \mu _{MW}\ +\ 1,645\sigma _{MW}} {\displaystyle {MW}\ >\ \mu _{MW}\ +\ 1,645\sigma _{MW}}

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten ]
  1. H.B. Mack, D.A. Wolfe: K-sample rank tests for umbrella alternatives. In: J. Amer. Statist. Ass., 76, 1981, S. 175–181, doi:10.1080/01621459.1981.10477625, JSTOR:2287064
  2. T.J. Terpstra: The asymptotic normality and consistency of Kendall’s test against trend, when ties are present in one ranking. In: Indagationes Mathematicae, 14, 1952, S. 327–333
  3. A.R. Jonkheere: A distribution-free K-sample test against ordered alternatives. In: Biometrika, 41, 1954, S. 133-145, doi:10.1093/biomet/41.1-2.133, JSTOR:2333011
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Umbrella-Test&oldid=190887599"