Standardfehler des Regressionskoeffizienten

aus Wikipedia, der freien Enzyklopädie
Dies ist die aktuelle Version dieser Seite, zuletzt bearbeitet am 22. November 2023 um 09:14 Uhr durch 132.231.51.111 (Diskussion) (Das mittlere Residuenquadrat ergibt sich nicht aus der Wurzel der Summe der Quadrate der Residuen dividiert durch die Anzahl der Beobachtungen minus der Freiheitsgrade. Das Ziehen der Wurzel ist nicht erforderlich).
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen
Eine gesichtete Version dieser Seite, die am 8. Dezember 2023 freigegeben wurde, basiert auf dieser Version.

In der Statistik ist der Standardfehler des Regressionskoeffizienten ein Maß für die Variabilität des Schätzers für den Regressionskoeffizienten. Der Standardfehler des Regressionskoeffizienten wird benötigt, um die Präzision der Schätzung des Regressionskoeffizienten beurteilen zu können, etwa anhand eines statistischen Tests oder eines Konfidenzintervalls.[1]

Die Schätzung einer Regressionsgerade wird oft so angegeben, dass unter den ermittelten Koeffizienten die Standardfehler in Klammern angeführt werden. Damit erreicht man eine übersichtliche Darstellung der beiden Aspekte, der Punktschätzung sowie einer Angabe der Präzision.

Spezialfall: Lineare Einfachregression

[Bearbeiten | Quelltext bearbeiten ]

In der linearen Einfachregression (nur eine erklärende Variable) y i = β 0 + x i β 1 + ε i {\displaystyle y_{i}=\beta _{0}+x_{i}\beta _{1}+\varepsilon _{i}} {\displaystyle y_{i}=\beta _{0}+x_{i}\beta _{1}+\varepsilon _{i}} ist der (geschätzte) Standardfehler des Regressionskoeffizienten (hier des Anstiegs β ^ 1 {\displaystyle {\hat {\beta }}_{1}} {\displaystyle {\hat {\beta }}_{1}}) gegeben durch die positive Quadratwurzel der geschätzten Varianz von β ^ 1 {\displaystyle {\hat {\beta }}_{1}} {\displaystyle {\hat {\beta }}_{1}} (siehe auch Lineare Einfachregression#Varianzen der Kleinste-Quadrate-Schätzer):

σ ^ β ^ 1 = SE ( β ^ 1 ) = σ ^ 2 i = 1 n ( x i x ¯ ) 2 {\displaystyle {\hat {\sigma }}_{{\hat {\beta }}_{1}}=\operatorname {SE} ({\hat {\beta }}_{1})={\sqrt {\frac {{\hat {\sigma }}^{2}}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}}} {\displaystyle {\hat {\sigma }}_{{\hat {\beta }}_{1}}=\operatorname {SE} ({\hat {\beta }}_{1})={\sqrt {\frac {{\hat {\sigma }}^{2}}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}}}

mit der erwartungstreuen Schätzung der Varianz der Störgrößen

σ ^ 2 = 1 n 2 i = 1 n ( y i β ^ 0 β ^ 1 x i ) 2 {\displaystyle {\hat {\sigma }}^{2}={\frac {1}{n-2}}\sum \limits _{i=1}^{n}(y_{i}-{\hat {\beta }}_{0}-{\hat {\beta }}_{1}x_{i})^{2}} {\displaystyle {\hat {\sigma }}^{2}={\frac {1}{n-2}}\sum \limits _{i=1}^{n}(y_{i}-{\hat {\beta }}_{0}-{\hat {\beta }}_{1}x_{i})^{2}},

dessen empirisches Pendant das mittlere Residuenquadrat

M Q R = S Q R n 2 {\displaystyle MQR={\frac {SQR}{n-2}}} {\displaystyle MQR={\frac {SQR}{n-2}}}

ist. Daher folgt für den (empirischen) Standardfehler des Anstiegs:[2]

s b 1 = M Q R i = 1 n ( x i x ¯ ) 2 {\displaystyle s_{b_{1}}={\sqrt {\frac {MQR}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}}} {\displaystyle s_{b_{1}}={\sqrt {\frac {MQR}{\sum \nolimits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}}}.

Mit diesem Standardfehler lässt sich die Präzision der Schätzung des Anstiegs β 1 {\displaystyle \beta _{1}} {\displaystyle \beta _{1}} beurteilen, z. B. mittels eines Konfidenzintervalls. Ein ( 1 α ) {\displaystyle (1-\alpha )} {\displaystyle (1-\alpha )}-Konfidenzintervall für den unbekannten (wahren) Regressionskoeffizienten β 1 {\displaystyle \beta _{1}} {\displaystyle \beta _{1}} ist gegeben durch:[3]

K I 1 α ( β 1 ) = [ b 1 s b 1 t 1 α / 2 ( n 2 ) ; b 1 + s b 1 t 1 α / 2 ( n 2 ) ] {\displaystyle KI_{1-\alpha }(\beta _{1})=\left[b_{1}-s_{b_{1}}t_{1-\alpha /2}(n-2);b_{1}+s_{b_{1}}t_{1-\alpha /2}(n-2)\right]} {\displaystyle KI_{1-\alpha }(\beta _{1})=\left[b_{1}-s_{b_{1}}t_{1-\alpha /2}(n-2);b_{1}+s_{b_{1}}t_{1-\alpha /2}(n-2)\right]},

wobei t 1 α / 2 ( n 2 ) {\displaystyle t_{1-\alpha /2}(n-2)} {\displaystyle t_{1-\alpha /2}(n-2)} das ( 1 α / 2 ) {\displaystyle (1-\alpha /2)} {\displaystyle (1-\alpha /2)}-Quantil der studentschen t-Verteilung mit ( n 2 ) {\displaystyle (n-2)} {\displaystyle (n-2)} Freiheitsgraden ist.

Multiple lineare Regression

[Bearbeiten | Quelltext bearbeiten ]

Gegeben ein typisches multiples lineares Regressionsmodell y = X β + ε {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}} {\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}}, mit β {\displaystyle {\boldsymbol {\beta }}} {\displaystyle {\boldsymbol {\beta }}} dem p × 1 {\displaystyle p\times 1} {\displaystyle p\times 1} Vektor der unbekannten Regressionsparameter, der n × p {\displaystyle n\times p} {\displaystyle n\times p} Versuchsplanmatrix X {\displaystyle \mathbf {X} } {\displaystyle \mathbf {X} }, dem n × 1 {\displaystyle n\times 1} {\displaystyle n\times 1} Vektor der abhängigen Variablen y {\displaystyle \mathbf {y} } {\displaystyle \mathbf {y} } und dem n × 1 {\displaystyle n\times 1} {\displaystyle n\times 1} Vektor der Störgrößen ε {\displaystyle {\boldsymbol {\varepsilon }}} {\displaystyle {\boldsymbol {\varepsilon }}}. Dann ist in der multiplen linearen Regression ist die erwartungstreuen Schätzung der Varianz der Störgrößen in Matrixschreibweise gegeben durch die Residuenquadratsumme adjustiert durch die residualen Freiheitsgrade:

σ ^ 2 = S Q R / ( n k 1 ) = ε ^ ε ^ n k 1 {\displaystyle {\hat {\sigma }}^{2}=SQR/(n-k-1)={\frac {{\hat {\boldsymbol {\varepsilon }}}^{\top }{\hat {\boldsymbol {\varepsilon }}}}{n-k-1}}} {\displaystyle {\hat {\sigma }}^{2}=SQR/(n-k-1)={\frac {{\hat {\boldsymbol {\varepsilon }}}^{\top }{\hat {\boldsymbol {\varepsilon }}}}{n-k-1}}}.

Für den Standardfehler der (geschätzten) Regressionskoeffizienten folgt daraus, dass sie gegeben sind durch die Quadratwurzel des j {\displaystyle j} {\displaystyle j}-ten Diagonalelements der geschätzten Kovarianzmatrix des Kleinste-Quadrate-Schätzers [4]

SE ( β ^ j ) = σ ^ 2 ( X X ) j j 1 {\displaystyle \operatorname {SE} ({\hat {\beta }}_{j})={\sqrt {{\hat {\sigma }}^{2}(\mathbf {X} ^{\top }\mathbf {X} )_{jj}^{-1}}}} {\displaystyle \operatorname {SE} ({\hat {\beta }}_{j})={\sqrt {{\hat {\sigma }}^{2}(\mathbf {X} ^{\top }\mathbf {X} )_{jj}^{-1}}}}.

Eine andere Darstellung mittels des Bestimmtheitsmaßes ist[5]

SE ( β ^ j ) = 1 n p i = 1 n ε ^ i 2 ( 1 R j 2 ) i = 1 n ( x i j x ¯ j ) 2 {\displaystyle \operatorname {SE} ({\hat {\beta }}_{j})={\sqrt {\frac {{\tfrac {1}{n-p}}\sum \nolimits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}{(1-{\mathit {R}}_{j}^{2})\sum \nolimits _{i=1}^{n}(x_{ij}-{\overline {x}}_{j})^{2}}}}} {\displaystyle \operatorname {SE} ({\hat {\beta }}_{j})={\sqrt {\frac {{\tfrac {1}{n-p}}\sum \nolimits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}}{(1-{\mathit {R}}_{j}^{2})\sum \nolimits _{i=1}^{n}(x_{ij}-{\overline {x}}_{j})^{2}}}}}.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten ]
  1. Axel M. Gressner, Torsten Arndt: Lexikon der Medizinischen Laboratoriumsdiagnostik. Springer-Verlag, 2013., 3. Auflage, S. 2209.
  2. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 313.
  3. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 327.
  4. Lothar Sachs, Jürgen Hedderich: Angewandte Statistik: Methodensammlung mit R. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2018, ISBN 978-3-662-56657-2, S. 806
  5. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education, 2015, S. 101.
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Standardfehler_des_Regressionskoeffizienten&oldid=239355160"