線形回帰
- العربية
- Asturianu
- Беларуская
- Català
- کوردی
- Čeština
- Deutsch
- Ελληνικά
- English
- Español
- Eesti
- Euskara
- فارسی
- Suomi
- Français
- Galego
- עברית
- Hrvatski
- Magyar
- Հայերեն
- Bahasa Indonesia
- Italiano
- 한국어
- Македонски
- Bahasa Melayu
- Norsk bokmål
- Occitan
- Polski
- Português
- Română
- Русский
- Simple English
- Slovenščina
- Српски / srpski
- Svenska
- Türkçe
- Українська
- Tiếng Việt
- 中文
- 粵語
- 英語版記事を日本語へ機械翻訳したバージョン(Google翻訳)。
- 万が一翻訳の手がかりとして機械翻訳を用いた場合、翻訳者は必ず翻訳元原文を参照して機械翻訳の誤りを訂正し、正確な翻訳にしなければなりません。これが成されていない場合、記事は削除の方針G-3に基づき、削除される可能性があります。
- 信頼性が低いまたは低品質な文章を翻訳しないでください。もし可能ならば、文章を他言語版記事に示された文献で正しいかどうかを確認してください。
- 履歴継承を行うため、要約欄に翻訳元となった記事のページ名・版について記述する必要があります。記述方法については、Wikipedia:翻訳のガイドライン#要約欄への記入を参照ください。
- 翻訳後、
{{翻訳告知|en|Linear regression|...}}
をノートに追加することもできます。 - Wikipedia:翻訳のガイドラインに、より詳細な翻訳の手順・指針についての説明があります。
統計学 |
回帰分析 |
---|
モデル |
推定 |
背景 |
|
線形回帰(せんけいかいき、英: linear regression)とは、説明変数(独立変数ともいう)に対して目的変数(従属変数、あるいは反応変数ともいう)が線形またはそれから近い値で表される状態。線形回帰は統計学における回帰分析の一種であり、非線形回帰と対比される。
線形回帰のうち、説明変数が1つの場合を線形単回帰(simple linear regression)や単純線形回帰や単変量線形回帰(univariate linear regression)、2つ以上の場合を線形重回帰(multiple linear regression)や多重線形回帰や多変量線形回帰(multivariate linear regression)と呼ぶ。単回帰と呼んだ場合、単変量の回帰のことであるが、多くの場合は非線形を含めずに線形単回帰の事を指す。
概要
[編集 ]線形回帰では,データから推定される線形予測関数を用いて関係性がモデル化される。このようなモデルは線形モデルと呼ばれる。 説明変数(または予測変数)に対して目的変数の条件付き期待値は、アフィン写像で与えられる。(通常は条件付き期待値だが、条件付メジアンまたは他の分位数を用いることもある。)
線形回帰が非線形回帰に比べて用いられる頻度が高いのは、未知のパラメータに線形に依存するモデルの方が、パラメータに非線形に依存するモデルよりもフィッティングが容易で、推定値の統計的性質を決定しやすいためである。
線形回帰が取り扱う範囲は、予測変数の値を与えられた応答の条件付き確率分布に限る。 全ての変数の同時確率分布は多変量解析の領域として、ここでは扱わない。
線形回帰の用途
[編集 ]線形回帰は多くの実用的な用途があり、大まかには以下の二種類の用途に分類される。
○しろまる予測、予想、またはエラーの削減を目的とする。 →線形回帰は、応答変数と説明変数の値の観測されたデータセットに予測モデルを適合させるために使用できる。 説明変数の追加値が収集された場合、このモデルから応答変数を予測できる。
○しろまる説明変数の変動に起因する応答変数の変動を説明することを目的とする。 →線形回帰分析を適用して、応答と説明変数の関係の強さを定量化できる。 これにより各説明変数が応答と全く線形関係を持たないかどうかを判断したり、説明変数のどのサブセットに応答に関する冗長な情報が含まれているかを特定できる。
線形モデルのフィッティング方法
[編集 ]線形回帰モデルは多くの場合、最小二乗法を用いてフィッティングされる。 それ以外のフィッティング方法としては、最小絶対値法や、リッジ回帰(L2ノルムペナルティ)やラッソ回帰(L1ノルムペナルティ)のように、最小二乗コスト関数のペナルティ付きバージョンを最小化する方法などがある。 逆に最小二乗法は、線形モデルではないモデルのフィットにも使用できる。 このように、「最小二乗法」と「線形モデル」という言葉は密接に関連しているが、同義ではない。
基本モデル
[編集 ]線形回帰モデルは、目的変数[注釈 1] Y と説明変数[注釈 1] Xi, i = 1, ..., p および擾乱項[注釈 2] ε の関係を以下のようにモデル化したものである。
- {\displaystyle Y=\beta _{0}+\beta _{1}X_{1}+\beta _{2}X_{2}+\cdots +\beta _{p}X_{p}+\varepsilon \ }
ここで β0 は切片(「定数」項)、βi は各々の説明変数の係数であり、p は説明変数の個数である。線形回帰においては、説明変数の係数および切片の組 {βi}i∈[0,p) をパラメタとするモデルを与える。また、擾乱項 ε は説明変数 X とは独立である。
ベクトル・行列記法を用いれば、線形回帰モデルは以下のように表せる。
- {\displaystyle Y=X\beta +\varepsilon \ }
線形とは
[編集 ]線形回帰が「線形」であるのは、目的変数 Y が説明変数 X の係数 β に対して線形であるためである。たとえば
- {\displaystyle Y=\beta _{0}+\beta _{1}x+\beta _{2}x^{2}+\varepsilon }
という回帰は x に対して明らかに線形ではないが、係数 β に対して線形であるから、線形回帰の問題に分類される。
線形単回帰
[編集 ]線形単回帰 (英語版)や単純線形回帰や単変量線形回帰の場合、説明変数は1つだけであり回帰パラメタは2つである。上式は以下のようになる。
{\displaystyle y=a+bx+\varepsilon \ }
最小二乗法を使用した場合、{\displaystyle {\bar {x}}} と {\displaystyle {\bar {y}}} を {\displaystyle x_{i}} と {\displaystyle y_{i}} の平均としたとき、パラメータ {\displaystyle a} と {\displaystyle b} の推定量の {\displaystyle {\hat {a}}} と {\displaystyle {\hat {b}}} は以下のように求まる。
{\displaystyle {\begin{aligned}{\hat {a}}&={\bar {y}}-{\hat {b}},円{\bar {x}}\\{\hat {b}}&={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}\end{aligned}}}
同等な定式化に、線形単回帰を条件付き期待値のモデルとして陽に表すものがある。
{\displaystyle {\mbox{E}}(y|x)=\alpha +\beta x\ }
ここで、所与の x に対する y の条件付き確率分布は擾乱項の確率分布に一致する。
線形回帰の種類
[編集 ]最小二乗モデル
[編集 ]最小二乗法はカール・フリードリッヒ・ガウスが1820年代に発展させた。本方法は、擾乱項 εi の振る舞いに次のような仮定をする(ガウス=マルコフ仮定)。
- 擾乱 εi の期待値は 0 である
- {\displaystyle E[\varepsilon ]=0}
- 擾乱 εi は相互に無相関である(統計的な独立の仮定よりは弱い)
- {\displaystyle \operatorname {cov} (\varepsilon _{i},\varepsilon _{j})=0,\qquad i\neq j.}
- 擾乱 εi は等分散、すなわちみな等しい分散をもつ(ガウス=マルコフの定理も参照)
- {\displaystyle V[\varepsilon _{i}]=\sigma ^{2},\qquad \forall i\in [n].}
以上の仮定は、最小二乗法がある意味で最適なパラメタの推定量を与えることを保証する。
説明変数の個数が p 個のモデルを考えると、線形回帰によって決定すべきパラメタは係数 β1,..., βp と切片 β0 の p + 1 個である。目的変数と説明変数の測定結果の組 (yk; xk1,...,xkp) を1つのデータとし、n 個のデータを用いた線形回帰は以下のように表すことができる。
- {\displaystyle {\begin{bmatrix}y_{1}\\y_{2}\\\vdots \\y_{n}\end{bmatrix}}={\begin{bmatrix}1&x_{11}&x_{12}&\dots &x_{1p}\1円&x_{21}&x_{22}&\dots &x_{2p}\\\vdots &\vdots &\vdots &&\vdots \1円&x_{n1}&x_{n2}&\dots &x_{np}\end{bmatrix}}{\begin{bmatrix}\beta _{0}\\\beta _{1}\\\vdots \\\beta _{p}\end{bmatrix}}+{\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\vdots \\\varepsilon _{n}\end{bmatrix}}}
上記の連立方程式は、目的変数の観測値を n 成分の列ベクトル Y、説明変数の観測値および切片 β0 の係数 (=1) を n × (p + 1) 行列 X、回帰パラメタを (p + 1) 成分の列ベクトルβ、観測ごとの擾乱を n 成分の列ベクトル ε とすれば、行列の記法を用いて以下のように表せる。
- {\displaystyle Y=\mathbf {X} \beta +\varepsilon }
n = p の場合、回帰パラメタの標準誤差は算出できない。n が p より小さい場合、パラメタは算出できない。
回帰パラメタの推定量は、
{\displaystyle {\widehat {\beta }}=(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }{\vec {y}}}
で与えられ、ガウス=マルコフの定理より推定量{\displaystyle {\widehat {\beta }}}は最良線形不偏推定量になる。つまり、任意の線形不偏推定量{\displaystyle \beta }に対して
{\displaystyle V[\beta ]\geq V[{\widehat {\beta }}]}
が成立する。
回帰の二乗和 SSR は下式で与えられる。
{\displaystyle {{\mathit {SSR}}=\sum {\left({{\hat {y_{i}}}-{\bar {y}}}\right)^{2}}={\hat {\beta }}^{\top }\mathbf {X} ^{\top }{\vec {y}}-{\frac {1}{n}}\left({{\vec {y}}^{\top }{\vec {u}}{\vec {u}}^{\top }{\vec {y}}}\right)}}
ここで {\displaystyle {\bar {y}}={\frac {1}{n}}\sum y_{i}} であり {\displaystyle {\vec {u}}} は n ×ばつ 1 の1ベクトル(各要素が1)である。 項 {\displaystyle {\frac {1}{n}}y^{\top }uu^{\top }y} は {\displaystyle {\frac {1}{n}}(\sum y_{i})^{2}} と等価である。
誤差の二乗和 ESS は下式で与えられる。
{\displaystyle {{\mathit {ESS}}=\sum {\left({y_{i}-{\hat {y_{i}}}}\right)^{2}}={\vec {y}}^{\top }{\vec {y}}-{\hat {\beta }}^{\top }\mathbf {X} ^{\top }{\vec {y}}}}
二乗和の全和 TSS' は下式で与えられる。
{\displaystyle {{\mathit {TSS}}=\sum {\left({y_{i}-{\bar {y}}}\right)^{2}}={\vec {y}}^{\top }{\vec {y}}-{\frac {1}{n}}\left({{\vec {y}}^{\top }{\vec {u}}{\vec {u}}^{\top }{\vec {y}}}\right)={\mathit {SSR}}+{\mathit {ESS}}}}
決定係数, R2 は下式で与えられる。
{\displaystyle {R^{2}={\frac {\mathit {SSR}}{\mathit {TSS}}}=1-{\frac {\mathit {ESS}}{\mathit {TSS}}}}}
擾乱項が正規分布に従うモデル
[編集 ]以下では擾乱項εiが互いに独立な平均{\displaystyle 0}, 分散{\displaystyle \sigma ^{2}}の正規分布に従うと仮定する。
残差は、観測値とモデルによる予測値の差を表し、以下のように決定される。
{\displaystyle {\hat {\vec {\varepsilon }}}={\vec {y}}-\mathbf {X} {\hat {\beta }}\ }
この時、統計量{\displaystyle S^{2}={\frac {{\hat {\vec {\varepsilon }}}{\;}^{\top }{\hat {\vec {\varepsilon }}}}{n-p-1}}}は分散{\displaystyle \sigma ^{2}}の不偏推定量({\displaystyle E[S^{2}]=\sigma ^{2}})になる[1] 。また、最小二乗推定量{\displaystyle {\widehat {\beta }}}と統計量{\displaystyle S^{2}}について以下が成立することが知られている。証明は久保川(2017)[2] や解説記事[3] が詳しい。
- {\displaystyle {\widehat {\beta }}}は多次元正規分布{\displaystyle {\mathcal {N}}\left(\beta ,\sigma ^{2}({\boldsymbol {X}}^{\top }{\boldsymbol {X}})^{-1}\right)}に従う
- {\displaystyle {\frac {(N-P-1)S^{2}}{\sigma ^{2}}}}は自由度{\displaystyle n-p-1}の{\displaystyle \chi _{n-p-1}^{2}}分布に従う
- {\displaystyle {\widehat {\beta }}}と{\displaystyle S^{2}}は独立
上記の事実をもとに回帰係数の有意性検定、信頼区間や予測区間を構成できる。
回帰係数の有意性検定
[編集 ]回帰係数の推定量{\displaystyle {\widehat {\beta }}_{i}}は正規分布{\displaystyle {\mathcal {N}}\left(\beta _{i},\sigma ^{2}({\boldsymbol {X}}^{\top }{\boldsymbol {X}})_{ii}^{-1}\right)}に従うことから
- {\displaystyle T={\dfrac {{\hat {\beta }}_{i}-\beta _{i}}{\sqrt {({\boldsymbol {X}}^{\top }{\boldsymbol {X}})_{ii}^{-1}S^{2}}}}}
は自由度{\displaystyle n-p-1}の{\displaystyle t}分布に従う[4] 。ここで{\displaystyle ({\boldsymbol {X}}^{\top }{\boldsymbol {X}})_{ii}^{-1}}は行列{\displaystyle {\boldsymbol {X}}^{\top }{\boldsymbol {X}}}の第{\displaystyle (i+1,i+1)}成分である。(添え字{\displaystyle i}は0から始まることに注意。)
これより適当な有意水準{\displaystyle \alpha }で
- 帰無仮説: {\displaystyle \beta _{i}=0}
- 対立仮説: {\displaystyle \beta _{i}\neq 0}
を検定することできる。
信頼区間と予測区間
[編集 ]値 {\displaystyle {\vec {x}}={\vec {x}}_{0}}における{\displaystyle 100(1-\alpha )\%} の信頼区間は下式[5] で表される。
{\displaystyle {{\vec {x_{0}}}{\widehat {\beta }}\pm t_{{\frac {\alpha }{2}},n-p-1}{\sqrt {{\vec {x_{0}}}(\mathbf {X} ^{\top }\mathbf {X} )_{}^{-1}{\vec {x_{0}}}^{\top }S^{2}}}}}
同様に値 {\displaystyle {\vec {x}}={\vec {x}}_{0}}における{\displaystyle 100(1-\alpha )\%} の予測区間は下式[6] で表される。
{\displaystyle {{\vec {x_{0}}}{\widehat {\beta }}\pm t_{{\frac {\alpha }{2}},n-p-1}{\sqrt {(1+{\vec {x_{0}}}(\mathbf {X} ^{\top }\mathbf {X} )_{}^{-1}{\vec {x_{0}}}^{\top })S^{2}}}}}
脚注
[編集 ]注釈
[編集 ]- ^ a b 回帰分析の分野においては、目的変数をしばしば応答変数(おうとうへんすう、英: response variable)とも呼ぶ。説明変数(せつめいへんすう、explanatory variable)は他に様々な名称で呼ばれ、たとえば外生変数(がいせいへんすう、英: exogenous variable)、入力変数(にゅうりょくへんすう、英: input variable)、予測変数(よそくへんすう、英: predictor variable)とも呼ばれる。また、目的変数を従属変数(じゅうぞくへんすう、英: dependent variable)、説明変数を独立変数(どくりつへんすう、英: independent variable)と対で呼ぶこともあるが、従属/独立といった言葉は数学において多義的に使われがちであるため、使用には注意が必要である。
- ^ 擾乱項(じょうらんこう、英: disturbance term)は雑音項(ざつおんこう、英: noise term)、あるいは誤差項(ごさこう、英: error term)とも呼ばれる。この「誤差」は回帰モデルの誤差ではなく、測定に伴う誤差を指している。
出典
[編集 ]- ^ "有意に無意味な話: 重回帰モデルの最尤推定量と誤差分散の不偏推定量". 2020年8月14日閲覧。
- ^ 久保川達也『現代数理統計学の基礎』共立出版、2017年4月5日、9.2 重回帰モデル頁。
- ^ "有意に無意味な話: 重回帰モデルでの「回帰係数/誤差分散の確率分布」の導出". 2020年8月14日閲覧。
- ^ "有意に無意味な話: 重回帰モデルでの回帰係数の有意性検定". 2020年8月14日閲覧。
- ^ "有意に無意味な話: 重回帰モデルの信頼区間". 2020年8月14日閲覧。
- ^ "有意に無意味な話: 重回帰モデルの予測区間". 2020年8月14日閲覧。