最小二乗モデルとは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > 最小二乗モデルの意味・解説 

最小二乗モデル

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/06/06 07:43 UTC 版)

線形回帰」の記事における「最小二乗モデル」の解説

最小二乗法カール・フリードリッヒ・ガウス1820年代発展させた。本方法は、擾乱項 εi の振る舞い次のような仮定をする(ガウスマルコフ仮定)。 擾乱 εi の期待値は 0 である E [ ε ] = 0 {\displaystyle E[\varepsilon ]=0} 擾乱 εi は相互に無相関である(統計的な独立仮定よりは弱い) cov ⁡ ( ε i , ε j ) = 0 , i ≠ j . {\displaystyle \operatorname {cov} (\varepsilon _{i},\varepsilon _{j})=0,\qquad i\neq j.} 擾乱 εi は等分散、すなわちみな等し分散をもつ(ガウス=マルコフの定理参照) V [ ε i ] = σ 2 , ∀ i ∈ [ n ] . {\displaystyle V[\varepsilon _{i}]=\sigma ^{2},\qquad \forall i\in [n].} 以上の仮定は、最小二乗法ある意味最適なパラメタ推定量与えることを保証する説明変数個数が p 個のモデル考えると、線形回帰によって決定すべきパラメタ係数 β1,..., βp と切片 β0 の p + 1 個である。目的変数説明変数測定結果の組 (yk; xk1,...,xkp) を1つデータとし、n 個のデータ用いた線形回帰は以下のように表すことができる。 [ y 1 y 2 ⋮ y n ] = [ 1 x 11 x 12 … x 1 p 1 x 21 x 22 … x 2 p ⋮ ⋮ ⋮ ⋮ 1 x n 1 x n 2 … x n p ] [ β 0 β 1 ⋮ β p ] + [ ε 1 ε 2 ⋮ ε n ] {\displaystyle {\begin{bmatrix}y_{1}\\y_{2}\\\vdots \\y_{n}\end{bmatrix}}={\begin{bmatrix}1&x_{11}&x_{12}&\dots &x_{1p}\\1&x_{21}&x_{22}&\dots &x_{2p}\\\vdots &\vdots &\vdots &&\vdots \\1&x_{n1}&x_{n2}&\dots &x_{np}\end{bmatrix}}{\begin{bmatrix}\beta _{0}\\\beta _{1}\\\vdots \\\beta _{p}\end{bmatrix}}+{\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\vdots \\\varepsilon _{n}\end{bmatrix}}} 上記連立方程式は、目的変数観測値を n 成分列ベクトル Y、説明変数観測値および切片 β0 の係数 (=1) を n × (p + 1) 行列 X、回帰パラメタを (p + 1) 成分列ベクトルβ、観測ごとの擾乱を n 成分列ベクトル ε とすれば行列の記法を用いて以下のように表せる。 Y = X β + ε {\displaystyle Y=\mathbf {X} \beta +\varepsilon } n = p場合回帰パラメタ標準誤差算出できない。n が p より小さ場合パラメタ算出できない回帰パラメタ推定量は、 β ^ = ( X ⊤ X ) − 1 X ⊤ y → {\displaystyle {\widehat {\beta }}=(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }{\vec {y}}} で与えられガウス=マルコフの定理より推定量 β ^ {\displaystyle {\widehat {\beta }}} は最良線形不偏推定量になる。つまり、任意の線形不偏推定量 β {\displaystyle \beta } に対して V [ β ] ≥ V [ β ^ ] {\displaystyle V[\beta ]\geq V[{\widehat {\beta }}]} が成立する回帰二乗SSR は下式で与えられるS S R = ∑ ( y i ^ − y ¯ ) 2 = β ^ ⊤ X ⊤ y → − 1 n ( y → ⊤ u → u → ⊤ y → ) {\displaystyle {{\mathit {SSR}}=\sum {\left({{\hat {y_{i}}}-{\bar {y}}}\right)^{2}}={\hat {\beta }}^{\top }\mathbf {X} ^{\top }{\vec {y}}-{\frac {1}{n}}\left({{\vec {y}}^{\top }{\vec {u}}{\vec {u}}^{\top }{\vec {y}}}\right)}} ここで y ¯ = 1 n ∑ y i {\displaystyle {\bar {y}}={\frac {1}{n}}\sum y_{i}} であり u → {\displaystyle {\vec {u}}} は n × 1 の1ベクトル各要素が1)である。項 1 n yu u ⊤ y {\displaystyle {\frac {1}{n}}y^{\top }uu^{\top }y} は 1 n ( ∑ y i ) 2 {\displaystyle {\frac {1}{n}}(\sum y_{i})^{2}} と等価である。 誤差二乗ESS は下式で与えられるE S S = ∑ ( y iy i ^ ) 2 = y → ⊤ y → − β ^ ⊤ X ⊤ y → {\displaystyle {{\mathit {ESS}}=\sum {\left({y_{i}-{\hat {y_{i}}}}\right)^{2}}={\vec {y}}^{\top }{\vec {y}}-{\hat {\beta }}^{\top }\mathbf {X} ^{\top }{\vec {y}}}} 二乗和の全和 TSS' は下式で与えられるT S S = ∑ ( y i − y ¯ ) 2 = y → ⊤ y → − 1 n ( y → ⊤ u → u → ⊤ y → ) = S S R + E S S {\displaystyle {{\mathit {TSS}}=\sum {\left({y_{i}-{\bar {y}}}\right)^{2}}={\vec {y}}^{\top }{\vec {y}}-{\frac {1}{n}}\left({{\vec {y}}^{\top }{\vec {u}}{\vec {u}}^{\top }{\vec {y}}}\right)={\mathit {SSR}}+{\mathit {ESS}}}} 決定係数, R² は下式で与えられる。 R 2 = S S R T S S = 1E S S T S S {\displaystyle {R^{2}={\frac {\mathit {SSR}}{\mathit {TSS}}}=1-{\frac {\mathit {ESS}}{\mathit {TSS}}}}}

※この「最小二乗モデル」の解説は、「線形回帰」の解説の一部です。
「最小二乗モデル」を含む「線形回帰」の記事については、「線形回帰」の概要を参照ください。

ウィキペディア小見出し辞書の「最小二乗モデル」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「最小二乗モデル」の関連用語

最小二乗モデルのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



最小二乗モデルのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの線形回帰 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS