回帰分析の係数
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/09/13 00:28 UTC 版)
次のような回帰分析のモデルを考える。 Y i = α + β x i + ε i , {\displaystyle Y_{i}=\alpha +\beta x_{i}+\varepsilon _{i},} xi, i = 1, ..., nは既存の説明変数であり、αとβは未知の係数である。そしてεiは独立に同一の正規分布に従った期待値0で未知の分散σ2であるランダムな誤差とする。Yi, i = 1, ..., nは観測値である。この際、βがある特定の値β0と等しいかどうかをテストしたい (多くの場合β0は 0である。何故なら、βが0であればxとyに相関性が無いと言う事になり、0以外の値であればxとyは相関しているということになる)。 α ^ , β ^ = least-squares estimators , S E α ^ , S E β ^ = the standard errors of least-squares estimators . {\displaystyle {\begin{aligned}{\widehat {\alpha }},{\widehat {\beta }}&={\text{least-squares estimators}},\\SE_{\widehat {\alpha }},SE_{\widehat {\beta }}&={\text{the standard errors of least-squares estimators}}.\end{aligned}}} すると t score = β ^ − β 0 S E β ^ {\displaystyle t_{\text{score}}={\frac {{\widehat {\beta }}-\beta _{0}}{SE_{\widehat {\beta }}}}} 帰無仮説が正しければ、この数値(t値という)は自由度がn − 2のt分布に従う。 S E β ^ = 1 n − 2 ∑ i = 1 n ( Y i − y ^ i ) 2 ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle SE_{\widehat {\beta }}={\frac {\sqrt {{\frac {1}{n-2}}\sum _{i=1}^{n}(Y_{i}-{\widehat {y}}_{i})^{2}}}{\sqrt {\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}}} ε ^ i = Y i − y ^ i = Y i − ( α ^ + β ^ x i ) = residuals = estimated errors , SSE = ∑ i = 1 n ε ^ i 2 = sum of squares of residuals . {\displaystyle {\begin{aligned}{\widehat {\varepsilon }}_{i}&=Y_{i}-{\widehat {y}}_{i}=Y_{i}-({\widehat {\alpha }}+{\widehat {\beta }}x_{i})={\text{residuals}}={\text{estimated errors}},\\{\text{SSE}}&=\sum _{i=1}^{n}{\widehat {\varepsilon }}_{i}^{\;2}={\text{sum of squares of residuals}}.\end{aligned}}} すると t score {\displaystyle t_{\text{score}}} は t score = ( β ^ − β 0 ) n − 2 SSE / ∑ i = 1 n ( x i − x ¯ ) 2 . {\displaystyle t_{\text{score}}={\frac {({\widehat {\beta }}-\beta _{0}){\sqrt {n-2}}}{\sqrt {{\text{SSE}}/\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}}}.}
※この「回帰分析の係数」の解説は、「t検定」の解説の一部です。
「回帰分析の係数」を含む「t検定」の記事については、「t検定」の概要を参照ください。
- 回帰分析の係数のページへのリンク