連続更新GMM(英:ContinuouslyupdatingGMMCUGMMもしくはCUE)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/09/02 21:24 UTC 版)
「一般化モーメント法」の記事における「連続更新GMM(英:ContinuouslyupdatingGMMCUGMMもしくはCUE)」の解説
θ ^ {\displaystyle \scriptstyle {\hat {\theta }}} を加重行列 W と同時に推定する。つまり、 θ ^ = arg min θ ∈ Θ ( 1 T ∑ t = 1 T g ( Y t , θ ) ) ′ ( 1 T ∑ t = 1 T g ( Y t , θ ) g ( Y t , θ ) ′ ) − 1 ( 1 T ∑ t = 1 T g ( Y t , θ ) ) {\displaystyle {\hat {\theta }}=\operatorname {arg} \min _{\theta \in \Theta }{\bigg (}{\frac {1}{T}}\sum _{t=1}^{T}g(Y_{t},\theta ){\bigg )}'{\bigg (}{\frac {1}{T}}\sum _{t=1}^{T}g(Y_{t},\theta )g(Y_{t},\theta )'{\bigg )}^{\!-1}{\bigg (}{\frac {1}{T}}\sum _{t=1}^{T}g(Y_{t},\theta ){\bigg )}} として推定する。モンテカルロ実験において、この方法は伝統的な2段階GMMよりよいパフォーマンスを見せている。連続更新GMMは(裾が厚くなるが、)中位点のバイアスが小さくなり、そして多くの場合における過剰識別制約のためのJ検定がよりもっともらしい結果となる。
※この「連続更新GMM(英:ContinuouslyupdatingGMMCUGMMもしくはCUE)」の解説は、「一般化モーメント法」の解説の一部です。
「連続更新GMM(英:ContinuouslyupdatingGMMCUGMMもしくはCUE)」を含む「一般化モーメント法」の記事については、「一般化モーメント法」の概要を参照ください。
- 連続更新GMMのページへのリンク