周辺尤度
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/09/15 15:46 UTC 版)
統計学 |
ベイズ統計学 |
---|
![]() |
ベイズの定理 |
事後確率 = 尤度×事前確率÷証拠 |
背景 |
|
モデル構築 |
|
近似手法 |
|
推定量 |
モデル評価 |
周辺尤度 (しゅうへんゆうど、英語: marginal likelihood)とは、パラメータについて周辺化した尤度のことである。すなわち、尤度関数をパラメータ空間全域で積分した値を指す。ベイズ統計学においては、可能なパラメータすべてを考慮した上で抽出されたサンプルを得られる確率を意味し、これはモデル自体の確率として解釈される。このことから、ベイズ統計の文脈では周辺尤度のことを証拠(英語: evidence)あるいはエビデンスと呼ぶことがある。
周辺尤度はパラメータ空間全体についての積分によって定義される量であるため、直接的にはパラメータに依存しない。モデル比較に注目しない状況では、周辺尤度は単に事後確率を正規化する正規化定数に過ぎない。
概念
を、パラメータを持つ確率分布 からの独立同分布なデータの集合とする。ここで、パラメータ 自体もさらに別の確率分布 に従う確率変数であるとする。このような状況において、周辺尤度 はパラメータ を周辺化した時に を得る確率として定義される:
ベイズ統計学の文脈では、上の定義式において を確率変数 の事前確率、 を尤度と呼ぶ。周辺尤度が事後分布 の正規化定数であると読み替えることで、周辺尤度の別の表し方として
というものが取れる[1]。これは に関する恒等式になっている。
古典的な頻度主義統計学では、周辺尤度は別の文脈で出現する。今、 に関する確率分布のパラメータ が と分割できる状況を考える。ただし、 は興味のあるパラメータであるが、 は局外母数と呼ばれる解析上興味のないパラメータである。もし に関する確率分布 を定義できるのであれば、について点推定の値を与えるよりも周辺化した尤度を考える方が好ましい状況がある:
周辺尤度は一般には計算困難であるが、周辺尤度の解析解が存在する場合も少ないながら存在する。周辺化されるパラメータがデータの確率分布の共役事前分布である場合は解析解が存在するケースも多い。そうでなければ、ある種の数値積分が必要となる。数値積分を利用する場合、ガウス求積やモンテカルロ法のような一般的な手法の他にも、ラプラス近似、ギブスサンプリング、メトロポリス・ヘイスティングス法、EMアルゴリズムなどの統計学的問題に特化した手法が利用されることがある。
観測データ の代わりに単一のデータ点 に対する確率を定義することもでき、これはベイズ統計学の文脈では事前予測分布と呼ばれる。
応用
ベイズ統計におけるモデル比較
引き続き を観測データとする。周辺化されるパラメータを 、 を の分布を規定するモデルを表す文字とすると、周辺尤度は特定のモデルパラメータ を仮定しない、モデル を与えた時 を得る場合の条件付き確率を記述する。この場合、周辺尤度は
と記述される。このような文脈において、周辺尤度は「モデルエビデンス」と呼ばれることもある。
この量を複数のモデルに対して計算し、それらの比を取ることで、ベイズ因子と呼ばれる量
が出現する。この量は、(事前オッズ)×(ベイズ因子)の形で表現される事後オッズ
にも出現するため、ベイズ統計におけるモデル選択の上で重要である。
関連項目
出典
- ^ Chib, Siddhartha (1995). “Marginal likelihood from the Gibbs output”. Journal of the American Statistical Association 90 (432): 1313–1321. doi:10.1080/01621459.1995.10476635.
参考文献
- Charles S. Bos. "A comparison of marginal likelihood computation methods". In W. Härdle and B. Ronz, editors, COMPSTAT 2002: Proceedings in Computational Statistics, pp. 111–117. 2002. (Available as a preprint on )
- de Carvalho, Miguel; Page, Garritt; Barney, Bradley (2019). "On the geometry of Bayesian inference". Bayesian Analysis. 14 (4): 1013‒1036. (Available as a preprint on the web: )
- Lambert, Ben (2018). “The devil is in the denominator”. A Student's Guide to Bayesian Statistics. Sage. pp. 109–120. ISBN 978-1-4739-1636-4
- The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay.
- 周辺尤度のページへのリンク