カルバック・ライブラー情報量
(相対エントロピー から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/04/15 02:54 UTC 版)
カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、英: Kullback–Leibler divergence)は2つの確率分布の差異を計る尺度である。
- 1 カルバック・ライブラー情報量とは
- 2 カルバック・ライブラー情報量の概要
- 3 定義
- 4 直観的意味
- 5 性質
- 6 情報理論における他の量との関係
- 7 関連項目
相対エントロピー
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/12/29 10:03 UTC 版)
「最大エントロピー原理」の記事における「相対エントロピー」の解説
確率変数 X が従う分布の密度関数を p(x) とし、 m(x) を確率分布(もしくはより一般に非負の測度)の密度関数とするとき、p(x) の m(x) に対する 相対エントロピーは − ∫ p ( x ) log p ( x ) m ( x ) d x {\displaystyle -\int p(x)\log {\frac {p(x)}{m(x)}}\mathrm {d} x} により定義される (Jaynes 1963), (Jaynes 1968), (Jaynes 2003)(m(x) が確率分布であれば、相対エントロピーはカルバック・ライブラー情報量に一致)。 なお、通常のシャノン・エントロピー − ∑ i ∈ I p i log p i {\displaystyle -\sum _{i\in I}p_{i}\log p_{i}} は X の値域 I が有限集合で、 m(x) が I 上の一様分布である場合の相対エントロピーと一致する。
※この「相対エントロピー」の解説は、「最大エントロピー原理」の解説の一部です。
「相対エントロピー」を含む「最大エントロピー原理」の記事については、「最大エントロピー原理」の概要を参照ください。
- 相対エントロピーのページへのリンク