連続系のエントロピー
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/10/30 01:45 UTC 版)
実数値を取る確率変数Xの確率密度関数をp(x)とするとき、Xのエントロピーを h ( X ) = − ∫ − ∞ ∞ p ( x ) log p ( x ) d x {\displaystyle h(X)=-\int _{-\infty }^{\infty }p(x)\log p(x)dx} によって定義する。 Xが有限集合に値を取る確率変数である場合には、Xのシャノン情報量 H ( X ) {\displaystyle H(X)} も定義できる。Xがn通りの値を取るとき、 H ( X ) {\displaystyle H(X)} と h ( X ) {\displaystyle h(X)} は、 h ( X ) = H ( U n ) − H ( X ) {\displaystyle h(X)=H(U_{n})-H(X)} を満たす。 ただし、ここで U n {\displaystyle U_{n}} はn元集合上の一様分布とする(すなわち H ( U n ) = log n {\displaystyle H(U_{n})=\log n} )。
※この「連続系のエントロピー」の解説は、「情報量」の解説の一部です。
「連続系のエントロピー」を含む「情報量」の記事については、「情報量」の概要を参照ください。
- 連続系のエントロピーのページへのリンク