平均情報量とは? わかりやすく解説

平均情報量(エントロピー)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/10/30 01:45 UTC 版)

情報量」の記事における「平均情報量(エントロピー)」の解説

Ω {\displaystyle \Omega } を、台が有限集合である確率空間とする。 Ω {\displaystyle \Omega } 上の確率分布Pが与えられたとき、各事象 A ∈ Ω {\displaystyle A\in \Omega } の選択情報量log ⁡ P ( A ) {\displaystyle -\log P(A)} の期待値 H ( P ) = − ∑ A ∈ Ω P ( A ) log ⁡ P ( A ) {\displaystyle H(P)=-\sum _{A\in \Omega }P(A)\log P(A)} をPのエントロピーと呼ぶ(平均情報量、シャノン情報量情報論エントロピーとも)。 ただし、ここでP(A)=0のときは、 P ( A ) log ⁡ P ( A ) = 0 {\displaystyle P(A)\log P(A)=0} とみなす。これは lim p+ 0 p log ⁡ p = 0 {\displaystyle \lim _{p\to +0}p\log p=0} であることによる。 また有限集合U上の値を取る確率変数Xが確率分布Pに従う場合には、XのエントロピーをH(X)=H(P)によって定める。すなわち、 H ( X ) = − ∑ x ∈ U Pr ( X = x ) logPr ( X = x ) {\displaystyle H(X)=-\sum _{x\in U}\Pr(X=x)\log \Pr(X=x)} 。 エントロピーは常に非負の値(または無限大)を取る。 値x、yがそれぞれ確率変数X、Yに従う場合には、組 ( x , y ) {\displaystyle (x,y)} も確率変数とみなせる。この確率変数を ( X , Y ) {\displaystyle (X,Y)} と書くことにすると、確率変数 ( X , Y ) {\displaystyle (X,Y)} のエントロピーは H ( X , Y ) = − ∑ x , y Pr ( X = x , Y = y ) logPr ( X = x , Y = y ) {\displaystyle H(X,Y)=-\sum _{x,y}\Pr(X=x,Y=y)\log \Pr(X=x,Y=y)} になる。これを結合エントロピーと呼ぶ。 X , Y {\displaystyle X,Y} が互いに独立確率変数である場合には、 H ( X , Y ) {\displaystyle H(X,Y)} は H ( X ) + H ( Y ) {\displaystyle H(X)+H(Y)} に一致する。すなわち、全体情報量 H ( X , Y ) {\displaystyle H(X,Y)} は、それぞれの確率変数情報量の和である。 しかし、XとYが互いに独立ではない場合は、 H ( X , Y ) {\displaystyle H(X,Y)} と H ( X ) + H ( Y ) {\displaystyle H(X)+H(Y)} は一致せず前者より後者の方が大きい値になる。両者情報量の差を相互情報量呼び、 I ( X , Y ) = H ( X ) + H ( Y ) − H ( X , Y ) {\displaystyle I(X,Y)=H(X)+H(Y)-H(X,Y)} で表す。相互情報量は常に非負の値になる。 事象Bが生じているという条件下における事象Aの条件付き情報量を − logPr ( A | B ) {\displaystyle -\log \Pr(A|B)} によって定める。確率変数Xが与えられたとき、事象X = x {\displaystyle X=x} 」の条件付き情報量logPr ( X = x | B ) {\displaystyle -\log \Pr(X=x|B)} のxに関する平均値条件付きエントロピーといい、 H ( X | B ) = − ∑ x Pr ( X = x | B ) logPr ( X = x | B ) {\displaystyle H(X|B)=-\sum _{x}\Pr(X=x|B)\log \Pr(X=x|B)} で表す。 さらに確率変数Yが与えられたとき、事象Y = y {\displaystyle Y=y} 」が生じているという条件下における事象X = x {\displaystyle X=x} 」の条件付きエントロピー H ( X | Y = y ) {\displaystyle H(X|Y=y)} のyに関する平均値 H ( X | Y ) = ∑ y Pr ( Y = y ) H ( X | Y = y ) {\displaystyle H(X|Y)=\sum _{y}\Pr(Y=y)H(X|Y=y)} もやはり条件付きエントロピーと呼ぶ。

※この「平均情報量(エントロピー)」の解説は、「情報量」の解説の一部です。
「平均情報量(エントロピー)」を含む「情報量」の記事については、「情報量」の概要を参照ください。

ウィキペディア小見出し辞書の「平均情報量」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「平均情報量」の関連用語

平均情報量のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



平均情報量のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの情報量 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS