伝達情報量などの情報定量化とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > 伝達情報量などの情報定量化の意味・解説 

伝達情報量などの情報定量化

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/14 14:38 UTC 版)

情報理論」の記事における「伝達情報量などの情報定量化」の解説

もう1つ重要な情報尺度として伝達情報量相互情報量とも呼ぶ)がある。これは、ある確率変数観測することによって別の確率変数について得られる情報量の尺度である。これは通信において重要な概念であり、妥当な通信量決定するのに使われる。 Y {\displaystyle Y} との関連での X {\displaystyle X} の伝達情報量概念的には Y {\displaystyle Y} を観測することで得られる X {\displaystyle X} に関する情報量意味する)は次のように表される: I ( X ; Y ) = ∑ y ∈ Y p ( y ) ∑ x ∈ X p ( x | y ) log ⁡ p ( x | y ) p ( x ) = ∑ x , y p ( x , y ) log ⁡ p ( x , y ) p ( x ) p ( y ) {\displaystyle I(X;Y)=\sum _{y\in Y}p(y)\sum _{x\in X}p(x|y)\log {\frac {p(x|y)}{p(x)}}=\sum _{x,y}p(x,y)\log {\frac {p(x,y)}{p(x)\,p(y)}}} 伝達情報量基本特性次の式で表される: I ( X ; Y ) = H ( X ) − H ( X | Y ) {\displaystyle I(X;Y)=H(X)-H(X|Y)\,} この意味は、Y を知っていれば、知らない場合よりも X の符号化平均して I ( X ; Y ) {\displaystyle I(X;Y)} ビット節約できることを意味する伝達情報量対称的であるため、次のようにも表せる: I ( X ; Y ) = I ( Y ; X ) = H ( X ) + H ( Y ) − H ( X , Y ) {\displaystyle I(X;Y)=I(Y;X)=H(X)+H(Y)-H(X,Y)\,} 関連する尺度として、自己情報量自己相互情報量(PMI)、カルバック・ライブラー情報量差分エントロピーなども情報理論では重要である。

※この「伝達情報量などの情報定量化」の解説は、「情報理論」の解説の一部です。
「伝達情報量などの情報定量化」を含む「情報理論」の記事については、「情報理論」の概要を参照ください。

ウィキペディア小見出し辞書の「伝達情報量などの情報定量化」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「伝達情報量などの情報定量化」の関連用語

伝達情報量などの情報定量化のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



伝達情報量などの情報定量化のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの情報理論 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS