PMIの連鎖律とは? わかりやすく解説

PMIの連鎖律

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/05 23:45 UTC 版)

自己相互情報量」の記事における「PMIの連鎖律」の解説

相互情報量と同様、自己相互情報量連鎖律に従う。 pmi ⁡ ( x ; y , z ) = pmi ⁡ ( x ; y ) + pmi ⁡ ( x ; z ∣ y ) {\displaystyle \operatorname {pmi} (x;\,y,z)=\operatorname {pmi} (x;\,y)+\operatorname {pmi} (x;\,z\mid y)} これは次のように証明できるpmi ⁡ ( x ; y ) + pmi ⁡ ( x ; z ∣ y ) = log ⁡ p ( x , y ) p ( x ) p ( y ) + log ⁡ p ( x , z ∣ y ) p ( x ∣ y ) p ( z ∣ y ) = log ⁡ [ p ( x , y ) p ( x ) p ( y ) p ( x , z ∣ y ) p ( x ∣ y ) p ( z ∣ y ) ] = log ⁡ p ( x ∣ y ) p ( y ) p ( x , z ∣ y ) p ( x ) p ( y ) p ( x ∣ y ) p ( z ∣ y ) = log ⁡ p ( y ) p ( x , z ∣ y ) p ( x ) p ( y ) p ( z ∣ y ) = log ⁡ p ( x , y , z ) p ( x ) p ( y , z ) = pmi ⁡ ( x ; y z ) {\displaystyle {\begin{aligned}\operatorname {pmi} (x;y)+\operatorname {pmi} (x;z\mid y)&=\log {\frac {p(x,y)}{p(x)\,p(y)}}+\log {\frac {p(x,z\mid y)}{p(x\mid y)\,p(z\mid y)}}\\&{}=\log \left[{\frac {p(x,y)}{p(x)\,p(y)}}{\frac {p(x,z\mid y)}{p(x\mid y)\,p(z\mid y)}}\right]\\&{}=\log {\frac {p(x\mid y)\,p(y)\,p(x,z\mid y)}{p(x)\,p(y)\,p(x\mid y)\,p(z\mid y)}}\\&{}=\log {\frac {p(y)\,p(x,z\mid y)}{p(x)\,p(y)\,p(z\mid y)}}\\&{}=\log {\frac {p(x,y,z)}{p(x)\,p(y,z)}}\\&{}=\operatorname {pmi} (x;yz)\end{aligned}}}

※この「PMIの連鎖律」の解説は、「自己相互情報量」の解説の一部です。
「PMIの連鎖律」を含む「自己相互情報量」の記事については、「自己相互情報量」の概要を参照ください。

ウィキペディア小見出し辞書の「PMIの連鎖律」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「PMIの連鎖律」の関連用語

1
自己相互情報量 百科事典
10% |||||

PMIの連鎖律のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



PMIの連鎖律のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの自己相互情報量 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS