情報源符号化定理の証明とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > 情報源符号化定理の証明の意味・解説 

情報源符号化定理の証明

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2019/11/13 23:47 UTC 版)

シャノンの情報源符号化定理」の記事における「情報源符号化定理の証明」の解説

X が独立同分布(iid)な情報源であるとき、その時系列 X1, ..., Xn は、離散値場合エントロピー H(X) 、連続値の場合差分エントロピー独立同分布となる。情報源符号化定理によれば情報源エントロピーより大きい任意のレート任意の ε > 0 に対して十分に大きい n と、情報源 X1:n の独立同分布な n 個の複写をとり、これを n(H(X) + ε) この二進数ビット写像するエンコーダがあり、それは、少なくとも 1 − ε の確率で、情報源記号 X1:n が二進数ビットから復元できる。 達成可能性の証明いくつかの ε > 0 を修正し、 p ( x 1 , … , x n ) = Pr [ X 1 = x 1 , ⋯ , X n = x n ] . {\displaystyle p(x_{1},\ldots ,x_{n})=\Pr \left[X_{1}=x_{1},\cdots ,X_{n}=x_{n}\right].} とする。典型集合英語版) Aεn は、以下のように定義される。 A n ε = { ( x 1 , ⋯ , x n )   :   | − 1 n log ⁡ p ( x 1 , ⋯ , x n ) − H n ( X ) | < ε } {\displaystyle A_{n}^{\varepsilon }=\left\{(x_{1},\cdots ,x_{n})\ :\ \left|-{\frac {1}{n}}\log p(x_{1},\cdots ,x_{n})-H_{n}(X)\right|<\varepsilon \right\}} 漸近等分配性(英語版)(AEP)が示すところによると、十分に大きい n に対して情報源によって生成された列が典型集合 Aεn に含まれる確率は 1 に近づく。特に、十分に大きい n に対しては、 P ( ( X 1 , X 2 , ⋯ , X n ) ∈ A n ε ) {\displaystyle P((X_{1},X_{2},\cdots ,X_{n})\in A_{n}^{\varepsilon })} は任意に 1 に近く具体的には 1 − ε {\displaystyle 1-\varepsilon } より大きくすることができる。 典型集合の定義は、典型集合にある列が以下を満足することを意味する。 2 − n ( H ( X ) + ε ) ≤ p ( x 1 , ⋯ , x n ) ≤ 2 − n ( H ( X ) − ε ) {\displaystyle 2^{-n(H(X)+\varepsilon )}\leq p\left(x_{1},\cdots ,x_{n}\right)\leq 2^{-n(H(X)-\varepsilon )}} 注意: Aεnから導かれる列 ( X 1 , X 2 , ⋯ X n ) {\displaystyle (X_{1},X_{2},\cdots X_{n})} の確率は 1 − ε より大きい。 p ( x 1 , x 2 , ⋯ x n ) {\displaystyle p(x_{1},x_{2},\cdots x_{n})} の左側下限)からは | A n ε | ≤ 2 n ( H ( X ) + ε ) {\displaystyle \left|A_{n}^{\varepsilon }\right|\leq 2^{n(H(X)+\varepsilon )}} となる。 p ( x 1 , x 2 , ⋯ x n ) {\displaystyle p(x_{1},x_{2},\cdots x_{n})} の右側上限)および全体集合 Aεn の全確率対す下限からは | A n ε | ≥ ( 1 − ε ) 2 n ( H ( X ) − ε ) {\displaystyle \left|A_{n}^{\varepsilon }\right|\geq (1-\varepsilon )2^{n(H(X)-\varepsilon )}} となる。 よって、 | A n ε | ≤ 2 n ( H ( X ) + ε ) , n . ( H ( X ) + ε ) {\displaystyle \left|A_{n}^{\varepsilon }\right|\leq 2^{n(H(X)+\varepsilon )},n.(H(X)+\varepsilon )} ビットはこの集合任意の文字列を指すのに十分である。 エンコードアルゴリズム : エンコーダは、入力列が典型集合内にあるかどうかチェックする。そうであれば典型集合内の入力列のインデックス出力するそうでなければエンコーダ任意の n(H(X) + ε) 桁の数出力する入力列が典型集合内にある限り少なくとも 1 − ε の確率で)、エンコーダ何の誤り生じない。従って、エンコーダ誤り確率の上限は ε である。 逆の証明。その逆は、Aεn より小さサイズ集合が 1 から離れる確率集合カバーすることを示すことで証明できる

※この「情報源符号化定理の証明」の解説は、「シャノンの情報源符号化定理」の解説の一部です。
「情報源符号化定理の証明」を含む「シャノンの情報源符号化定理」の記事については、「シャノンの情報源符号化定理」の概要を参照ください。

ウィキペディア小見出し辞書の「情報源符号化定理の証明」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「情報源符号化定理の証明」の関連用語

情報源符号化定理の証明のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



情報源符号化定理の証明のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaのシャノンの情報源符号化定理 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS