情報に関する数学的理論
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/14 14:38 UTC 版)
詳細は「情報量」を参照 情報の数学的理論は確率論と統計学に基づいている。最も重要な情報の定量的尺度はエントロピーと伝達情報量である。エントロピーは確率変数の情報の尺度であり、メッセージの圧縮しやすさの度合いである。伝達情報量は2つの確率変数間に共通する情報の尺度であり、通信路における通信速度を決定するのに使われる。 以下の式に出てくる対数の底は、情報エントロピーの単位を決定するのに使われる。現在最も一般に使われている情報の単位はビットであり、2を底とする対数に基づいている。そのため通常、底は 2 とみなされる。さらに、通常定義されない 0 log 0 {\displaystyle 0\log 0\,} を 0 とする。
※この「情報に関する数学的理論」の解説は、「情報理論」の解説の一部です。
「情報に関する数学的理論」を含む「情報理論」の記事については、「情報理論」の概要を参照ください。
- 情報に関する数学的理論のページへのリンク