通信路容量
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/01/12 14:48 UTC 版)
ナビゲーションに移動 検索に移動
![]() |
この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。
出典を追加して記事の信頼性向上にご協力ください。(2015年6月) |
情報理論 |
---|
![]() |
情報量 |
通信路 |
単位 |
その他 |
|
通信路容量(つうしんろようりょう)または伝送路容量(でんそうろようりょう、英: Channel capacity)は、電気工学、計算機科学や情報理論において通信路に対して定義される量であり、通信路を介して確実に伝送できる情報の量の上限である。
通信路容量という概念は、その値の具体的な評価を可能にする数学モデルと併せて、クロード・シャノンが確立した情報理論において定義された。通信路容量は、通信路の入力と出力との間の相互情報量を、入力分布に関して最大化したときの最大値によって与えられる。通信路符号化定理によれば、ある通信路の通信路容量は、任意に小さい誤り率を要請した場合にその通信路を介して単位時間当たりに伝送可能な情報量の上限に等しい。
形式的定義
ある長さの時間を任意に定め、 X をその時間に送信される信号、Y を同じ時間に通信路を介して受信される信号をそれぞれあらわす確率変数とする。通信路のノイズの性質などをすべてまとめて、X が与えられたときの Y の条件付き確率分布関数
-
2元対称通信路
詳細は「2元対称通信路」を参照エントロピー関数を H(p) とすると、2元対称通信路の通信路容量 C は C = 1 − H(p) に等しい[1]。
2元消失通信路
詳細は「2元消失通信路」を参照2元消失通信路の通信路容量 C は C = 1 − p に等しい[2]。
通信路符号化定理
通信路符号化定理によれば、任意の ε > 0 と通信路容量 C より小さい任意のレート R に対して、符号長を十分大きくすれば、ブロック誤り率を ε 未満にする符号化、復号方法が存在する。また、レートが通信路容量より大きい場合、ブロック長が無限大に近づくと共に受信側のブロック誤り率は 1 に近づいていく。ただし、通信路容量には他の定義もある。
脚注
- ^ Cover & Thomas 2006, p. 187.
- ^ Cover & Thomas 2006, p. 188.
参考文献
- Cover, Thomas M.; Thomas, Joy A. (2006) (PDF). Elements of information theory (Second ed.). Wiley-Interscience John Wiley & Sons. ISBN 978-0-471-24195-9 .
関連項目
通信路容量
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/11/06 03:37 UTC 版)
「加算性白色ガウス雑音」の記事における「通信路容量」の解説
AWGNの通信路は離散時間の事象の添え字 i {\displaystyle i} とする一連の出力 Y i {\displaystyle Y_{i}} により表される。 Y i {\displaystyle Y_{i}} は入力 X i {\displaystyle X_{i}} と雑音 Z i {\displaystyle Z_{i}} の和である。 Z i {\displaystyle Z_{i}} は独立同分布であり、平均0、分散 N {\displaystyle N} の正規分布から得られるものである。さらに Z i {\displaystyle Z_{i}} は X i {\displaystyle X_{i}} と相関しないと仮定される。 Z i ∼ N ( 0 , N ) {\displaystyle Z_{i}\sim {\mathcal {N}}(0,N)\,\!} Y i = X i + Z i . {\displaystyle Y_{i}=X_{i}+Z_{i}.\,\!} 雑音nが0ではなく、 X i {\displaystyle X_{i}} が十分に制約されない限り、通信路の容量は無限である。入力に対する最も一般的な制約は、いわゆる「パワー」制約であり、通信路を介して送信されるコード名 ( x 1 , x 2 , … , x k ) {\displaystyle (x_{1},x_{2},\dots ,x_{k})} に対して必要なものである。 1 k ∑ i = 1 k x i 2 ≤ P , {\displaystyle {\frac {1}{k}}\sum _{i=1}^{k}x_{i}^{2}\leq P,} ここで P {\displaystyle P} は最大の通信路容量を表す。よって、パワーが制限された通信路の容量は以下になる。 C = max f ( x ) s.t. E ( X 2 ) ≤ P I ( X ; Y ) {\displaystyle C=\max _{f(x){\text{ s.t. }}E\left(X^{2}\right)\leq P}I(X;Y)\,\!} f ( x ) {\displaystyle f(x)} は X {\displaystyle X} の分布である。 I ( X ; Y ) {\displaystyle I(X;Y)} を展開し、微分エントロピーの観点から書くと以下の式になる。 I ( X ; Y ) = h ( Y ) − h ( Y | X ) = h ( Y ) − h ( X + Z | X ) = h ( Y ) − h ( Z | X ) {\displaystyle {\begin{aligned}I(X;Y)=h(Y)-h(Y|X)&=h(Y)-h(X+Z|X)&=h(Y)-h(Z|X)\end{aligned}}\,\!} しかし X {\displaystyle X} と Z {\displaystyle Z} は独立である。よって I ( X ; Y ) = h ( Y ) − h ( Z ) {\displaystyle I(X;Y)=h(Y)-h(Z)\,\!} となる。ガウスの微分エントロピーを評価すると h ( Z ) = 1 2 log ( 2 π e N ) {\displaystyle h(Z)={\frac {1}{2}}\log(2\pi eN)\,\!} となる。 X {\displaystyle X} と Z {\displaystyle Z} は独立で、それらの和が Y {\displaystyle Y} になるから、: E ( Y 2 ) = E ( ( X + Z ) 2 ) = E ( X 2 ) + 2 E ( X ) E ( Z ) + E ( Z 2 ) = P + N {\displaystyle E(Y^{2})=E((X+Z)^{2})=E(X^{2})+2E(X)E(Z)+E(Z^{2})=P+N\,\!} この範囲より、微分エントロピーの性質を推測すると h ( Y ) ≤ 1 2 log ( 2 π e ( P + N ) ) {\displaystyle h(Y)\leq {\frac {1}{2}}\log(2\pi e(P+N))\,\!} となる。よって通信路の容量は相互情報量における達成可能な最大の境界で与えられ、 I ( X ; Y ) ≤ 1 2 log ( 2 π e ( P + N ) ) − 1 2 log ( 2 π e N ) {\displaystyle I(X;Y)\leq {\frac {1}{2}}\log(2\pi e(P+N))-{\frac {1}{2}}\log(2\pi eN)\,\!} I ( X ; Y ) {\displaystyle I(X;Y)} は X ∼ N ( 0 , P ) {\displaystyle X\sim {\mathcal {N}}(0,P)\,\!} のときに最大となり、このとき通信路容量 C {\displaystyle C} は以下となる。 C = 1 2 log ( 1 + P N ) {\displaystyle C={\frac {1}{2}}\log \left(1+{\frac {P}{N}}\right)\,\!}
※この「通信路容量」の解説は、「加算性白色ガウス雑音」の解説の一部です。
「通信路容量」を含む「加算性白色ガウス雑音」の記事については、「加算性白色ガウス雑音」の概要を参照ください。
- 通信路容量のページへのリンク