相互情報量

相互情報量とは

定義(相互情報量)
2つの事象系 \(A,B\) に対して \[ I(A;B):=H(A)-H(A|B) \] を \(A\) と \(B\) の相互情報量という。

また、右辺の \(H(A)\) を事前エントロピー、\(H(A|B)\) を事後エントロピーという。

相互情報量 \(I(A;B)\) は \(B\) を知ることによる \(A\) の驚き具合の減少分を表す。

相互情報量に関して、次の不等式が成り立つ。 \[ 0\le I(A;B)\le H(A) \]

演習問題

例題