記憶のある情報源

m重マルコフ情報源

過去の \(m\) 個の記号に依存して、記号を生起する情報源を \(m\) 重マルコフ情報源という。

特に、\(m=1\) のとき(直前の1個にのみ依存する場合)単純マルコフ情報源という。

定義(遷移確率・遷移確率行列)
状態 \(s_i\) から状態 \(s_j\) に遷移する確率を 状態 \(s_i,s_j\) 間の遷移確率といい \[ p_{ij}:=P(s_j~|~s_i) \] と表す。

遷移確率 \(p_{ij}\) を要素とする行列 \[ P= \begin{bmatrix} p_{11} & p_{12} & \cdots & p_{1n}\\ p_{21} & p_{22} & \cdots & p_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ p_{n1} & p_{n2} & \cdots & p_{nn}\\ \end{bmatrix} \] を遷移確率行列という。

エルゴード的マルコフ情報源

次のいずれかが満たされる場合は情報源のモデルとして適さない。

・吸収的である:ある特定の状態になるとそこから抜けることができない

・周期性を持つ:同じパターンの遷移を繰り返す

吸収的でなく、周期性を持たない性質をエルゴード性という。 エルゴード性を持ったマルコフ情報源をエルゴード的マルコフ情報源(エルゴード情報源)という。

定義(定常確率)
エルゴード情報源において、ある状態が発生する確率を定常確率という。 \(n\) 個の状態を持つエルゴード情報源において、状態 \(s_j\) の定常確率を \(P(s_j)\) とすると \[ \sum_{j=1}^nP(s_j)=1 \] が成り立つ。

また、状態 \(s_i\) から状態 \(s_j\) に遷移するとき、遷移確率を \(p_{ij}\) として \[ \sum_{i=1}^np_{ij}P(s_i)=P(s_j) \] が成り立つ。

マルコフ情報源のエントロピー

マルコフ情報源のエントロピーは、時間が進むにつれて生成される1記号あたりのエントロピーとして定義される。

情報源アルファベット \(A\) が \[ A=\{a_1,~a_2,~\cdots,~a_M\} \] であるとき、状態 \(s_j\) の下でのエントロピーは \[ H(A|s_j)=-\sum_{i=1}^MP(a_i|s_j)\log_2{P(a_i|s_j)}~~~[\mathrm{bit}] \] \(m\) 重マルコフ情報源における状態の種類の数は \(M^m\) 個である。

したがって、1記号あたりのエントロピー(エントロピー率)は \[ H(A)=\sum_{j=1}^{M^m}P(s_j)H(A|s_j)~~~[\mathrm{bit}/\text{記号}] \]

演習問題

問題