エントロピー(entropy)

 ここでは2つの情報源 X, Y があった場合について考える。

 エントロピー


 条件付きエントロピー


 各エントロピーの関係


 相互情報量(mutual information)

  • Y を知った時、X に関して得られた情報量 I(X;Y) は、
    • I(X;Y) = H(X) - H(X|Y)

  • X を知った時、Y に関して得られた情報量 I(Y;X) は、
    • I(Y;X) = H(Y) - H(Y|X)

  • I(X;Y) = I(Y;X)

  • X と Y が独立の時、
    • I(X;Y) = I(Y;X) = 0
  • 一般に、H(X, Y) = H(X) + H(Y) - I(X;Y)

例題へ
脚注
  ※
H(X) + H(Y|X) = n
Σ
i = 1
P(xi)log2 1

P(xi)
+ n
Σ
i = 1
m
Σ
j = 1
P(xi)P(yj|xi)log21

P(yj|xi)
   P(xi) = m
Σ
j = 1
P(xi, yj)、 P(xi)P(yj|xi) = P(xi, yj)  より (→確率入門へ
       = n
Σ
i = 1
m
Σ
j = 1
P(xi, yj)log2 1

P(xi)
+ n
Σ
i = 1
m
Σ
j = 1
P(xi, yj)log2 1

P(yj|xi)
       = n
Σ
i = 1
m
Σ
j = 1
P(xi, yj)log2 1

P(xi)P(yj|xi)
       = n
Σ
i = 1
m
Σ
j = 1
P(xi, yj)log2 1

P(xi, yj)
       = H(X, Y)