「情報量」の版間の差分

編集の要約なし
編集の要約なし
編集の要約なし
26行目: 26行目:


1. 上に記述した情報量の概念を、複数の事象の確率(確率変数)に対して拡張することが一般的に可能である。なかでも、最も基本的なのは、二つの確率に基づく複合事象の関係に対して定義される「相互情報量」と「条件付きエントロピー」の概念である。二つの異なる事象系を考え、一つの系を<span class="texhtml">''i'' = 1,...,''n''</span> で番号づけして、各々の事象を<span class="texhtml">''A''<sub>''i''</sub></span> と表し、もう一つの系を<span class="texhtml">''j'' = 1,...,''m''</span> で番号づけして、各々の事象を<span class="texhtml">''B''<sub>''j''</sub></span> で表すと複合事象は<span class="texhtml">(''A''<sub>''i''</sub>.''B''<sub>''j''</sub>)の組として与えられる。このとき相互情報量
1. 上に記述した情報量の概念を、複数の事象の確率(確率変数)に対して拡張することが一般的に可能である。なかでも、最も基本的なのは、二つの確率に基づく複合事象の関係に対して定義される「相互情報量」と「条件付きエントロピー」の概念である。二つの異なる事象系を考え、一つの系を<span class="texhtml">''i'' = 1,...,''n''</span> で番号づけして、各々の事象を<span class="texhtml">''A''<sub>''i''</sub></span> と表し、もう一つの系を<span class="texhtml">''j'' = 1,...,''m''</span> で番号づけして、各々の事象を<span class="texhtml">''B''<sub>''j''</sub></span> で表すと複合事象は<span class="texhtml">(''A''<sub>''i''</sub>.''B''<sub>''j''</sub>)の組として与えられる。このとき相互情報量
</span>
</span><math>I(A,B)</math>は、
214

回編集