「情報量」の版間の差分

ナビゲーションに移動 検索に移動
編集の要約なし
編集の要約なし
編集の要約なし
56行目: 56行目:
<br>3. 「情報量」の概念は、1948年のクロード・シャノンの「通信の数学的理論」によって明らかになった(Shannon and Weaver, 1949)<ref>'''Shannon, C., and Weaver, W.'''<br>A Mathematical Theory of Communication<br>''University of Illinois Press'':1949</ref>、。一方で、その源流の一つには物理学の研究の流れ([[熱力学]]・[[統計力学]]などでのエントロピーという概念の提唱)があった(Wikipediaの情報量、XXXなどの項目を参照のこと)。情報量の概念は、現在では、諸分野にまたがって広く用いられている一般的な概念となっている。日本語のわかりやすい解説としては、たとえば、情報理論では甘利(甘利俊一, 1996)<ref>'''甘利 俊一'''<br>情報理論<br>''ダイヤモンド社'':1996</ref>、熱力学では田崎(田崎晴明, 2000)<ref>'''田崎晴明'''<br>熱力学 ― 現代的な視点から, Vol 32<br>''培風館'':2000</ref>などがある。<br>その定式化に用いられるlogを使って確率分布に関する平均的量を評価する方法は、たとえば、二つの[[確率分布]]の近接性を評価する際に用いられる[[カルバック―ライブラー情報量]]など、広く用いられている。現在の統計情報科学([[情報理論]]、[[統計科学]]、[[機械学習]]、[[情報幾何]]など)で基礎的な概念として用いられている(Amari and Nagaoka, 2000<ref>'''Amari, S., and Nagaoka, H.'''<br>Methods of Information Geometry<br>''OXFORD UNIVERSITY PRESS'':2000</ref>; Cover and Thomas, 2006)<ref>'''Cover, T., and Thomas, J.'''<br>ELEMENTS OF INFORMATION THEORY Second Edition <br>''WILEY'':2006</ref>、。一方で、この情報量の定式化を拡張することで新たな展開を目指す試みは、現在でも盛んに行われている。たとえば、上述した4つの性質のうちの一部を緩めたり、あるいは一般化することで新たな性質をもつ基本的な量が定義できたりする。それらの科学の発展の基礎にある情報量の概念は、今後より一層重要な概念になるだろう。  
<br>3. 「情報量」の概念は、1948年のクロード・シャノンの「通信の数学的理論」によって明らかになった(Shannon and Weaver, 1949)<ref>'''Shannon, C., and Weaver, W.'''<br>A Mathematical Theory of Communication<br>''University of Illinois Press'':1949</ref>、。一方で、その源流の一つには物理学の研究の流れ([[熱力学]]・[[統計力学]]などでのエントロピーという概念の提唱)があった(Wikipediaの情報量、XXXなどの項目を参照のこと)。情報量の概念は、現在では、諸分野にまたがって広く用いられている一般的な概念となっている。日本語のわかりやすい解説としては、たとえば、情報理論では甘利(甘利俊一, 1996)<ref>'''甘利 俊一'''<br>情報理論<br>''ダイヤモンド社'':1996</ref>、熱力学では田崎(田崎晴明, 2000)<ref>'''田崎晴明'''<br>熱力学 ― 現代的な視点から, Vol 32<br>''培風館'':2000</ref>などがある。<br>その定式化に用いられるlogを使って確率分布に関する平均的量を評価する方法は、たとえば、二つの[[確率分布]]の近接性を評価する際に用いられる[[カルバック―ライブラー情報量]]など、広く用いられている。現在の統計情報科学([[情報理論]]、[[統計科学]]、[[機械学習]]、[[情報幾何]]など)で基礎的な概念として用いられている(Amari and Nagaoka, 2000<ref>'''Amari, S., and Nagaoka, H.'''<br>Methods of Information Geometry<br>''OXFORD UNIVERSITY PRESS'':2000</ref>; Cover and Thomas, 2006)<ref>'''Cover, T., and Thomas, J.'''<br>ELEMENTS OF INFORMATION THEORY Second Edition <br>''WILEY'':2006</ref>、。一方で、この情報量の定式化を拡張することで新たな展開を目指す試みは、現在でも盛んに行われている。たとえば、上述した4つの性質のうちの一部を緩めたり、あるいは一般化することで新たな性質をもつ基本的な量が定義できたりする。それらの科学の発展の基礎にある情報量の概念は、今後より一層重要な概念になるだろう。  


<br>4. 情報量は、脳科学の分野で様々に用いられている。典型的な例としては、
<br>4. 情報量は、脳科学の分野でさまざまに用いられている。典型的な例としては、


*外界からの刺激(例 視覚刺激)と神経細胞の活動応答の間の相互情報量を調べることで、個々の神経細胞が外界視覚をどのように符号化をしているかを調べる。また、複数の神経細胞が同時に記録されているときには、神経細胞集団の集団活動が外界刺激をどのように符号化するかを調べる。  
*外界からの刺激(例 視覚刺激)と神経細胞の活動応答の間の相互情報量を調べることで、個々の神経細胞が外界視覚をどのように符号化をしているかを調べる。また、複数の神経細胞が同時に記録されているときには、神経細胞集団の集団活動が外界刺激をどのように符号化するかを調べる。  
214

回編集

案内メニュー