「自由エネルギー原理」の版間の差分

編集の要約なし
編集の要約なし
編集の要約なし
11行目: 11行目:
 生物の感覚入力に基づく適応的な行動は、何らかの自己組織化(つまり適応、最適化)によって特徴付けることができる。生物は、感覚入力を生成する外部環境のダイナミクスに関する内部表現([[内部モデル]])を自己組織化的に獲得することで環境の状態を認識する。さらに、環境に適応するために自分の行動を更新し、それによって生存と繁殖の確率を高めている。このような生物の自己組織化は、一般に何らかのコスト関数の最小化として定式化が可能であり、コスト関数の勾配(つまり微分)は神経活動やシナプス可塑性の方程式を導くことができる。これは神経科学の理論研究において広く共通する考え方である。
 生物の感覚入力に基づく適応的な行動は、何らかの自己組織化(つまり適応、最適化)によって特徴付けることができる。生物は、感覚入力を生成する外部環境のダイナミクスに関する内部表現([[内部モデル]])を自己組織化的に獲得することで環境の状態を認識する。さらに、環境に適応するために自分の行動を更新し、それによって生存と繁殖の確率を高めている。このような生物の自己組織化は、一般に何らかのコスト関数の最小化として定式化が可能であり、コスト関数の勾配(つまり微分)は神経活動やシナプス可塑性の方程式を導くことができる。これは神経科学の理論研究において広く共通する考え方である。


 19世紀の物理学者兼医師であった[[w:Hermann_von_Helmholtz|Hermann von Helmholtz]]は、ヒトの感覚入力は不完全であるため、脳は不十分な情報を補うために無意識に推論を行うことで知覚を支えているという無意識的推論の概念を提唱した<ref name=Helmholtz1925>'''Helmholtz, H. (1925).'''<br>Treatise on Physiological Optics (Vol. 3). Optical Society of America, Washington, DC.</ref>。つまり、脳は感覚入力の背後にある隠れた状態変数(隠れ状態)のダイナミクスを無意識に推論していると考えられる。ここでは、このように自律的に外界を推論する実体をエージェントと呼ぶこととする。Helmholtzの提唱した概念的な枠組みに加えて、無意識的推論は計算神経科学や機械学習の分野において統計学に基づき実装されてきた<ref name=Dayan1995><pubmed>7584891</pubmed></ref>。とりわけ予測符号化は、予測誤差というコスト関数を最小化することで外界の予測を行うための内部表現を自律的に獲得する理論的な枠組みであり、視覚野<ref name=Rao1999><pubmed>10195184</pubmed></ref>や他の脳領域における情報処理のモデルとして適用されてきた。このような最適化はベイズ推論([[ベイズ推定]])と呼ばれる統計学的な推論として理解することができる。ベイズ推論とは、観測データに基づき事前確率(prior belief)を事後確率(posterior belief)に更新する過程のことであり、事前確率・事後確率とはそれぞれ観測の前・後におけるエージェントが持つ外部状態に関する信念を意味している。そこで、ベイズ推論の枠組みに基づき脳を理解しようとする、ベイズ脳仮説が提唱されてきた<ref name=Knill2004><pubmed>15541511</pubmed></ref><ref name=Doya2007>'''Doya, K., Ishii, S., Pouget, A., Rao, R.P. (Eds.) (2007).'''<br>Bayesian Brain: Probabilistic Approaches to Neural Coding. MIT Press, Cambridge, MA, USA.</ref>。以上のように脳の理論が発展してきた流れの中で、イギリスの神経科学者である[[w:Karl_J._Friston|Karl J. Friston]]は、ベイズ推論の枠組みの下で脳認知機能や神経・精神疾患、心理・生命現象を数理的かつ統一的に説明するための理論として、自由エネルギー原理を提唱した<ref name=Friston2006><pubmed>17097864</pubmed></ref><ref name=Friston2010><pubmed>20068583</pubmed></ref>。
 19世紀の物理学者兼医師であった[[w:Hermann_von_Helmholtz|Hermann von Helmholtz]]は、ヒトの感覚入力は不完全であるため、脳は不十分な情報を補うために無意識に推論を行うことで知覚を支えているという無意識的推論の概念を提唱した<ref name=Helmholtz1925>'''Helmholtz, H. (1925).'''<br>Treatise on Physiological Optics (Vol. 3). Optical Society of America, Washington, DC.</ref>。つまり、脳は感覚入力の背後にある隠れた状態変数(隠れ状態)のダイナミクスを無意識に推論していると考えられる。ここでは、このように自律的に外界を推論する実体をエージェントと呼ぶこととする。Helmholtzの提唱した概念的な枠組みに加えて、無意識的推論は計算神経科学や機械学習の分野において統計学に基づき実装されてきた<ref name=Dayan1995><pubmed>7584891</pubmed></ref>。とりわけ予測符号化は、予測誤差というコスト関数を最小化することで外界の予測を行うための内部表現を自律的に獲得する理論的な枠組みであり、視覚野<ref name=Rao1999><pubmed>10195184</pubmed></ref>や他の脳領域における情報処理のモデルとして適用されてきた。このような最適化はベイズ推論([[ベイズ推定]])と呼ばれる統計学的な推論として理解することができる。ベイズ推論とは、観測データに基づき事前確率(prior belief)を事後確率(posterior belief)に更新する過程のことであり、事前確率・事後確率とはそれぞれ観測の前・後におけるエージェントが持つ外部状態に関する信念を意味している。そこで、ベイズ推論の枠組みに基づき脳を理解しようとする、[[ベイズ脳仮説]]が提唱されてきた<ref name=Knill2004><pubmed>15541511</pubmed></ref><ref name=Doya2007>'''Doya, K., Ishii, S., Pouget, A., Rao, R.P. (Eds.) (2007).'''<br>Bayesian Brain: Probabilistic Approaches to Neural Coding. MIT Press, Cambridge, MA, USA.</ref>。以上のように脳の理論が発展してきた流れの中で、イギリスの神経科学者である[[w:Karl_J._Friston|Karl J. Friston]]は、ベイズ推論の枠組みの下で脳認知機能や神経・精神疾患、心理・生命現象を数理的かつ統一的に説明するための理論として、自由エネルギー原理を提唱した<ref name=Friston2006><pubmed>17097864</pubmed></ref><ref name=Friston2010><pubmed>20068583</pubmed></ref>。


==理論の概要==
==理論の概要==
[[ファイル:自由エネルギー原理の概念図。.jpg|サムネイル|'''図1 自由エネルギー原理の概念図。'''ここでは、外界(飼い主)は生成モデルに従い隠れた状態変数(隠れ状態)から感覚入力を生成すると考える。エージェント(イヌ)は、自由エネルギーを最小化するように隠れ状態やパラメータの期待値や行動を更新することで能動的な推論を行う。図は総説論文<ref name=Isomura2022a><pubmed>34968557</pubmed></ref>より改変。]]
 自由エネルギー原理は、簡単にいうと「生物の知覚や学習、行動は変分自由エネルギーと呼ばれるコスト関数を最小化するように決まり、その結果生物は外界に適応できる」という理論である。変分自由エネルギーの最小化というシンプルな法則に基づき、生物の知能をベイズ推論により統一的に記述し理解することを目的としている<ref name=Friston2006><pubmed>17097864</pubmed></ref><ref name=Friston2010><pubmed>20068583</pubmed></ref>。
 自由エネルギー原理は、簡単にいうと「生物の知覚や学習、行動は変分自由エネルギーと呼ばれるコスト関数を最小化するように決まり、その結果生物は外界に適応できる」という理論である。変分自由エネルギーの最小化というシンプルな法則に基づき、生物の知能をベイズ推論により統一的に記述し理解することを目的としている<ref name=Friston2006><pubmed>17097864</pubmed></ref><ref name=Friston2010><pubmed>20068583</pubmed></ref>。


41行目: 43行目:
 上式を変形することにより、変分自由エネルギーは予測誤差(prediction error)と複雑さ(complexity)の和として表すことができる。予測誤差は、感覚入力や隠れ状態の予測値が実際の値とどの程度異なるかを測定するもので、背景ノイズをガウスとみなした場合、広く用いられている平均二乗誤差に簡略化できる<ref name=Friston2008><pubmed>18989391</pubmed></ref>。複雑さとは、事前分布と事後分布の差のことであり、通常、[[w:Kullback–Leibler_divergence|Kullback-Leibler divergence]]を用いて評価される。この項は、事後分布が対応する事前分布から離れすぎないように正則化する役割を担っている。
 上式を変形することにより、変分自由エネルギーは予測誤差(prediction error)と複雑さ(complexity)の和として表すことができる。予測誤差は、感覚入力や隠れ状態の予測値が実際の値とどの程度異なるかを測定するもので、背景ノイズをガウスとみなした場合、広く用いられている平均二乗誤差に簡略化できる<ref name=Friston2008><pubmed>18989391</pubmed></ref>。複雑さとは、事前分布と事後分布の差のことであり、通常、[[w:Kullback–Leibler_divergence|Kullback-Leibler divergence]]を用いて評価される。この項は、事後分布が対応する事前分布から離れすぎないように正則化する役割を担っている。


 多くの場合、事後期待値<math>\boldsymbol{\vartheta}</math>(すなわち、観測に基づく<math>\vartheta</math>の推定値)は事後分布を近似的に表すのに十分である。このことから、<math>F</math>の<math>\boldsymbol{\vartheta}</math>についての最小化問題を解くことで、元の<math>F</math>の<math>Q(\vartheta)</math>についての最小化問題を解くことが可能である。したがって、勾配降下法を用いて、<math>F</math>を<math>\boldsymbol{\vartheta}</math>の各成分について最小化することで、事後分布を最適化することができる:
 多くの場合、事後期待値<math>\boldsymbol{\vartheta}</math>(すなわち、観測に基づく<math>\vartheta</math>の推定値)は事後分布を近似的に表すのに十分である。なお太字で表した変数<math>\boldsymbol{\vartheta}</math>は対応する変数<math>\vartheta</math>の期待値の意味である。このことから、<math>F</math>の<math>\boldsymbol{\vartheta}</math>についての最小化問題を解くことで、元の<math>F</math>の<math>Q(\vartheta)</math>についての最小化問題を解くことが可能である。したがって、勾配降下法を用いて、<math>F</math>を<math>\boldsymbol{\vartheta}</math>の各成分について最小化することで、事後分布を最適化することができる:


:<math>
:<math>
47行目: 49行目:
</math>
</math>


ここで、<math>\boldsymbol{\vartheta}_i</math>は<math>\boldsymbol{\vartheta}</math>の<math>i</math>番目の成分を示している。この<math>\boldsymbol{\vartheta}</math>の更新は固定点(すなわち、<math>\dot{\boldsymbol{\vartheta}}=0</math>を与える<math>\boldsymbol{\vartheta}</math>)に到達して収束する。その<math>\boldsymbol{\vartheta}</math>(より一般には<math>Q(\vartheta)</math>)はベイズ推論の意味で最適な内部表現と行動であることを意味している。このように、自由エネルギー原理は、推論(すなわち、<math>\mathbf{s}</math>の最適化)、学習(<math>\boldsymbol{\theta}</math>の最適化)、適応的行動制御(<math>\boldsymbol{\delta}</math>の最適化)、将来の<math>o</math>と<math>s</math>の予測、将来の結果に関するリスクを最小化する計画について、一つの法則で統一的に説明することができる。
ここで、<math>\boldsymbol{\vartheta}_i</math>は<math>\boldsymbol{\vartheta}</math>の<math>i</math>番目の成分を示している。この<math>\boldsymbol{\vartheta}</math>の更新は固定点(すなわち、<math>\dot{\boldsymbol{\vartheta}}=0</math>を与える<math>\boldsymbol{\vartheta}</math>)に到達して収束する。その<math>\boldsymbol{\vartheta}</math>(より一般には<math>Q(\vartheta)</math>)はベイズ推論の意味で最適な内部表現と行動であることを意味している。このように、自由エネルギー原理は、推論(すなわち、<math>\mathbf{s}</math>の最適化)、学習(<math>\boldsymbol{\theta}</math>の最適化)、適応的行動制御(<math>\boldsymbol{\delta}</math>の最適化)、将来の<math>o</math>と<math>s</math>の予測、将来の結果に関するリスクを最小化する行動計画について、一つの法則で統一的に説明することができる。


==能動的推論==
==能動的推論==
 自由エネルギー原理の特徴の一つは、変分ベイズ推論を行動制御と行動計画の説明に応用している点、すなわち能動的推論である<ref name=Friston2011><pubmed>21327826</pubmed></ref><ref name=Friston2016><pubmed>27375276</pubmed></ref><ref name=Friston2017><pubmed>27870614</pubmed></ref>。エージェントが行動を生成し外部環境に対してフィードバックを返すとき、生成過程およびサプライズはエージェントの行動の関数となる。したがって、エージェントは、将来期待される自由エネルギー(期待自由エネルギー, expected free energy, <math>G</math>)を最小化するような行動を選択することで、将来の感覚入力を好ましい入力(つまり予測通りの入力)に近づけることができる。好ましい入力はpreference priorと呼ばれる事前分布によって決まる。図1の例では、エージェントの犬は、餌を得るために期待自由エネルギーを最小化する行動を能動的に推論し、選択する。このように、能動的推論は、知覚と行動の両方を過去あるいは未来について積算された変分自由エネルギーの最小化により導出することができ、推論・予測・学習・行動計画・行動制御などを統一的に説明できる。そのため、生物の感覚入力に基づく適応的な行動の普遍的な特性を説明する理論的な枠組みとして期待されている。
 自由エネルギー原理の特徴の一つは、変分ベイズ推論を行動制御と行動計画の説明に応用している点、すなわち能動的推論である<ref name=Friston2011><pubmed>21327826</pubmed></ref><ref name=Friston2016><pubmed>27375276</pubmed></ref><ref name=Friston2017><pubmed>27870614</pubmed></ref>。エージェントが行動を生成し外部環境に対してフィードバックを返すとき、生成過程およびサプライズはエージェントの行動の関数となる。したがって、エージェントは、将来期待される自由エネルギー(期待自由エネルギー, expected free energy, <math>G</math>)を最小化するような行動を選択することで、将来の感覚入力を好ましい入力(つまり予測通りの入力)に近づけることができる。好ましい入力はpreference priorと呼ばれる事前分布によって決まる。図1の例では、エージェントの犬は、餌を得るために期待自由エネルギーを最小化する行動を能動的に推論し、選択する。このように、能動的推論は、知覚と行動の両方を過去あるいは未来について積算された変分自由エネルギーの最小化により導出することができ、推論・予測・学習・行動計画・行動制御などを統一的に説明できる。そのため、生物の感覚入力に基づく適応的な行動の普遍的な特性を説明する理論的な枠組みとして期待されている。


 能動的推論は、エージェントが予測と異なる感覚入力を受け取ったときに起きる。例えば、エージェントが外界の生成過程と異なる生成モデルを採用している場合、外部環境の生成過程をエージェントが採用している生成モデルに近づけるために行動が生成される<ref name=Friston2011><pubmed>21327826</pubmed></ref>。一例として、エージェントである鳥が他の鳥の歌が聞こえている状態を学習すると、その歌が聞こえている状態がサプライズを最小化するようになる(Kiebel et al.2008; Friston & Frith, 2015a; Friston & Frith, 2015b)。したがって、エージェントが歌を聞いていないときは、歌がないことで大きなサプライズが生じるため、自ら歌う、あるいは同種の鳥を探すなどの行動をすることで歌を聞こうとする。行動生成の結果、エージェントは自分自身の予測(つまり、予測された歌)を実際の感覚入力として受け取ることになり、サプライズを最小化することができる。なお、鳥は行動生成に先立ち、歌が聞こえない状況に再適応する可能性もある。このように、サプライズの最小化には、エージェントの内部状態が外部環境状態に近づく場合と、エージェントの行動によって外部環境状態が内部状態に近づく場合の2通りの方法が存在する。学習速度と行動生成の閾値のバランスにより、学習と行動生成のどちらを行うかが決定される。
 能動的推論は、エージェントが予測と異なる感覚入力を受け取ったときに起きる。例えば、エージェントが外界の生成過程と異なる生成モデルを採用している場合、外部環境の生成過程をエージェントが採用している生成モデルに近づけるために行動が生成される<ref name=Friston2011><pubmed>21327826</pubmed></ref>。一例として、エージェントである鳥が他の鳥の歌が聞こえている状態を学習すると、その歌が聞こえている状態がサプライズを最小化するようになる<ref name=Kiebel2008><pubmed>19008936</pubmed></ref><ref name=Friston2015a><pubmed>25957007</pubmed></ref><ref name=Friston2015b><pubmed>25563935</pubmed></ref>。したがって、エージェントが歌を聞いていないときは、歌がないことで大きなサプライズが生じるため、自ら歌う、あるいは同種の鳥を探すなどの行動をすることで歌を聞こうとする。行動生成の結果、エージェントは自分自身の予測(つまり、予測された歌)を実際の感覚入力として受け取ることになり、サプライズを最小化することができる。なお、鳥は行動生成に先立ち、歌が聞こえない状況に再適応する可能性もある。このように、サプライズの最小化には、エージェントの内部状態が外部環境状態に近づく場合と、エージェントの行動によって外部環境状態が内部状態に近づく場合の2通りの方法が存在する。学習速度と行動生成の閾値のバランスにより、学習と行動生成のどちらを行うかが決定される。


 能動的推論は行動計画の説明にも適用できる<ref name=Friston2017><pubmed>27870614</pubmed></ref>。行動計画は、将来の不確実性を最小化するための方策(policy)の選択に相当し、推論の一種である(Attias, 2003; Botvinick & Toussaint, 2012; Maisto et al, 2015; Kaplan & Friston, 2018; Millidge, 2020)。行動(<math>\delta</math>)が外部の環境に直接影響を与えるのに対して、方策(<math>\pi</math>)は将来の計画(つまり一連の行動)を表し、行動を決定するパラメータに相当する。方策の事後確率は負の期待自由エネルギーに精度を乗じたものの指数に比例する。したがって、エージェントは各方策に対応する期待自由エネルギーを計算し、最小の期待自由エネルギーを与える方策を選択する。ここでは、将来の結果に関するprior preferenceが、報酬と罰に相当する情報を含んでおり、期待自由エネルギーの形状を特徴づける。
 能動的推論は行動計画の説明にも適用できる<ref name=Friston2017><pubmed>27870614</pubmed></ref>。行動計画は、将来の不確実性を最小化するための方策(policy)の選択に相当し、推論の一種である<ref name=Attias2003>'''Attias, H. (2003).'''<br>Planning by Probabilistic Inference. In Proc. 9th International Workshop on Artificial Intelligence and Statistics, 6–16, ML Research Press.</ref><ref name=Botvinick2012><pubmed>22940577</pubmed></ref><ref name=Maisto2015><pubmed>25652466</pubmed></ref><ref name=Kaplan2018><pubmed>29572721</pubmed></ref><ref name=Millidge2020>'''Millidge, B. (2020).'''<br>Deep active inference as variational policy gradients. Journal of Mathematical Psychology, 96, 102348.</ref>。行動(<math>\delta</math>)が外部の環境に直接影響を与えるのに対して、方策(<math>\pi</math>)は将来の計画(つまり一連の行動)を表し、行動を決定するパラメータに相当する。方策の事後確率は負の期待自由エネルギーに精度を乗じたものの指数に比例する。したがって、エージェントは各方策に対応する期待自由エネルギーを計算し、最小の期待自由エネルギーを与える方策を選択する。ここでは、将来の結果に関するprior preferenceが、報酬と罰に相当する情報を含んでおり、期待自由エネルギーの形状を特徴づける。


 また、能動的推論では、探索と搾取のバランスは期待自由エネルギーによって決定される。ある方策が他よりはるかに小さい期待自由エネルギーを与える場合は、その方策は1に近い確率で選択されるため、エージェントは搾取的な戦略をとる。逆に、すべての方策が同程度の期待自由エネルギーを与える場合は、エージェントは無作為に方策を選択し、探索的な振る舞いをする。さらに、期待自由エネルギーの大きさを制御する精度も、変分自由エネルギーを最小化するように最適化され、精度が高いほどエージェントの行動はより搾取的になる。
 また、能動的推論では、探索と搾取のバランスは期待自由エネルギーによって決定される。ある方策が他よりはるかに小さい期待自由エネルギーを与える場合は、その方策は1に近い確率で選択されるため、エージェントは搾取的な戦略をとる。逆に、すべての方策が同程度の期待自由エネルギーを与える場合は、エージェントは無作為に方策を選択し、探索的な振る舞いをする。さらに、期待自由エネルギーの大きさを制御する精度も、変分自由エネルギーを最小化するように最適化され、精度が高いほどエージェントの行動はより搾取的になる。


==問題点と展望==
==問題点と展望==
 数理的には、変分自由エネルギーを最小化するエージェントがベイズ推論や学習を実行できること自体はよく知られた事実である。しかし、それが脳の仕組みとして生物学的に正しいかは別の問題である。自由エネルギー原理は抽象度の高い理論であり、その神経基盤に関しては未だ議論が続いている。通常は、隠れ状態とパラメータの事後分布は、神経活動とシナプス結合強度がそれぞれ符号化していると考えられており、その妥当性に関する証拠も蓄積されつつある(Bastos et al., 2012)。一つには、大脳皮質の局所回路の解剖学的特性(Haeusler and Maass, 2007)と階層的予測符号化モデル(Friston, 2008)の比較により、検証可能な理論予測行われている。皮質浅層の神経活動の周波数は高く、皮質深層の神経活動の周波数は低いことから、前者が予測誤差を、後者が期待値をそれぞれ符号化していることが示唆されている。しかしこれらの議論は、予測符号化モデルの妥当性に関するものであり、自由エネルギー原理の妥当性の証拠としては間接的であることに注意されたい。脳の基本単位である神経細胞やシナプス結合の活動や可塑性が、どのような仕組みで変分自由エネルギーの最小化を行い、システムとしてベイズ推論や学習を実現しているのかに関しては、その神経基盤が何であるかはまだ十分に解明されているとは言えない。
 数理的には、変分自由エネルギーを最小化するエージェントがベイズ推論や学習を実行できること自体はよく知られた事実である。しかし、それが脳の仕組みとして生物学的に正しいかは別の問題である。自由エネルギー原理は抽象度の高い理論であり、その神経基盤に関しては未だ議論が続いている。通常は、隠れ状態とパラメータの事後分布は、神経活動とシナプス結合強度がそれぞれ符号化していると考えられており、その妥当性に関する証拠も蓄積されつつある<ref name=Bastos2012><pubmed>23177956</pubmed></ref>。一つには、大脳皮質の局所回路の解剖学的特性<ref name=Haeusler2007><pubmed>16481565</pubmed></ref>と階層的予測符号化モデル<ref name=Friston2008><pubmed>18989391</pubmed></ref>の比較により、検証可能な理論予測行われている。皮質浅層の神経活動の周波数は高く、皮質深層の神経活動の周波数は低いことから、前者が予測誤差を、後者が期待値をそれぞれ符号化していることが示唆されている。しかしこれらの議論は、予測符号化モデルの妥当性に関するものであり、自由エネルギー原理の妥当性の証拠としては間接的であることに注意されたい。脳の基本単位である神経細胞やシナプス結合の活動や可塑性が、どのような仕組みで変分自由エネルギーの最小化を行い、システムとしてベイズ推論や学習を実現しているのかに関しては、その神経基盤が何であるかはまだ十分に解明されているとは言えない。


 一方で、理論的考察により自由エネルギー原理の普遍性を示す研究も行われている。一般に、生物とその周囲の環境が区別されることは、内部状態と外部状態を統計的に分離するマルコフブランケット(Markov blanket)の存在を示唆する。システムが(非平衡)定常状態に達したとき、生物の内部状態の条件付き期待値は、外部状態に関する事後確率を表現していると見なすことができる(Friston, 2013; Friston, 2019; Parr et al., 2020)。このことは、いかなる(非平衡)定常状態も、何らかのベイズ推論を実現していると解釈できることを意味する。あるいは、完備類定理(complete class theorem)(Wald, 1947; Brown, 1981; Berger, 2013)によれば、エージェントが何らかのコスト関数を最小化しているとき、エージェントの挙動をベイズ推論の観点から説明できる事前分布とベイズ的コスト関数の組が少なくとも1つは存在する。これは、生物あるいは脳がベイズ推論を行うエージェントとして振る舞うという仮説は実験的に反証できない(自明に正しい)かもしれないことを意味する(Daunizeau et al., 2010)。この性質は、自由エネルギー原理の実験的検証を設計する際に問題になると考える人もいるかもしれないが、この性質こそが脳の理論を構築する上での重要な長所であると見ることもできる。最近の理論研究においては、古典的な神経活動やシナプス可塑性の方程式を導くような神経生理学的に妥当なコスト関数と、部分観測マルコフ決定過程の下での変分自由エネルギーが数理的に等価であることが示されている(Isomura et al., 2022)。これらの数理的な性質は、脳が自由エネルギー原理に従っていると見なすことができることを示唆している。
 一方で、理論的考察により自由エネルギー原理の普遍性を示す研究も行われている。一般に、生物とその周囲の環境が区別されることは、内部状態と外部状態を統計的に分離するマルコフブランケット([[w:Markov_blanket|Markov blanket]])の存在を示唆する。システムが(非平衡)定常状態に達したとき、生物の内部状態の条件付き期待値は、外部状態に関する事後確率を表現していると見なすことができる<ref name=Friston2013><pubmed>23825119</pubmed></ref><ref name=Friston2019>'''Friston, K. J. (2019).'''<br>A free energy principle for a particular physics. Preprint at arXiv 1906.10184.</ref><ref name=Parr2020><pubmed>31865883</pubmed></ref><ref name=Friston2022>'''Friston, K. J., Da Costa, L., Sajid, N., Heins, C., Ueltzhöffer, K., Pavliotis, G. A., & Parr, T. (2022).'''<br>The free energy principle made simpler but not too simple. Preprint at arXiv 2201.06387.</ref>。このことは、いかなる(非平衡)定常状態も、何らかのベイズ推論を実現していると解釈できることを意味する。あるいは、完備類定理(complete class theorem)<ref name=Wald1947>'''Wald, A. (1947).'''<br>An essentially complete class of admissible decision functions. Annals of Mathematical Statistics, 18, 549–555.</ref><ref name=Brown1981>'''Brown, L. D. (1981).'''<br>A complete class theorem for statistical problems with finite sample spaces. Annals of Statistics, 9, 1289–1300.</ref><ref name= Berger2013>'''Berger, J. O. (2013).'''<br>Statistical Decision Theory and Bayesian Analysis, Springer.</ref>によれば、エージェントが何らかのコスト関数を最小化しているとき、エージェントの挙動をベイズ推論の観点から説明できる事前分布とベイズ的コスト関数の組が少なくとも1つは存在する。これは、生物あるいは脳がベイズ推論を行うエージェントとして振る舞うという仮説は実験的に反証できない(自明に正しい)かもしれないことを意味する<ref name=Daunizeau2010><pubmed>21179480</pubmed></ref>。この性質は、自由エネルギー原理の実験的検証を設計する際に問題になると考える人もいるかもしれないが、この性質こそが脳の理論を構築する上での重要な長所であると見ることもできる。最近の理論研究においては、古典的な神経活動やシナプス可塑性の方程式を導くような神経生理学的に妥当なコスト関数と、部分観測マルコフ決定過程の下での変分自由エネルギーが数理的に等価であることが示されている<ref name=Isomura2022b><pubmed>35031656</pubmed></ref>。これらの数理的な性質は、脳が自由エネルギー原理に従っていると見なすことができることを示唆している。


==関連項目==
==関連項目==
67行目: 69行目:
* [[神経符号化]]
* [[神経符号化]]
* [[内部モデル]]
* [[内部モデル]]
* [[視覚系の順逆変換モデル]]


==関連日本語文献==
==関連日本語文献==
吉田 正俊 「よくわかるフリストンの自由エネルギー原理」 SlideShare https://www.slideshare.net/masatoshiyoshida/ss-79082197
日本神経回路学会誌 特集「自由エネルギー原理入門」 2018年25巻3号 https://www.jstage.jst.go.jp/browse/jnns/25/3/_contents/-char/ja
乾 敏郎, 阪口 豊 (2020). 『脳の大統一理論 -自由エネルギー原理とは何か-』 岩波書店.


==参考文献==
==参考文献==
<references />
<references />
11

回編集