「マッチング法則」の版間の差分

ナビゲーションに移動 検索に移動
編集の要約なし
(ページの白紙化)
編集の要約なし
1行目: 1行目:
英:matching law


同義語:オペラントマッチング (operant matching)
類義語:マッチング行動 (matching behavior)
異義語:確率マッチング (probability matching)
動物が行った行動に応じて報酬や罰が与えられる[[オペラント条件付け]]において、動物はしばしば得られる成果を最大にする選択行動に至らないことがある。その中には再現性の良い法則を見出すことができる場合があり、マッチング法則はその一例である。マッチング法則は、確率的に報酬が与えられ、その確率が過去の行動にも依存する場合に、典型的に観測される。マッチング法則に至るような[[#Model|様々な行動学習モデル]]が提案されており、その中には[[#Cov|神経シナプスで実現する一般則]]も提案されている。また工学的に開発されてきた[[#Cov|強化学習アルゴリズムの一部がマッチング法則に至る]]ことも示されており、マッチングを目指す学習戦略の[[#Sig|生物学的意義]]も提唱されている。
== 定義 ==
動物が選択できる反応を <math>a=1,2, \cdots, n</math> とする。動物が行った反応パターンに応じて報酬を与えるルール(強化スケジュール)を一定にした上で、動物に十分学習をさせた後、長時間、行動を観測し、各反応 <math>a</math> を行った回数を <math>N_a</math> とし、反応 <math>a</math> を行った直後に得られた報酬の総量を <math>I_a</math> とする。マッチング法則<ref><pubmed> 13713775 </pubmed></ref>とは、反応回数の割合と得られた報酬の割合が一致することである。
<math>\frac{N_a}{N_1 + N_2 + \cdots + N_n}=\frac{I_a}{I_1 + I_2 + \cdots + I_n}</math>
マッチング法則を示す一連の行動をマッチング行動と呼ぶ。
全く行っていない反応を除けば、
<math>\frac{I_a}{N_a}=\frac{I_1 + I_2 + \cdots + I_n}{N_1 + N_2 + \cdots + N_n}</math>
と変形でき、右辺は反応 <math>a</math> に依存しない値であるため、「各反応を一回行ったときに得られる期待報酬は、全く行っていない反応を除いて等しい」という法則とみなすことができる。
=== 確率マッチングとの対比 ===
マッチング法則と同様に、得られる成果を最大化していない行動にみられる法則の一つとして「確率マッチング(probability matching)」というものも知られている<ref><pubmed>14016794</pubmed></ref>。用語も定義も似ているが全く異なる法則であるため、注意が必要である。
確率マッチング(probability matching)の定義:
<math>\frac{N_1}{N_1 + N_2}=\frac{I_1/N_1}{I_1/N_1 + I_2/N_2}</math>
マッチング法則は、離散的な試行の繰り返しでも連続的に自由なタイミングで反応できる場合にも観測されており、様々な強化スケジュールで確認されているが、確率マッチングが調べられているのは限定的で次の条件を満たす場合に限られる。
* 離散的な試行の繰り返しである。
* 2択である。
* 各反応を選択したときの報酬確率はそれぞれ一定である。
* 報酬が得られるときの報酬量は一定である。
* 各反応の報酬確率の和は1である。
この条件では、報酬確率が高い方の反応を選択し続ける行動が最適であり、片方の反応を全く選択していないので、自明にマッチング法則を満たす。一方、確率マッチングを満たす行動では、明らかに報酬を最大化できない。
また、確率マッチングは、マッチング法則に比べると、観測される条件は次のように限定的である。
* ヒトを対象にした実験で、実際には金銭的報酬を与えない場合には、確率マッチングとなるが、実際に与えるとより最適行動に近づく<ref><b>N Vulkan</b><br>An Economist's Perspective on Probability Matching.<br><i>Journal of Economic Surveys</i> 2000, 14(1);101-118</ref>。
* 同じ条件で十分試行を繰り返すと(1000回以上)、確率マッチングから最適行動に近づく<ref><b>D R Shanks, R J Tunney, J D McCarthy</b><br>A Re-examination of Probability Matching and Rational Choice.<br><i>J. Behav. Dec. Making</i> 2002, 15(3):233-250</ref>。
* ハトで十分学習させるとほぼ最適行動が観測される<ref><pubmed>16811858</pubmed></ref>。
== マッチングと報酬最大化 ==
Herrnstein は、Variable Interval (VI) スケジュールという強化スケジュールを2択の反応にそれぞれ割り当てた並立VI-VIスケジュールでハトを訓練し、マッチング法則を見出した。VIスケジュールは、反応の頻度によらず、平均的にほぼ一定の間隔で報酬が得られるような確率的強化スケジュールである。したがって反応頻度が上がると、一回の反応に対して報酬を与える確率が下がるようになっており、報酬確率が過去の行動に依存する強化スケジュールの典型例である。一方、報酬確率が過去の行動に依存しない強化スケジュールは、Variable Ratio (VR) スケジュールと呼ばれ、一回の反応に対して一定の確率で報酬を与えるスケジュールである。
並立VR-VRスケジュールでは、平均報酬が大きい方の反応をし続ける行動が最適であり、片方の反応を全く行っていないので、自明にマッチング法則を満たす。一方、並立VI-VIスケジュールでも、報酬量を最大にする反応の割合がほぼマッチング法則を満たすことがわかっている<ref> <pubmed> 16812255 16812223 </pubmed></ref>。したがって、この範囲では、マッチングの結果なのか、報酬最大化の結果なのか、区別できない。
その後、マッチングと報酬最大化を区別できる強化スケジュールとして、より複雑な強化スケジュールが提案されてきた。VIスケジュールとVRスケジュールを2択の反応にそれぞれ割り当てた並立VI-VRスケジュール<ref><pubmed> 16812126 </pubmed></ref>や、VIスケジュールとVRスケジュールを2段階に組み合わせた Mazur のスケジュール<ref><pubmed> 7292017 </pubmed></ref>、過去一定期間の反応頻度に応じてVIスケジュールの平均報酬間隔を制御する Vaughan のスケジュール<ref><pubmed> 16812236 </pubmed></ref>など、いずれもマッチングと報酬最大化の結果が大きく異なるように設計でき、実験結果はマッチング法則の方を示してきた。特に Vaughan のスケジュールでは、マッチング法則を満たす複数の解を設計でき、彼らが提唱する行動学習モデル[[#Mel|「逐次改良法(melioration)」]]の予測と、動物の行動が一致することが示されている。
こうして、報酬最大化ではなくマッチングであることは様々な実験で示されているが、それぞれ、様々な批判もある。特に重要な批判は Change-over-delay(COD) と呼ばれる、反応の切り替えに対するペナルティを課していることにある。マッチング法則を示してきた強化スケジュールの多くは、2択の反応を交互に行うと高い確率で報酬を得られるようになっており、そのような交互反応にならないように切替のペナルティが導入されている。この操作が、最適行動を取れている動物を無理やりマッチング行動に押し込めているかのような印象を与えている。
これに対し、切替のペナルティを導入する必要がない強化スケジュールもEglemanらによって考案されている<ref><pubmed> 9802995 </pubmed></ref>。Vaughanのスケジュールをより単純化したものになっており、過去一定期間の反応頻度によって次の反応に対する報酬確率を決定するスケジュールである。報酬確率を決める関数形によって、報酬最大化とマッチング、および交互反応の結果、得られる平均報酬を自由に設計でき、さらに反応の選択順序に依存せず、反応頻度だけに依存するスケジュールであるため、反応頻度に関する法則を観測するのに適している。Eglemanらはヒトを対象にして、マッチング行動を示す被験者が多数であることを示した。
== マッチング法則からのずれ ==
報酬最大化ではなくマッチング法則に近いことは示されてきたが、同時に微妙にマッチング法則からずれており、そのずれ方に傾向があることがわかってきた。Baumはこのずれを記述できるように、マッチング法則を一般化した<ref><pubmed></pubmed></ref>。まず、頻度が0ではない反応が2つ以上ある場合に、そのうちの2つの反応に注目して、それらの反応回数と獲得報酬総量をそれぞれ<math>N_1,N_2</math>と<math>I_1,I_2</math>とすれば、マッチング法則から
<math>\frac{N_1}{N_2}=\frac{I_1}{I_2}</math>
が成り立つ。Baumはこの形式を次の形式に一般化した。
一般化マッチング法則:
<math>\frac{N_1}{N_2}=b \left(\frac{I_1}{I_2}\right)^a</math>
パラメタ<math>b</math>は反応の偏り(bias)を表わす。指数<math>a > 1</math>の場合を過大マッチング(overmatching)、指数<math>a < 1</math>の場合を過小マッチング(undermatching)と呼ぶ。実際の行動では、過小マッチング(undermatching)が数多く観測されている。
<span id="Model"></span>
== マッチングの行動学習モデル ==
<span id="Mel"></span>
=== 逐次改良法 (melioration) ===
VaughanとHerrnsteinは、逐次改良法と呼ばれる行動学習モデルを提唱している。各反応の割合を変化させて行動学習を行っていると仮定し、各反応を行ったときに得られる平均報酬(強化率)を推定して、より強化率の高い反応の割合を上げる、というモデルである。マッチング法則が成り立つような状態になると、全ての反応の強化率が等しくなるので、反応割合の変化が起こらなくなり、定常状態に達する。
=== 局所マッチング則 (local matching law) ===
Sugrueらは、局所マッチング則と呼ばれる行動学習モデルを提唱している<ref><pubmed>15205529</pubmed></ref>。各反応に対して得られた最近の累積報酬を推定し、その割合でこれから行う反応の割合を決める、というモデルである。
直接、マッチング法則を成立させるように構成したモデルである。このモデルをサルの行動にフィットさせたところ、長期間と短期間の累積報酬を両方反映しているという結果が得られている<ref><pubmed>16596981</pubmed></ref>。
<span id="Cov"></span>
=== 共分散則 (covariance rule) ===
LoewensteinとSeungは、神経系における[[シナプス可塑性]]に共分散則というルールを適用すると、行動上でマッチング法則が顕れることを証明した<ref><pubmed>17008410</pubmed></ref>。彼らの仮定は次の2つのみである。
* 行動上の各反応<math>a</math>に影響を及ぼすシナプス群が存在し、その伝達強度<math>\{w_{a1},w_{a2},\cdots \}</math>と反応<math>a</math>の頻度はそれぞれ単調な関係がある。
* 反応<math>a</math>を行うかどうかと相関のある神経活動<math>\{x_{a1},x_{a2},\cdots\}</math>があり、その結果得られる報酬 <math>r</math> とは、行った反応を通してのみしか相関を持たない。
この仮定の元で、神経活動<math>x</math>と報酬<math>r</math>との共分散に比例してシナプス強度が変化するルールを導入すると、定常状態で一般にマッチング法則が成り立つ。次の3つのタイプの具体的なルールは全て平均的に神経活動と報酬との共分散に比例する。
#<math> \Delta w_{ak} = \alpha (r - \bar{r}) x_{ak}  </math>
#<math> \Delta w_{ak} = \alpha r ( x_{ak} - \bar{x}_{ak} ) </math>
#<math> \Delta w_{ak} = \alpha (r - \bar{r})( x_{ak} - \bar{x}_{ak} ) </math>
ここで <math> \Delta w_{ak} </math> は、一回反応を行ったときに誘導されるシナプス可塑性で、シナプス伝達強度 <math> w_{ak} </math> の値は、<math> w_{ak} + \Delta w_{ak} </math> に置き換えられることを意味する。また、<math> \bar{x} </math> は変数<math>x</math>の長時間平均を表し、<math> \Delta \bar{x} = \beta (x - \bar{x})  </math> などのアルゴリズムで推定できる。
なお、これら神経系に相互作用があり、ある条件を満たす場合に、マッチング法則を満たす定常状態が不安定になることがあることが報告されている<ref><pubmed>22295982</pubmed></ref>。多体の神経系に適用する場合には注意が必要である。
<span id="RL"></span>
=== マッチング法則を示す強化学習アルゴリズム ===
[[強化学習]]は、与えられた入力(感覚刺激)に応じて出力(反応)し、一連の出力の結果、得られる成果(報酬)を最大にするような入出力関係を学習する枠組である。工学的に有用なアルゴリズムが多数開発されている。よく知られた強化学習アルゴリズムをマッチング行動が観測されているような強化スケジュールに適用し、反応するタイミングでは感覚刺激が一定であることから、入力を一定とすると、一部のアルゴリズムはマッチング行動に至ることが示されている<ref><pubmed>16942856</pubmed></ref><ref><pubmed>18045007</pubmed></ref>。共通な性質として、方策勾配法 (policy gradient) と呼ばれる勾配法を使った報酬最大化アルゴリズムに属し、その際に Temporal Difference (TD) 学習と呼ばれる予測学習法を用いていることが挙げられる。よく知られたアルゴリズムの例として、アクタークリティック法とダイレクトアクター法が挙げられる。各反応の選択確率を<math>p_a=e^{w_a}/(e^{w_1}+e^{w_2}+\cdots+e^{w_n})</math>とし、変数<math>\{w_1,w_2,\cdots,w_n\}</math>を変化させて行動学習しているとすれば、
アクタークリティック法:
<math> \Delta w_a = \alpha \delta_{aa_t}(r - \bar{r})</math>
ダイレクトアクター法:
<math> \Delta w_a = \alpha r (\delta_{aa_t}- p_a)</math>
と表せる。ここで <math> a_t </math> は <math>t</math> 回目の反応で選ばれた反応を表し、<math> \delta_{aa_t} </math> は、クローネッカーの<math> \delta </math>記号で、<math> a_t=a </math>のとき 1、そうでないときには 0 を取る。<math> \delta_{aa_t} </math>を反応<math>a</math>に相関する神経活動<math>x_a=\delta_{aa_t} </math>とみなせば、アクタークリティック法は、[[#Cov|共分散則]]のタイプ1に、ダイレクトアクター法は、タイプ2に属する。
<span id="Sig"></span>
== マッチングの生物学的意義 ==
報酬最大化を目的とした強化学習アルゴリズムの一部がマッチングを示すことから、マッチングは報酬最大化を目指す学習戦略の一種であることが示唆される。しかし、実際に報酬最大化に失敗してマッチングを示すことから、うまく働かない原因があると考えられる。それがTD学習による近似である。
TD学習では、現在の状況を表わす状態変数<math>s</math>を用いる。
て、各状態にいた後、得られる報酬と平均報酬の差を将来にわたって累積したもの
<math> V(s) \equiv \sum_{\tau=1}^{\infty} E[r_{t+\tau}-E[r]|s_t=s]</math>
を推定し、ある反応をした後に得られる報酬を推定した
== 参考文献  ==
<references />
(執筆者:酒井 裕、担当編集委員:入來篤史)
14

回編集

案内メニュー