「マッチング法則」の版間の差分
ナビゲーションに移動
検索に移動
細編集の要約なし |
Yutakasakai (トーク | 投稿記録) 細編集の要約なし |
||
(2人の利用者による、間の18版が非表示) | |||
1行目: | 1行目: | ||
英:matching law | |||
同義語:オペラントマッチング (operant matching) | 同義語:オペラントマッチング (operant matching) | ||
類義語:マッチング行動 (matching behavior) | 類義語:マッチング行動 (matching behavior) | ||
異義語:確率マッチング (probability matching) | 異義語:確率マッチング (probability matching) | ||
動物が行った行動に応じて報酬や罰が与えられるオペラント条件付けにおいて、動物はしばしば得られる成果を最大にする選択行動に至らないことがある。その中には再現性の良い法則を見出すことができる場合があり、マッチング法則はその一例である。マッチング法則は、確率的に報酬が与えられ、その確率が過去の行動にも依存する場合に、典型的に観測される。マッチング法則に至るような様々な行動学習モデルが提案されており、その中には神経シナプスで実現する一般則も提案されている。また工学的に開発されてきた強化学習アルゴリズムの一部がマッチング法則に至ることも示されており、マッチングを目指す学習戦略の生物学的意義も提唱されている。 | |||
== 定義 == | |||
行動に応じて報酬を与えるルール(強化スケジュール)を一定にした上で、動物に十分学習をさせた後、長時間、行動を観測し、各行動<math>a</math>を行った回数を<math>N_a</math>とし、行動<math>a</math>を行った直後に得られた報酬の総量を<math>I_a</math>とする。マッチング法則<ref><pubmed> 13713775 </pubmed></ref>とは、行動回数の割合と得られた報酬の割合が一致することである。 | |||
<math>\frac{N_a}{\sum_a N_a}=\frac{I_a}{\sum_a I_a}</math> | |||
== 参考文献 == | == 参考文献 == | ||
<references /> | <references /> |
2012年3月13日 (火) 10:41時点における版
英:matching law
同義語:オペラントマッチング (operant matching) 類義語:マッチング行動 (matching behavior)
異義語:確率マッチング (probability matching)
動物が行った行動に応じて報酬や罰が与えられるオペラント条件付けにおいて、動物はしばしば得られる成果を最大にする選択行動に至らないことがある。その中には再現性の良い法則を見出すことができる場合があり、マッチング法則はその一例である。マッチング法則は、確率的に報酬が与えられ、その確率が過去の行動にも依存する場合に、典型的に観測される。マッチング法則に至るような様々な行動学習モデルが提案されており、その中には神経シナプスで実現する一般則も提案されている。また工学的に開発されてきた強化学習アルゴリズムの一部がマッチング法則に至ることも示されており、マッチングを目指す学習戦略の生物学的意義も提唱されている。
定義
行動に応じて報酬を与えるルール(強化スケジュール)を一定にした上で、動物に十分学習をさせた後、長時間、行動を観測し、各行動を行った回数をとし、行動を行った直後に得られた報酬の総量をとする。マッチング法則[1]とは、行動回数の割合と得られた報酬の割合が一致することである。
参考文献
- ↑
HERRNSTEIN, R.J. (1961).
Relative and absolute strength of response as a function of frequency of reinforcement. Journal of the experimental analysis of behavior, 4, 267-72. [PubMed:13713775] [PMC] [WorldCat] [DOI]