15,998
回編集
細編集の要約なし |
細編集の要約なし |
||
(他の1人の利用者による、間の1版が非表示) | |||
2行目: | 2行目: | ||
<font size="+1">[http://researchmap.jp/yutakasakai 酒井 裕]</font><br> | <font size="+1">[http://researchmap.jp/yutakasakai 酒井 裕]</font><br> | ||
''玉川大学 脳科学研究所''<br> | ''玉川大学 脳科学研究所''<br> | ||
DOI:<selfdoi /> 原稿受付日:2012年12月3日 原稿完成日:2013年2月15日<br> | |||
担当編集委員:[http://researchmap.jp/atsushiiriki 入來 篤史](独立行政法人理化学研究所 脳科学総合研究センター)<br> | 担当編集委員:[http://researchmap.jp/atsushiiriki 入來 篤史](独立行政法人理化学研究所 脳科学総合研究センター)<br> | ||
</div> | </div> | ||
15行目: | 15行目: | ||
{{box|text= | {{box|text= | ||
動物が行った行動に応じて報酬や罰が与えられる[[ | 動物が行った行動に応じて報酬や罰が与えられる[[オペラント条件づけ]]において、動物はしばしば得られる成果を最大にする選択行動に至らないことがある。その中には再現性の良い法則を見出すことができる場合があり、マッチング法則はその一例である。マッチング法則は、確率的に報酬が与えられ、その確率が過去の行動にも依存する場合に、典型的に観測される。マッチング法則に至るような様々な行動学習モデルが提案されており、その中には神経シナプスで実現する一般則も提案されている。また工学的に開発されてきた強化学習アルゴリズムの一部がマッチング法則に至ることも示されており、マッチングを目指す学習戦略の意義も提唱されている。 | ||
}} | }} | ||