「ドリフト拡散モデル」の版間の差分

編集の要約なし
編集の要約なし
17行目: 17行目:
==ドリフト拡散モデルの概要==
==ドリフト拡散モデルの概要==


[[Image:DDMの概要.png|thumb|420px|<b>図1.ドリフト拡散モデルにおける反応と反応時間の生成過程</b>]]<br>
[[Image:DDMの概要.png|thumb|320px|<b>図1.ドリフト拡散モデルにおける反応と反応時間の生成過程</b>]]<br>


ドリフト拡散モデルは,刺激呈示から反応が起こるまでの経過時間(反応時間)と反応選択の分布を説明するモデルである。ドリフト拡散モデルは,Ratcliff (1978)  
ドリフト拡散モデルは,刺激呈示から反応が起こるまでの経過時間(反応時間)と反応選択の分布を説明するモデルである。ドリフト拡散モデルは,Ratcliff (1978)  
71行目: 71行目:
* HDDM<ref><pubmed>23935581</pubmed></ref>: Wiecki, Sofer, & Frank(2013)が開発した,ドリフト拡散モデルを階層ベイズ推定するPythonパッケージ。
* HDDM<ref><pubmed>23935581</pubmed></ref>: Wiecki, Sofer, & Frank(2013)が開発した,ドリフト拡散モデルを階層ベイズ推定するPythonパッケージ。
* hBayesDM<ref><pubmed>29601060</pubmed></ref>: Ahn, Haines, & Zhang(2017)が開発した,意思決定課題に対して階層ベイズモデリングを行うRパッケージ。
* hBayesDM<ref><pubmed>29601060</pubmed></ref>: Ahn, Haines, & Zhang(2017)が開発した,意思決定課題に対して階層ベイズモデリングを行うRパッケージ。
* rtdists [ref追加]: ドリフト拡散モデルをはじめとする反応時間のモデリングに有用な関数が含められたRパッケージ。
* rtdists(https://github.com/rtdists/rtdists/): ドリフト拡散モデルをはじめとする反応時間のモデリングに有用な関数が含められたRパッケージ。


それぞれのモデルや推定方法には仮定がおかれていることがあり,モデルフィッティングに用いるデータがその仮定に合っているかどうかは事前に確認する必要がある。各種推定法に関する専門家による推奨については,Boehm et al.(2018)<ref name=Boehm2018><b>Boehm, U., Annis, J., Frank, M. J., Hawkins, G. E., Heathcote, A., Kellen, D., Krypotos, A.-M., Lerche, V., Logan, G. D., Palmeri, T. J., van Ravenzwaaij, D., Servant, M., Singmann, H., Starns, J. J., Voss, A., Wiecki, T. V., Matzke, D., & Wagenmakers, E.-J.(2018). </b><br>Estimating across-trial variability parameters of the Diffusion Decision Model: Expert advice and recommendations.<br><i>Journal of Mathematical Psychology</i>, 87, 46–75</ref>にまとめられている。また,ドリフト拡散モデルでのモデルフィッティングにあたっては,十分なデータ数が必要になる。特に反応時間の分布の情報を用いてパラメータ推定する方法の場合は,試行数が100程度の場合は,ドリフト拡散モデルの試行間変動性にかかわるパラメータの推定が真値からずれることが示されている<ref><pubmed>18229471</pubmed></ref>。そのため,試行間変動性にかかわるパラメータの推定を行う場合は,できるだけ多くの試行数が必要になるが,試行数を増やすと参加者の動機づけが低下する,疲れの影響が出る,などの問題も生じる。また,そもそも試行数を増やすことが難しい実験状況も多い<ref name=Boehm2018 />。そこで,パラメータ推定にあたり,参加者集団のパタメータの分布も仮定した階層ベイズ推定を行うことで,各参加者の試行数は少なくとも安定した推定する方法も提案されている<ref><pubmed>23935581</pubmed></ref><ref><pubmed>29601060</pubmed></ref>。
それぞれのモデルや推定方法には仮定がおかれていることがあり,モデルフィッティングに用いるデータがその仮定に合っているかどうかは事前に確認する必要がある。各種推定法に関する専門家による推奨については,Boehm et al.(2018)<ref name=Boehm2018><b>Boehm, U., Annis, J., Frank, M. J., Hawkins, G. E., Heathcote, A., Kellen, D., Krypotos, A.-M., Lerche, V., Logan, G. D., Palmeri, T. J., van Ravenzwaaij, D., Servant, M., Singmann, H., Starns, J. J., Voss, A., Wiecki, T. V., Matzke, D., & Wagenmakers, E.-J.(2018). </b><br>Estimating across-trial variability parameters of the Diffusion Decision Model: Expert advice and recommendations.<br><i>Journal of Mathematical Psychology</i>, 87, 46–75</ref>にまとめられている。また,ドリフト拡散モデルでのモデルフィッティングにあたっては,十分なデータ数が必要になる。特に反応時間の分布の情報を用いてパラメータ推定する方法の場合は,試行数が100程度の場合は,ドリフト拡散モデルの試行間変動性にかかわるパラメータの推定が真値からずれることが示されている<ref><pubmed>18229471</pubmed></ref>。そのため,試行間変動性にかかわるパラメータの推定を行う場合は,できるだけ多くの試行数が必要になるが,試行数を増やすと参加者の動機づけが低下する,疲れの影響が出る,などの問題も生じる。また,そもそも試行数を増やすことが難しい実験状況も多い<ref name=Boehm2018 />。そこで,パラメータ推定にあたり,参加者集団のパタメータの分布も仮定した階層ベイズ推定を行うことで,各参加者の試行数は少なくとも安定した推定する方法も提案されている<ref><pubmed>23935581</pubmed></ref><ref><pubmed>29601060</pubmed></ref>。
102行目: 102行目:
ドリフト拡散モデル以外の代表的な逐次サンプリングモデルとして,線形弾道蓄積モデル<ref><pubmed>18243170</pubmed></ref>がある。図5にあるように,線形弾道蓄積モデルは,ドリフト拡散モデルと類似しているが,エビデンスの蓄積の基準が絶対的なことと確率的ではない点が異なる。ドリフト拡散モデルでは,反応はエビデンス蓄積が上の境界と下の境界のどちらに到達するかで決まる相対的なものであった。一方,線形弾道蓄積モデルでは,それぞれの反応は独立してエビデンスの蓄積を行って,最終的に先に閾値(<math>b</math>)に到達した反応が出力される(図5の場合,先に<math>b</math>に到達した反応Aが出力される)。エビデンスの蓄積が始まる点を開始点(<math>a</math>)と呼び,選択肢で同一のこともあるが,異なることもある。開始点の位置の違いは,エビデンスの蓄積の前に存在する選択肢に対するバイアスとして解釈される。ドリフト拡散モデルと同様にエビデンスの蓄積の速さはドリフト率(<math>d</math>)が決めるが,蓄積過程は線形かつ非確率的である。各試行のドリフト率(<math>d</math>)は,平均<math>v</math>,標準偏差<math>s</math>の正規分布に従い,各試行の開始点(<math>a</math>)は,0から<math>A</math>(開始点の上限)の一様分布に従う。決定時間は,<math>(b-a)/d</math>で求めることができ,非決定時間 (<math>\tau</math>)は,全試行で一定とする。<math>a</math>と<math>d</math>は,推定するパラメータではなく,<math>v, b, A, s, \tau</math>が推定するパラメータになる。線形弾道蓄積モデルは,ドリフト拡散モデルよりも推定するパラメータが少なく,2選択肢以外の状況にも適用できるので,ドリフト拡散モデルと合わせて今後の活用が期待できる。
ドリフト拡散モデル以外の代表的な逐次サンプリングモデルとして,線形弾道蓄積モデル<ref><pubmed>18243170</pubmed></ref>がある。図5にあるように,線形弾道蓄積モデルは,ドリフト拡散モデルと類似しているが,エビデンスの蓄積の基準が絶対的なことと確率的ではない点が異なる。ドリフト拡散モデルでは,反応はエビデンス蓄積が上の境界と下の境界のどちらに到達するかで決まる相対的なものであった。一方,線形弾道蓄積モデルでは,それぞれの反応は独立してエビデンスの蓄積を行って,最終的に先に閾値(<math>b</math>)に到達した反応が出力される(図5の場合,先に<math>b</math>に到達した反応Aが出力される)。エビデンスの蓄積が始まる点を開始点(<math>a</math>)と呼び,選択肢で同一のこともあるが,異なることもある。開始点の位置の違いは,エビデンスの蓄積の前に存在する選択肢に対するバイアスとして解釈される。ドリフト拡散モデルと同様にエビデンスの蓄積の速さはドリフト率(<math>d</math>)が決めるが,蓄積過程は線形かつ非確率的である。各試行のドリフト率(<math>d</math>)は,平均<math>v</math>,標準偏差<math>s</math>の正規分布に従い,各試行の開始点(<math>a</math>)は,0から<math>A</math>(開始点の上限)の一様分布に従う。決定時間は,<math>(b-a)/d</math>で求めることができ,非決定時間 (<math>\tau</math>)は,全試行で一定とする。<math>a</math>と<math>d</math>は,推定するパラメータではなく,<math>v, b, A, s, \tau</math>が推定するパラメータになる。線形弾道蓄積モデルは,ドリフト拡散モデルよりも推定するパラメータが少なく,2選択肢以外の状況にも適用できるので,ドリフト拡散モデルと合わせて今後の活用が期待できる。


==他のモデルとの統合==
==モデルの拡張 (強化学習モデルとの統合)==


 ドリフト拡散モデルは,個々の試行内で刺激呈示から反応出力 (選択) までのプロセスを表現するモデルであるが,試行間の選択の変化を表す他の数理モデルと組み合わせることもできる。例えば,報酬に基づく学習のプロセスを表現する代表的なモデルである強化学習モデルとドリフト拡散モデルを組み合わせたモデルが提案されている<ref><pubmed>27966103</pubmed></ref><ref><pubmed>25589744</pubmed></ref>。一般の強化学習モデルでは,行動の結果与えられる報酬に基づいて各行動の価値を計算され,価値の高い行動が高い確率で選択される。この行動価値をドリフト拡散モデルのドリフト率に用いることで,選択肢の価値の差が小さいほど反応が競合し,反応時間が長くなるという仮定を置くことができる。そのように強化学習モデルを用いることでドリフト拡散モデルによる反応時間や選択の予測が改善できる。また,逆に反応時間をドリフト拡散モデルでモデル化することで,強化学習のパラメータの信頼性の改善も期待できる<ref><pubmed>30759077</pubmed></ref>。このように選択傾向の変化と反応時間を同時にモデル化して行動の背後にあるプロセスを探るというアプローチは,実験的に観測される情報をフルに活用できる枠組みとして今後の発展が期待される。
 ドリフト拡散モデルは,個々の試行内で刺激呈示から反応出力 (選択) までのプロセスを表現するモデルであるが,試行間の選択の変化を表す他の数理モデルと組み合わせることもできる。例えば,報酬に基づく学習のプロセスを表現する代表的なモデルである強化学習モデルとドリフト拡散モデルを組み合わせたモデルが提案されている<ref><pubmed>27966103</pubmed></ref><ref><pubmed>25589744</pubmed></ref>。一般の強化学習モデルでは,行動の結果与えられる報酬に基づいて各行動の価値を計算され,価値の高い行動が高い確率で選択される。この行動価値をドリフト拡散モデルのドリフト率に用いることで,選択肢の価値の差が小さいほど反応が競合し,反応時間が長くなるという仮定を置くことができる。そのように強化学習モデルを用いることでドリフト拡散モデルによる反応時間や選択の予測が改善できる。また,逆に反応時間をドリフト拡散モデルでモデル化することで,強化学習のパラメータの信頼性の改善も期待できる<ref><pubmed>30759077</pubmed></ref>。このように選択傾向の変化と反応時間を同時にモデル化して行動の背後にあるプロセスを探るというアプローチは,実験的に観測される情報をフルに活用できる枠組みとして今後の発展が期待される。


==参考文献==
==参考文献==
<references />
<references />