27
回編集
Masatoshiyoshida (トーク | 投稿記録) 細編集の要約なし |
Masatoshiyoshida (トーク | 投稿記録) 細編集の要約なし |
||
23行目: | 23行目: | ||
== サリエンシー・マップ(saliency map) == | == サリエンシー・マップ(saliency map) == | ||
特徴統合理論はあくまで心理学的な理論であったが、実際の脳でどのようにボトムアップ性注意が計算されているかを説明することを目的とした計算論的モデルとして、「サリエンシー・マップ」が提唱された<ref name=ref1><pubmed> 3836989 </pubmed></ref>。 | |||
サリエンシー・マップとは、視覚刺激のサリエンシーをスカラー量として計算して、特徴に依存しない単一の二次元マップとして表現したもののことを指す。 | |||
サリエンシー・マップの機能的な特徴としては以下の二つがあげられる。 | |||
+平行処理:特徴統合理論からの影響を受けているため、サリエンシーはまず各特徴ごとに計算されて、特徴マップを作る。 | |||
+Winner-take-allルール:これら複数の特徴マップが足しあわされて計算されたサリエンシー・マップの中からいちばんサリエンシーの高い部分が選択される。 | |||
Koch and Ulman 1985<ref name=ref1></ref>においてはあくまで計算の原理のモデルであったのだが、それを実際の画像から計算できるようなモデルとして実現したのがItti, Koch and Neiburによるサリエンシー計算論モデルだった<ref name=ref2>'''L. Itti, C. Koch, & E. Niebur'''<br>A Model of Saliency-Based Visual Attention for Rapid Scene Analysis.<br>''IEEE Transactions on Pattern Analysis and Machine Intelligence'': 1998, 20(11):1254-1259.</ref>。 | |||
このモデルのアルゴリズムレベルでの特色としては、 | |||
+ 各特徴ごとのサリエンシーを計算するため、center-surround抑制を用いる | |||
+ さまざまな解像度(pyramids)でこの作業を平行して行う(画像処理の分野でのmulti-scale representationに対応) | |||
+ 以上の操作を繰り返して正規化する(iterative normalization) | |||
がある 。 | |||
[[Image:Masatoshiyoshida_fig_2.png|thumb|300px|図2 サリエンシー・マップ]] | [[Image:Masatoshiyoshida_fig_2.png|thumb|300px|図2 サリエンシー・マップ]] | ||
この計算論モデルはC++ソフトウェアとして、[http://ilab.usc.edu/toolkit/ 南カリフォルニア大学Ittiラボ]より、ソースがGNU General Public Licenseに基づいて入手できるようになっている。 | |||
このソフトウェアを使って図1の画像のサリエンシーを計算したのが図2となる。 | |||
Itti, Koch and Neibur<ref name=ref2></ref>以降、サリエンシー・マップはさまざまな実装が報告されており、たとえば三次元への拡張、トップダウン注意への拡張などcomputational visionにおいて重要な分野の一つとなっている。 | |||
== サリエンシー・マップの脳内表象 == | |||
サリエンシー・マップはあくまで計算論的概念であるので、脳にサリエンシー・マップが表現されている保証はない。しかしながら、サリエンシー・マップが表象されている部分としてこれまでに、V1,、上丘、視床枕、LIP、FEFなどがその候補として挙げられている。 | |||
オリジナルの定義からすればサリエンシー・マップは単一のものであるはずだが、サリエンシーは脳内で分散して表現されていると主張しているものもある (たとえば<ref><pubmed> 15581921 </pubmed></ref>)。 | |||
== 関連項目 == | == 関連項目 == | ||
*[[ボトムアップ注意]] | |||
== 参考文献 == | == 参考文献 == |
回編集