「身体図式」の版間の差分

編集の要約なし
編集の要約なし
編集の要約なし
28行目: 28行目:
== マカクサルの大脳皮質を用いた電気生理学的知見 ==
== マカクサルの大脳皮質を用いた電気生理学的知見 ==


 Sakata<ref name=ref6>'''Sakata, H.'''<br>Somatic sensory responses of neurons in the parietal association area (area 5) of monkeys.<br>In Kornhuber HH (eds): The somatosensory system, Georg Thieme, Stuttgart. (1975)</ref>らは、サル頭頂葉5野から、上肢関節と皮膚の特定の組み合わせで決まる姿勢に選択的に反応するニューロンを記録した。たとえば、あるニューロンは両手を胸の前であわせる「合掌」の姿勢に選択的に反応した。こうしたニューロンは、身体部位の位置の変化を検出し、身体図式の更新に関わると考えられている。
 Sakataら<ref name=ref6>'''Sakata, H.'''<br>Somatic sensory responses of neurons in the parietal association area (area 5) of monkeys.<br>In Kornhuber HH (eds): The somatosensory system, Georg Thieme, Stuttgart. (1975)</ref>は、サル頭頂葉5野から、上肢関節と皮膚の特定の組み合わせで決まる姿勢に選択的に反応するニューロンを記録した。たとえば、あるニューロンは両手を胸の前であわせる「合掌」の姿勢に選択的に反応した。こうしたニューロンは、身体部位の位置の変化を検出し、身体図式の更新に関わると考えられている。


 また、サル頭頂葉の5野と7野の境界からは、体性感覚情報だけで決まる姿勢に加えて、体性感覚と視覚情報の両方を統合するニューロンを記録した。たとえば、この種のニューロンは、肩内旋と肘屈曲という関節の組み合わせ、すなわち、 サルが手を口に近づける動作に選択的に反応し、遂行中の動作を多関節の組み合わせで識別していると考えられている。さらに、この種のニューロンでは、サルを閉眼させ上述の動作をサルに遂行させる場合よりも、開眼させ視覚情報を伴って動作させる場合の方が強く発火した。すなわち、視覚と体性感覚情報の両方を統合し、三次元空間における身体部位の位置を知覚する機能と考えられている。こうしたニューロンを、視覚と体制感覚を統合する多種(異種)感覚ニューロンと呼ぶ。
 また、サル頭頂葉の5野と7野の境界からは、体性感覚情報だけで決まる姿勢に加えて、体性感覚と視覚情報の両方を統合するニューロンを記録した。たとえば、この種のニューロンは、肩内旋と肘屈曲という関節の組み合わせ、すなわち、 サルが手を口に近づける動作に選択的に反応し、遂行中の動作を多関節の組み合わせで識別していると考えられている。さらに、この種のニューロンでは、サルを閉眼させ上述の動作をサルに遂行させる場合よりも、開眼させ視覚情報を伴って動作させる場合の方が強く発火した。すなわち、視覚と体性感覚情報の両方を統合し、三次元空間における身体部位の位置を知覚する機能と考えられている。こうしたニューロンを、視覚と体制感覚を統合する多種(異種)感覚ニューロンと呼ぶ。
59行目: 59行目:
 しかし、身体図式に限ってみても、脳はどのように自己身体のモデルを獲得し、それを柔軟に変容するのか、どのような計算が必要なのか未だ明確に分かっていない部分が多い。身体性に関わる認知機能やその発達に必要な条件を探索するために、ロボットを仮説検証のモデルとして利用するアプローチを認知発達ロボティクス、あるいは、発達構成論的アプローチという<ref name=ref18>'''Hoffmann, M., Marques, H., Arieta, A., Sumioka, H., Lungarella, M., & Pfeifer, R.''' (n.d.). <br>Body Schema in Robotics: A Review. <br>''IEEE Transactions on Autonomous Mental Development'', 2(4), 304–324.</ref>。たとえば、胎児の神経系を直接調べ、身体図式の発達過程を知ることは倫理的にできない。そこでKuniyoshi and Sangawa <ref name=ref19><pubmed>17123097</pubmed></ref>は、胎児の全身筋骨格系を模した計算機シミュレーションモデルを作成した。胎児の身体モデルは実際の胎児の物理的特徴(身体部位の大きさ、重量、関節角度など)に、神経モデルは運動制御の生理学的知見(筋紡錘からの救心性感覚繊維、脳幹セントラルパターンジェネレーター、一次運動野、一次体性感覚野)に基づいて構成された。シミュレーション上で、子宮内の環境および胎児の身体と神経モデルを相互作用させた結果、事前に明示的な制御を行っていないにもかかわらず、、実際の胎児が子宮内で見せるような(自己組織化された)身体運動と、 下肢、上肢、体幹、首を区別する体部位局在マップが形成されることが分かった。これは子宮内の環境と身体形状や筋配置等の身体的な制約が身体図式の発達を導いている可能性を示唆した。Hikitaら<ref name=ref20>'''M.Hikita, S. Fuke, M. Ogino, T. Minato, and M. Asada,'''<br>Visual attention by saliency leads cross-modal body representation<br>in Proc. 7th. Int. Conf. Develop. Learn. (ICDL), Shanghai, China, 2009.</ref>は、ロボットが身体図式の基盤と考えられる多種感覚統合マップを獲得するモデルを提案した。このモデルでは、体性感覚情報を処理するロボットの上肢の位置情報のマップと、視覚に関しては、ボトムアップ注意機構のモデルを援用したSaliency Mapがある。ロボットが物体に触れ触覚情報が入力された時に、Hebb学習によって視覚と体性感覚情報を統合する。このとき生成される統合マップが視覚と体性感覚を統合した多種感覚受容野の機能を持つと想定されている。このモデルによってロボットは、手を用いてターゲットに触れる場合に手先周辺に多種感覚受容野の統合マップが形成されたことに加えて、道具を用いてターゲットに触れる場合では、道具の先端に統合マップが拡張した。
 しかし、身体図式に限ってみても、脳はどのように自己身体のモデルを獲得し、それを柔軟に変容するのか、どのような計算が必要なのか未だ明確に分かっていない部分が多い。身体性に関わる認知機能やその発達に必要な条件を探索するために、ロボットを仮説検証のモデルとして利用するアプローチを認知発達ロボティクス、あるいは、発達構成論的アプローチという<ref name=ref18>'''Hoffmann, M., Marques, H., Arieta, A., Sumioka, H., Lungarella, M., & Pfeifer, R.''' (n.d.). <br>Body Schema in Robotics: A Review. <br>''IEEE Transactions on Autonomous Mental Development'', 2(4), 304–324.</ref>。たとえば、胎児の神経系を直接調べ、身体図式の発達過程を知ることは倫理的にできない。そこでKuniyoshi and Sangawa <ref name=ref19><pubmed>17123097</pubmed></ref>は、胎児の全身筋骨格系を模した計算機シミュレーションモデルを作成した。胎児の身体モデルは実際の胎児の物理的特徴(身体部位の大きさ、重量、関節角度など)に、神経モデルは運動制御の生理学的知見(筋紡錘からの救心性感覚繊維、脳幹セントラルパターンジェネレーター、一次運動野、一次体性感覚野)に基づいて構成された。シミュレーション上で、子宮内の環境および胎児の身体と神経モデルを相互作用させた結果、事前に明示的な制御を行っていないにもかかわらず、、実際の胎児が子宮内で見せるような(自己組織化された)身体運動と、 下肢、上肢、体幹、首を区別する体部位局在マップが形成されることが分かった。これは子宮内の環境と身体形状や筋配置等の身体的な制約が身体図式の発達を導いている可能性を示唆した。Hikitaら<ref name=ref20>'''M.Hikita, S. Fuke, M. Ogino, T. Minato, and M. Asada,'''<br>Visual attention by saliency leads cross-modal body representation<br>in Proc. 7th. Int. Conf. Develop. Learn. (ICDL), Shanghai, China, 2009.</ref>は、ロボットが身体図式の基盤と考えられる多種感覚統合マップを獲得するモデルを提案した。このモデルでは、体性感覚情報を処理するロボットの上肢の位置情報のマップと、視覚に関しては、ボトムアップ注意機構のモデルを援用したSaliency Mapがある。ロボットが物体に触れ触覚情報が入力された時に、Hebb学習によって視覚と体性感覚情報を統合する。このとき生成される統合マップが視覚と体性感覚を統合した多種感覚受容野の機能を持つと想定されている。このモデルによってロボットは、手を用いてターゲットに触れる場合に手先周辺に多種感覚受容野の統合マップが形成されたことに加えて、道具を用いてターゲットに触れる場合では、道具の先端に統合マップが拡張した。


参考文献
== 参考文献 ==


<references />
<references />