16,040
回編集
細 (→オンライン型アルゴリズム) |
細 (→オンライン型アルゴリズム) |
||
41行目: | 41行目: | ||
::<math>h_{ci} =h(\mathbf{z}_c,\mathbf{z}_i)=exp\left [-\frac{1}{2\rho^2(t)}||\mathbf{z}_c-\mathbf{z}_i||^2\right ]</math> | ::<math>h_{ci} =h(\mathbf{z}_c,\mathbf{z}_i)=exp\left [-\frac{1}{2\rho^2(t)}||\mathbf{z}_c-\mathbf{z}_i||^2\right ]</math> | ||
ここで<math>\mathbf{z}_c</math>, <math>\mathbf{z}_i</math> | ここで<math>\mathbf{z}_c</math>, <math>\mathbf{z}_i</math>はマップ空間上でのニューロン<math>c</math>,<math>i</math>の座標であり、<math>\rho</math>は近傍の広さを決めるパラメータである。これが協調プロセスである。 | ||
最後に、入力<math>x(t)</math>との誤差が小さくなるように各ニューロンの参照ベクトルを更新する: | |||
::<math>\mathbf{m}_i(t + 1) := \mathbf{m}_i + \epsilon h_{ci}(\mathbf{x}(t)-\mathbf{m}_i(t)).</math> | |||
ここで<math>\epsilon</math>は正の小さな定数である。これを適合プロセスである。 | |||
このように入力<math>x(t)</math>を変えながら競合・協調・適合プロセスを繰り返すのがオンライン型自己組織化マップのアルゴリズムである。また近傍の広さ<math>\rho</math>は学習の初期に広くしておき、学習が進むに連れて小さくしていく。このオンライン型アルゴリズムは、他の数理モデルや現実の脳との関連性を考えるうえで有用である。しかしオンライン型は学習時間がかかる上に計算結果が不安定であり、実データ解析には次に述べるバッチ型アルゴリズムを用いるべきであるとKohone自身も指摘している<ref name=Kohonen2013><pubmed>23067803</pubmed></ref>[6]。 | |||
===バッチ型アルゴリズム=== | ===バッチ型アルゴリズム=== |