定性的紹介
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2019/11/11 16:19 UTC 版)
自己組織化写像は入力層と競合層(出力層)からなる2層構造の教師なし学習ニューラルネットワークである。入力層は単に入力を与えるだけであるため、競合層のみを単に自己組織化写像と呼ぶこともある。 入力は n {\displaystyle n} 次元の数値データであり、出力は競合層に配置されたノードとなる。各ノードは m {\displaystyle m} 次元空間上に配置され、それぞれのノードに入力データの次元と同じ次元のベクトルが対応付けられている。この対応付けられたベクトルのことを重みベクトルと呼び、この重みベクトルを更新することで学習が行われる。 競合層のノード配置の次元は自由に設定できる。最も基本的な利用法は、2次元上にノードを配置し、高次元データを学習させることで高次元データの関係性を可視化するというものである。このように、自己組織化写像は高次元のデータ間に存在する非線形な関係を簡単に幾何学的関係を持つ像に変換することができる。 現在、自己組織化写像には様々なバリエーションがあり、従来の自己組織化写像を基本SOM (Basic SOM, BSOM) と呼ぶことがある。しかし、BSOMという略し方は後述するバッチ学習SOM (Batch Learning SOM, BL-SOM) と混同しかねないため望ましくない。
※この「定性的紹介」の解説は、「自己組織化写像」の解説の一部です。
「定性的紹介」を含む「自己組織化写像」の記事については、「自己組織化写像」の概要を参照ください。
- 定性的紹介のページへのリンク