この算法についての解析的アプローチとは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > この算法についての解析的アプローチの意味・解説 

この算法についての解析的アプローチ

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2019/11/11 16:19 UTC 版)

自己組織化写像」の記事における「この算法についての解析的アプローチ」の解説

SOMアルゴリズムにはどんな次元特徴ベクトルでも入力できるが、多く応用では、入力次元は高い。出力されるマップ1次元2次元など、入力異な次元でも構わない(「近傍」が定義できればよい(→位相幾何学))。しかしポピュラーなのは2次元もしくは3次元マップである。なぜなら、SOM次元拡大でなく、主に次元削減用いられるからである。 アルゴリズムニューラルネットの用語を用いることで容易に記述できる。各々ニューロン出力マップ上それぞれ固有の物理的な位置持っている入力に対して、一番近いウェイトベクトル持っていたニューロンを「勝者」と呼び勝者重みベクトルはより入力ベクトル近くなるように修正される。この「勝者全部とる (winner-take-all, WTA)」プロセス競合学習呼ばれるそれぞれのニューロン近傍持っている。あるニューロン勝者となった場合、その近傍ニューロンもまた重みベクトル修正される。このプロセスを、全てのデータについて何度も通常、たくさん)繰り返す。 このネットワーク最終的には、入力データセット中のグループまたはパターン出力ノード関連付ける結果となる。それら関連づけられたニューロン入力パターンの名前で呼んでもよいことになる(色のベクトル学習したなら色ニューロンのように)。 他の多くニューラルネット同様、SOMにも2つフェーズがある。 学習プロセスにおいては写像構築されるニューラルネット競合学習用いて自己組織化する。ネットワーク多く入力を必要とする。次のフェーズ出現しそうな入力ベクトルあらん限り食わせるといい(あれば、だが)。さもなければ入力ベクトル何度も繰り返し与える。 写像プロセスにおいては新し入力ベクトル速やかにマップ上位置与えられ自動的に分類される。ただ一つ勝者ニューロン存在する。このニューロン重みベクトル入力ベクトル最も近いものであり、各ニューロン重みベクトル入力ベクトルとのユークリッド距離計算することで簡単に決定できる。 generative topographic map (GTM) はSOM新しバージョン一つである。GTM1996年Bishop, Svensen, Williams論文中で初め発表された。GTM確率モデルであり、おそらく収束するまた、近傍半径収縮学習係数減少を必要としないGTM生成モデルである。入力データを「まず低次元空間側で確率的に点を選び、それを観測され高次元入力データ空間上の点に滑らかな関数写像した後でノイズ加えたもの」と仮定する低次元側の確率分布滑らかな関数、そして高次元側でのノイズパラメータ全てEMアルゴリズム (en:EM_algorithm) によって入力データから学習される

※この「この算法についての解析的アプローチ」の解説は、「自己組織化写像」の解説の一部です。
「この算法についての解析的アプローチ」を含む「自己組織化写像」の記事については、「自己組織化写像」の概要を参照ください。

ウィキペディア小見出し辞書の「この算法についての解析的アプローチ」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「この算法についての解析的アプローチ」の関連用語

この算法についての解析的アプローチのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



この算法についての解析的アプローチのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの自己組織化写像 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS