サポートベクターマシン
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/03/02 01:41 UTC 版)
機械学習および データマイニング |
---|
![]() |
![]() |
サポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にウラジーミル・ヴァプニクとAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し[1]、1992年にBernhard E. Boser、Isabelle M. Guyon、ヴァプニクが非線形へと拡張した。
サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの1つである。サポートベクターマシンが優れた認識性能を発揮することができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。
基本的な考え方
サポートベクターマシンは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。訓練サンプルから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で線形入力素子のパラメータを学習する。
最も簡単な場合である、与えられたデータを線形に分離することが可能な(例えば、3次元のデータを2次元平面で完全に区切ることができる)場合を考えよう。
このとき、SVMは与えられた学習用サンプルを、もっとも大胆に区切る境目を学習する。学習の結果得られた超平面は、境界に最も近いサンプルとの距離(マージン)が最大となるパーセプトロン(マージン識別器)で定義される。すなわち、そのようなパーセプトロンの重みベクトル
ニューラルネットワークを含む多くの学習アルゴリズムは、このような学習データが与えられた時
以下のような形式の カテゴリ
サポートベクターマシン (SVM)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
「機械学習」の記事における「サポートベクターマシン (SVM)」の解説
分類や回帰に使われる一連の教師あり学習技法である。訓練例のラベルは二値分類(2つに分類される)であり、訓練アルゴリズムによってモデルを構築し、新たな例がどちらに分類されるかを予測する。
※この「サポートベクターマシン (SVM)」の解説は、「機械学習」の解説の一部です。
「サポートベクターマシン (SVM)」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
- サポート・ベクター・マシンのページへのリンク