サポートベクターマシン
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/08/22 06:20 UTC 版)
サポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にウラジミール・ヴァプニクとAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し[1]、1992年にBernhard E. Boser、Isabelle M. Guyon、ウラジミール・ヴァプニクが非線形へと拡張した。
- ^ V. Vapnik and A. Lerner. Pattern recognition using generalized portrait method. Automation and Remote Control, 24, 1963.
- ^ “Why is the SVM margin equal to ”. Mathematics Stack Exchange. 20150530閲覧。
- ^ Ioannis Tsochantaridis; Thorsten Joachims; Thomas Hofmann; Yasemin Altun (2005). “Large Margin Methods for Structured and Interdependent Output Variables”. The Journal of Machine Learning Research 6 (9): 1453-1484 .
サポートベクターマシン (SVM)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
「機械学習」の記事における「サポートベクターマシン (SVM)」の解説
分類や回帰に使われる一連の教師あり学習技法である。訓練例のラベルは二値分類(2つに分類される)であり、訓練アルゴリズムによってモデルを構築し、新たな例がどちらに分類されるかを予測する。
※この「サポートベクターマシン (SVM)」の解説は、「機械学習」の解説の一部です。
「サポートベクターマシン (SVM)」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
- サポート・ベクター・マシンのページへのリンク