逐次最小問題最適化法
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/26 14:13 UTC 版)
逐次最小問題最適化法(英: Sequential Minimal Optimization, SMO)はサポートベクターマシン (SVM) の訓練で生じる2次計画問題 (QP) を解くためのアルゴリズムである。1998年にマイクロソフトリサーチのJohn Plattによって発明された[1]。SMOはサポートベクターマシンの訓練のために広く使われ、人気のLIBSVMツールによって実装される[2][3]。以前から利用できたSVM訓練法はより一層複雑で、高価なサードパーティーのQPソルバーを必要としたので、1998年のSMOアルゴリズムの公表はSVMコミュニティでたくさんの興奮を引き起こした[4]。
- ^ Platt, John (1998), Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines, CiteSeerx: 10.1.1.43.4376
- ^ Chang, Chih-Chung; Lin, Chih-Jen (2011). “LIBSVM: A library for support vector machines”. ACM Transactions on Intelligent Systems and Technology 2 (3).
- ^ Luca Zanni (2006). Parallel Software for Training Large Scale Support Vector Machines on Multiprocessor Systems.
- ^ Rifkin, Ryan (2002), “Everything Old is New Again: a Fresh Look at Historical Approaches in Machine Learning”, Ph.D. thesis: 18
- 1 逐次最小問題最適化法とは
- 2 逐次最小問題最適化法の概要
- 3 関連項目
- 逐次最小問題最適化法のページへのリンク