概念的特長
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/05 23:41 UTC 版)
「サポートベクターマシン」の記事における「概念的特長」の解説
次のような学習データ集合 D {\displaystyle {\mathcal {D}}} が与えられた場合を考える。 D = { ( x i , y i ) ∣ x i ∈ R p , y i ∈ { − 1 , 1 } } i = 1 n {\displaystyle {\mathcal {D}}=\{({\boldsymbol {x}}_{i},y_{i})\mid {\boldsymbol {x}}_{i}\in \mathbb {R} ^{p},\,y_{i}\in \{-1,1\}\}_{i=1}^{n}} y i {\displaystyle y_{i}} は1もしくは−1の値を持つ変数で x i {\displaystyle {\boldsymbol {x}}_{i}} が属したクラスを意味する。 x i {\displaystyle {\boldsymbol {x}}_{i}} は p {\displaystyle p} 次元の特徴ベクトルである。 ニューラルネットワークを含む多くの学習アルゴリズムは、このような学習データが与えられた時 y i = 1 {\displaystyle y_{i}=1} であるいくつかの点と y i = − 1 {\displaystyle y_{i}=-1} であるいくつかの点とを分離する超平面をさがすのが共通の目標である。SVMが他のアルゴリズムと差別化される特徴は、ただいくつかの点を分離する超平面を捜すことで終わるのではなく、いくつかの点を分離することができる幾多の候補平面の中でマージンが最大になる超平面 (maximum-margin hyperplane) を探す点にある。ここでマージンとは、超平面から各いくつかの点に至る距離の最小値を言い、このマージンを最大にしながらいくつかの点を2つのクラスで分類しようとすると、結局クラス1に属するいくつかの点との距離の中の最小値とクラス−1に属するいくつかの点との距離の中の最小値とが等しくなるように超平面が位置しなければならず、このような超平面をマージン最大の超平面という。結論として、SVMは2つのクラスに属しているいくつかの点を分類する幾多の超平面の中で、最大限に2つのクラスのいくつかの点と距離を維持するものを探すアルゴリズムといえる。
※この「概念的特長」の解説は、「サポートベクターマシン」の解説の一部です。
「概念的特長」を含む「サポートベクターマシン」の記事については、「サポートベクターマシン」の概要を参照ください。
- 概念的特長のページへのリンク