回帰と分類の関係性
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
確信度を使った分類タスクに対するアルゴリズムを設計する典型的な手法は、回帰タスクのアルゴリズムを流用するというものである。すなわちクラスをone-hotベクトルで符号化した訓練データ ( x 1 , y 1 ) , … , ( x n , y n ) {\displaystyle (\mathbf {x} _{1},\mathbf {y} _{1}),\ldots ,(\mathbf {x} _{n},\mathbf {y} _{n})} を使って回帰タスクのアルゴリズムを訓練し、訓練結果のアルゴリズムを分類タスクに利用するという手法である。ただし、回帰タスク出力 u ^ = ( u 1 ^ , … , u k ^ ) {\displaystyle {\widehat {\mathbf {u} }}=({\widehat {u_{1}}},\ldots ,{\widehat {u_{k}}})} は、分類タスクの出力である確信度と違い、 0 ≤ u j ^ ≤ 1 {\displaystyle 0\leq {\widehat {u_{j}}}\leq 1} と u 1 ^ + ⋯ + u k ^ = 1 {\displaystyle {\widehat {u_{1}}}+\cdots +{\widehat {u_{k}}}=1} という条件を満たさないという問題が起こる。そこで一旦ソフトマックス変換(英語版) s o f t m a x : R k → [ 0 , 1 ] k , ( u 1 , … , u k ) ↦ 1 ∑ j = 1 k e u j ( e u 1 , … , e u k ) {\displaystyle \mathrm {softmax} ~:~\mathbb {R} ^{k}\to [0,1]^{k},(u_{1},\ldots ,u_{k})\mapsto {1 \over \sum _{j=1}^{k}e^{u_{j}}}(e^{u_{1}},\ldots ,e^{u_{k}})} をかける事でこの問題を解決する。 逆に確信度を使った分類タスクを回帰タスクに流用する事もでき、この場合は上と同様の理由でソフトマックス変換の逆変換をかける必要がある。
※この「回帰と分類の関係性」の解説は、「機械学習」の解説の一部です。
「回帰と分類の関係性」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
- 回帰と分類の関係性のページへのリンク