ベイズ規則
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
L、p(x,y)をそれぞれ回帰や分類といった教師あり学習のタスクに対する損失関数、データ分布とし、関数Fに関する予測損失を R L ( F ) = E ( x , y ) ∼ p [ L ( F ( x ) , y ) ] {\displaystyle R_{L}(F)=E_{(x,y)\sim p}[L(F(x),y)]} と書き表す。このとき、予測損失の下限 i n f F R L ( F ) {\displaystyle {\underset {F}{\mathrm {inf} }}R_{L}(F)} を損失関数Lのもとでのベイズ誤差(Bayes error)と呼び、下限を達成するFをベイズ規則(Bayes rule)という。ここで i n f F {\displaystyle {\underset {F}{\mathrm {inf} }}} は可測関数全体の集合における下限である。 ベイズ規則は理論上の最良の予測関数であるが、実際には確率分布p(x,y)が未知なので、p(x,y)に関する予測損失 R L ( F ) = E ( x , y ) ∼ p [ L ( F ( x ) , y ) ] {\displaystyle R_{L}(F)=E_{(x,y)\sim p}[L(F(x),y)]} を計算できず、ベイズ規則を求める事ができない。このため教師あり学習では既知のデータ ( x 1 , y 1 ) , … , ( x n , y n ) {\displaystyle (\mathbf {x} _{1},\mathbf {y} _{1}),\ldots ,(\mathbf {x} _{n},\mathbf {y} _{n})} から可能な限りベイズ規則に近い値を出力するアルゴリズムを探索する事が求められる。
※この「ベイズ規則」の解説は、「機械学習」の解説の一部です。
「ベイズ規則」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
- ベイズ規則のページへのリンク