統計および機械学習における正則化とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > 統計および機械学習における正則化の意味・解説 

統計および機械学習における正則化

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/08/04 02:01 UTC 版)

正則化」の記事における「統計および機械学習における正則化」の解説

統計および機械学習において、正則化モデルパラメータの学習使われ、特に過学習防ぎ汎化能力高めるために使われる機械学習において最も一般的なのは L1 正則化 (p=1) と L2 正則化 (p=2) である。損失関数英語版) E ( w ) {\displaystyle E({\boldsymbol {w}})} の代わりに、 E ( w ) + λ 1 p ‖ w ‖ p p = E ( w ) + λ 1 p ∑ i | w i | p {\displaystyle E({\boldsymbol {w}})+\lambda {\frac {1}{p}}\|{\boldsymbol {w}}\|_{p}^{p}=E({\boldsymbol {w}})+\lambda {\frac {1}{p}}\sum _{i}|w_{i}|^{p}} を使用する。 w {\displaystyle {\boldsymbol {w}}} はパラメータベクトルで、 ‖ ⋅ ‖ p {\displaystyle \|\cdot \|_{p}} は L1 ノルム (p=1) や L2 ノルム (p=2) などである。 λ {\displaystyle \lambda } はハイパーパラメータで、正の定数で、大きくするほど正則化効果強くなるが、交差確認などで決める。 損失関数パラメータ偏微分すると、 L2 正則化場合 ∂ E ( w ) ∂ w i + λ w i {\displaystyle {\frac {\partial E({\boldsymbol {w}})}{\partial w_{i}}}+\lambda w_{i}} L1 正則化場合 ∂ E ( w ) ∂ w i + λ sgn( w i ) {\displaystyle {\frac {\partial E({\boldsymbol {w}})}{\partial w_{i}}}+\lambda \operatorname {sgn}(w_{i})} となり、これは、最急降下法確率的勾配降下法使用する場合は、L2 正則化パラメータ大きさ比例した分だけ、L1 正則化は λ {\displaystyle \lambda } だけ 0 に近づけることを意味するこの手法は様々なモデル利用できる線形回帰モデル利用した場合は、L1 の場合LassoL2場合リッジ回帰と呼ぶ。ロジスティック回帰ニューラルネットワークサポートベクターマシン条件付き確率場 などでも使われるニューラルネットワーク世界ではL2 正則化荷重減衰(英: weight decay)とも呼ばれる

※この「統計および機械学習における正則化」の解説は、「正則化」の解説の一部です。
「統計および機械学習における正則化」を含む「正則化」の記事については、「正則化」の概要を参照ください。

ウィキペディア小見出し辞書の「統計および機械学習における正則化」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「統計および機械学習における正則化」の関連用語

1
10% |||||

統計および機械学習における正則化のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



統計および機械学習における正則化のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの正則化 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS