バッチ正規化
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/23 09:35 UTC 版)
「ニューラルネットワーク」の記事における「バッチ正規化」の解説
バッチ正規化(英: Batch Normalization)は学習時のミニバッチに対する正規化である。バッチ正規化レイヤー/BNでは学習時にバッチ内統計量(平均μ, 分散σ)を計算し、この統計量により各データを正規化する。その上で学習可能パラメータ (β, γ) を用いて y = γX+βの線形変換をおこなう。これにより値を一定のバラツキに押し込めた上で柔軟に線形変換することができる。 CNNの場合、各チャネルごとにバッチ正規化処理がおこなわれる。バッチ方向ではない正規化手法も様々提案されており、Layer Norm・Instance Norm・Group Normなどがある。また正規化時のβ・γを計算から求めたりNN(β)・NN(γ)で表現する手法も存在する。
※この「バッチ正規化」の解説は、「ニューラルネットワーク」の解説の一部です。
「バッチ正規化」を含む「ニューラルネットワーク」の記事については、「ニューラルネットワーク」の概要を参照ください。
- バッチ正規化のページへのリンク