ReLUとは? わかりやすく解説

正規化線形関数

(ReLU から転送)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/05/02 19:03 UTC 版)

x = 0近傍での正規化線形関数(青)およびソフトプラス関数(緑)のプロット

正規化線形関数(せいきかせんけいかんすう、: Rectified linear functionあるいは単にrectifier[注釈 1]とも)は、引数の正の部分として定義される活性化関数であり、次のように表される。

上式において、 はニューロンへの入力である。これはランプ関数(傾斜路関数)としても知られ、電気工学における半波整流回路と類似している。この活性化関数は、1993年にTangらによって新しいニューロンモデルとして最初に提案され、ニューラルネットワークの学習に適用し、その有効性が示された[1]。2000年にHahnloseらによって強い生物学的動機と数学的正当化を持って、動的ネットワークへに導入された[2][3]。2011年以前に広く使われていた活性化関数、例えばロジスティックシグモイド(これは確率論から発想を得ている。ロジスティック回帰を参照。)およびそのより実践的な[4]機能的に同等な関数である双曲線正接関数と比較して、より深いネットワークのより良い訓練を可能にすることが2011年に初めて実証された[5]。2018年現在、ディープニューラルネットワークで最も広く使われている活性化関数が、この正規化線形関数である[6][7]

正規化線形関数を利用したユニットは正規化線形ユニット(rectified linear unit、ReLU)とも呼ばれる[8]

正規化線形ユニットはディープニューラルネットワークを用いたコンピュータビジョン[5]音声認識[9][10]に応用されている。

ソフトプラス

正規化線形関数に対する平滑化近似が解析関数

であり、ソフトプラス(softplus)関数[11][5]またはSmoothReLU関数[12]と呼ばれる。ソフトプラスの導関数はロジスティック関数である。ロジスティック関数は、正規化線形関数の導関数であるヘヴィサイドの階段関数の平滑化近似である。

単変数ソフトプラスの多変数一般化は、第一独立変数をゼロとしたLogSumExp関数英語版

である。LogSumExp関数自身は

であり、その勾配はソフトマックス関数である。第一独立変数がゼロのソフトマックスは、ロジスティック関数の多変数一般化である。LogSumExpとソフトマックスはどちらも機械学習に用いられる。

派生物

ノイジーReLU

正規化線形ユニットはガウス雑音を含むように拡張できる。これはnoisy(雑音のある)ReLUと呼ばれ、以下の式を与える[8]

, with

Noisy ReLUはコンピュータビジョン問題のための制限ボルツマンマシン英語版において使用され、ある程度の成功を挙げている[8]

漏洩ReLU

漏洩(リーキー、Leaky)ReLUは、ユニットがアクティブでない時に小さな正の勾配を許容する[10]

パラメトリックReLU

パラメトリックReLU (PReLU) はさらにこの着想を発展させ、漏れの係数を他のニューラルネットワークのパラメータと同時に学習する[13]

について、これは

と等価であり、ゆえに「マックスアウト」ネットワークとの関連があることに留意すべきである[13]

ELU

指数関数的線形ユニット(Exponential linear unit)は、学習を高速化するため、平均活性化をゼロに近づけようと試みる。ReLUよりも高い分類制度を得ることができると示されている[14]

はチューニングされるハイパーパラメータ英語版 は定数である。

Swish

Swish関数、もしくはシグモイド重み付き線形ユニット (Sigmoid-weighted linear unit) はReLUに類似した曲線を描くが、その曲線は連続的であり無限階微分可能である。ReLU及び先述した派生形よりも高い分類精度を得ることができると示されている[15][16]

なお、ここでは は以下の数式によって定義される標準シグモイド関数を表す。

Funnel Activation

Funnel Activation、もしくはFReLUはコンピュータビジョンに特化した活性化関数であり、二次元の画像に対して適応することを前提として設計されたものである[17]。性質上、Funnel Activationを一つの値を入力とする関数として表すことはできないが、記述の都合上以下の数式で表される。

なお、は他のニューラルネットワークのパラメータと同時に学習されるDepthwise 畳み込みモジュールである。

長所

  • 生物学的妥当性
  • 疎な活性化
    • 例えば、無作為に初期化されたネットワークでは、隠れユニットの約50%のみが活性化される(ゼロでない出力を持つ)。
  • より良い勾配伝搬
    • 両方向に飽和するシグモイド活性化関数と比較して、勾配消失問題が少ない。
  • 効率的計算
    • 比較、加算、乗算のみ。
  • スケールによって影響を受けない

正規化線形関数は、複数のコンピュータビジョン課題を学習するために教師ありで訓練されたニューラル抽象ピラミッド (Neural Abstraction Pyramid) において特異的興奮と非特異的抑制を分離するために用いられた[18]。2011年[5]、非線形関数としての正規化線形関数の使用は、教師なし事前学習を必要とせずに教師ありディープニューラルネットワークの訓練を可能にすることが示されている。正規化線形ユニットは、シグモイド関数または類似の活性化関数と比較して、大きく複雑なデータセット上のディープニューラル構造のより速く、効率的な訓練を可能にする。

潜在的な問題

  • 原点において微分不可能
    • しかしながら、その点以外ではどこでも微分可能であり、入力が0の点を埋めるために0または1の値を任意に選ぶことができる。
  • 原点を中心としていない
  • 有界でない
  • Dying ReLU問題
    • ReLUニューロンは、実質的に全ての入力に対して不活性となる状態に入り込むことがあり得る。この状態において、勾配はこのニューロンを通って逆方向に流れないため、このニューロンは永久に不活性な状態で動かなくなり、「死」んでしまう。これは勾配消失問題の一種である。ある場合において、ネットワーク中の多くのニューロンが死状態で動かなることがありえて、これはモデル容量を著しく低下させる。この問題は高過ぎる学習率が設定されている時に典型的に起こる。代わりに、x = 0の左側に小さな正の勾配を割り当てるリーキーReLUを用いることによって問題を緩和することができる。

脚注

注釈

  1. ^ 整流器の意味

出典

  1. ^ Tang, Z.; Ishizuka, O.; Matsumoto, H. (1993). “A Model of Neurons with Unidirectional Linear Response”. IEICE Trans. on Fundamentals Vol.E76-A (No.9): pp.1537-1540. 
  2. ^ Hahnloser, R.; Sarpeshkar, R.; Mahowald, M. A.; Douglas, R. J.; Seung, H. S. (2000). “Digital selection and analogue amplification coexist in a cortex-inspired silicon circuit”. Nature 405: 947–951. doi:10.1038/35016072. 
  3. ^ R Hahnloser; H.S. Seung (2001). Permitted and Forbidden Sets in Symmetric Threshold-Linear Networks. NIPS 2001.
  4. ^ Yann LeCun, Leon Bottou, Genevieve B. Orr and Klaus-Robert Müller (1998). "Efficient BackProp" (PDF). In G. Orr and K. Müller (ed.). Neural Networks: Tricks of the Trade. Springer.
  5. ^ a b c d Xavier Glorot; Antoine Bordes; Yoshua Bengio (2011). Deep sparse rectifier neural networks (PDF). AISTATS. Rectifier and softplus activation functions. The second one is a smooth version of the first.
  6. ^ LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). “Deep learning”. Nature 521 (7553): 436–444. Bibcode2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. 
  7. ^ Ramachandran, Prajit; Barret, Zoph; Quoc, V. Le (16 October 2017). "Searching for Activation Functions". arXiv:1710.05941 [cs.NE]。
  8. ^ a b c Vinod Nair; Geoffrey Hinton (2010). Rectified Linear Units Improve Restricted Boltzmann Machines (PDF). ICML.
  9. ^ László Tóth (2013). Phone Recognition with Deep Sparse Rectifier Neural Networks (PDF). ICASSP.
  10. ^ a b Andrew L. Maas, Awni Y. Hannun, Andrew Y. Ng (2014). Rectifier Nonlinearities Improve Neural Network Acoustic Models
  11. ^ Dugas, Charles; Bengio, Yoshua; Bélisle, François; Nadeau, Claude; Garcia, René (2000-01-01). “Incorporating second-order functional knowledge for better option pricing”. Proceedings of the 13th International Conference on Neural Information Processing Systems (NIPS'00) (MIT Press): 451–457. http://papers.nips.cc/paper/1920-incorporating-second-order-functional-knowledge-for-better-option-pricing.pdf. "Since the sigmoid h has a positive first derivative, its primitive, which we call softplus, is convex" 
  12. ^ Smooth Rectifier Linear Unit (SmoothReLU) Forward Layer” (英語). Developer Guide for Intel® Data Analytics Acceleration Library (2017年). 2018年12月4日閲覧。
  13. ^ a b He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2015). "Delving Deep into Rectifiers: Surpassing Human-Level Performance on Image Net Classification". arXiv:1502.01852 [cs.CV]。
  14. ^ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (2015). "Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)". arXiv:1511.07289 [cs.LG]。
  15. ^ [活性化関数]シグモイド関数(Sigmoid function)とは?”. @IT. 2021年11月28日閲覧。
  16. ^ Ramachandran, Prajit; Zoph, Barret; Le, Quoc V. (2017-10-16) (英語). Searching for Activation Functions. https://arxiv.org/abs/1710.05941v2. 
  17. ^ Ma, Ningning; Zhang, Xiangyu; Sun, Jian (2020-07-24). “Funnel Activation for Visual Recognition”. arXiv:2007.11824 [cs]. https://arxiv.org/abs/2007.11824. 
  18. ^ Behnke, Sven (2003). Hierarchical Neural Networks for Image Interpretation. Lecture Notes in Computer Science. 2766. Springer. doi:10.1007/b11963. https://www.researchgate.net/publication/220688219_Hierarchical_Neural_Networks_for_Image_Interpretation 

関連項目

外部リンク


ReLU(ランプ関数)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/15 10:23 UTC 版)

活性化関数」の記事における「ReLU(ランプ関数)」の解説

詳細は「正規化線形関数」を参照 2011年Xavier Glorot らは隠れ層の活性化関数としてmax(0, x) を使った方がtanhソフトプラスよりも改善するということ発表した一般的にはこれはランプ関数呼ばれるが、ニューラルネットワーク世界ではReLU (英: Rectified Linear Unit, Rectifier正規化線形関数)と呼ばれるヤン・ルカンジェフリー・ヒントンらが雑誌ネイチャー書いた論文では、2015年5月現在これが最善であるとしている。発想としては区分線形関数使った1次スプライン補間である。線形補間参照。 φ ( x ) = x + = max ( 0 , x ) {\displaystyle \varphi (x)=x_{+}=\max(0,x)} 2013年max(0.01x, x) がLReL (leaky rectified linear) と命名された。ただし、命名者はこの活性化関数を使う意味はなかったと報告している。 2018年にx*sigmoid(x) がSwish (あるいはSiLU, sigmoid weighted linear) と命名された。この関数はReLUよりも高い分類精度を得ることができると示されている。

※この「ReLU(ランプ関数)」の解説は、「活性化関数」の解説の一部です。
「ReLU(ランプ関数)」を含む「活性化関数」の記事については、「活性化関数」の概要を参照ください。

ウィキペディア小見出し辞書の「ReLU」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「ReLU」の関連用語

ReLUのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



ReLUのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアの正規化線形関数 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの活性化関数 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS