ゲート付き回帰型ユニットとは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > ゲート付き回帰型ユニットの意味・解説 

ゲート付き回帰型ユニット

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/01/16 12:35 UTC 版)

ナビゲーションに移動 検索に移動

ゲート付き回帰型ユニット(ゲートつきかいきがたユニット、: Gated recurrent unit、略称: GRU)は、回帰型ニューラルネットワーク(RNN)におけるゲート機構である[1]。2014年にKyunghyun Cho(조 경현)らによって発表された[2]。GRUは忘却ゲートを持つ長・短期記憶(long short-term memory、LSTM)に似ているが[3]、出力ゲートを欠くためLSTMよりもパラメータが少ない[4]。多声音楽モデリングおよび音声シグナルモデリングの特定の課題におけるGRUの性能は、LSTMの性能と類似していることが明らかにされている。GRUは特定のより小さなデータセットではもっと良い性能を示すことが明らかにされている[5]

しかしながら、Gail Weiss、Yoav Goldberg、およびEran Yahavによって示されているように、LSTMは無制限の計数を容易に実行できるがGRUはできないため、LSTMはGRUよりも「厳密に強力」である[6]。これが、LSTMによって学習可能な単純な言語の学習をGRUが失敗する理由である[6]

同様に、Google BrainのDenny Britz、Anna Goldie、Minh-Thang Luong、およびQuoc Leによって示されているように、LSTMセルは「ニューラル機械翻訳のためのアーキテクチャ変法の初の大規模分析」においてGRUセルを一貫して上回った[7]

アイデア

GRUのアイデアは次の式で表される(実際の演算とは異なる)。

ゲート付き回帰型ユニットの完全ゲート付き版

最初、

タイプ1
タイプ2
タイプ3

およびを変更することによって代替形式を作ることができる[14]

  • タイプ1、それぞれのゲートが以前の隠れ状態およびバイアスにのみ依存する。
  • タイプ2、それぞれのゲートが以前の隠れ状態にのみ依存する。
  • タイプ3、それぞれのゲートはバイアスのみを使って計算される。

最小ゲート付きユニット

最小ゲート付きユニットは、更新ゲートベクトルおよび初期化ゲートベクトルが忘却ゲートへと統合されたことを除いて、完全ゲート付きユニットと類似している。これは、出力ベクトルに対する方程式が変更されなければならないこと になる[15]

変数

  • : 入力ベクトル
  • : 出力ベクトル
  • : 忘却ベクトル
  • 、および: パラメータ行列およびベクトル

出典

  1. ^ "we refer as a gated recurrent unit (GRU), was proposed by Cho et al. [2014]" Junyoung Chung, et al. (2014). Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling. Arxiv 1412.3555
  2. ^ Cho, Kyunghyun; van Merrienboer, Bart; Gulcehre, Caglar; Bahdanau, Dzmitry; Bougares, Fethi; Schwenk, Holger; Bengio, Yoshua (2014). "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation". arXiv:1406.1078 [cs.CL]。
  3. ^ Felix Gers; Jürgen Schmidhuber; Fred Cummins (1999). “Learning to Forget: Continual Prediction with LSTM”. Proc. ICANN'99, IEE, London: 850-855. https://ieeexplore.ieee.org/document/818041. 
  4. ^ Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML”. 2016年5月18日閲覧。
  5. ^ Chung, Junyoung; Gulcehre, Caglar; Cho, KyungHyun; Bengio, Yoshua (2014). "Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling". arXiv:1412.3555 [cs.NE]。
  6. ^ a b Weiss, Gail; Goldberg, Yoav; Yahav, Eran (2018). "On the Practical Computational Power of Finite Precision RNNs for Language Recognition". arXiv:1805.04908 [cs.NE]。
  7. ^ Britz, Denny; Goldie, Anna; Luong, Minh-Thang; Le, Quoc (2018). "Massive Exploration of Neural Machine Translation Architectures". arXiv:1703.03906 [cs.NE]。
  8. ^ "when the reset gate is close to 0, the hidden state is forced to ignore the previous hidden state and reset with the current input only." Cho, et al. (2014).
  9. ^ "the update gate controls how much information from the previous hidden state will carry over to the current hidden state" Cho, et al. (2014).
  10. ^ "acts similarly to the memory cell in the LSTM network and helps the RNN to remember longterm information" Cho, et al. (2014).
  11. ^ "allows the hidden state to drop any information that is found to be irrelevant later in the future, thus, allowing a more compact representation" Cho, et al. (2014).
  12. ^ "allowing a more compact representation" Cho, et al. (2014).
  13. ^ "As each hidden unit has separate reset and update gates, each hidden unit will learn to capture dependencies over different time scales" Cho, et al. (2014).
  14. ^ Dey, Rahul; Salem, Fathi M. (20 January 2017). "Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks". arXiv:1701.05923 [cs.NE]。
  15. ^ Heck, Joel; Salem, Fathi M. (12 January 2017). "Simplified Minimal Gated Unit Variations for Recurrent Neural Networks". arXiv:1701.03452 [cs.NE]。

関連項目


ゲート付き回帰型ユニット

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/11/16 07:46 UTC 版)

回帰型ニューラルネットワーク」の記事における「ゲート付き回帰型ユニット」の解説

詳細は「ゲート付き回帰型ユニット」を参照 ゲート付き回帰型ユニット(GRUs)は2014年発表され回帰型ニューラルネットワークにおけるゲート機構である。完全な形式いくつかの単純化され方式使われている。多声音楽モデリングおよび音声信号モデリングにおけるそれらの性能長・短期記憶性能似ていることが明らかにされた。これらは出力ゲート持っていないため、LSTMよりもパラメータ少ない。

※この「ゲート付き回帰型ユニット」の解説は、「回帰型ニューラルネットワーク」の解説の一部です。
「ゲート付き回帰型ユニット」を含む「回帰型ニューラルネットワーク」の記事については、「回帰型ニューラルネットワーク」の概要を参照ください。

ウィキペディア小見出し辞書の「ゲート付き回帰型ユニット」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「ゲート付き回帰型ユニット」の関連用語

ゲート付き回帰型ユニットのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



ゲート付き回帰型ユニットのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのゲート付き回帰型ユニット (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの回帰型ニューラルネットワーク (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS