ニューラルヒストリーコンプレッサとは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > ニューラルヒストリーコンプレッサの意味・解説 

ニューラルヒストリーコンプレッサ

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/11/16 07:46 UTC 版)

回帰型ニューラルネットワーク」の記事における「ニューラルヒストリーコンプレッサ」の解説

ニューラルヒストリーコンプレッサ(neural history compressor)はRNN教師なしスタックである。入力レベルにおいて、前の入力から次の入力予測することを学習する。この階層型構造において一部RNN予測不可能入力のみが次のより高いレベルRNNへの入力となる。したがって極めてまれにしかその内部状態は再計算されない。ゆえに、個々のより高位RNN下位RNN中の情報圧縮表現を学ぶ。これは、入力配列がより高レベルにおける表現から正確に再構成できるような方法行われる。 このシステムは、記述長またはデータ確率の負の対数効果的に最小化する。入ってくるデータ配列中の多量学習可能な予測可能性考えると、最高レベルRNNは、重要な事象間に長い間隔がある深い配列でさえも容易に分類するために教師あり学習用いることができる。 このRNN階層2つRNN、「意識的チャンカー高位)と「無意識的」オートマタイザー(下位)に抜き出すことが可能である。チャンカーがオートマタイザーによって予測不可能入力予測圧縮学習すると、次にオートマタイザーは次の学習フェーズにおいて追加ユニット通して、よりゆっくりと変化するチャンカー隠れ層を予測または模倣することになる。これによってオートマタイザーが、長い間隔を超えて適切な、めったに変化しない記憶学習することが容易になる次にチャンカー残った予測不可能事象注視できるように、これはオートマタイザーが以前予測不可能だった入力多く予測できるものとするのを助ける。 生成モデル英語版)は、1992年自動微分またはバックプロパゲーション勾配消失問題部分的に克服した1993年、こういったシステム時間方向展開されRNN中に1000超える後続層を必要とする「非常に深い学習課題解決した

※この「ニューラルヒストリーコンプレッサ」の解説は、「回帰型ニューラルネットワーク」の解説の一部です。
「ニューラルヒストリーコンプレッサ」を含む「回帰型ニューラルネットワーク」の記事については、「回帰型ニューラルネットワーク」の概要を参照ください。

ウィキペディア小見出し辞書の「ニューラルヒストリーコンプレッサ」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「ニューラルヒストリーコンプレッサ」の関連用語

ニューラルヒストリーコンプレッサのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



ニューラルヒストリーコンプレッサのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの回帰型ニューラルネットワーク (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2024 GRAS Group, Inc.RSS