ニューラルヒストリーコンプレッサ
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/11/16 07:46 UTC 版)
「回帰型ニューラルネットワーク」の記事における「ニューラルヒストリーコンプレッサ」の解説
ニューラルヒストリーコンプレッサ(neural history compressor)はRNNの教師なしスタックである。入力レベルにおいて、前の入力から次の入力を予測することを学習する。この階層型構造において一部のRNNの予測不可能な入力のみが次のより高いレベルのRNNへの入力となる。したがって、極めてまれにしかその内部状態は再計算されない。ゆえに、個々のより高位のRNNは下位RNN中の情報の圧縮表現を学ぶ。これは、入力配列がより高レベルにおける表現から正確に再構成できるような方法で行われる。 このシステムは、記述長またはデータの確率の負の対数を効果的に最小化する。入ってくるデータ配列中の多量の学習可能な予測可能性を考えると、最高レベルのRNNは、重要な事象間に長い間隔がある深い配列でさえも容易に分類するために教師あり学習を用いることができる。 このRNN階層を2つのRNN、「意識的」チャンカー(高位)と「無意識的」オートマタイザー(下位)に抜き出すことが可能である。チャンカーがオートマタイザーによって予測不可能な入力の予測と圧縮を学習すると、次にオートマタイザーは次の学習フェーズにおいて追加ユニットを通して、よりゆっくりと変化するチャンカーの隠れ層を予測または模倣することになる。これによってオートマタイザーが、長い間隔を超えて適切な、めったに変化しない記憶を学習することが容易になる。次に、チャンカーが残った予測不可能な事象に注視できるように、これはオートマタイザーが以前は予測不可能だった入力の多くを予測できるものとするのを助ける。 生成モデル(英語版)は、1992年に自動微分またはバックプロパゲーションの勾配消失問題を部分的に克服した。1993年、こういったシステムは時間方向に展開されたRNN中に1000を超える後続層を必要とする「非常に深い学習」課題を解決した。
※この「ニューラルヒストリーコンプレッサ」の解説は、「回帰型ニューラルネットワーク」の解説の一部です。
「ニューラルヒストリーコンプレッサ」を含む「回帰型ニューラルネットワーク」の記事については、「回帰型ニューラルネットワーク」の概要を参照ください。
- ニューラルヒストリーコンプレッサのページへのリンク