破滅的忘却
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/05/23 14:28 UTC 版)
機械学習および データマイニング |
---|
![]() |
![]() |
破滅的忘却(破局的忘却)は、人工ニューラルネットワークにおいて、新しい情報を学習した際に、以前に学習した情報を急激かつ完全に忘れてしまう傾向を指す[1][2]。
ニューラルネットワークは、コネクショニズムによる認知科学のアプローチの中核をなすものである。人間の記憶をモデル化するためにコネクショニストモデルが用いられる中で、この「破滅的忘却」の問題は、McCloskeyとCohen(1989年)[1]およびRatcliff(1990年)[2]によって科学的に注目された。この現象は、「安定性・可塑性のジレンマ」[3]の極端な表れであるとされる。すなわち、新しい情報に感受性を持ちながらも、以前の情報を破壊しない人工ニューラルネットワークを構築するという困難さを表している。
ルックアップテーブルとコネクショニストネットワークは、この安定性と可塑性のスペクトラムの両極に位置している[4]。前者は新しい情報に対して完全に安定しているが、入力から汎化(一般化)を行う能力に欠ける。一方、後者は未知の入力に対して汎化できるが、新しい情報に対して敏感すぎるため、以前の情報を破壊してしまう傾向がある。
バックプロパゲーションによるネットワークは、人間の記憶のように汎化が可能であるが[要出典]、安定性は人間の記憶に比べて劣る。特にこれらのネットワークは破滅的忘却の影響を受けやすく、これは人間の記憶との重要な違いである。人間は一般にこのような破滅的忘却を示さないとされている[5]。
歴史
『逐次学習問題』:McCloskeyとCohen(1989年)
McCloskeyとCohen(1989年)は、バックプロパゲーションニューラルネットワークを用いた2つの実験を通じて、破滅的忘却の問題を指摘した。
- 実験1:1と2の加算問題の学習
この実験では、まず「1をたす」問題(例:1+1〜9+1、1+2〜1+9)の17個の問題を訓練データとして、ネットワークを完全に学習させた。学習の進行とともに誤差は減少し、正しい出力が得られるようになった。次に、「2をたす」問題(例:2+1〜2+9、1+2〜9+2)の17個の問題を同様に学習させた。
しかし、「2をたす」問題を学習した直後に「1をたす」問題の出力を確認すると、ネットワークはそれらの出力を正しく再現できなくなっていた。出力パターンは、正しい数よりも誤った数に近い形になっており、学習した情報が新しい学習によって大きく破壊されていた。特に、両セットに含まれていた問題(例:2+1)で著しい性能劣化が確認された。
- 実験2:BarnesとUnderwood(1959年)の研究の再現[6]
この実験では、レトロアクティブ干渉を再現するため、ネットワークにA-BリストとA-Cリストを段階的に学習させた。各リストには文脈パターンが入力ベクトルに含まれており、A-B文脈ではB、A-C文脈ではCを出力するよう設計された。
リストを同時に学習させた場合は問題なくすべての対応関係を習得できたが、A-Bリストを先に学習し、次にA-Cリストを学習させた場合、A-Cの学習によってA-Bの記憶が著しく損なわれた。特に、Aに対してBを出力すべき場合でもCに近い出力が生成されるなど、記憶の「上書き」が観察された。
McCloskeyとCohenは、隠れ層のユニット数の増加、学習率の調整、重みの固定、ターゲット値の変更(0.0と1.0から0.1と0.9への変更)など様々な手法で破滅的忘却の軽減を試みたが、完全に防ぐことはできなかった。
実験を通した彼らの結論は以下の通りである:
- 新しい学習が既存の重みに影響を与える限り、ある程度の忘却は不可避である。
- 学習すべき新しい情報量が多ければ多いほど、古い知識の忘却も激しくなる。
- 並列的(同時)学習は忘却が少ないが、逐次学習では破滅的忘却が発生する。
『学習と忘却関数によって課される制約』:Ratcliff(1990年)
Ratcliff(1990年)は、逐次的に項目を学習する標準的な認識記憶手続きにおいて、複数のバックプロパゲーションモデルを使用した[2]。 認識性能を分析した結果、以下の2つの主要な問題が判明した:
- 新しい情報の学習によって、既に学習された情報が急激かつ破滅的に忘れられる。
これはMcCloskeyとCohen(1989年)の研究と一致しており、1回の新しい学習でも古い情報が大幅に失われることが観察された。また、出力は古い入力と新しい入力の混合のような中間的な応答を示すことが多かった。大規模なネットワークでは、AB→CDのようにグループで学習した項目は、1つずつ学習した項目(A→B→C...)よりも干渉に対して耐性があったが、それでも忘却の程度は大きかった。さらに、隠れ層のユニット数を増やしても干渉の軽減には寄与しなかった。
- 学習が進むにつれて、既知の項目と未知の項目の識別能力が低下する。
この点は、人間の記憶研究と矛盾しており、人間では学習の進行に伴って識別精度が向上することが知られている。Ratcliffは、「古い」「新しい」の判別用ノード(応答ノード)を追加することでこの問題に対処しようとしたが、これらのノードはすべての入力に対して活性化してしまい、解決には至らなかった。また、文脈パターンを用いたモデルも識別精度の向上にはつながらなかった。
解決策
破滅的忘却の主な原因は、分散型ニューラルネットワークの隠れ層における表現の重なりであると考えられている[7][8][9]。 分散表現では、各入力が多数のノードの重みに変化を引き起こす傾向がある。多くの重みが変化すると、以前の知識が保持される可能性が低くなるため、破滅的忘却が発生する。
学習は「重み空間内の移動」として視覚化することができる。この重み空間は、ネットワークが持つ可能性のある重みの全組み合わせを空間的に表したものと考えられる。最初にあるパターン集合を学習すると、ネットワークはそれらすべてを識別可能にするための重み空間上の位置を見つける。しかし、新たなパターン集合を学習すると、ネットワークはその新パターンだけを識別可能にする位置へ移動する。そのため、両方のパターン集合を識別するには、両者に適した重み空間上の中間的な位置を見つける必要がある。
以下に、逆伝搬ネットワークにおける破滅的忘却を軽減するために、実証的に効果が示されているいくつかの技術を示す。
直交性の利用
初期の手法の多くは、入力ベクトルあるいは隠れ層における活性化パターンを互いに直交するようにすることを目的としていた。LewandowskyとLi(1995年)[10] によれば、学習されたパターン間の干渉は、入力ベクトルが直交していると最小限に抑えられる。直交とは、2つのベクトル間の要素積の総和がゼロであることを意味する。例として、[0,0,1,0] と [0,1,0,0] の内積は 0 であり、これらは直交であるとされる。隠れ層の表現を直交に近づけるためには、バイポーラ表現(0と1の代わりに-1と1を使用)などの技法が有効であるとされる。
ノードシャープニング技法
French(1991年)[11] は、破滅的忘却が隠れ層におけるノード活性の重なり、すなわち活性化のオーバーラップによって生じると指摘した。局所表現を使用するニューラルネットワークではこの問題が見られないため、オーバーラップを減らすことが干渉を軽減する鍵である。彼はこれを実現する方法として「活性化のシャープニング(Activation sharpening)」を提案した。これは、もっとも活性化されたノードの活性を強調し、それ以外のノードの活性を抑える操作を行った後、入力から隠れ層への重みをこの新しい活性パターンに応じて調整するものである。
ノベルティルール
Kortge(1990年)は、新しい入力のうち、既存の入力と異なる要素のみに学習を集中させるルールを提案した。この手法では、既存の情報と重複しない成分のみに重み更新が行われるため、隠れ層の表現の重なりを最小限に抑えることができる。主に自己符号化器(Auto-encoder)や自己連想型ネットワークで使用可能である。
事前学習
McRaeとHetherington(1993年)[12]は、人間はニューラルネットワークのようにランダムな初期重みで学習を開始するわけではなく、既存の知識を活用して新しいタスクに取り組むことができると主張した。ニューラルネットワークを本学習の前に関連するデータで事前学習させることで、新しい情報の統合時に破滅的忘却を起こしにくくすることができるとされた。
リハーサル
Robins(1995年)[13]は、新しい情報を学習する際に、以前に学習した情報を再提示する「リハーサル」によって破滅的忘却を防ぐことができると主張した。実データが利用できない場合は、内部的に生成された「疑似パターン(pseudo-patterns)」を用いる「疑似リハーサル」が有効であるとされる。

疑似リカレントネットワーク
French(1997年)[14]は「疑似リカレント・バックプロパゲーションネットワーク(pseudo-recurrent backpropagation network)」を提案した。このモデルでは、ネットワークは機能的に区別された2つのサブネットワークに分かれており、相互に作用する。このアプローチは生物学的な着想に基づいており、McClellandら(1995年)の研究から影響を受けている。
McClellandらの理論では、記憶は海馬と新皮質の補完的なシステムにより処理されるとされる。すなわち、海馬が短期記憶、新皮質が長期記憶を担っており、海馬で一時的に保存された情報は再活性化(リプレイ)を通じて新皮質へと転送される。
疑似リカレントモデルでは、一方のサブネットワークが「早期処理領域(early processing area)」として機能し、新たな入力パターンを学習する。他方のサブネットワークは「最終記憶領域(final storage area)」として機能する。最終記憶領域から早期処理領域への内部的な再入力により、ネットワークはリカレント構造を形成する。
このとき、実際の過去データが利用できない場合、内部生成された「疑似パターン(pseudo-patterns)」を新しい学習と交互に提示することで、以前の知識を維持する。これは破滅的忘却の緩和に寄与する。
自己更新記憶
AnsとRousset(1997年)[15]もまた、疑似リハーサルの原理を採用しつつ、「自己更新記憶(self-refreshing memory)」を用いたニューラルネットワークアーキテクチャを提案した。このモデルは、リカレントな活性再注入処理(reverberating process)を用いてネットワーク内部の知識構造を最適に反映する疑似パターンを生成する。
この再帰的処理により、疑似パターンはネットワークの重みに蓄積された深い構造をより適切に表現することができるとされる。この手法は、系列学習や転移学習のようなタスクにおいて、破滅的忘却を回避する上で有効であることが示されている[16]。
生成的リプレイ
近年、深層生成モデル(deep generative models)の進歩により、「生成的リプレイ(generative replay)」の手法が注目されている。これは、過去のデータを保存するのではなく、訓練された生成モデルを用いて擬似的なデータ(pseudo-data)を生成し、それを用いて過去の知識を保持する方法である。
このアプローチは、特にリプレイが入力レベルではなく中間層(隠れ層)で行われる場合に効果的であることが示されている[17][18]。
生成的リプレイは、記憶効率と性能の両面で優れており、現代の継続学習(continual learning)アーキテクチャにおいて有力な手段となっている。
自発的再生
人間および動物の睡眠中における記憶固定のメカニズムに関する知見に基づき、生物学的に着想を得た他のアプローチが提案されている。古典的な見解では、宣言的記憶はノンレム(NREM)睡眠中の海馬と新皮質の対話により固定されるとされる。一方で、手続き記憶の一部は海馬を介さず、レム(REM)睡眠が関与している可能性が示唆されている[19]。
このような研究に触発されて、ニューラルネットワーク内で睡眠様の期間中に以前学習された内部表現(記憶)を自発的に再生させるモデルが開発された[20][21]。この手法では、上述した生成的リプレイとは異なり、外部生成器ネットワークを必要とせず、学習済みのネットワーク自身が内部的に記憶を再生することで破滅的忘却を防ぐ。
潜在学習
GutsteinとStump(2015年)[22]は、転移学習を活用した「潜在学習(latent learning)」により破滅的忘却を緩和する手法を提案した。この手法では、エラー訂正出力コード(Error Correcting Output Codes, ECOC)を用いて、新たなクラスの符号化方法を選択する際に、既存の応答と最も干渉しないものを選ぶ。
このとき、新クラスに対する応答は、訓練中に明示的に提示されていないにもかかわらず、既存クラスの学習により内部的に形成されていた応答に基づくため、「潜在的に学習された符号化(Latently Learned Encodings)」と呼ばれる。この技法は1930年にTolmanによって提案された潜在学習の概念に着想を得ている。
弾性重み統合
Kirkpatrickら(2017年)[23]は、「弾性重み統合(Elastic Weight Consolidation, EWC)」と呼ばれる技術を提案した。これは、複数のタスクを連続的に1つのニューラルネットワークに学習させるための手法である。
この技術の要点は、ネットワークの各重みが以前のタスクにとってどれほど重要であるかを推定し、その重要度に応じて新しいタスクの学習時の重みの変化を抑制するという点である。重みの重要度はフィッシャー情報行列などの確率的手法を用いて推定されるが、他の方法も提案されている[24][25][26]。
この手法は、以前の知識の保持と新しい知識の獲得を両立させるため、継続学習における重要なブレークスルーの一つである。
破滅的想起
破滅的想起(Catastrophic Remembering)は、過剰一般化(Overgeneralization)や極端なデジャヴとも呼ばれ、ニューラルネットワークが旧データと新データの区別を急激に失う傾向を指す[27]。
この問題の要点は、膨大な数のパターンが学習されると、ネットワークが特定のパターン群を再現するのではなく、任意の入力をそのまま通過させるようになる点にある。その結果、学習済みパターンと新しいパターンの区別ができなくなる[28]。
この現象は、破滅的忘却を回避するために、大規模な代表訓練セットや十分な記憶再生(リプレイ)を使用した際にしばしば発生し、学習済みパターンと未学習パターンの識別能力の低下をもたらす[27]。
この問題は、SharkeyとSharkey(1995年)[27]、Robins(1993年)[28]、Ratcliff(1990年)[2]、およびFrench(1999年)[9]によって初期に研究され、近年ではKaushikら(2021年)[29]が、現代のニューラルネットワークにおける文脈でこの問題を再提示し、解決策を提案している。
関連項目
参考文献
- ^ a b McCloskey, Michael; Cohen, Neal J. (1989). Catastrophic Interference in Connectionist Networks: The Sequential Learning Problem. Psychology of Learning and Motivation. 24. pp. 109–165. doi:10.1016/S0079-7421(08)60536-8. ISBN 978-0-12-543324-2
- ^ a b c d Ratcliff, Roger (1990). “Connectionist models of recognition memory: Constraints imposed by learning and forgetting functions.”. Psychological Review 97 (2): 285–308. doi:10.1037/0033-295x.97.2.285. PMID 2186426.
- ^ Carpenter, Gail A.; Grossberg, Stephen (1 December 1987). “ART 2: self-organization of stable category recognition codes for analog input patterns”. Applied Optics 26 (23): 4919–4930. doi:10.1364/AO.26.004919.
- ^ French, Robert M (December 1997). “Pseudo-recurrent Connectionist Networks: An Approach to the 'Sensitivity-Stability' Dilemma”. Connection Science 9 (4): 353–380. doi:10.1080/095400997116595.
- ^ González, Oscar C; Sokolov, Yury; Krishnan, Giri P; Delanois, Jean Erik; Bazhenov, Maxim (4 August 2020). “Can sleep protect memories from catastrophic forgetting?”. eLife 9: e51005. doi:10.7554/eLife.51005.
- ^ Barnes, Jean M.; Underwood, Benton J. (August 1959). “'Fate' of first-list associations in transfer theory.”. Journal of Experimental Psychology 58 (2): 97–105. doi:10.1037/h0047507. PMID 13796886.
- ^ French, Robert M. (1991). Using Semi-Distributed Representations to Overcome Catastrophic Forgetting in Connectionist Networks (PDF). Proceedings of the 13th Annual Cognitive Science Society Conference. New Jersey: Lawrence Erlbaum. pp. 173–178. CiteSeerX 10.1.1.1040.3564。
- ^ “Catastrophic Interference is Eliminated in Pre-Trained Networks”. Proceedings of the Fifteenth Annual Conference of the Cognitive Science Society: June 18 to 21, 1993, Institute of Cognitive Science, University of Colorado-Boulder. Psychology Press. (1993). pp. 723–728. ISBN 978-0-8058-1487-3
- ^ a b French, R (1 April 1999). “Catastrophic forgetting in connectionist networks”. Trends in Cognitive Sciences 3 (4): 128–135. doi:10.1016/S1364-6613(99)01294-2. PMID 10322466.
- ^ Lewandowsky, Stephan; Li, Shu-Chen (1995). “Catastrophic interference in neural networks”. Interference and Inhibition in Cognition. pp. 329–361. doi:10.1016/B978-012208930-5/50011-8. ISBN 978-0-12-208930-5
- ^ French, Robert M. (1991). Using Semi-Distributed Representations to Overcome Catastrophic Forgetting in Connectionist Networks (PDF). Proceedings of the 13th Annual Cognitive Science Society Conference. New Jersey: Lawrence Erlbaum. pp. 173–178. CiteSeerX 10.1.1.1040.3564。
- ^ “Catastrophic Interference is Eliminated in Pre-Trained Networks”. Proceedings of the Fifteenth Annual Conference of the Cognitive Science Society: June 18 to 21, 1993, Institute of Cognitive Science, University of Colorado-Boulder. Psychology Press. (1993). pp. 723–728. ISBN 978-0-8058-1487-3
- ^ Robins, Anthony (June 1995). “Catastrophic Forgetting, Rehearsal and Pseudorehearsal”. Connection Science 7 (2): 123–146. doi:10.1080/09540099550039318.
- ^ French, Robert M (December 1997). “Pseudo-recurrent Connectionist Networks: An Approach to the 'Sensitivity-Stability' Dilemma”. Connection Science 9 (4): 353–380. doi:10.1080/095400997116595.
- ^ Ans, Bernard; Rousset, Stéphane (December 1997). “Avoiding catastrophic forgetting by coupling two reverberating neural networks”. Comptes Rendus de l'Académie des Sciences, Série III 320 (12): 989–997. Bibcode: 1997CRASG.320..989A. doi:10.1016/S0764-4469(97)82472-9.
- ^ Ans, Bernard; Rousset, Stéphane; French, Robert M.; Musca, Serban (June 2004). “Self-refreshing memory in artificial neural networks: learning temporal sequences without catastrophic forgetting.”. Connection Science 16 (2): 71–99. doi:10.1080/09540090412331271199.
- ^ Shin, Hanul; Lee, Jung Kwon; Kim, Jaehong; Kim, Jiwon (December 2017). Continual learning with deep generative replay. NIPS'17: Proceedings of the 31st International Conference on Neural Information Processing Systems. Curran Associates. pp. 2994–3003. ISBN 978-1-5108-6096-4。
- ^ van de Ven, Gido M.; Siegelmann, Hava T.; Tolias, Andreas S. (13 August 2020). “Brain-inspired replay for continual learning with artificial neural networks”. Nature Communications 11 (1): 4069. Bibcode: 2020NatCo..11.4069V. doi:10.1038/s41467-020-17866-2. PMC 7426273. PMID 32792531 .
- ^ McDevitt, Elizabeth A.; Duggan, Katherine A.; Mednick, Sara C. (2015-07-01). “REM sleep rescues learning from interference”. Neurobiology of Learning and Memory. REM Sleep and Memory 122: 51–62. doi:10.1016/j.nlm.2014.11.015. ISSN 1074-7427. PMC 4704701. PMID 25498222 .
- ^ Golden, Ryan; Delanois, Jean Erik; Sanda, Pavel; Bazhenov, Maxim (2022-11-18). “Sleep prevents catastrophic forgetting in spiking neural networks by forming a joint synaptic weight representation” (英語). PLOS Computational Biology 18 (11): e1010628. Bibcode: 2022PLSCB..18E0628G. doi:10.1371/journal.pcbi.1010628. ISSN 1553-7358. PMC 9674146. PMID 36399437 .
- ^ Tadros, Timothy; Krishnan, Giri P.; Ramyaa, Ramyaa; Bazhenov, Maxim (2022-12-15). “Sleep-like unsupervised replay reduces catastrophic forgetting in artificial neural networks” (英語). Nature Communications 13 (1): 7742. Bibcode: 2022NatCo..13.7742T. doi:10.1038/s41467-022-34938-7. ISSN 2041-1723. PMC 9755223. PMID 36522325 .
- ^ Gutstein, Steven; Stump, Ethan (2015). “Reduction of catastrophic forgetting with transfer learning and ternary output codes”. 2015 International Joint Conference on Neural Networks (IJCNN). pp. 1–8. doi:10.1109/IJCNN.2015.7280416. ISBN 978-1-4799-1960-4
- ^ Kirkpatrick, James; Pascanu, Razvan; Rabinowitz, Neil; Veness, Joel; Desjardins, Guillaume; Rusu, Andrei A.; Milan, Kieran; Quan, John et al. (14 March 2017). “Overcoming catastrophic forgetting in neural networks”. Proceedings of the National Academy of Sciences 114 (13): 3521–3526. arXiv:1612.00796. Bibcode: 2017PNAS..114.3521K. doi:10.1073/pnas.1611835114. PMC 5380101. PMID 28292907 .
- ^ Zenke, Friedemann; Poole, Ben; Ganguli, Surya (2017). “Continual Learning Through Synaptic Intelligence”. Proceedings of Machine Learning Research 70: 3987–3995. arXiv:1703.04200. PMC 6944509. PMID 31909397 .
- ^ Aljundi, Rahaf; Babiloni, Francesca; Elhoseiny, Mohamed; Rohrbach, Marcus; Tuytelaars, Tinne (2018). “Memory Aware Synapses: Learning What (Not) to Forget”. Computer Vision – ECCV 2018. Lecture Notes in Computer Science. 11207. pp. 144–161. arXiv:1711.09601. doi:10.1007/978-3-030-01219-9_9. ISBN 978-3-030-01218-2
- ^ Kutalev, Alexey (2020). “Natural Way to Overcome Catastrophic Forgetting in Neural Networks”. Modern Information Technologies and IT-Education 16 (2): 331–337. arXiv:2005.07107. doi:10.25559/SITITO.16.202002.331-337.
- ^ a b c Sharkey, Noel E.; Sharkey, Amanda J. C. (September 1995). “Backpropagation Discrimination Geometric Analysis Interference Memory Modelling Neural Nets” (英語). Connection Science 7 (3–4): 301–330. doi:10.1080/09540099550039264.
- ^ a b Robins, A. (1993). “Catastrophic forgetting in neural networks: The role of rehearsal mechanisms”. Proceedings 1993 the First New Zealand International Two-Stream Conference on Artificial Neural Networks and Expert Systems. pp. 65–68. doi:10.1109/ANNES.1993.323080. ISBN 0-8186-4260-2
- ^ Kaushik, Prakhar; Gain, Alex; Kortylewski, Adam; Yuille, A. (22 February 2021). "Understanding Catastrophic Forgetting and Remembering in Continual Learning with Optimal Relevance Mapping". arXiv:2102.11343 [cs.LG]。
- 破滅的忘却のページへのリンク