オンライン学習とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > オンライン学習の意味・解説 

オンライン学習

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/05/23 13:18 UTC 版)

オンライン学習(online machine learning)とは、機械学習において、データを逐次的に利用する形で学習を行う手法である。対照的な学習法に、全体の訓練データセットを一括で学習するバッチ学習がある。オンライン学習は、データセット全体での学習が計算上非現実的な場合によく用いられアウトオブコア学習英語版が必要とされる。また、アルゴリズムがデータ中の新しいパターンに動的に適応する必要がある場合や、データが時間の関数として生成される状況(例:国際金融市場の価格予測)においても使用される。オンライン学習アルゴリズムは破滅的忘却に陥りやすいが、これは継続学習英語版の手法によって対処可能である。

はじめに

教師あり学習の設定では、関数 を学習することが目的である。ここで、 は入力の空間、 は出力の空間であり、 上の同時確率分布 から得られる事例に対して高い予測精度を目指す。実際には、学習者は真の分布 を知ることはできず、通常は例 からなる訓練セットへのアクセスのみが与えられる。

この設定においては、損失関数 により、予測値 と正解 との違いを測定する。目的は、関数空間 (仮説空間)から関数 を選び、ある損失の指標を最小化することである。モデルの種類(統計的モデルまたは敵対的モデル)に応じて、損失の定義が異なり、それにより学習アルゴリズムも異なるものとなる。

統計的観点からのオンライン学習

統計的学習モデルでは、訓練データ は真の分布 に従って得られたと仮定され、目的は期待損失(リスク)を最小化することである:このような状況では、関数 を経験リスク最小化あるいはティホノフ正則化を用いた正則化付き経験リスク最小化によって推定するのが一般的である。損失関数の選択により、正則化付き最小二乗法サポートベクターマシン(SVM)などのよく知られたアルゴリズムが得られる。

このカテゴリにおける純粋なオンライン学習モデルでは、新しい入力 、現在の予測器 、および追加の保存情報(通常は訓練データサイズに依存しない)を用いて学習を行う。たとえば非線形なカーネル法のような場合、真の意味でのオンライン学習は実現困難であるが、 および過去のすべてのデータ に基づいて更新するハイブリッドなオンライン学習が可能である。この場合、必要な記憶容量は定数ではなくなるが、新しいデータが追加される際の計算時間はバッチ学習に比べて短くなる可能性がある。

このような問題への対処法として、 個のデータ点を一度に処理するミニバッチ法がある。 が全体の訓練データ数に比べて十分小さい場合、これは擬似的なオンライン学習と見なすことができる。ミニバッチ手法は、訓練データを何度も繰り返し用いることで最適化され、確率的勾配降下法などのアルゴリズムでアウトオブコア学習が実現される。これらはバックプロパゲーションと組み合わせることで、現在では人工ニューラルネットワークの訓練における事実上の標準手法となっている。

例:線形最小二乗法

線形最小二乗法は、オンライン学習におけるさまざまな概念を説明するための単純な例である。この考え方は、他の凸損失関数を用いる場合にも一般化可能である。

バッチ学習

教師あり学習の設定において、学習すべき関数 が以下のような線形関数であるとする:ここで、 は入力データ点のベクトル、 は線形フィルタのベクトルである。目標は、このフィルタベクトル を求めることである。

このために、以下のような二乗損失関数を使用する:これにより、経験損失を最小化する を求める:ここで、 である。

のデータ行列、 を最初の 個のデータ点に対する目的値の列ベクトルとする。

共分散行列 が可逆であると仮定した場合(そうでない場合はティホノフ正則化によって処理するのが望ましい)、線形最小二乗問題における最適解 は以下のように与えられる:このとき、共分散行列の計算には 時間を要し、 行列の逆行列計算には 時間を要する。残りの積の計算には 時間が必要であり、全体の計算時間は となる。

データセット全体が 個の点を含むと仮定した場合、各データ点 ごとに再計算を行うと、全体の複雑度は となる。なお、行列 を保存しておくことで、更新は を加えるだけで済み、これには 時間しかかからない。これにより、全体の計算時間は に削減されるが、 を保存するために の追加メモリが必要となる[1]

オンライン学習:逐次最小二乗法

逐次最小二乗法(RLS)アルゴリズムは、最小二乗問題に対するオンライン的な解法である。初期状態として および としたとき、前節で示した線形最小二乗法の解は次の反復により計算できる:この反復アルゴリズムは、 に関する数学的帰納法により証明可能である[2]。 さらに、 であることも証明される。

このアルゴリズムを ステップ適用する場合の計算量は であり、これはバッチ学習による計算よりも高速である。各ステップ で必要な記憶は の保存のみであり、これは で一定である。

共分散行列 が可逆でない場合には、正則化項を導入した損失関数 を考える。この場合も、初期状態 として、同様の反復計算により が得られる。

確率的勾配降下法

以下の更新式:において、 をスカラーの に置き換えた場合、次のようになる:これは確率的勾配降下法(SGD)として知られるアルゴリズムである。この方法により、 ステップに要する計算量は に削減される。各ステップにおける記憶要件は であり、定数である。

ただし、ステップサイズ の選択は、期待損失最小化問題の解に収束させるために慎重でなければならない。一般に、 のような減衰ステップサイズを選ぶことで、平均反復 の収束が証明される。この設定は、最適化理論における確率的最適化の一例である。

インクリメンタル確率的勾配降下法

実際には、データに対して複数回の確率的勾配降下パス(サイクルまたはエポックとも呼ばれる)を行うことがある。このアルゴリズムはインクリメンタル勾配法と呼ばれ、次のような反復式で定義される:ここで、 番目のステップで使用される訓練点のインデックスを示す。 の列は確率的または決定的に選ばれることがある。これにより、各データ点が複数回使用される可能性があるため、反復回数と訓練点数は切り離される。

インクリメンタル勾配法は、経験リスクを最小化する解を得られることが証明されている[3]。特に、非常に大規模なデータセットにおける経験損失のように、多数の項の和で構成される目的関数を考慮する場合において、この手法は有利である。

カーネル法

カーネルを用いることで、上述のアルゴリズムを非パラメトリックなモデル(もしくは、パラメータが無限次元空間に属するモデル)へと拡張することが可能である。このような手法は、すべてのデータ点を保存する必要があるため厳密にはオンライン学習とは言えないが、全データに対して逐次的に処理を行うバッチ法よりも高速である。

この手法は任意の凸損失関数に拡張可能だが、ここでは二乗損失の場合に議論を限定する。簡単な帰納法により、 をデータ行列、 ステップ後の SGD アルゴリズムの出力としたとき、次のように表せる:ここで の漸化式は以下: 上の標準的な内積(カーネル)である。よって、予測関数は次のように表される:ここで、一般的なカーネル を導入し、予測関数を次のように定義する:このとき、先の証明と同様に以下の漸化式により最小二乗損失を最小化する予測器が得られる:上式では を更新するためにすべての過去データを保持する必要がある。 番目のデータ点に対する漸化式の計算コストは である。( は一対の点に対するカーネル関数評価のコスト)

このように、カーネルを導入することで、元の有限次元のパラメータ空間 から、カーネル によって表される無限次元の特徴空間へと移行することが可能である。代わりに、サイズ の訓練データに対応する係数ベクトル 上での漸化式を用いる。この性質は一般に表現定理英語版の帰結である。

オンライン凸最適化

オンライン凸最適化(Online Convex Optimization, OCO)は、効率的なアルゴリズムを可能とする凸最適化の枠組みに基づいた意思決定の一般的なフレームワークである。以下の繰り返しとして定式化される[4]

時刻 に対して:

  • 学習者は入力 を受け取る。
  • 学習者は固定された凸集合 から を出力する。
  • 自然(環境)は凸損失関数 を返す。
  • 学習者は損失 を被り、モデルを更新する。

目的は、後知恵で見た最良の固定点 に対する累積損失との差を最小化することである。例として、オンライン線形回帰では、重みベクトルは から選ばれ、自然は損失関数 を返す(ここで を通じて暗に提供される)。

ただし、すべてのオンライン予測問題がこの OCO フレームワークに適合するわけではない。たとえば、オンライン分類では、予測領域や損失関数が凸ではないことが多い。このような場合、ランダム化や代理損失関数によって凸化することで対応可能である。

以下に OCO における代表的なアルゴリズムをいくつか紹介する:

フォロー・ザ・リーダー(FTL)

最も単純な学習則は、過去のすべてのラウンドでの損失が最小となる仮説を選ぶ方法である。このアルゴリズムは「フォロー・ザ・リーダー」と呼ばれ、時刻 においては以下のように定義される:この方法は貪欲法(greedy algorithm)の一種とみなすことができる。オンライン二乗最適化(損失関数が の場合)では、後悔の上限が であることが示されている。しかし、オンライン線形最適化など他のモデル族に対しては、このような良好な後悔の上限は得られない。そのため、正則化を追加することで FTL を拡張する必要がある。

フォロー・ザ・レギュラライズド・リーダー(FTRL)

正則化項を加えて FTL の出力を安定化させたアルゴリズム。正則化関数 を導入し、時刻 において以下のように定義される:特に、損失関数が線形、すなわち であり、 のとき、正則化関数 を選ぶと、以下の更新則が得られる:この式は と書き換えられ、これはオンライン勾配降下法と同一である。

もし の凸部分集合であるならば、 への射影を行う必要があり、更新則は以下のように変わる:このアルゴリズムは「レイジー・プロジェクション」とも呼ばれ、 が勾配の累積を保持する形式である。これはネステロフの双対平均法とも呼ばれている。線形損失関数と二乗正則化の組み合わせにおいては、後悔の上限は であり、平均後悔は 0 に収束することが保証されている。

オンライン劣勾配降下法(OSD)

前節では、線形損失関数 に対して後悔の上限を証明した。これを任意の凸関数に拡張するには、関数 の点 における劣勾配 を線形近似として用いる。この手法により得られるアルゴリズムが「オンライン劣勾配降下法(Online Subgradient Descent, OSD)」である。

アルゴリズムは以下のように定義される:

初期化:パラメータ を設定し、 とする。

時刻 に対して:

  • を用いて予測を行い、自然から損失関数 を受け取る。
  • を選択する( は部分勾配)。
  • もし であれば、更新則は となる。
  • もし であれば、累積勾配に基づいて への射影を行い、 により を計算する。

この OSD アルゴリズムを用いることで、サポートベクターマシン(SVM)の分類タスクに対するオンライン版において、後悔が に抑えられることが示されている。ここで用いられる損失関数ヒンジ損失英語版であり、以下のように定義される:

その他のアルゴリズム

二乗正則化付きのFTRL(Follow The Regularized Leader)アルゴリズムは、前節で述べたような遅延射影付き勾配アルゴリズムを導出する。任意の凸関数および正則化関数に対してこの手法を拡張するには、オンライン鏡像降下法を用いる。

線形損失関数に対して後悔を最小化するような最適な正則化手法は、理論的に導出可能であり、この手法はAdaGradアルゴリズムと呼ばれる。ユークリッドノルムによる正則化を用いた場合、後悔は に抑えられる。さらに、損失関数が強凸または指数的にである場合には、後悔の上限は に改善される。

継続学習

継続学習英語版とは、継続的に情報の流れを処理しながら学習モデルを改善し続ける学習である[5]

継続学習能力は、現実世界の変化に常時対応するソフトウェアシステムや自律エージェントにとって不可欠である。一方で、現状の機械学習およびニューラルネットワークモデルによる継続学習には課題が残る。非定常なデータ分布から漸進的に得られる情報を継続的に学習することは、通常、破滅的忘却を引き起こすからである。

オンライン学習の解釈

オンライン学習の枠組みは、選択する学習モデルに応じて異なる解釈を持つ。それぞれの解釈は、関数列 の予測性能に対する異なる意味合いを持つ。ここでは代表的な 確率的勾配降下法(SGD)アルゴリズムを例に挙げて説明する。このアルゴリズムの反復式は以下の通りである:

解釈のひとつは、上記の式を用いて期待リスク を最小化する問題に確率的勾配降下法を適用するものである[6]。無限のデータストリームを仮定した場合、例 に従って独立同分布(i.i.d.)により得られると考えられる。このとき、関数 の勾配列は期待リスクの勾配の確率推定値と見なすことができ、確率的勾配降下法の収束解析を適用して の偏差を評価することが可能である。ここで の最小値を与える点である[7]。この解釈は有限の訓練データセットにおいても有効であるが、その場合はデータに複数回アクセスすることで勾配の独立性が失われる。ただし、特定の条件下では理論的解析は依然として可能である。

2つ目の解釈は、有限の訓練データセットにおける SGD を 逐次的勾配法(incremental gradient descent)の一例と見なすものである。この場合、評価対象は経験リスクとなる:このとき、反復式で使われる勾配は の勾配の確率推定値となるため、この解釈もまた確率的勾配降下法と関連している。ただし対象となるのは期待リスクではなく経験リスクである。したがって、この解釈ではデータに複数回アクセスすることが許容され、むしろ推定誤差を減らす効果がある。つまり、 の偏差に対してより厳密な上限評価が可能である。ここで の最小値を与える点である。

関連項目

学習パラダイム

一般的なアルゴリズム

学習モデル

参考文献

  1. ^ L. Rosasco, T. Poggio, Machine Learning: a Regularization Approach, MIT-9.520 Lectures Notes, Manuscript, Dec. 2015. Chapter 7 - Online Learning
  2. ^ Kushner, Harold J.; Yin, G. George (2003). Stochastic Approximation and Recursive Algorithms with Applications (第二版 ed.). New York: Springer. pp. 8–12. ISBN 978-0-387-21769-7 
  3. ^ Bertsekas, D. P. (2011). Incremental gradient, subgradient, and proximal methods for convex optimization: a survey. Optimization for Machine Learning, 85.
  4. ^ Hazan, Elad (2015). Introduction to Online Convex Optimization. Foundations and Trends in Optimization. http://ocobook.cs.princeton.edu/OCObook.pdf 
  5. ^ Parisi, German I.; Kemker, Ronald; Part, Jose L.; Kanan, Christopher; Wermter, Stefan (2019). “Continual lifelong learning with neural networks: A review”. Neural Networks 113: 54–71. arXiv:1802.07569. doi:10.1016/j.neunet.2019.01.012. ISSN 0893-6080. PMID 30780045. http://dx.doi.org/10.1016/j.neunet.2019.01.012. 
  6. ^ Bottou, Léon (1998). “Online Algorithms and Stochastic Approximations”. Online Learning and Neural Networks. Cambridge University Press. ISBN 978-0-521-65263-6. https://archive.org/details/onlinelearningin0000unse 
  7. ^ Stochastic Approximation Algorithms and Applications, Harold J. Kushner and G. George Yin, New York: Springer-Verlag, 1997. ISBN 0-387-94916-X; 第2版は Stochastic Approximation and Recursive Algorithms and Applications, 2003, ISBN 0-387-00894-2

外部リンク


オンライン学習

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/07/26 08:30 UTC 版)

バックプロパゲーション」の記事における「オンライン学習」の解説

学習には、オンライン逐次的学習バッチ学習という2つ方法がある。オンライン逐次的学習では、個々のプロパゲーションの直後重み付け更新を行う。バッチ学習では全ての訓練データ一括まとめて重み付け更新を行う。オンライン学習で数個まとめるのをミニバッチと言うバッチ学習ではメモリ容量をより多く必要とするが、オンライン学習では更新処理が多くなる

※この「オンライン学習」の解説は、「バックプロパゲーション」の解説の一部です。
「オンライン学習」を含む「バックプロパゲーション」の記事については、「バックプロパゲーション」の概要を参照ください。

ウィキペディア小見出し辞書の「オンライン学習」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「オンライン学習」の関連用語

オンライン学習のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



オンライン学習のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのオンライン学習 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaのバックプロパゲーション (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS