確率的勾配降下法
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/03/08 14:11 UTC 版)

確率的勾配降下法(かくりつてきこうばいこうかほう、英: stochastic gradient descent, SGD)は、連続最適化問題に対する勾配法の乱択アルゴリズム。バッチ学習である最急降下法をオンライン学習に改良したアルゴリズムである。目的関数が微分可能な和の形であることを必要とする。
背景
下記の和の形の目的関数を最小化する問題を扱う。
Optimization computes maxima and minima.
一般 | |
---|---|
微分可能 |
凸縮小化 | |||||||
---|---|---|---|---|---|---|---|
線形 および 二次 |
|
系列範例 (Paradigms) | |||||
---|---|---|---|---|---|
グラフ理論 |
| ||||
ネットワークフロー (最大流問題) |