自動微分
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/07/17 14:02 UTC 版)
自動微分(じどうびぶん、英: automatic differentiation, autodiff, AD)やアルゴリズム微分(英: algorithmic differentiation)とは、プログラムで定義された関数を解析し、関数の値と同時に偏導関数の値を計算するアルゴリズムである。
- ^ a b Automatic Differentiation in Machine Learning: a Survey
- ^ 連鎖律(多変数関数の合成関数の微分) | 高校数学の美しい物語
- ^ 合成関数の偏微分における連鎖律(チェインルール)とその証明 | 数学の景色
- ^ a b R.E. Wengert (1964). “A simple automatic derivative evaluation program”. Comm. ACM 7: 463–464. doi:10.1145/355586.364791 .
- ^ Andreas Griewank (2012). “Who Invented the Reverse Mode of Differentiation”. Optimization Stories, Documenta Matematica Extra Volume ISMP: 389–400 .
- ^ Bartholomew-Biggs, Michael; Brown, Steven; Christianson, Bruce; Dixon, Laurence (2000). “Automatic differentiation of algorithms”. Journal of Computational and Applied Mathematics 124 (1-2): 171-190. doi:10.1016/S0377-0427(00)00422-2 .
- ^ autograd/tutorial.md at master · HIPS/autograd
- ^ Derivatives in Theano — Theano 1.1.2+29.g8b2825658.dirty documentation
- ^ 2104.00219 Fast Jacobian-Vector Product for Deep Networks
- ^ Pearlmutter, Barak A. (1994-01-01). “Fast Exact Multiplication by the Hessian”. Neural Computation 6 (1): 147-160. doi:10.1162/neco.1994.6.1.147.
- ^ HIPS/autograd: Efficiently computes derivatives of numpy code.
- ^ “Conv2d — PyTorch 2.3 documentation”. pytorch.org. 2024年7月2日閲覧。
- ^ “MaxPool2d — PyTorch 2.3 documentation”. pytorch.org. 2024年7月6日閲覧。
- 自動微分のページへのリンク