ハミルトン-ヤコビ-ベルマン方程式
(Hamilton–Jacobi–Bellman equation から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/02/22 06:21 UTC 版)
ハミルトン-ヤコビ-ベルマン(HJB)方程式(ハミルトン–ヤコビ–ベルマンほうていしき、英: Hamilton–Jacobi–Bellman equation)は、最適制御理論の根幹をなす偏微分方程式である。
注釈
出典
- ^ Bellman, R. E. (1957). Dynamic Programming. Princeton, NJ
- ^ Bertsekas, Dimitri P. (2005). Dynamic Programming and Optimal Control. Athena Scientific
- ^ Fleming, W.; Souganidis, P. (1989), “On the Existence of Value Functions of Two-Player, Zero-Sum Stochastic Differential Games”, Indiana Univ. Math. J. 38 (2): 293–314 2016年9月24日閲覧。
- ^ Pham, Huyên (2009), Continuous-Time Stochastic Control and Optimization with Financial Applications, Springer, ISBN 3540894993
- 1 ハミルトン-ヤコビ-ベルマン方程式とは
- 2 ハミルトン-ヤコビ-ベルマン方程式の概要
- 3 HJB方程式の導出
- 4 HJB方程式の解法
- 5 確率システムへの拡張
- 6 HJB方程式の応用
- Hamilton–Jacobi–Bellman equationのページへのリンク