最適制御問題
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/04/19 10:25 UTC 版)
「ハミルトン-ヤコビ-ベルマン方程式」の記事における「最適制御問題」の解説
時間範囲 [ 0 , T ] {\displaystyle [0,T]} における次式の最適制御問題について考える。 V ( x ( 0 ) , 0 ) = min u { ∫ 0 T C [ x ( t ) , u ( t ) ] d t + D [ x ( T ) ] } {\displaystyle V(x(0),0)=\min _{u}\left\{\int _{0}^{T}\!\!\!C[x(t),u(t)]\,dt\;+\;D[x(T)]\right\}} ここで、 C [ ] {\displaystyle C[~]} は、スカラーの微分コスト関数(cost rate function)、 D [ ] {\displaystyle D[~]} は終端状態の望ましさ、ないし経済価値を与える関数、 x ( t ) {\displaystyle x(t)} はシステムの状態ベクトル、 x ( 0 ) {\displaystyle x(0)} はその初期値、 u ( t ) {\displaystyle u(t)} は我々が求めたいと考えている時間 0 ≤ t ≤ T {\displaystyle 0\leq t\leq T} の制御入力ベクトルである。 対象とするシステムは以下のダイナミクスに従うとする。 x ˙ ( t ) = F [ x ( t ) , u ( t ) ] {\displaystyle {\dot {x}}(t)=F[x(t),u(t)]\,} ここで、 F [ ] {\displaystyle F[~]} はシステムの状態の時間発展を与える関数ベクトルである。
※この「最適制御問題」の解説は、「ハミルトン-ヤコビ-ベルマン方程式」の解説の一部です。
「最適制御問題」を含む「ハミルトン-ヤコビ-ベルマン方程式」の記事については、「ハミルトン-ヤコビ-ベルマン方程式」の概要を参照ください。
- 最適制御問題のページへのリンク