前方安定性、後方安定性、混合安定性
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/17 10:05 UTC 版)
「数値的安定性」の記事における「前方安定性、後方安定性、混合安定性」の解説
安定性の定式化方法にはいくつかの種類がある。以下に述べる前方 (forward)、後方 (backward)、混合 (mixed) 安定性の定義は数値線形代数でよく使う。 前方誤差 Δy と後方誤差 Δx、正確な解の写像 f と数値解 f* の関係を示した図 数値アルゴリズムで解くべき問題を関数 f でデータ x から解 y への写像を得るという形にモデル化する。実際にアルゴリズムで得られる解を y* とすると、一般に真の解 y とは逸脱している。誤差の主な原因は丸め誤差や離散化誤差、モデルの誤差などである。アルゴリズムの「前方誤差」とは、結果と真の解の差、すなわち Δy = y* − y である。「後方誤差」とは、f(x + Δx) = y* となるような最小の Δx である。つまり後方誤差とは、我々が実際にはどういう問題を解いたのかを知らせてくれる値である。前方誤差と後方誤差は条件数で関連付けられている。前方誤差は、条件数のオーダーと後方誤差のオーダーを掛けたものを上限とする。 多くの場合、絶対誤差 Δx よりも、以下のような「相対誤差」を考慮するほうが自然である。 | Δ x | | x | {\displaystyle {\frac {|\Delta x|}{|x|}}} アルゴリズムが「後方安定」であるとは、あらゆる入力 x について後方誤差が小さいことを意味する。もちろん「小さい」は相対的な言葉であり、その定義は文脈に依存する。多くの場合、マシンイプシロンと同程度か若干大きい程度の order of magnitude の誤差が望ましいとされる。 数値的安定性の定義としてより一般的に使われるのは「混合誤差」であり、前方誤差と後方誤差を組み合わせたものである。この場合、アルゴリズムが安定であるのは、近い問題の近似解を得るものである場合となる。すなわち、Δx と f(x + Δx) − y* が共に小さいような Δx が存在する場合である。従って、後方安定なアルゴリズムは常に安定と言える。 アルゴリズムが「前方安定」であるとは、前方誤差をその問題の条件数で割った値が小さい場合である。つまり、何らかの後方安定アルゴリズムと同程度の大きさの前方誤差の場合を前方安定と呼ぶ。
※この「前方安定性、後方安定性、混合安定性」の解説は、「数値的安定性」の解説の一部です。
「前方安定性、後方安定性、混合安定性」を含む「数値的安定性」の記事については、「数値的安定性」の概要を参照ください。
- 前方安定性、後方安定性、混合安定性のページへのリンク