ベイジアンネットワーク
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/12/18 14:13 UTC 版)
ベイジアンネットワーク(英: Bayesian network)は、因果関係を確率により記述するグラフィカルモデルの1つで、複雑な因果関係の推論を有向非巡回グラフ構造により表すとともに、個々の変数の関係を条件つき確率で表す確率推論のモデルである。ネットワークとは重み付けグラフのこと。
- ^ "A graph comprises nodes ... connected by links ... . In a probabilistic graphical model, each node represents a random variable ... and the links express probabilistic relationships between these variables." PRML. p.360.
- ^ ネットワーク(重み付けグラフ)
- ^ "diagrammatic representations of probability distributions, called probabilistic graphical models." PRML p.359
- ^ "Directed graphical models are a type of probabilistic models where all the variables are topologically organized into a directed acyclic graph." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- ^ a b "Bayesian networks, also known as directed graphical models" PRML. p.360.
- ^ a b "We work with directed probabilistic models, also called directed probabilistic graphical models (PGMs), or Bayesian networks." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- ^ "The joint distribution over the variables of such models factorizes as a product of prior and conditional distributions" Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- ^ 逆(向きから因果関係を決定すること)は一般に成り立たない。
- ^ シュピーゲルハルター他、1989年
- ^ Booker、Hota、1986年
- ^ Charniak、Goldman、1989年
- ^ ハンソン、マイヤー、1989年
- ^ Fully Observed Models という
- ^ "If all variables in the directed graphical model are observed in the data, then we can compute and differentiate the log-probability of the data under the model, leading to relatively straightforward optimization." Kingma. (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning.
- ^ Pearl, Judea (8 1985). “Bayesian Networks: a Model of Self-Activated Memory for Evidential Reasoning”. Proceedings, Cognitive Science Society: 329-334 .
- 1 ベイジアンネットワークとは
- 2 ベイジアンネットワークの概要
- 3 定義
- 4 特徴
- 5 歴史
- 6 関連項目
ベイジアンネットワーク
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/07/14 02:15 UTC 版)
「グラフィカルモデル」の記事における「ベイジアンネットワーク」の解説
詳細は「ベイジアンネットワーク」を参照 もし、モデルのネットワーク構造が有向非巡回グラフならば、そのモデルは、すべての確率変数の同時確率の積で表される。厳密に言うと、事象を X 1 , … , X n {\displaystyle X_{1},\ldots ,X_{n}} とすると、共起確率は次を満たす: P [ X 1 , … , X n ] = ∏ i = 1 n P [ X i | p a i ] {\displaystyle P[X_{1},\ldots ,X_{n}]=\prod _{i=1}^{n}P[X_{i}|pa_{i}]} ここで p a i {\displaystyle pa_{i}} はノード X i {\displaystyle X_{i}} の親である。言い換えれば、同時確率は条件付き確率の積に因数分解される。例えば、上に指名した図のグラフィカルモデルは、同時確率が次のように因数分解される確率変数 A , B , C , D {\displaystyle A,B,C,D} によって構成されている: P [ A , B , C , D ] = P [ A ] P [ B ] P [ C | B , D ] P [ D | A , B , C ] . {\displaystyle P[A,B,C,D]=P[A]P[B]P[C|B,D]P[D|A,B,C].} どの2つのノードも、それらの親ノードによる条件付き独立(英語: Conditional independence)である。一般に、d-separation(英語: d-separation)と呼ばれる基準をグラフが満たしていれば、どの2つのノード集合も第3の集合による条件付き独立となる。ベイジアンネットワークにおいては、局所独立性と大域独立性は等しい。 このグラフィカルモデルは有向非巡回グラフであるベイジアンネットワーク(Bayesian network, Belief network)として知られている。隠れマルコフモデルやニューラルネットワークといった古典的な機械学習モデルや、Variable-orderマルコフモデル(英語: variable-order Markov model)のような新しいモデルは、ベイジアンネットワークの特殊ケースと考えることができる。
※この「ベイジアンネットワーク」の解説は、「グラフィカルモデル」の解説の一部です。
「ベイジアンネットワーク」を含む「グラフィカルモデル」の記事については、「グラフィカルモデル」の概要を参照ください。
ベイジアンネットワーク
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
確率変数群とそれらの条件付き独立性(英語版)を有向非巡回グラフ (DAG) で表した確率論的グラフィカルモデルである。例えば、病気と症状の関係を確率的に表すことができる。そのネットワークに症状を入力すれば、考えられる病気の一覧を確率付きで出力できる。これを使って推論と学習を行う効率的アルゴリズムが存在する。
※この「ベイジアンネットワーク」の解説は、「機械学習」の解説の一部です。
「ベイジアンネットワーク」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
固有名詞の分類
- ベイジアン・ネットワークのページへのリンク