隠れマルコフモデルとは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > デジタル大辞泉 > 隠れマルコフモデルの意味・解説 

かくれ‐マルコフモデル【隠れマルコフモデル】

読み方:かくれまるこふもでる

ある事象マルコフ過程であると仮定し限られたデータ情報から、直接観測できない元の事象の状態を予測するための確率モデル音声認識パターン認識自然言語処理などの分野用いられるHMMhidden Markov model)。


隠れマルコフモデル

読み方かくれマルコフモデル
別名:HMM
【英】Hidden Markov Model

隠れマルコフモデルとは、IBM考案した確率的な言語モデル一つである。

情報と社会のほかの用語一覧
教育:  Webベーストレーニング  Webラーニング
自然言語処理:  bigram  隠れマルコフモデル  形態素解析  言語モデル  機械翻訳

隠れマルコフモデル

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/04/05 03:07 UTC 版)

隠れマルコフモデル(かくれマルコフモデル、: hidden Markov model; HMM)は、確率モデルのひとつであり、観測されない(隠れた)状態をもつマルコフ過程である。

概要

同じマルコフ過程でも、隠れマルコフモデルより単純なマルコフ連鎖では、状態は直接観測可能であり、そのため、状態の遷移確率のみがパラメータである。一方、隠れマルコフモデルにおいては、状態は直接観測されず、出力(事象)のみが観測される。ただしこの出力は、モデルの状態による確率分布である。従って、ある隠れマルコフモデルによって生成された出力の系列は、内部の状態の系列に関する何らかの情報を与えるものとなる。「隠れ」という語はモデルが遷移した状態系列が外部から直接観測されないことを指しており、モデルのパラメータについてのものではない。たとえパラメータが既知であっても隠れマルコフモデルと呼ばれる。隠れマルコフモデルはごく単純な動的ベイジアンネットワークとして表現することができる。

状態空間が離散の場合は離散型隠れマルコフモデル(discrete hidden Markov model)、連続の場合は連続分布型隠れマルコフモデル(continuous density hidden Markov model)と呼ばれ、連続と離散の混合型もある。

隠れマルコフモデルは、潜在変数(hidden variable, latent variable)が各々独立ではなく、マルコフ過程を通じて関連付けられている混合分布モデル(Mixture Model)を拡張したものとみなすことができる。この潜在変数は、それぞれの観測に対して選択されるように混合要素を制御するものである。近年、隠れマルコフモデルは、より複雑なデータ構造と非定常的なデータの取り扱いが可能なpairwise Markov modelsやtriplet Markov modelsに一般化されている。

隠れマルコフモデルに関する数学的概念はL. E. Baumと彼の同僚らによって1966年に発表された[1][2][3][4][5]。これは、最初にフォワードバックワードアルゴリズムを発表したR. L. Stratonovichによる非線形フィルタリング問題の最適化についての初期の成果に関連している。

隠れマルコフモデルは、音声認識バイオインフォマティクス形態素解析自然言語処理)、楽譜追跡、部分放電など、時系列パターンの認識に応用されている。連続的かつ伸縮しうる信号列のパターン抽出には適しているが、反面、長い距離をはさんで呼応しているような信号列からのパターン認識には、間の距離の長さに応じて状態数を増やす必要があり、計算量の観点から実用的ではない。また、局所最適に陥りやすいため、対象に応じて適切なパラメータの初期値を設定してやる(適切なモデルトポロジーを導入する)必要がある。

構成

図1. 隠れマルコフモデルの一般的な構成
図2. 隠れマルコフモデルのパラメータ(例)
図3. 隠れマルコフモデルの状態遷移と出力確率
点線の下にある出力系列が観測されたとき、これがどのような状態系列によって得られたものかを考えると、図に示された状態遷移と出力確率の矢印から、次の状態系列が候補となる。
5 3 2 5 3 2
4 3 2 5 3 2
3 1 2 5 3 2
それぞれの候補について、状態系列と観測系列の同時確率を求めることによって、最もありそうな(つまり最尤の)状態系列を求めることができる。一般にこのような最尤観測系列の問題はビタビアルゴリズムで効率的に解くことができる。

モデルのパラメータが既知のとき、特定の出力系列が得られる確率を求める。これは、可能な状態系列についての確率の総和によって得られる。

長さ

遠くに住んでいる友人のアリスとボブがいて、電話で毎日お互い自分のしたことを話している。ボブは「公園での散歩 (walk)」、「買い物 (shop)」、「部屋の掃除 (clean)」の3つのことにしか関心がない。何をするかは、その日の天気によってのみ決めている。アリスはボブが住んでいる地域の日々の天気については具体的に知らないが、一般的な天候の変化については知っている。ボブが毎日話すことにもとづいて、アリスは天気がどのようになっているかを推測しようとする。

アリスは、天気が離散マルコフ過程として変化すると考える。天気には「雨 (Rainy)」と「晴れ (Sunny)」の2つの状態があるが、アリスはそれを直接知ることができないから「隠れ」た状態である。毎日、ボブは天気に応じて「散歩」「買い物」「掃除」のどれかひとつだけを必ずする。ボブがそれをアリスに話すことが、アリスにとっての観測(ボブからの出力)である。この状況全体が隠れマルコフモデルとなる。

アリスは、ボブのいる地域の一般的な天候の変化(遷移確率)については知っている。また、どの天気のときにボブがどの行動をするか(出力確率)を知っている。つまり隠れマルコフモデルのパラメータが既知である。これは、Pythonで次のように表される。

states = ('Rainy', 'Sunny')

observations = ('walk', 'shop', 'clean')

start_probability = {'Rainy': 0.6, 'Sunny': 0.4}

transition_probability = {
    'Rainy': {'Rainy': 0.7, 'Sunny': 0.3},
    'Sunny': {'Rainy': 0.4, 'Sunny': 0.6},
}

emission_probability = {
    'Rainy': {'walk': 0.1, 'shop': 0.4, 'clean': 0.5},
    'Sunny': {'walk': 0.6, 'shop': 0.3, 'clean': 0.1},
}

このコードでstart_probability は、ボブが最初に電話する前の時点で、隠れマルコフモデルがどちらの状態にあるかというアリスの考えである(彼女は平均的には雨の方がやや多いと知っている)。この確率分布は平衡なものではない(遷移確率によれば平衡は {'Rainy': 0.57, 'Sunny': 0.43})。遷移確率 transition_probability はマルコフ連鎖での天気の変化を表す。この例では、今日が雨であれば、明日晴れる確率は30%である。出力確率 emission_probability は、その日にボブが行う行動の確率である。もし雨であれば掃除をする確率は50%で、晴れていれば散歩に行く確率は60%である。

ビタビアルゴリズム

ビタビアルゴリズム(Viterbi algorithm)は、モデルパラメータが既知のとき、与えられた配列を出力した可能性(尤度)が最も高い状態列(最尤状態列)を計算するアルゴリズムで、動的計画法の一種である。ある時点 t での最尤状態遷移列はtまでに観測された情報と、t-1 までで最も確からしい(=尤もらしい)最尤状態遷移列だけに依存すると仮定する。

例えば、出力 'A' と 'B' を確率0.5ずつで出力し、他の状態にまれにしか遷移しない状態 A と、出力 'A' と 'C' を確率0.5ずつで出力し、他の状態にまれにしか遷移しない状態Bがあった場合、時点 t で 'A' が出力され、時点 t-1 で最尤だと推定された状態遷移列からの遷移確率が状態 A の方が高いならば、時点 t では状態 A にいたと推定される。しかし、t+1 以降で 'C' の出力が続いた場合、全体としての尤度は状態 B に遷移していたほうが高くなる。

ビタビアルゴリズムを使用するには、観測可能なイベントは観測不可能な状態遷移と1対1対応していることが求められる。

バウム・ウェルチアルゴリズム

バウム・ウェルチアルゴリズム(Baum-Welch algorithm)は、モデルが出力した系列からモデルパラメータを推定するアルゴリズムである。前向きアルゴリズム、後ろ向きアルゴリズム、EMアルゴリズムから構成される。前向きアルゴリズムおよび後ろ向きアルゴリズムは動的計画法の一種であり、ある時点で各状態にいる確率を求めるアルゴリズムである。

参照

  1. ^ Baum, L. E.; Petrie, T. (1966). “Statistical Inference for Probabilistic Functions of Finite State Markov Chains”. The Annals of Mathematical Statistics 37 (6): 1554–1563. doi:10.1214/aoms/1177699147. https://www.jstor.org/stable/2238772 2023年4月5日閲覧。. 
  2. ^ Baum, L. E.; Eagon, J. A. (1967). “An inequality with applications to statistical estimation for probabilistic functions of Markov processes and to a model for ecology”. Bulletin of the American Mathematical Society 73 (3): 360. doi:10.1090/S0002-9904-1967-11751-8. Zbl 0157.11101. http://projecteuclid.org/euclid.bams/1183528841. 
  3. ^ Baum, L. E.; Sell, G. R. (1968). “Growth transformations for functions on manifolds”. Pacific Journal of Mathematics 27 (2): 211–227. doi:10.2140/pjm.1968.27.211. https://www.scribd.com/doc/6369908/Growth-Functions-for-Transformations-on-Manifolds 2011年11月28日閲覧。. 
  4. ^ Baum, L. E.; Petrie, T.; Soules, G.; Weiss, N. (1970). “A Maximization Technique Occurring in the Statistical Analysis of Probabilistic Functions of Markov Chains”. The Annals of Mathematical Statistics 41 (1): 164–171. doi:10.1214/aoms/1177697196. JSTOR 2239727. MR 287613. Zbl 0188.49603. 
  5. ^ Baum, L.E. (1972). “An Inequality and Associated Maximization Technique in Statistical Estimation of Probabilistic Functions of a Markov Process”. Inequalities 3: 1–8. 

隠れマルコフモデル

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/12/24 03:55 UTC 版)

音声認識」の記事における「隠れマルコフモデル」の解説

音声信号は、断片的あるいは短時間定常信号と見ることができ、隠れマルコフモデル(Hidden Markov ModelHMM)が適用可能である。すなわち、10ミリ秒程度短時間でみた場合音声信号近似的に定常過程見なすことができる。従って、音声多く確率過程マルコフ連鎖考えることができる。 また、隠れマルコフモデルによる音声認識自動的にトレーニングされ、単純で計算量それほど多くない音声認識について考えられる最も簡単な設定では、隠れマルコフモデルは10ミリ秒ごとに例え13次元程度実数ベクトル出力するだろう。このベクトルケプストラム係数から成るケプストラム係数短時間信号フーリエ変換コサイン変換使って、その第一最大係数取り出したのである。隠れマルコフモデルは、それぞれの観測されベクトル尤度与え対角共分散ガウス分布混合ともいうべき確率分布を持つ傾向がある。各単語や各音素それぞれ独自の出力分布を持つ。単語列あるいは音素に関する隠れマルコフモデルは、個々単語音素の隠れマルコフモデルを連結したものとなる。 これらが隠れマルコフモデルを使用した音声認識技術概念である。音声認識システムにはこれ以外にも様々な技術使用している。語彙の多いシステムでは、音素について文脈依存性考慮するまた、話者間の違い録音状況違い正規化するために、ケプストラム正規化が行われる。他にも話者正規化試みとして、男女間の正規化のための声道正規化 (VTLN) や、より不特定多数話者対応するための最尤線形回帰 (MLLR) がある。

※この「隠れマルコフモデル」の解説は、「音声認識」の解説の一部です。
「隠れマルコフモデル」を含む「音声認識」の記事については、「音声認識」の概要を参照ください。

ウィキペディア小見出し辞書の「隠れマルコフモデル」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「隠れマルコフモデル」の関連用語

隠れマルコフモデルのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



隠れマルコフモデルのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
デジタル大辞泉デジタル大辞泉
(C)Shogakukan Inc.
株式会社 小学館
IT用語辞典バイナリIT用語辞典バイナリ
Copyright © 2005-2025 Weblio 辞書 IT用語辞典バイナリさくいん。 この記事は、IT用語辞典バイナリの【隠れマルコフモデル】の記事を利用しております。
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアの隠れマルコフモデル (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの音声認識 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS