[go: up one dir, main page]

JPH0962647A - 確率モデルの学習方法 - Google Patents

確率モデルの学習方法

Info

Publication number
JPH0962647A
JPH0962647A JP7215669A JP21566995A JPH0962647A JP H0962647 A JPH0962647 A JP H0962647A JP 7215669 A JP7215669 A JP 7215669A JP 21566995 A JP21566995 A JP 21566995A JP H0962647 A JPH0962647 A JP H0962647A
Authority
JP
Japan
Prior art keywords
hidden markov
parameters
model
parameter
markov model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7215669A
Other languages
English (en)
Inventor
Makoto Iwayama
真 岩山
Hiroshi Motoda
浩 元田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7215669A priority Critical patent/JPH0962647A/ja
Publication of JPH0962647A publication Critical patent/JPH0962647A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 訓練用系列データが与えられたとき、それを
モデル化する最適な隠れマルコフモデルの構造とパラメ
ータ値を自動的に学習する方法の提供。 【構成】 まず、初期の隠れマルコフモデルとしてパラ
メータ数が非常に多い確率モデルを与える。各パラメー
タ値には初期値として乱数を与えておく。次に、提示さ
れた訓練用データを最も高確率で生成するようにパラメ
ータの値を徐々に調節していく。この際、不要なパラメ
ータは必要に応じで削除していく。パラメータの数、値
とも変化がなくなった時点で手続きは終了する。収束し
た隠れマルコフモデルは、パラメータ数、各パラメータ
値とも最適なモデルとなっている。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ノイズを含む大量のデ
ータから確率モデルを帰納的に学習する手法に係わるも
のであり、従来は人手で行っていた確率モデルの構造同
定(パラメータ数の決定など)を自動的に行う仕組みを
与えるものである。
【0002】
【従来の技術】株価の変動や天候の変化などにも見られ
るように、世の中で観測される種々のデータには不確実
な要素が含まれていることが多い。このようなデータを
モデル化するためには確率モデルが有用である。データ
のモデル化においては、与えられた訓練用データを最も
高い確率で生成するように確率モデルを作成するのが普
通である。例えば、あるコインを投げた結果として、
「表、裏、裏、裏」といった系列が観測された場合を考
える。この場合、最も単純な確率モデルとして、表が出
る確率“P(表)”、裏が出る確率“P(裏)”の二つ
のパラメータを持つ確率モデルを使うと仮定する。する
と、各パラメータの値がそれぞれ、“P(表)=1/
4”、“P(裏)=3/4”である時、このモデルは与
えられた訓練用データを最大の確率で生成する確率モデ
ルになっており、このコイン投げによるデータをモデル
化したことに相当する。
【0003】以上の手法は、最尤推定法と呼ばれてお
り、例えば、坂元・石黒・北川の書籍「情報量統計学
(共立出版)」に一般的なパラメータ推定手法が示され
ている。
【0004】隠れマルコフモデルなどの複雑な確率モデ
ルの場合は、一回で最適なパラメータ値を計算すること
は不可能であるため、パラメータの値を次第に自動的に
修正して最適なモデルへ段々と収束させていく繰り返し
学習方式が用いられる。隠れマルコフモデルの繰り返し
学習方式については、中川の書籍「確率モデルによる音
声認識(コロナ社)」に詳しく示されている。
【0005】
【発明が解決しようとする課題】上記従来技術におい
て、訓練用データから複雑な確率モデルを学習する繰り
返し学習手法を実際に用いる場合、学習対象となる確率
モデルのパラメータの個数および種類を予め人手により
決定しておく必要があった。更に、予め決定しておいた
パラメータの個数および種類は繰り返し学習において全
く変化せず、パラメータの値(確率)のみが自動的に最適
化されていった。
【0006】一般に、パラメータ数が多い確率モデルほ
ど、提示された訓練用データをより高い確率で生成する
モデルとなることが可能である。ところが、パラメータ
数の多すぎる確率モデルでは、学習時には提示されなか
った訓練用データと同じ特徴を持つデータ(未知デー
タ)を生成する確率が低くなってしまう。パラメータ数
が多い確率モデルは、提示されたデータを詳細に表現で
きる(高い確率で生成できる)がゆえに、提示されたデ
ータに含まれているノイズ部分ですら高い確率で生成し
てしまうからである。
【0007】以上のことから、学習時に提示されなかっ
た多数のデータをより高い確率で生成する確率モデルを
自動的に構成するためは、パラメータ値の自動最適化に
加え、パラメータ数の自動最適化をも行う必要がある。
しかし、従来の手法では、パラメータ数の自動的な最適
化は不可能であった。
【0008】本発明の目的は、上記問題点を解決するた
めに、隠れマルコフモデルの繰り返し学習法にパラメー
タ数を自動的な調節機能を提供することである。
【0009】
【課題を解決するための手段】上記目的は、非常に多く
のパラメータを持つ隠れマルコフモデルから学習を始
め、不要なパラメータを徐々に自動削除していく仕組み
を持った機械学習の方法により達成される。
【0010】
【作用】まず、初期の隠れマルコフモデルとしてパラメ
ータ数が非常に多い確率モデルを与える。各パラメータ
値には初期値として乱数を与えておく。次に、提示され
た訓練用データを最も高い確率で生成するようにパラメ
ータの値を自動的に調節していく。この際、不要なパラ
メータは必要に応じて自動的に削除されていく。パラメ
ータの数、値とも変化がなくなった時点で手続きは終了
する。収束した隠れマルコフモデルは、パラメータ数、
各パラメータ値とも最適なモデルとなっている。
【0011】
【実施例】以下、本発明の実施例を図面を参照して説明
する。
【0012】図1は本発明の実施例の概要を示した図で
ある。本発明では、初期隠れマルコフモデル1−1、訓
練用データ1−2を入力とし、訓練用データ1−2をで
きるだけ高い確率で生成する隠れマルコフモデル1−3
を結果として出力する。訓練用データ1−2とは、これ
からモデル化したいデータの実際の例である。
【0013】隠れマルコフモデルでは、系列データをモ
デル化の対象としている。例えば、ある種のコイン投げ
の結果として得られた系列データ「表、裏、裏、裏、
表」などを訓練用データとして用意して、その背後にひ
そむ規則性を隠れマルコフモデルでモデル化する。
【0014】初期隠れマルコフモデル1−1とは、学習
の対象として初めに与えておく隠れマルコフモデルであ
る。
【0015】本発明では、初期隠れマルコフモデル1−
1として十分大きな隠れマルコフモデルを与えておく。
隠れマルコフモデルの一例として、図2に4状態の全結
合型隠れマルコフモデルを示す。
【0016】図2からもわかるように、隠れマルコフモ
デルはネットワーク構造を成している。各ノード間のリ
ンクには確率が付加されていて、ノード間での遷移が確
率的に行われることを意味している(ノード間遷移確率
“A”)。例えば、ノード1からノード2へ確率0.8
で遷移する場合、a(1、2)=0.8と書く。また、
ノード間の遷移の際にシンボルが出力される。ある遷移
の際どのシンボルが出力されるかも確率により決定され
る(シンボル出力確率“B”)。例えば、ノード1から
ノード2ヘ遷移する際シンボル“0”が出力される確率
が0.5の場合、b(1、2、0)=0.5と書く。更
に、遷移をどのノードから始めるかも確率により決定さ
れる(初期ノード確率“PI”)。例えば、ノード1か
ら遷移が始まる確率が0.25の場合、pi(1)=
0.25と書く。
【0017】つまり、隠れマルコフモデル“M”は、ノ
ード間遷移確率、シンボル出力確率、初期ノード確率の
三つ組“(A、B、PI)”で定義される。この三つ組
を隠れマルコフモデルのパラメータと呼ぶ。初期隠れマ
ルコフモデル1−2では、ノード間遷移確率、シンボル
出力確率、初期ノード確率には乱数値を与えておく。初
期隠れマルコフモデル1−1、訓練用データ1−2を用
意し、図3のアルゴリズムに従うと、訓練用データ1−
1を出来るだけ高い確率で出力するような隠れマルコフ
モデル1−3が学習されていく。アルゴリズムの詳細に
入る前に、ある隠れマルコフモデル“M”があるデータ
“Y”を出力する確率“P(Y|M)”を計算する式を
(数1)に示す。
【0018】
【数1】
【0019】(数1)で、“X=x0、x
1、...、”はノードの遷移系列を表している。図3
のアルゴリズムでは、まず処理機能3−1において、初
期隠れマルコフモデルを読み込み“M=(A、B、P
I)”とする。また、訓練用データを読み込み“Y”と
する。
【0020】次に、現在の隠れマルコフモデル“M”か
ら修正された新しい隠れマルコフモデル“MN=(A
N、BN、PIN)”を求める方法を述べる。本発明で
は、“MN”の候補として以下の二種類を考える。これ
らの候補は、独立に計算されうる。つまり処理機能3−
2と処理機能3−3、4は並列に実行可能である。
【0021】(1)“M”のパラメータ数は変化せず、
処理機能3−2においてパラメータの値のみを修正し
“MN1=(AN1、BN1、PIN1)”とする。
“MN1”は(数2)に従って計算される。
【0022】
【数2】
【0023】なお、(数2)により計算された“MN
1”は、パラメータ数の変更なしに“M”を修正すると
いう仮定のもとで、“P(Y|MN)”が最大になる
“MN”であることが証明されている。
【0024】(2)“M”のリンクで最低の遷移確率を
持つリンクを処理機能3−3で削除する。つまり、ある
ノードからあるノードへ遷移する確率が小さいリンクは
不要であると仮定する。次に、残りのパラメータを処理
機能3−4で修正し、結果のモデルを“MN2=(AN
2、BN2、PIN2)”とする。“MN2”は(数
3)に従って計算される。(数3)では、ノードSpか
らノードSqへのリンクが削除されたと仮定している。
【0025】
【数3】
【0026】(数3)により計算された“MN2”はノ
ードSpからノードSqへのリンク削除をともない
“M”を修正するという仮定のもとで、“P(Y|M
N)”が最大になる“MN”であることが証明されてい
る。
【0027】以上より、修正後の隠れマルコフモデル
“MN”の候補として二種類のモデル“MN1”、“M
N2”が考えられることになる。判定機能3−5では、
このいずれが“MN”として適しているかを決定するた
めに、それぞれが、訓練用データ“Y”を生成する確
率、つまり、“P(Y|MN1)”、“P(Y|MN
2)”を計算する。アルゴリズムの最終的な目標は、
“P(Y|M)”を最大とする“M”を求めることであ
るため、計算した二つの確率を比較し、大きい値を生成
するモデルを修正後の“MN”とする。
【0028】最後に、判定機能3−6において、修正前
の“P(Y|M)”と修正後の“P(Y|MN)”を比
較する。この差が十分小さければ、これ以上の修正はな
いと仮定してアルゴリズムは停止する。それ以外の場
合、また新たな修正ステップを繰り返す。
【0029】
【発明の効果】本発明で提案するアルゴリズムによる
と、まず大きな初期隠れマルコフモデルを用意しておけ
ば、不必要なリンクを徐々に削除してきながら最適なモ
デルへと自動的に収束させることが可能になる。
【図面の簡単な説明】
【図1】本発明の実施例の処理手順を示した図。
【図2】隠れマルコフモデルの一例を説明した図。
【図3】本発明の実施例のアルゴリズムを示した図。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】ある種の特徴を持つデータを隠れマルコフ
    モデルと呼ばれる確率モデルの一種でモデル化する際
    に、最適な隠れマルコフモデル自動的に構成するため
    に、初めはパラメータの数が多い大きな隠れマルコフモ
    デルを用意しておき、不必要なパラメータを徐々に削除
    しながら同時にパラメータの値を最適化していく学習方
    法。
  2. 【請求項2】あるパラメータを削除した後、削除後の他
    のパラメータの値は常にその時点で、訓練用に見せるデ
    ータを出来るだけ高い確率で生成する値になっている請
    求項1記載の学習方法。
  3. 【請求項3】パラメータの値は繰り返し再計算され、次
    第に最終的な最適値に収束していくが、各再計算時にお
    いて、あるパラメータの削除を伴う場合とパラメータの
    削除を伴わない場合との二つの可能性を比較し、より適
    した方を様々な基準で選択する請求項1記載の学習方
    法。
  4. 【請求項4】どのパラメータを削除べきかを決定する際
    に、その時点で値が最低であるパラメータを削除する請
    求項1記載の学習方法。
JP7215669A 1995-08-24 1995-08-24 確率モデルの学習方法 Pending JPH0962647A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7215669A JPH0962647A (ja) 1995-08-24 1995-08-24 確率モデルの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7215669A JPH0962647A (ja) 1995-08-24 1995-08-24 確率モデルの学習方法

Publications (1)

Publication Number Publication Date
JPH0962647A true JPH0962647A (ja) 1997-03-07

Family

ID=16676214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7215669A Pending JPH0962647A (ja) 1995-08-24 1995-08-24 確率モデルの学習方法

Country Status (1)

Country Link
JP (1) JPH0962647A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007065533A (ja) * 2005-09-02 2007-03-15 Advanced Telecommunication Research Institute International 音響モデル生成装置、およびプログラム
JP2013008200A (ja) * 2011-06-24 2013-01-10 Nippon Telegr & Teleph Corp <Ntt> モデルパラメータ配列装置とその方法とプログラム
CN106471353A (zh) * 2013-06-03 2017-03-01 科磊股份有限公司 用于光学计量的高度相关参数的相关性的动态移除
KR20230144122A (ko) * 2018-06-14 2023-10-13 노바 엘티디. 반도체 제조용 측정 및 공정 제어

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007065533A (ja) * 2005-09-02 2007-03-15 Advanced Telecommunication Research Institute International 音響モデル生成装置、およびプログラム
JP2013008200A (ja) * 2011-06-24 2013-01-10 Nippon Telegr & Teleph Corp <Ntt> モデルパラメータ配列装置とその方法とプログラム
CN106471353A (zh) * 2013-06-03 2017-03-01 科磊股份有限公司 用于光学计量的高度相关参数的相关性的动态移除
CN106471353B (zh) * 2013-06-03 2019-08-02 科磊股份有限公司 用于光学计量的高度相关参数的相关性的动态移除
US10386729B2 (en) 2013-06-03 2019-08-20 Kla-Tencor Corporation Dynamic removal of correlation of highly correlated parameters for optical metrology
KR20230144122A (ko) * 2018-06-14 2023-10-13 노바 엘티디. 반도체 제조용 측정 및 공정 제어
US12236364B2 (en) 2018-06-14 2025-02-25 Nova Ltd Metrology and process control for semiconductor manufacturing

Similar Documents

Publication Publication Date Title
JP2002529800A (ja) 音声認識のための音響モデルを階層的に構成してそのモデルを未知のドメインに適合させる装置及び方法
CN108596469B (zh) 一种面向大规模车辆路径问题的快速自适应大规模邻域搜索方法
CN112951211A (zh) 一种语音唤醒方法及装置
CN118140231A (zh) 在图神经网络中的自适应扩散
CN114519757B (zh) 一种捏脸处理方法
JPH0962647A (ja) 確率モデルの学習方法
Liu et al. A dynamic dual-trust network-based consensus model for individual non-cooperative behaviour management in group decision-making
CN115690476A (zh) 一种基于改进和声搜索算法的数据自动聚类方法
WO2021059375A1 (ja) 学習装置、学習方法、及び、記録媒体
CN108597502A (zh) 基于对抗训练的领域语音识别训练方法
JP2021189967A (ja) 映像区間重要度算出モデル学習装置およびそのプログラム、ならびに、要約映像生成装置およびそのプログラム
CN116108893A (zh) 卷积神经网络的自适应微调方法、装置、设备及存储介质
CN114530145A (zh) 语音识别结果纠错方法及装置、计算机可读存储介质
CN109979422B (zh) 基频处理方法、装置、设备及计算机可读存储介质
CN110580390B (zh) 基于改进遗传算法与信息熵的地质统计学随机反演方法
CN115017255B (zh) 一种基于树状结构的知识库构建和搜索方法
JP2023132904A (ja) 学習モデル生成装置、学習モデル生成方法およびプログラム
CN117640224A (zh) 基于深度强化学习算法的网络安全协议验证工具优化方法
JP2570448B2 (ja) 標準パターン学習方法
CN112115509B (zh) 一种数据生成方法及装置
CN116756433A (zh) 一种社交网络不实信息控制方法及装置
JP6618453B2 (ja) 音声合成のためのデータベースの生成装置、生成方法、音声合成装置及びプログラム
CN116051591B (zh) 一种基于改进布谷鸟搜索算法的带钢图像阈值分割方法
CN115130867A (zh) 一种基于优化的自调参遗传算法的排产方法和存储介质
CN111125182A (zh) 基于改进蚁狮优化算法和频繁模式增长的关联规则提取方法