首页 / 专利库 / 数学与统计 / 隐马尔可夫模型 / Time-series signal processor

Time-series signal processor

阅读:961发布:2021-08-22

专利汇可以提供Time-series signal processor专利检索,专利查询,专利分析的服务。并且PURPOSE:To obtain a hidden Markov model (FVQHMM) by fuzzy vector quantization which eliminates a deficiency of training data and its partiality and has no mathematical contradiction by setting the sum of loads to a logarithmic value of the generation probability of an input vector. CONSTITUTION:A cluster generation probability storage means stores the generation probability of each cluster obtained by clustering a training vector set and an assignment vector calculating means calculates an assignment vector for each input vector cluster. Then a load sum calculating means calculates the load sum based upon the degree of assignment for the input vector as the logarithmic value of each cluster generation probability value and regards the load sum as the logarithmic value of the generation probability of the input vector. An HMM generating device consists of, for example, a feature extraction part 101, a word pattern storage part 102, a fuzzy clustering part 103, a centroid storage part 104, a buffer memory 105, a vector assignment degree calculation and storage part 106, a parameter estimation part 107, and parameter storage parts 108 and 109.,下面是Time-series signal processor专利的具体信息内容。

【特許請求の範囲】
  • 【請求項1】訓練ベクトル集合をクラスタリングして得られた各クラスタの発生確率を記憶するクラスタ発生確率記憶手段と、入力ベクトルの前記各クラスタに対する帰属度ベクトルを算出する帰属度ベクトル算出手段と、
    前記各クラスタ発生確率の対数値の、前記入力ベクトルに対する前記帰属度による、荷重和を算出する荷重和算出手段とを備え、該荷重和を前記入力ベクトルの発生確率または確率密度の対数値とすることを特徴とする時系列信号処理装置。
  • 【請求項2】請求項1記載の時系列信号処理装置により得られるベクトルの発生確率に基づき、モデル化すべきベクトル系列からなるパターン集合の発生確率が最大になるように、該モデルのパラメータを推定するパラメータ推定手段を含むことを特徴とする隠れマルコフモデル作成装置。
  • 【請求項3】請求項1記載の時系列信号処理装置により得られるベクトルの発生確率に基づき、モデル化すべきベクトル系列からなるパターン集合の発生確率が最大になるように、該モデルのパラメータを推定し、そのパラメータを記憶するモデルパラメータ記憶手段を備えたことを特徴とする隠れマルコフモデル記憶装置。
  • 【請求項4】請求項3記載のモデルパラメータ記憶手段に記憶されている隠れマルコフモデルの、入力ベクトル系列に対する尤度を算出することを特徴とする尤度計算装置。
  • 【請求項5】請求項3記載のモデルパラメータ記憶手段を認識単位毎に設け、入力ベクトル系列に対する前記モデル毎の尤度を計算する請求項4記載の尤度計算手段と、該尤度計算手段によって得られた前記モデル毎の尤度を比較し、その最大値を与えるモデルに対応した認識単位を認識結果とすることを特徴とする認識装置。
  • 说明书全文

    【発明の詳細な説明】

    【0001】

    【産業上の利用分野】音声認識等のパターン認識に適用可能な新しいHMM(Hidden Markov Model、隠れマルコフモデル)、そのパラメータの推定方法、該HMMを用いたパターンの認識方法、及び装置に関する。

    【0002】

    【従来の技術】本発明は一般の時系列信号に適用可能なものであるが、説明の便宜のために、以下、音声認識を例に説明する。

    【0003】先ずHMMを用いた音声認識装置について説明する。 (図2)は、HMMを用いた音声認識装置のブロック図である。 201は音声分析部であって、入音声信号をフィルタバンク、フーリエ変換、LPC分析等の周知の方法により、一定時間間隔(フレームと呼ぶ)例えば10msec毎に特徴ベクトルに変換する。 従って、入力音声信号は特徴ベクトルの系列 Y=(y(1),
    y(2),・・・,y(T))に変換される。 Tはフレーム数である。 202はコードブックと呼ばれるもので、ラベル付けされた代表ベクトルを保持している。 203はベクトル量子化部であって、前記ベクトル系列Yのそれぞれのベクトルをそれに最も近い前記コードブックに登録されている代表ベクトルに対応するラベルに置き換えるものである。 204はHMM作成部であって、訓練データから認識語彙たる各単語に対応するHMMを作成するものである。 即ち、単語wに対応するHMMを作るには、先ず、HMMの構造(状態数やそれら状態の間に許される遷移規則)を適当に定め、然る後に前記の如くして単語wを多数回発声して得られたラベル系列から、それらラベル系列の発生確率が出来るだけ高くなるように、前記モデルにおける状態遷移確率や状態の遷移に伴って発生するラベルの発生確率を求めるものである。 205はH
    MM記憶部であって、このようにして得られたHMMを各単語毎に記憶するものである。 206は尤度計算部であって、認識すべき未知入力音声のラベル系列に対し、
    前記HMM記憶部205に記憶されているそれぞれのモデルの前記ラベル系列に対する尤度を計算するものである。 207は比較判定部であって尤度計算部206で得られた前記それぞれのモデルの尤度の最大値を与えるモデルに対応する単語を認識結果として判定するものである。

    【0004】(図3)は離散確率分布型HMMの一例である。 状態q iから状態q jへの遷移確率a ijと、状態q
    iにおけるラベルC mの発生確率b i (C m )が定義されている。 観測されたラベル系列の、このHMMから発生する確率は、Forward-Backward法やViterbi法により求められる。

    【0005】HMMによる認識は具体的には次のようにして行われる。 即ち、未知入力に対して得られたラベル系列をO=(o(1),o(2),・・・,o(T))、単語wに対応したモデルをλ wとし、モデルλ wにより発生される長さTの任意の状態系列をX=(x(1),x(2),・・・,x(T))
    とするとき、λ wのラベル系列Oに対する尤度は 〔厳密解〕

    【0006】

    【数1】

    【0007】〔近似解〕

    【0008】

    【数2】

    【0009】または、対数をとって

    【0010】

    【数3】

    【0011】等で定義される。 ここで、P(x,y|λ w )
    は、モデルλ wにおけるx,yの同時確率である。

    【0012】従って、例えば、(数1)を用いれば

    【0013】

    【数4】

    【0014】とするとき、w^が認識結果となる。 (数2),(数3)を用いるときも同様である。

    【0015】P(O,X|λ) は次のようにして求められる。 いま、HMMλの状態q i (i=1〜I)毎に、ラベルoの発生確率b i (o)と状態q i (i=1〜I)から状態q j (j=1〜I+1)への遷移確率a ijが与えられているとき、状態系列X=(x(1),x(2),・・・,x(T+1))
    とラベル系列O=(o(1),o(2),・・・,o(T))のHMM
    λから発生する同時確率は

    【0016】

    【数5】

    【0017】と定義出来る。 ここでπ x(1)は状態x(1)
    の初期確率である。 また、x(T+1)=I+1は最終状態であって、如何なるラベルも発生しないとする。

    【0018】この例では入力の特徴ベクトルy(t)をラベルo(t)に変換したが、各状態におけるラベルの発生確率の代りに特徴ベクトルy(t)をそのまま用い、各状態において特徴ベクトルy(t)の確率密度関数を与える方法もある。 このときは(数5)における前記ラベルo
    (t)の状態q iにおける発生確率b i (o(t)) の代わりに特徴ベクトルy(t)の確率密度b i (y(t))を用いることになる(以後、zがラベルのときはb i (z)はzが状態iにおいて生じる確率、zがベクトルのときはb
    i (z)は状態iにおけるzの確率密度を意味するものとする)。 このときは、前記(数1)(数2)(数3)は次のようになる。 〔厳密解〕

    【0019】

    【数6】

    【0020】〔近似解〕

    【0021】

    【数7】

    【0022】または、対数をとれば次式が得られる。

    【0023】

    【数8】

    【0024】以上、何れの方式を用いるにしても最終的な認識結果は、それぞれの単語wに対してHMMλ wをw=1〜W について準備しておけば、入力音声信号Y
    に対して最大の尤度を与えるλ wに対応するwが認識結果となる。

    【0025】

    【発明が解決しようとする課題】前記従来例において、
    入力特徴ベクトルをラベルに変換するものを離散確率分布HMM、入力特徴ベクトルをそのまま用いるものを連続確率分布HMMと呼ぶことにする。 このとき、これら両者の特徴は次のようである。

    【0026】離散確率分布HMMは、入力ラベル系列に対するモデルの尤度の計算において、各状態でのラベルC m (m=1,・・・,M)の発生確率b i (C m )はラベルに関連して予め記憶されている記憶装置から読み出すことで実行できるから計算量が非常に少ないと言う利点がある反面、量子化に伴う誤差のため、認識精度が悪くなると言う欠点がある。 これを避けるためにラベル数(クラスタ数)Mを多くする必要があるが、その増加に伴ってモデルを学習するために必要な学習パターン数が膨大になる。 学習パターン数が不十分な場合は、前記b i (C m )が頻繁に0になることがあり、正しい推定が出来なくなる。 例えば、次のようなことが生じる。

    【0027】コードブックの作成は、認識すべき全ての単語について多数の話者の発声音声を特徴ベクトル系列に変換し、この特徴ベクトルの集合をクラスタリングし、それぞれのクラスタにラベリングすることによって行われる。 それぞれのクラスタは、セントロイドと呼ばれるそのクラスタの代表ベクトルを持ち、通常これは各々のクラスタに分類されたベクトルの期待値である。 コードブックは、これらセントロイドを前記ラベルで検索可能な形で記憶したものである。

    【0028】いま、前記認識語彙の中に、例えば「大阪」と言う単語があって、これに対応するモデルを作る場合を考える。 多数話者が発声した単語「大阪」に対応する音声サンプルが特徴ベクトル列に変換され、各々の特徴ベクトルが前記セントロイドと比較され、最近隣のセントロイドがその特徴ベクトルの量子化されたものとなり、それに対応するラベルがその特徴ベクトルの符号化出力となる。 このようにして、前記「大阪」に対する各々の音声サンプルは、ラベル系列に変換される。 得られたラベル系列から、それらラベル系列に対する尤度が最大になるようにHMMのパラメータを推定することにより、単語「大阪」に対応するモデルが出来上がる。 この推定には周知のBaum-Welch法等が用いられ得る。

    【0029】この場合、前記コードブックにあるラベルの中には、単語「大阪」に対応する学習ラベル系列の中には含まれていないラベルが有り得る。 このような場合は、この含まれていないラベルの発生確率は「大阪」に対応するモデルにおいては学習の過程で“0”と推定されてしまう。 従って、認識の時に発声される「大阪」と言う単語が変換されたラベル系列の中に、たまたま前記「大阪」のモデルの作成に用いたラベル系列には含まれていないラベルが存在することは十分有り得ることであり、その場合は、この認識時に発声された「大阪」のラベル系列が前記「大阪」のモデルから発生する確率は“0”になってしまう。 ところが、このような場合でも、ラベルとしては異なっていても、ラベルに変換される前の特徴ベクトルの段階ではモデルの学習に用いた音声サンプルとかなり近く、ベクトルの段階で見れば十分「大阪」と認識されても良い場合がある。 もともと同じ単語を発声しているのであるからベクトルのレベルでは似通っているにも関わらず、ラベルのレベルでは僅かの差で全く異なったラベルに変換されてしまうということは十分起こり得るのであって、このようなことが認識精度に悪影響を及ぼすことは容易に想像がつく。 クラスタ数Mが増加する程、訓練データ数が少ない程このような問題は頻繁に生じることになる。

    【0030】この欠点を除去するためには、訓練集合には現れてこない(含まれていない)ラベルに対して、平滑化や補完を行う等の工夫が必要となる。 「結び」と呼ばれる概念を用いてパラメータ数を減少させる工夫をはじめとして、0確率が推定される場合はそれを0にせずに微小量に置き換えたり、ファジイベクトル量子化等のようにクラスタの境界をぼかしたりする方法等、平滑化や補完を行う方法が種々提案されている。 中でもファジィベクトル量子化に基づくHMMは、ヒューリスティックな要素が少なく、理論的にもすっきりしていて、アルゴリズミックに実現できる方法であるが、従来提案されているものは数学的な意味で近似的なものであった。

    【0031】

    【課題を解決するための手段】訓練ベクトル集合をクラスタリングして得られた各クラスタの発生確率を記憶するクラスタ発生確率記憶手段と、入力ベクトルの前記各クラスタに対する帰属度ベクトルを算出する帰属度ベクトル算出手段と、前記各クラスタ発生確率の対数値の、
    前記入力ベクトルに対する前記帰属度による、荷重和を算出する荷重和算出手段とを備え、該荷重和を前記入力ベクトルの発生確率の対数値とすることを特徴とする構成である。

    【0032】

    【作用】クラスタ発生確率記憶手段により訓練ベクトル集合をクラスタリングして得られた各クラスタの発生確率を記憶し、帰属度ベクトル算出手段により入力ベクトルの前記各クラスタに対する帰属度ベクトルを算出し、
    荷重和算出手段により前記各クラスタ発生確率の対数値の、前記入力ベクトルに対する前記帰属度による荷重和を算出し、該荷重和を前記入力ベクトルの発生確率の対数値とするものである。

    【0033】

    【実施例】ここで、以後用いるべき記号の定義をまとめておく。 簡単のために、誤解を生じない限り、状態q i ,q j等は単にi,j等と表記することにする。 また、モデルの学習は1つの単語について行う場合を述べることとし、モデル間で区別する必要のある場合は、モデルに対応する番号をパラメータの右肩に添字として付加することとし、通常はこれを省くものとする。

    【0034】i=1,2,・・・,I+1:第i番の状態 [a ij ]:遷移マトリクス a ij :状態iから状態jへの遷移確率 r:作成すべきモデルに対する訓練パターン番号(r=
    1,・・・,R) y (r) (t):訓練パターンrの第tフレームにおける観測ベクトル o (r) (t):訓練パターンrの第tフレームにおける観測ラベル b i (y (r) (t)):訓練パターンrのフレームtの観測ベクトルy (r) (t)の状態iにおける確率密度 Y (r) =(y (r) (1),y (r) (2),・・・,y (r) (T (r) )):訓練パターンrのベクトル系列(ただし、r=1,2,・・・,
    R) O (r) =(o (r) (1),o (r) (2),・・・,o (r) (T (r) )):訓練パターンrのラベル系列(ただし、r=1,2,・・・,R) X (r) =(x (r) (1),x (r) (2),・・・,x (r) (T (r) ),x (r)
    (T (r) +1)):X (r)またはO (r)に対応する状態系列 x (r) (t):単語wに対する第r番の訓練パターンの第tフレームにおける状態 T (r) :単語wに対する第r番の訓練パターンのフレーム数 λ i =[{a ij } j=1,・・・,I+1 ,{b i (C m )} m=1,・・・,M ]:状態iのパラメータの集合 S m :第mクラスターに含まれるベクトル集合 C m :第m番のクラスター名(ラベル) c m :C m従ってS mのセントロイド(S m重心ベクトル) b i (C m ):訓練パターンrのフレームtの観測ラベルC
    mの状態iにおける発生確率 λ={λ i }:全パラメータの集合(λをパラメータとするモデルをモデルλとも呼ぶ) P(Y|λ):観測ベクトル系列Yがモデルλから発生する確率密度 P(O|λ):観測ラベル系列Oがモデルλから発生する確率 π i :状態iがt=1で生じる確率 先ず、離散確率分布HMMを学習する方法について述べる。

    【0035】離散確率分布HMMでは、ベクトル系列からなる訓練パターンを構成する各ベクトルはベクトル量子化(Vector Quantize)され、ラベル系列に変換されるそこで、先ず、VQについて簡単に説明する。

    【0036】(1)コードブックの作成 取り扱うべき信号の多数の訓練集合から特徴抽出を行い、特徴ベクトル集合を得(前記訓練パターンを構成するベクトル等)、この特徴ベクトル集合をクラスタリングし、M個のクラスタS 1 ,・・・,S Mと各々のクラスタの重心ベクトル(セントロイド)c 1 ,・・・,c Mを得、m=
    1,・・・,Mについて、mにより参照可能な形でc mを記憶する。 これをコードブックという。

    【0037】(2)ベクトル量子化・符号化 符号化すべきベクトルyをベクトルc 1 ,・・・,c Mの何れかで近似することをベクトル量子化と言い、yがc mに量子化されたとき、yをラベルC mに置き換えることをyをC mに符号化すると言う。 ベクトル系列y(1),・・・,
    y(T)は通常次のような方法でラベル系列o(1),・・・,
    o(T)に変換される。

    【0038】符号化すべき信号から(1)で行ったのと同様の方法により特徴抽出を行い、特徴ベクトル列y
    (1),y(2),・・・,y(T)を得たとする。 y(t)とc mとの距離をd(y(t),c m )とするとき、

    【0039】

    【数9】

    【0040】をy(t)の符号化出力であるとする(o
    (t)∈{1,2,・・・,M})。 d(y(t),c m )としては、
    ユークリッドノルム等が用いられる。

    【0041】前記クラスタリングには、フルサーチクラスタリング、バイナリーツリークラスタリング等の方法があり、それぞれについて種々の方法が考えられている。 例えば、フルサーチクラスタリングの一つとして、
    次のようにして行うものがある。 訓練ベクトル集合をv 1 ,v 2 ,・・・,v Nとする。

    【0042】(1)任意にM個のベクトルc 1 ,・・・,c M
    を定める。 (2)m=1,・・・,Mについて

    【0043】

    【数10】

    【0044】を計算する。 (3)m=1,・・・,Mについて、クラスタS mのセントロイドを求め、各々を各クラスタの新たなセントロイドとしてc mを更新する。 即ち、

    【0045】

    【数11】

    【0046】ただし、本式において、|S m |はS mの要素数を意味するものとする。 (4)収束条件を検査し、それが満たされていれば完了し、満たされていない場合はステップ(2)に戻る。

    【0047】収束条件としては、a)歪の減少率がそれに関して設けた閾値ε以下になった場合、b)ステップ(2)〜(4)の繰り返しの回数がそれに関して設けた制限Iに到達した場合等が採用される。 a)については例えば次のように実行され得る。 即ち、ステップ(2)
    〜ステップ(4)の第i番の繰り返しにおいて得られる歪量

    【0048】

    【数12】

    【0049】を定義し、予め定めた小さな数εに対して ε>|D(i−1)−D(i)|/D(i) となれば、収束したと見なす等である。

    【0050】以上説明したクラスタリングは、後に説明するファジィクラスタリングがソフトクラスタリングと呼ばれるのに対してハードクラスタリングと呼ばれることがある。

    【0051】離散HMM作成の問題は、ある認識単位(単語等)に対し、準備されたr=1〜Rの訓練パターンから尤度関数P(O (1) ,O (2) ,・・・,O (R) |λ)を最大にする前記HMMを規定するパラメータλを推定することである。

    【0052】O (r)が互いに独立であるとすれば、前記尤度関数は

    【0053】

    【数13】

    【0054】で与えられる。 ここで、次の補助関数Q
    (λ,λ')を定義する。

    【0055】

    【数14】

    【0056】このとき、次のことが言える。 「Q(λ,
    λ')≧Q(λ,λ)なら、P(O (1) ,…,O (R) |λ')≧P(O
    (1) ,…,O (R) |λ)であって、等号はλ'=λの時に成り立つ。 」故に、

    【0057】

    【数15】

    【0058】を求めることが出来れば、λ * →λとして(数15)を繰り返し適用することによって、λはP
    (O (1) ,…,O (R) |λ)の停留点、即ち、P(O (1) ,…,O
    (R) |λ)の極大値または鞍点を与える点に収束することになる。 P(O (1) ,…,O (R) |λ)の変化率が予め定めた閾値以下になるまでこの操作を繰り返すことにより局所最適解が得られる。

    【0059】このQ(λ,λ')を用いてパラメータを推定する方法について説明する。 (数14)を変形すれば、
    次式が得られる。

    【0060】

    【数16】

    【0061】前述の説明から、Q(λ,λ')をλ'の関数と見なしてQ(λ,λ')>Q(λ,λ)なるλ'を見出せば、
    それはλの更新されたものとなるが、P(O (1) ,・・・,O
    (R) |λ)はλ'に関しては一定値となるから、これを取り除いて

    【0062】

    【数17】

    【0063】とするとき、前記求むべきλ'を見出すことはQ'(λ,λ')>Q'(λ,λ)なるλを見出すことと同様である。

    【0064】ここで

    【0065】

    【数18】

    【0066】

    【数19】

    【0067】ここで、δ(i,j)はいわゆるクロネッカーのデルタで、i=jのときδ(i,j)=1、i≠jのときδ(i,j)=0である。 各パラメータの再推定値はL
    agrangeの未定乗数法によって導かれる。

    【0068】右辺第1項からπ i 'について

    【0069】

    【数20】

    【0070】の条件のもとで最大化すればπ iの再推定値π i *

    【0071】

    【数21】

    【0072】右辺第2項からa ij 'について

    【0073】

    【数22】

    【0074】なる条件のもとで最大化すればa ijの再推定値a ij *

    【0075】

    【数23】

    【0076】右辺第3項からb i (C m )'について

    【0077】

    【数24】

    【0078】の条件のもとに最大化すれば、b i (C m )の再推定値b i (C m ) *

    【0079】

    【数25】

    【0080】ここで、ξ (r) ij (t),γ (r) i (t)は次のように計算される。 即ち、

    【0081】

    【数26】

    【0082】とおけば、

    【0083】

    【数27】

    【0084】であって、

    【0085】

    【数28】

    【0086】

    【数29】

    【0087】なる漸化式が成り立つから、α (r) 1 (0)=
    1としてパラメータλに適当な初期値を与え、t=1〜
    (r) +1,j=1〜I+1について(数28)に従ってα (r) j (t)を、β (r) I+1 (T (r) +1)=1としてt=
    (r) +1〜1、i=I〜1について(数29)に従ってβ (r) i (t)をそれぞれ順次計算して行けば、(数2
    7)が計算できる。

    【0088】パラメータ推定の実際の計算手順は次のようになる。 (1)L 1 =∞ (2)i=1〜I,j=1〜I+1,m=1〜Mについて λ i =[{π i } i=1,・・・,I ,{a ij } j=1,・・・,I+1 ,{b
    i (C m )} m=1,・・・,M ] に適当な初期値を与える。

    【0089】(3)r=1〜R, t=2〜T (r) , i=
    1〜I,j=1〜I+1について (数28)(数29)に従ってα (r) i (t),β (r) i (t)
    を(数27)に従ってξ (r) ij (t),γ (r) i (t)を求める。

    【0090】(4)I=1〜Iについて (数21)に従ってπ iの再推定値π i *を求める。

    【0091】(5)i=1〜I,j=1〜I+1について (数23)に従ってa ijの再推定値a ij *を求める。

    【0092】(6)i=1〜I,m=1〜Mについて (数25)に従ってb i (C m )の再推定値b i (C m ) *を求める。

    【0093】(7)i=1〜I,j=1〜I+1,m=
    1〜Mについて π i =π i * ,a ij =a ij * , b i (C m )=b i (C m ) *なる代入を行うことによって、再推定されたパラメータ集合λ
    ={λ i }を得る。

    【0094】(8)step(7)で得たパラメータ集合λ
    に対して

    【0095】

    【数30】

    【0096】を計算する。 (9)|L 1 −L 2 |/L 1 >εならば、L 2 =L 1とおいてステップ(4)へ、そうでなければ終了。

    【0097】前記ステップ(9)におけるεは収束の幅を決める適当に小さな正の数であって、その値は状況によって実用的な値が選ばれる。

    【0098】以上のようにして、離散確率分布HMMが得られるが、前述のごとき欠点を有している。 次に、前記離散確率分布HMMを基にしてファジィクラスタリング(ファジィベクトル量子化)によるHMM(FVQH
    MM)を説明する。

    【0099】先ず、ファジィクラスタリングについて説明する。 表記の簡単のために、学習に用いる全ての単語音声を構成するベクトルについて通し番号をつけ、y 1 ,
    ・・・,y Nとし、y nのクラスタS mへの帰属度(メンバシップ値)をu mnとする。 通常のクラスタリング法では、
    あるベクトルy nがクラスタS mに属している(u mn
    1)か、属していないか(u mn =0)だけを認めるのに対して、ファジィクラスタリング法では、y nがいくつかのクラスタに異なる度合で帰属することを認めると言うものである。

    【0100】具体的な方法の1つに、各クラスタS mのセントロイド(中心ベクトル、平均ベクトル)をc
    m (m=1,・・・,M)とし、y nとセントロイドc mの非類似度をd mn =d(y n ,c m )とするとき、

    【0101】

    【数31】

    【0102】を最小にするu mnとc mを見出すものがある。 目的関数Jをc mとu mnに関して偏微分し、条件

    【0103】

    【数32】

    【0104】を用いれば、Jを局所的に最小化するための必要条件が次の(数30)(数31)のように示される。

    【0105】

    【数33】

    【0106】

    【数34】

    【0107】ここで、Fはいわゆるファジィネスを表し、1<Fである。 F→∞のときは、m=1,・・・,Mについて、u mn →1/Mになり、F→1のときは、

    【0108】

    【数35】

    【0109】であるから、

    【0110】

    【数36】

    【0111】となる。 即ち、Fが増加するにつれてy n
    が何れのクラスタに属するかと言うことの曖昧性が増大し、Fが1に近づくにつれて、y nの属するクラスタを一意に決定するいわゆるハードクラスタリングに近づく。

    【0112】ファジィクラスタリングの実際の手順は次のようになる。 (1)訓練ベクトル集合を適当にS 1 ,・・・,S Mに分割し、初期クラスタとする。

    【0113】u mnを適当に初期化する。 (2)各クラスタの平均ベクトルc mを(数30)に従って求める。

    【0114】(3)y n ≠c mのとき、(数31)によってステップ(2)の結果を用いてu mnを更新する。 y n
    =c mのときは、m=nのときu mn =1,m≠nのときu mn =0とおく。

    【0115】(4)収束条件を満足すれば処理を終了、
    そうでなければステップ(2)へ戻る。

    【0116】ステップ(4)における収束条件としては、上記繰り返し計算において、繰り返し回数をkとして更新される前のJをJ(k)、更新された後のJをJ
    (k+1)とするとき、|J(k)−J(k+1)|/J(k+
    1)が予め定めた収束判定値ε以下になった場合、あるいは、適当に定めた繰り返し回数の上限をKとしてk=
    Kとなったときを収束、何れにも達しない場合を非収束とする等が考えられる。

    【0117】以上の結果を用いてFVQHMMを構成する従来法は次のようなものであった。 即ち、状態iにおけるy (r) (t)の生起確率をω i (y (r) (t))とするとき、

    【0118】

    【数37】

    【0119】とおき、(数27)〜(数29)におけるb i (o (r) (t))をω i (y (r) (t))で置き換え、(数2
    5)を

    【0120】

    【数38】

    【0121】に置き換えたものである。 この方法の問題点は、結果的に

    【0122】

    【数39】

    【0123】という近似を行っていることである。 即ち、後に述べるように(数37)の定義のもとに(数3
    8)を導くには、(数39)でなければならない。 ところが一般に凸関数の性質から

    【0124】

    【数40】

    【0125】であって、等号が成立するのは、(1)はあるmについてu(y (r) (t),C m )=1、その他のmについてはu(y (r) (t),C m )=0の場合、(2)b
    i (C m )がmに関わらずすべて等しい場合の何れかである。 従って、上の近似が良くなるのは前記Fが1に近い、即ち、クラスタリングが前記ハードクラスタリングに近い場合か、クラスタ数が少なくて、b i (C m )の値がmに関してあまり変動が無い場合に限られる。

    【0126】本発明は以上の欠点を廃して、数学的に矛盾の無いFVQHMMを提供するものである。 即ち前記ω i (y (r) (t))を次式で定義するものである。

    【0127】

    【数41】

    【0128】このようにおけば、(数19)の右辺第3
    項(Q 3とおく)は、

    【0129】

    【数42】

    【0130】の代わりにlog ω i (y (r) (t))を代入したものとなり

    【0131】

    【数43】

    【0132】となる。 即ち、(数41)のように定義することにより、ハードクラスタリングにおけるδ(o (r)
    (t),C m )をu(y (r) (t),C m )に置き代えたことになる。 このとき、前記説明から

    【0133】

    【数44】

    【0134】が言えるから、本発明によるファジィクラスタリングは、ハードクラスタリングの自然な拡張となっていることがわかる。

    【0135】b i (C m )の再推定値はQ 3をb i (C m )'に関して

    【0136】

    【数45】

    【0137】の条件のもとで最大化することにより得られる。 この手順を少し詳しく述べれば次のようになる。

    【0138】Lagrangeの未定乗数をθとすれば、

    【0139】

    【数46】

    【0140】である。 両辺をb i (C m )'倍し、mについて総和をとる。 u(o (r) (t),C m )のmに関する総和は1であるということにに注意すれば、

    【0141】

    【数47】

    【0142】となる。 (数47)を(数46)に代入して整理すれば、

    【0143】

    【数48】

    【0144】が得られる。 これは、(数38)と同じ形をしているものであるが、(数41)のようにω i (y
    (r) (t))を定義することによって導かれるべきものであり、(数37)の定義からは導くことは出来ない。 この意味で、ω i (y(t))を(数37)で定義し、b i (C m )
    の再推定値を(数38)で与えている従来例は(数3
    9)の近似を行っていることになる。

    【0145】本実施例では、観測ベクトルy(t)から算出されるクラスタC mに対する荷重係数(帰属度)u(y
    (r) (t),C m )はファジィクラスタリングにおけるメンバシップ値として説明したが、例えば、クラスタC mにおけるy(t)の条件付確率(密度)や前記メンバシップ値のn乗(nは整数)等場合に応じて種々の定義が考えられる。 この場合は、一般に、u(y (r) (t),C m )のmに関する総和は1ではなく、この条件を考慮しなければ、
    (数48)は(数49)のようになるのは明かである。

    【0146】

    【数49】

    【0147】他のパラメータの推定式は、ハードクラスタリングの場合と同様であって、得られる結果も表記的には(数21)(数23)と全く同じである。 但し、
    α,βの計算式(数28)(数29)が(数50)のように変更され、(数27)におけるξの計算式は(数5
    1)のように変更される。

    【0148】

    【数50】

    【0149】

    【数51】

    【0150】本発明による1つの単語に対するHMMのパラメータ推定の実際の計算手順は次のようになる。 ただし、全単語に対する訓練パターン集合から、既に、ファジィクラスタリングは行われており、各クラスタC 1 ,
    ・・・,C Mのセントロイドc 1 ,・・・,c Mは算出済みであるとする。

    【0151】(1)L 1 =∞ (2)i=1〜I,j=1〜I+1,m=1〜Mについて λ i =[{π i } i=1,・・・,I ,{a ij } j=1,・・・,I+1 ,{b
    i (C m )} m=1,・・・,M ] に適当な初期値を与える。

    【0152】(3)r=1〜R, t=2〜T (r) ,m=
    1,・・・,Mについて u(y (r) (t),C m )を求める。

    【0153】(4)r=1〜R, t=2〜T (r) ,i=
    1〜I+1について (数41)に従ってω i (y (r) (t))を求める。

    【0154】(5)r=1〜R, t=2〜T r , i=1
    〜I,j=1〜I+1について α (r) i (t),β (r) i (t)を(数50),ξ (r) ij (t),
    γ (r) i (t)を(数52)に従って計算する。

    【0155】(6)i=1〜Iについて (数21)に従ってπ iの再推定値π i *を求める。

    【0156】(7)i=1〜I,j=1〜I+1について (数23)に従ってa ijの再推定値a ij *を求める。

    【0157】(8)i=1〜I,m=1〜Mについて (数49)に従ってb i (C m )の再推定値b i (C m ) *を求める。

    【0158】(9)i=1〜I,j=1〜I+1,m=
    1〜Mについて π i =π i * ,a ij =a ij * ,b i (C m )=b i (C m ) *なる代入を行うことによって、再推定されたパラメータ集合λ
    ={λ i }を得る。

    【0159】(10)step(9)で得たパラメータ集合λに対して

    【0160】

    【数52】

    【0161】を計算する。 (9)|L 1 −L 2 |/L 1 >εならば、L 2 =L 1とおいてステップ(4)へ、そうでなければ終了。

    【0162】(図1)は、本発明のHMM作成装置の一実施例である。 以下図面に従って説明する。

    【0163】101は特徴抽出部であって、周知の方法によって、単語w(=1,…,W)に対応するモデル作成のために準備された訓練単語r=1〜R wの音声信号を特徴ベクトルの系列Y w(r) =(y w(r) (1),y w(r) (2),…,
    w(r) (T (r) ))に変換するものである。

    【0164】102は単語パターン記憶部であって、モデルλ wを作成するための学習用単語を前記特徴ベクトル系列の形でR w個記憶するものである。

    【0165】103はファジィクラスタリング部であって、訓練ベクトル集合から(数32)(数33)に従ってファジィクラスタリングするものである。

    【0166】104はセントロイド記憶部であって、前記ファジィクラスタリングの結果得られた各クラスタのセントロイドが記憶される。 このセントロイドは入力ベクトルの各クラスタに対する帰属度を算出するのに用いられる。

    【0167】105はバッファメモリであって、単語パターン記憶部102に記憶されているwに対する単語パターンをR w個取り出して一時的に記憶するものである。

    【0168】106はベクトル帰属度算出・記憶部であって、セントロイド記憶部104に記憶されているセントロイドからバッファメモリ105の出力ベクトルの各クラスタに対する帰属度を(数36)に従って算出するものである。

    【0169】107はパラメータ推定部であって、前記モデルλ wを作成するステップ(1)〜(10)を実行し、単語wに対応するモデルλ wを推定するものである。

    【0170】108は第1のパラメータ記憶部であって、前記ステップ(9)で得られたパラメータの再推定値を一次的に記憶するものである。 パラメータ推定部1
    07はこのパラメータ記憶部108の値を用いて再推定を行うものである。

    【0171】109は単語w=1〜Wに対応するパラメータを記憶する第2のパラメータ記憶部であって、前記それぞれの単語w=1,・・・,Wに対応するパラメータが、パラメータ記憶部1,・・・,パラメータ記憶部Wにそれぞれ記憶される。 即ち、それぞれの単語の各状態に対応する遷移確率は、第1のパラメータ記憶部108から読み出され、w,i,jで参照可能な形で記憶される。

    【0172】以上のようにして、FVQHMMが作成される。 次に、以上のようなモデルを用いて実際の入力音声を認識する方法及び装置について説明する。

    【0173】(図4)はその認識装置のブロック図である。 以下、本図に従って説明する。 401は特徴抽出部であって、(図1)101と全く同様の構成・機能を有するものである。

    【0174】402はセントロイド記憶部であって、
    (図1)のHMM作成装置のセントロイド記憶部に記憶されている各クラスタのセントロイドが記憶されている。

    【0175】403はベクトル帰属度算出部であって、
    特徴抽出部401の出力の特徴ベクトルy(t)とセントロイド記憶部403に記憶されている前記それぞれのクラスタの代表ベクトルc m (m=1,…,M)から、y
    (t)をファジィベクトル量子化するものである。 即ち、
    (数33)からy(t)のクラスタC mに対する帰属度u
    (y(t),C m )(m=1,・・・,M)を算出する。 即ち、y
    (t)は帰属度ベクトル(u(y(t),C 1 ),・・・,u(y
    (t),C M )) Tに変換される。

    【0176】404はパラメータ記憶部であって、(図1)109と全く同様の構成・機能を有するものであって、パラメータ記憶部wには、単語w(=1,・・・,W)に対応するモデルのパラメータ、π w i ,a w ij ,b w i (C m )
    が記憶されている。

    【0177】405は尤度計算部であって、ベクトル帰属度算出部403の出力に得られる帰属度ベクトル列に対する各モデルの尤度をパラメータ記憶部404の内容を用いて計算するものである。 即ち、尤度計算部wではパラメータ記憶部wの内容が用いられる。 尤度の計算は、モデルλ wの状態iにおけるy(t)の発生度合ω
    w i (y(t))を(数41)に準じて

    【0178】

    【数53】

    【0179】で与え、(数5)におけるb i (o(t))をω w i (y(t))、a ijをa w ijとして、(数1)(数2)
    (数3)等の何れかを用いて実行される。 (数1)を計算する場合は、(数26)におけるY (r)に対する

    【0180】

    【数54】

    【0181】の計算と全く同様に、入力パターンYに対するα w I+1 (T+1)を計算することになる。 TはYのフレーム数である。

    【0182】(数2)(数3)を用いる場合は、周知の
    Viterbi法によって尤度を求めることが出来る。 漸化式計算が足し算で済み、演算の途中でアンダーフロー等の生じる心配の無い(数3)を用いる場合が普通であるので、ここでも、(数3)を用いる場合について説明する。

    【0183】(1)初期値設定 単語wの状態iの初期確率をπ w iとし、i=1,・・・,I
    について(数55)を実行

    【0184】

    【数55】

    【0185】(2)漸化式の計算 t=2,・・・,T,j=1,・・・,Iについて(数56)を実行

    【0186】

    【数56】

    【0187】ステップ(3)におけるφ w I+1 (T+1)がYに対するモデルw(単語w)の尤度である。

    【0188】406は比較判定部であって、尤度計算部405に含まれる尤度計算部1,・・・,Wの何れの出力が最大であるかを比較判定し、それに対応する単語を認識結果として出力する。 即ち、

    【0189】

    【数57】

    【0190】を見出すものであって、これは(数4)に相当する計算である。

    【0191】

    【発明の効果】以上のように、本発明は、学習に用いたパターン集合を形成するベクトルの集合をファジィクラスタリングし、クラスタC mの前記HMMの状態iにおけるクラスタC mの発生確率b i (C m )と、入力ベクトルy(t)の各クラスタへの帰属度とからy(t)の状態iにおける発生確率を算出するものであって、該発生確率の対数値を前記b i (C m )の対数値の前記帰属度の荷重和または荷重平均で表すところに特徴がある。 このようにすることによって、離散型HMMにおける欠点である訓練データの不足やその偏りによる推定誤差を解消し、離散型HMMのもつ計算量が少ないというFVQHMMが本来有している利点をもつモデルを、数学的に矛盾の無い形で実現することが可能となった。

    【0192】なお、本実施例においては、単語を認識するとして述べたが、単語を音韻や音節等に置き換えても勿論よく、また、本発明は音声以外のパターンにも適用出来るものである。

    【図面の簡単な説明】

    【図1】本発明によるHMMのパラメータ推定を行う装置の一実施例を示すブロック図

    【図2】HMMを用いた音声認識装置の従来例を説明するブロック図

    【図3】離散確率分布型HMMの構成を示すHMMの構成図

    【図4】本発明の原理により構成されたHMMを用いた音声認識装置の一実施例を示すブロック図

    【符号の説明】

    101 特徴抽出部 102 単語パターン記憶部 103 ファジィクラスタリング部 104 セントロイド記憶部 105 バッファメモリ 106 ベクトル帰属度・算出記憶部 107 パラメータ推定部 108 パラメータ記憶部 109 パラメータ記憶部

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈