首页 / 专利库 / 人工智能 / 机器学习 / 人工神经网络 / 递归神经网络 / Automate in limited state using neural network

Automate in limited state using neural network

阅读:391发布:2021-07-18

专利汇可以提供Automate in limited state using neural network专利检索,专利查询,专利分析的服务。并且PROBLEM TO BE SOLVED: To obtain the regulation of combining a fuzzy system to a neural network by encoding the limited state dynamics of FFA so as to calculate a string membership function with optional precision.
SOLUTION: When given FFA is already converted to an equivalent definite acceptor, an input is supplied to a network 10 through an input neuron 12. The output of each recursive state neuron 14 is calculated from the weighted sum of all the inputs passing through an integrated discrimination function 16 for calculating the present state of the network. With respect to a next time step, the present output of the state neuron 14 is fed back through a time delay Z
-1 18. This recursive structure encodes the limited state dynamics of FFA. This recursive state neuron 14 is combined with a linear network output neuron 20 through a fuzzy membership weight 22. Concerning the output 20, its output is calculated through the use of a prescribed expression.
COPYRIGHT: (C)1997,JPO,下面是Automate in limited state using neural network专利的具体信息内容。

【特許請求の範囲】
  • 【請求項1】 入力信号を受けストリングを生成するための入力ニューロンと、計算を行っていネットワークの現在の状態を出力として生成するための積算判別器と、
    積算判別器の全ての出力の重み付き合計を出力として生成するための再帰状態ニューロンと、前記再帰状態ニューロンの出力を該積算判別器への時間遅延入力として生成するためのフィードバック手段と、前記再帰状態ニューロンの出力を受け該再帰状態ニューロンの出力それぞれに対してファジィウエイトを加えるファジィメンバーシップウエイト手段と、前記ファジィウエイト出力を合計して出力信号を与えるネットワーク出力ニューロンとを有することを特徴とするニューラルネットワークを用いた有限状態オートマトン。
  • 【請求項2】 請求項1に記載のニューラルネットワークを用いた有限状態オートマトンにおいて、前記積算判別器は、下記の数1式および数2式で示す関数 【数1】 【数2】 を計算するものであり、b iは隠れ再帰状態ニューロンS iに関係したバイアスであり、I kは符号a kのための入力ニューロンであり、下記の数3式で示す結果は状態遷移δ(q i ,q k )=q iに対応していることを特徴とするニューラルネットワークを用いた有限状態オートマトン。 【数3】
  • 【請求項3】 入力信号を受けストリングを生成するステップと、出力ストリングに積算判別関数を施すステップと、全ての出力ストリングの重み付き合計に比例する第1の信号と積算判別関数を施された時間遅延信号を生成するステップと、前記第1の信号を積算判別関数が施された時間遅延信号としてフィードバックするステップと、前記第1の信号にファジィメンバーシップの重みづけを施すステップと、出力信号を生成するため前記ファジィ重み付け出力を合計するステップとを有することを特徴とするニューラルネットワークを用いた有限状態オートマトンにて出力信号を発生する方法。
  • 【請求項4】 請求項3に記載のニューラルネットワークを用いた有限状態オートマトンにて出力信号を発生する方法において、前記積算判別関数は、下記の数式4および5で示され、 【数4】 【数5】 b iは隠れ再帰状態ニューロンS iに関係したバイアスであり、I kは符号a kのための入力ニューロンであり、下記の数6式で示す結果は状態遷移δ(q i
    k )=q iに対応していることを特徴とするニューラルネットワークを用いた有限状態オートマトンにて出力信号を発生する方法。 【数6】
  • 说明书全文

    【発明の詳細な説明】

    【0001】

    【発明の属する技術分野】本発明は、ファジィ有限状態オートマトンの、現在の状態が現在の入と直前の状態に依存する動的プロセスをモデル化することのできるファジィ有限状態オートマトン(FFAs)に関する。 特に、本発明は、ファジィ有限状態オートマトンを符号化するとともに任意の精度をもって与えられたファジィレギュラー言語を認識する増再帰ニューラルネットワークに関する。

    【0002】

    【従来の技術ならびに発明が解決しようとする課題】昨今、複合人工ニューラルネットワークやファジィシステムへの関心が高まっている。 ファジィ論理は、近似推論に数学的な基礎を与えるものである。 ファジィ論理制御装置は、可変翼をもった飛行機のロールや動きの制御、
    プラントの制御、交通制御といった多様な分野において非常に有用であると証明されている。 ファジィシステムに適したパラメータは、その初期値の選択を容易にするような明確な物理的意味を持っている。 その上、規則に基礎付けられた情報もシステマチックにファジィシステムに統合することができる。

    【0003】人工ニューラルネットワークは単純な動作を実行するニューロンの協動と幾つかの例からの学習能力とに基づく生体機能(生体システム)にみられる情報処理メカニズムを小さいスケールでエミュレートするものである。 人工ニューラルネットワークは、パターン認識、制御、予報などのような仕事のための正確さにおいて貴重な計算ツールとなっている。

    【0004】ファジィシステムと多階層パーセプトロンとは、計量学的には等価である。 即ち、それらは共に、
    一般的近似法だということである。 再帰ニューラルネットワークは、それが、“チューリングの同一性”が異論の多い問題を残しているかどうかという点で、チューリングマシーンと計量的同一性を有することが示されている。 ファジィシステムとニューラルネットワークとの基礎的方法論は全く異なるものである一方、それらの機能的形式は似通ったものである。 精力的なニューラルネットワークの学習アルゴリズムの開発は、学習機構(例えば、ニューラルネットワークの学習アルゴリズムと同様のファジィ論理システムのためのバックプロパゲーション学習アルゴリズム)を持つファジィシステムの分野においても有益である。

    【0005】いくつかの場合、ニューラルネットワークは、P. Goode et al entitled A hybrid fuzzy/neural
    systems used to extract heuristic knowledge from
    a fault detection problem"(Proc. Of the third IEEE
    Conference on Fuzzy Systems, vol. III,pp.1731-173
    6,1994" とC. Perneel et al entitled Fuzzy Reasoni
    ng and Neural Networks for Decision Making Problem
    s in Uncertain Environments" in Proc. Of the Third
    IEEE Conference of Fuzzy Systems, vol. II, pp. 11
    11-1125,1994. に記されるファジィ論理の原理上に構築される。 ファジィ論理を補間するニューラルネットワークの表現は、補強学習の状況にも用いられる。

    【0006】現在の入力と直前の状態に依存する再帰状態の主な問題は、有限状態オートマトンまたはそれらに同等の文法としてモデル化される。 次の段階では、再帰的ニューラルネットワーク決定する。 次の段階では、再帰的ニューラルネットワークもまたファジィ有限状態オートマトン(以降FFAs)を示すこと、ファジィ正規文法の認識に用いられるかどうかということを確定する。

    【0007】ファジィ文法は、X線解析、デジタル回路設計、および知的コンピュータインターフェースの設計などのような多様な分野で、その有用性が認められている。 FFAsの基本理論は、B. Gaines 著 The Logic
    of Automata" in Int l Journal of General Systems,
    vol.2, pp. 191-208, 1976, E. Santos 著 "MaximumAu
    tomata" in Information and Control, vol.13, pp. 36
    3-377, 1968 , W. Wee 著 "A Formulation of Fuzzy A
    utomata and its as a Model of Learning Systems," i
    n IEEE Transactions on System Science and Cybernet
    ics, vol.5, pp. 215-223, 1969上などで機器との統合のためのシステマティックな方法論抜きで議論されてきた。 また、ニューラルネットワークのファジィオートマトンへの適用は、J. Grantner 著 Synthesis and Ana
    lysis of Fuzzy Logic Finite State Machine Models,"
    in Proc. Of Third IEEE Conference on Fuzzy System
    s,vol. I, pp. 205-210, 1994, や、J. Grantner 著
    VLSI Implementations ofFuzzy Logic Finite State Ma
    chine," in roc. Of the Fifth IFSA Congress,pp. 781
    -784, 1993, S. Lee 著 Fuzzy Neural Networks," in
    Mathematical Biosciences, vol. 23 pp. 151-177, 19
    95, F. Unal著 A Fuzzy Finete StateMachine Implem
    entation Based on a Neural Fuzzy System," in Proc.
    Of theThird Int l Conf. On Fuzzy Systems, vol.3 p
    p. 1749-1754, 1994 などで提案されている。 Gran
    tner等が前記論文に提案した統合の方法論は、その状態と出力のファジィ表現を実施するために、デジタル設計技術を用いている。 Unal等による前記の論文では、ファジィ入力と状態を持つムーアマシンの適用(実施)は、バックプロパゲーションアルゴリズムを用いた状態遷移テーブル上の明示的フィードフォワード・ネットワークの学習によって実現されている。 入力と状態のファジィ化は、アンチロックブレーキシステムのようなマイクロ制御装置にオートマトンを適用する際に必要とされるメモリーサイズを削減することができる。 関連するものとして、加重一般言語に確率的ノードを持つニューラルネットワーク適用のためのアルゴリズムは、T. L
    udermir 著 Logical Networks Capable of Computing
    Weighted Regular Languages," in Proc. of the Intl
    Joint Conf. on Neural Networks 1991, vol. II, pp.
    1687-1692m 1991 で議論されてきた。 同期ファジィ連続回路の一般的統合方法については、 T. Watanabe 著
    Synthesis of Synchronous Fuzzy Sequential Circu
    its," in Proc. of the Third IFSA World Congress, p
    p. 288-291, 1989. で議論されてきた。 グレイレベルのイメージ処理などに応用される多階層閾値ニューロンを有する離散時間(非連続時点)ニューラルネットワークのクラスのための統合方法については、J. Siet 著 A
    nalysis and Synthesis of a Class of Discrete-Time
    Neural networks with Multilevel Threshold Neuron
    s," in IEEE Trans. On NeuralNetworks, vol. 6 no. 1
    p.105,1995. で提案されている。

    【0008】

    【課題を解決するための手段】本発明は、連続判別関数を持つ再帰ニューラルネットワークにおいてファジィ有限状態オートマトンの表現に関する。 ファジィ有限状態オートマトンは、再帰ネットワークにおいて符号化され、任意の精度を持ってステリング(文字列)メンバーシップ関数を計算する。 ファジィ有限状態オートマトンを同等の決定的有限オートマトン(DFA)に変換しファジィステリングメンバーシップを計算するするアルゴリズムが使われる。 ファジィFFA状態は、クリスプな(歯切れのよい)DFAへ変換される。 0<μ ≦1であるメンバーシップラベルμ は各受け付けDFA状態と関係する。 非受け付けDFA状態はラベルμ =0を有する。 ステリング(文字)のメンバーシップは、最後に訪れたDFA状態のメンバーシップラベルに等しい。

    【0009】ファジィシステムのパラメータは、明確に物理的意味を持ち、規則に基礎付けられ言語学的な情報は、システマティックな方法において適用性のあるファジィシステムに組み入れられる。 また、多様なニューラルネットワークモデルを学習のための強力なアルゴリズムも存在する。 しかし、多くの提案されてきたファジィシステムとニューラルネットワークアーキテクチュアとのほとんどは、静的な入出力を制御することを可能にするだけのものである。 例えば、それらは、任意の長さの一時的入力列を処理することはできない。 ファジィ有限状態オートマトン(FFA)は、その現在の状態が現在の入力と直前の状態に依存する動的プロセスをモデル化することができる。 決定的有限状態オートマトン(DF
    As)と違って、FFAsはある固有の状態ではなく、
    というよりも各々の状態がメンバーシップ関数によって規定されるいくつかの度合いに占められる。 本発明は、
    FFAを符号化し、与えられた任意の精度をもってファジィ正規言語を認識する増再帰ニューラルネットワークを構築するアルゴリズムに関する。 つまり、ファジィシステムはニューラルネットワークと組み合わされ、結果としてのファジィニューラルシステムは両パラダイムの有利性を示す。

    【0010】再帰状態ニューロンと線形出力ニューロンを結合することによって、再帰ネットワークは、DFA
    符号化に用いられるオリジナルアーキテクチャで構築される。 それらの結合の重みづけは、DFA状態のメンバーシップラベルの値にセットされる。 そのストリングメンバーシップ関数における計算の精度は、ネットワークサイズ、メンバーシップラベルμ >0であるDFA状態の数、ならびにその再帰ネットワークにおいて有限状態力学を符号化する際に用いられる重み強さHに依存する。 Hを大きくとることで、そのネットワークは、より正確にメンバーシップ関数を計算することができる。

    【0011】それ故、本発明の主な目的は、ファジィシステムをニューラルネットワークに組み合わせる規定(設備)を提供することにある。

    【0012】また、本発明の別の目的は、FFAsへ適用するためのDFAsを表現することのできるニューラルネットワークを修正することにある。

    【0013】さらに、本発明の目的は、FFAsを再帰ネットワークに符号化して構築されたネットワークが任意の精度をもって任意の長さのストリング(文字列)を生成するメンバーシップを割り当てることにある。

    【0014】加えて、本発明の目的は、以降の記述を添付の図と関連づけて読むことで、よりはっきり明らかになるであろう。

    【0015】

    【発明の実施の形態】まず、図面、特に、図1を参照して、典型的な知的(インテリジェント)制御に用いられるファジィニューラルネットワークが示されている。 特に、このようなネットワークは、下記の数7式によって示される言語的規則によって初期化される。

    【0016】

    【数7】

    ここで、A

    1 、A

    3 、およびC

    1はファジィ集合(セット)であり、x

    1 、x

    3 、およびy

    1はそれぞれ、言語的入力および出力である。

    【0017】このネットワークは、実数の入力変数(例えば、言語学的変数)を備える入力階層、入力値x をファジィ集合A へマッピングするファジィ化階層、規則(例えば、差動ソフトミン(softmin)動作)
    において全ての先行する状態(条件)の結合を計算する書き換え階層、与えられた規則に対して出力を計算する非ファジィ化階層、及びルールベース(規則ベース:例えば、重み付き合計)において全てのファジィ制御規則から推奨値を組み合わせる出力階層を有する。 このように、ファジィニューラルネットワークは、ファジィロジックの書き換え機能を有する。 ファジィ推論という用語は、ファジィニューラルネットワークの機能を記述するために用いられることがある。 ファジィロジック書き換えという用語は、ファジィニューラルネットワークの機能とファジィロジック推論とを区別するために用いられる。 このファジィロジック推論では、その目的が推論スキームA 1 ,A 2 ,…→B 1 ,B 2 ,…の助けをもってファジィ集合A 1 ,A 2 ,…の特徴からファジィ集合B
    1 ,B 2 ,…の特徴を得るためであり、推論スキームは1セットの規則によって支配される。 この規則は、多階層パーセプトロンのための標準学習アルゴリズムを用いており、そして、細かく調整される。

    【0018】言語学的規則の変数が再帰的になるような応用もある。 例えば、以下の数8式に示す規則がある。

    【0019】

    【数8】

    ここで、u(t−1)およびx(t−1)はそれぞれ、


    および入力変数および状態変数を表す。 状態変数x


    (t)の値は、入力u(t−1)と直前の状態x(t−


    1)とに依存する。 フィードフォワード型のニューラルネットワークは、再帰の深さが予め知られていない際、


    再帰的規則を表すための計算能力を備えていない。 再帰ニューラルネットワークは、無限期間に亘って情報を格納するための能力を備えており、これによって、再帰的言語学上の規則を表すため潜在的に有効である。

    【0020】規則的な言語は、チョムスカイ(Chom
    sky)ハイアラーキーにおいて正規言語の最小クラスを表す。 規則的な言語は、規則的な文法から生成される。

    【0021】規則的な文法Gは、4成分から成る文法(クワドループ)G=<S,N,T,P>として定義される、ここで、Sは開始符号、NおよびTは非終端符号および終端符号、Pは形式A→aまたはA→aBの生成物であって、A,B∈Nかつa∈Tである。

    【0022】Gによって生成される規則的な言語は、L
    (G)と表される。

    【0023】一つの決定的有限状態オートマトン(DF
    A) Mが各規則的な言語Lが関係しており、決定的有限状態オートマトン(DFA) Mは言語L(G)、例えば、L(G)=L(M)のためのアクセプターである。 DFA Mは、規則的な言語L(G)のメンバーである文字列(ステリング)のみを受け付ける。

    【0024】DFA Mは、5成分から成るものM=<
    Σ,Q,R,F,δ>として定義される。 ここで、集合Σ={a1,…,am}は言語Lのアルファベット、Q
    ={q1,…,qn}は状態の集合、R∈Qは初期状態、F⊆Qは受容(受け付け)集合、ならびにδ:Q×
    Σ→QはMにおける状態遷移を定義するものである。

    【0025】ストリングxがMによって読み込まれた後、受容状態が到達すると、ストリングxは、DFM
    Mに受け付けられ、それ故、規則的な言語L(M)のメンバーである。 または、DFA Mは、規則的な言語L
    (M)を生成する生成器であると考えることもできる。

    【0026】種々の方法が再帰的ニューラルネットワークにおいてDFAsを用いるため提案されてきた。 我々の好ましい方法は、以下の数9式に示す方程式に応じてそれらの現在の状態を更新する積算判別関数を備える離散時間、第2次の再帰的ニューラルネットワークにおいてDFAsを用いることにある。

    【0027】

    【数9】

    ここで、b

    は隠れ再帰的状態ニューロンS

    に関係するバイアスであり、I

    は符号a

    に対する入力ニューロンを示す。 数10式で示す結果は、状態遷移δ


    (q

    ,a

    )=a

    に直接的に対応する。 第2次の重みを備える再帰的ニューラルネットワークにおいて用いられるDFAは、米国特許出願番号08/400,73


    2号に記述されており、これは引用例によってここに組み入れられている。

    【0028】

    【数10】

    DFAsは、積算判別関数を備える離散時間、第2次の再帰的ニューラルネットワークで符号化でき、これによって、構築されたネットワークが同一の規則的な言語を受け付ける。 望ましい有限状態力学は、ほぼ直交的な内部DFA状態表記に導く値(+Hと−H)に全ての有効な重みの小さな部分集合をプログラムすることによってネットワーク中へ符号化される。 同様に、正確なストリング分類のため、ネットワーク出力ューロンS

    0の重みは、+Hまたは−Hにプログラムされる。 このことは、


    ネットワーク力学を支配する以下の数11式に導かれる。

    【0029】

    【数11】

    ここで、xはニューロンS

    への入力である。

    【0030】構築されたネットワークの上記積算ニューロン中には、ただ2種類の信号のみが存在する。 再帰状態ニューロンが現在のDFA状態に対応するときにのみ、再帰状態ニューロンは高い出力信号を持ち、その他の全ての再帰ニューロンは低い出力信号を持つ。 低出力信号および高出力信号の度合いにはそれぞれ上限及び下限境界が存在する。

    【0031】nの再帰状態ニューロンを備える構築されたニューラルネットワークにおいて、低出力信号は、関数の固定点(数12式)によって上方から制限される。
    この関数は数13式で示される。

    【0032】

    【数12】

    【0033】

    【数13】

    同様に、高出力信号も定量化することができる。

    【0034】任意の数の再帰状態ニューロンを備えるニューラルネットワークにおいて高出力信号は、関数の固定点(数14式)によって下方から制限される。 この関数は数15式で示される。

    【0035】

    【数14】

    【0036】

    【数15】

    DFAとそのDFAと等価なニューラルネットワークの使用によって規則的な言語を認識するためには、そのネットワークの内部DFA表現が、ストリングや任意の長さに対して十分な安定性を残していなければならない。


    0.5より大きい高出力信号を持ちかつ残り全ての再帰ニューロンが0.5より小さい低出力信号を持つ一つの再帰ニューロンが厳密に存在すると、第2次の再帰的ニューラルネットワークにおいてDFAの符号化は安定しているとされる。

    【0037】出力ニューロンS 0は、再帰的でないので、上記の定義に含まれず、このため、DFA符号化の安定性に影響がないことがわかる。

    【0038】高出力信号及び低出力信号それぞれの場合において、ニューロンの入力がある閾値を越える又はある閾値未満となることがなければ、そのネットワークの内部的DFAの表現は安定性している。 それらの二つの状態は、関数gΔ−およびgΔ+の固定点(数16式および数17式)上で定量的な境界に導く。

    【0039】

    【数16】

    【0040】

    【数17】

    内部的有限状態力学の安定性という主張は、次の定義を用いる。 定義:D

    ikが入力符号a

    kに対して状態q

    iへ遷移させる状態q

    jの数を表すとする。 さらに、D

    i


    max{D

    ik }(全ての入力符号に亘るq

    iへの遷移の最大数)ならびにD=max{D

    i }(全ての入力符号に亘るすべて状態への遷移の最大数)を定義する。 それから、ρ=D/nはδ({q

    j },a

    k )=q

    iとなるための全ての状態q

    jの最大比を表す。

    【0041】定理1:n個の状態とmの入力符号を有するいくつかのDFA Mに対して、DはMの全ての入力符号に亘るすべての状態への遷移の最大数を表し、かつρ=D/nであるとする。 すると、N+1の積算状態ニューロンとmの入力ニューロンとを有する再帰ニューラルネットワークは、Mから構築され、その結果、内部状態の表現は安定性している。 例えば、q iが現在のDF
    A状態であるときはS i >0.5であり、一方、Hの適当な選択に対して数18式で示す状態であると、S i
    0.5となる。

    【0042】

    【数18】

    上記の条件は、与えられたサイズのネットワークに対して安定的な有限状態力学を保証するHの大きさに絶対的に下限の境界を与える。 このように、それらは、最悪のケースを表し、例えば、与えられたニューラルネットワークの使用における有限状態力学は、大変大きなネットワークにおいてでさえ、Hのより小さい値に対して安定性するだろう。

    【0043】決定的有限状態オートマトンとファジィ有限状態オートマトンとは、状態遷移によって表現された共通の基礎構成を共有しているので、ファジイ有限状態オートマトンを用いるためのDFAsに対してネットワーク力学の安定性によるの結果を用いることができる。

    【0044】まず、再帰的ニューラルネットワークのために開発された統合方法をファジィオートマトンのクラスに対して定義することから始めよう。

    【0045】数19式に示すファジィ規則的言語は、数20式に示す4成分から成るものとして定義される。

    【0046】

    【数19】

    【0047】

    【数20】

    ここで、Sは開始符号、NおよびTは、それぞれ非終端符号および終端符号、Pは数21式または数22式で示す形式の結果である。

    【0048】

    【数21】

    【0049】

    【数22】

    ここで、A,B∈N、a∈T、および0≦θ≦1である。

    【0050】ストリングがある規則的言語に属するか又は属さないかのDFAsの場合と異なり、ファジィ言語のストリングは階層メンバーシップを有している。

    【0051】数23式に示す規則的なファジィ文法を与えられると、数24式で示す規則的な言語においてストリングx∈Tのメンバーシップ階層μ G (x)は、xの全ての派生物の最大値として定義される。

    【0052】

    【数23】

    【0053】

    【数24】

    ここで、xの特別な派生物の値は、数25式を用いた結果の最小の重みに等しい。

    【0054】

    【数25】

    これは、最大および最小演算子がそれぞれ積および合計演算子に置き換えられる確率的規則的な言語の定義に同様である。 ファジィ規則的な言語および確率的規則的な言語は共に、重みづけられた規則的な言語の例である。

    【0055】数26式で示すファジィ有限状態オートマトン(FFA)は、数27式で示す6成分から成るものとして定義される。

    【0056】

    【数26】

    【0057】

    【数27】

    ここでは、Σ、Q、およびq

    0はDFAsの場合と同様であり、Zは有限出力のアルファベット、数28式で示す記号はファジィ初期状態、δ:Σ×Q×[0,1]→


    Qはファジィ遷移マップ、ならびにω:Q→Zは出力マップである。

    【0058】

    【数28】

    本発明では、初期状態がファジィではなくかつωがFからZへの関数である制限タイプのオートマトンについて考えた。 ここで、Fは最終状態と呼ばれる非ファジィ部分集合である。 数29式に示す(FFA)の定義において述べたようなどのようなファジィオートマトンも、制限ファジィオートマトンに同等である。 FFAが遷移重みを1に制限することによって従来のDFAに縮小することに気付く。

    【0059】

    【数29】

    DFAsや規則的な文法の場合のように、FFAsとファジィ規則的な文法との間に対応が存在する。

    【0060】定理2:数30式に示すファジィ文法に対して、数32式のようなファジィオートマトン(数32
    式)が存在する。

    【0061】

    【数30】

    【0062】

    【数31】

    【0063】

    【数32】

    この結論は、FFAsのニューラルネットワーク使用(実行)に対して連続(積算および線形)判別関数でのみ使用できる。 以下の結果は、連続判別関数を有する再帰的ニューラルネットワークにおいてFFAsの符号化を大いに単純化する。

    【0064】定理3:数33式で示すファジィ規則的な文法が与えられ、数34式で示す言語のメンバーシップ関数μ:Σ * →[0,1]を計算する出力アルファベットZ⊆{θ:θは、積算重み}∪{0}を有する決定的有限状態オートマトン Mが存在するとする。

    【0065】

    【数33】

    【0066】

    【数34】

    この定理の中間結果は次のような結果である。 数35式に示す規則的なファジィ文法が与えられると、結果(積算結果)が数36式または数37式に示す形式を有する等価的な明白な文法Gが存在する。

    【0067】

    【数35】

    【0068】

    【数36】

    【0069】

    【数37】

    例えば、非終端符号N={A,B}、終端符号T=


    {0,1}、ならびに数38式に示す生成規則を有するファジィ規則的な文法を考えてみる。

    【0070】

    【数38】

    上記文法によって生成されるストリング受け付けるFF


    Aは、図2(a)に示されている。 生成規則に対応する遷移だけが示され、絶対的に、他の全ての遷移は拒絶廃棄の状態に達する。 同一のストリングメンバーシップを計算するFFAの決定的アクセプターは、図2(b)に示されている。 図2(a)において、重み付き状態遷移を有するファジィ有限状態オートマトンが示されている。 状態1は、オートマトンの開始状態で、受け付け状態が2重の円で描かれている。 受け付け状態に達することができるパスだけが示されている(廃棄状態への遷移は、全く描かれていない)。 図2(b)では、メンバーシップ関数ストリングを計算する対応する決定的有限状態オートマトンが示されている。 受け付け状態は、メンバーシップの階級でラベル付けされている。 留意すべきことは、DFAにおいて全ての遷移が重み付け1を有していることである。

    【0071】プログラムされたネットワーク力学の安定性に関する定理1の結果は、その状態がクリスプ(cr
    isp)、例えば、オートマトンの現在の状態が0または1であるような状態を持つ階層である有限状態オートマトンに当てはまる。 一方、FFAsは、曖昧さの異なる度合い(階級)を備えて、どのような与えられた時刻においても幾つかの状態となる。 そして、曖昧さは[0,1]間の実数によって特定される。

    【0072】定理3は、どのようなFFAも同一のメンバーシップ関数μ:Σ * →[0,1]を計算する決定的オートマトンにできる。 連続判別関数を有するμの計算をどのように使用(実行)するかを論証することが必要である。

    【0073】その目的のために、DFAsを符号化するために用いられるネットワークアーキテクチャは、再帰状態ニューロンを線形出力ニューロンに結合する付加重みで増大される。 図3に示す再帰ニューロンは、望ましい有限状態力学、例えば、クリスプ(crsip)状態間の遷移、を実行する。 任意の長さのストリングに対して有限状態力学を安定にすることは上述した。 再帰状態ニューロンを線形出力ニューロンに結合する重みは、F
    FAを同等のDFAへの変換後DFA状態に割り当てられたメンバーシップである。 第2次の再帰ニューラルネットワークにおいてFFAsを符号化するためのアルゴリズムが図4に示されている。

    【0074】ファジィオートマトンを実行するためのネットワークアーキテクチャが図3に示されている。 与えられたFFAが等価な決定的アクセプターに変換されているとすると、入力は、入力ニューロン12を通ってネットワーク10に供給される。 オートマトンアルファベットの符号とネットワーク入力ニューロンとの間の1対1マッピングがある(“単一の最新の”符号化) 。 ストリングは、時間ステップあたりの一符号をネットワークに与えられる。 各再帰状態ニューロン14の出力は、数1を用いるネットワークの現在の状態を計算するために積算判別関数16を通過するそれら全ての入力の重み付き合計から計算される。 次の時間ステップに対して、状態ニューロン14の現在の出力は、時間遅延Z -1 18を通してフィードバックされる。 この再帰的構造は、FF
    Aの有限状態力学を符号化する。 μ j >0を有するFF
    A状態q jに対応するS jによって表された全ての再帰状態ニューロン14は、0<μ j ≦1として表されるファジィメンバーシップ重み22を通して線形ネットワーク出力ニューロン20に結合される。 ネットワーク出力20は、合計が全ての再帰状態ニューロン14に亘って取られるところの数39式を用いてその出力を計算する。

    【0075】

    【数39】

    この構造は、ネットワーク出力ニューロン20によって合計される前のファジィメンバーシップウェイトに従属するストリングメンバーシップを計算する。 ネットワーク出力ニューロンの出力は、ファジィ有限状態オートマトンの出力である。 第2次再帰ニューラルネットワークにおいて、FFAsを符号化するアルゴリズムは図4に示されている。

    【0076】低出力信号および高出力信号上の上限および下限境界は、それぞれ上述した数13及び数14に関連して上述した。 μ iがDFA状態q iに割り当てられた階層(階級)メンバーシップを表すとしよう。 最悪の場合、このネットワークは、与えられたストリングに対して、数40式で示すファジィメンバーシップ関数を計算する。

    【0077】

    【数40】

    ここで、n

    accはμ

    i >0を有するDFA状態の数である。

    【0078】Hの値を増加させるために数41式および数42式がそれぞれ0および1に向かって収束するので、μ RNNはμ iに向かって収束する。 |μ RNN −μ i
    |がHを増加させることによって任意に小さくできることに気付く。

    【0079】

    【数41】

    【0080】

    【数42】

    シミュレーションにおいて、決定的アクセプターは次のように100の状態を有するアルファベット{0,1}


    に亘ってファジィ規則的な言語に対してランダムに生成される。 各DFA状態に対して、遷移が2つの入力符号の各々に対して他の状態にランダムに発生された。 各受け付けDFA状態q

    iはメンバーシップ0<μ

    i <1を割り当てられた。 全ての非受容状態q

    jに対して、μ

    j


    =0をセットする。 これらアクセプターは、100の再起状態ニューロン、2つの入力ニューロン(2つの入力符号0および1の各々に対して一つ)、および1つの線形出力ニューロンを有する再起的ネットワークに符号化された。 これらの動作は、そのメンバーシップが決定的アクセプターから決定される長さ100のランダムに発生された100のストリングに基づいて測定される。 図5のグラフは、全ての状態の1%、5%、20%、30


    %、50%、および100%がラベル0<μ

    i <1を有するDFAsに対して有限状態力学を符号化するために用いられる重み強さHの関数としてネットワーク出力の平均絶対誤差を示している。 当業者には、高強度Hの増加に伴い、誤差が指数的に減少していることがわかる。


    つまり、平均出力誤差を任意に小さくできることは、当業者には明らかであろう。 6つのDFAs全ての力学が任意の長さストリングに対して安定しているHの値は、


    ほぼ数43式で示される。

    【0081】

    【数43】

    本発明では、連続再起ニューラルネットワークにおいてファジィ有限状態オートマトンの決定論的符号化の好ましい方法について説明したが、請求項の範囲によって限定されている本発明の精神および広い原則から逸脱することなく変更および修正が可能であることは、当業者には明らかであろう。

    【図面の簡単な説明】

    【図1】ファジィニューラルネットワークを示す概略図である。

    【図2】その(a)および(b)は、対応するDFAへのFFAの変換を示す図である。

    【図3】ファジィ有限状態オートマトンのための再帰ネットワークアーキテクチァの概略図である。

    【図4】秒オーダ再起ニューラルネットワークにおいて任意のFFAsを符号化するためのアルゴリズムである。

    【図5】ネットワークの実行を示すグラフである。

    ─────────────────────────────────────────────────────

    【手続補正書】

    【提出日】平成8年9月27日

    【手続補正1】

    【補正対象書類名】明細書

    【補正対象項目名】0060

    【補正方法】変更

    【補正内容】

    【0060】定理2:数30式に示すファジィ文法に対して、数31式のようなファジィオートマトン(数32
    式)が存在する。

    フロントページの続き (72)発明者 カーベル ソーンバー アメリカ合衆国,ニュージャージー 07922,ベーカリーハイツ,マーシャー プレイス 23

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈