首页 / 专利库 / 人工智能 / 人工神经网络 / Linkage learning device for artificial neural circuit network

Linkage learning device for artificial neural circuit network

阅读:609发布:2022-03-22

专利汇可以提供Linkage learning device for artificial neural circuit network专利检索,专利查询,专利分析的服务。并且PURPOSE:To provide a device capable of learning the weight of the linkage of an artificial neural circuit network so as to properly remember even for a bias pattern in an associative memory. CONSTITUTION:The energy for a value of a learning pattern is calculated (109) and the learning quantity of the weight of the linkage is varied (110) in accordance with the difference between it and a target value (111). But, when the difference is small, learning is omitted. Consequently, the lower the energy of the pattern is, the more easily it is remembered in the associative memory. Thus, it is difficult to remember the pattern of high energy. But the pattern can be learned so as to take equal energy for every storage pattern by the piece of constitution so that even such a bias pattern as make difference in energy can properly be remembered.,下面是Linkage learning device for artificial neural circuit network专利的具体信息内容。

【特許請求の範囲】
  • 【請求項1】 複数のノードがリンクで結合されノードの活性値をリンクの重みに基づいて伝搬させて連想を行うための人工的神経回路網を備え、前記連想が適切に行われるよう前記リンクの重みを更新する人工的神経回路網のリンク学習装置において、 各ノードに対応する活性値を学習すべきパターンとして入力する入力手段と、 この入力手段により入力されたパターンの想起のされ易さの指標となるエネルギー値Eを計算するE計算手段と、 このE計算手段で計算されたエネルギー値Eと所定のエネルギー値Ethとの差に基づいてリンクの重みを更新させる度合いを決定する学習量決定手段と、 前記入力手段により入力されたパターンに基づき、前記学習量決定手段により決定された度合いに従って、リンクの重みを更新する更新手段とを具備したことを特徴とする人工的神経回路網のリンク学習装置。
  • 说明书全文

    【発明の詳細な説明】

    【0001】

    【産業上の利用分野】本発明は、連想メモリとして用いられる人工的神経回路網のリンク学習装置に関する。

    【0002】

    【従来の技術】コネクショニストモデルに基づく認識理解技術は、日本語ワープロの同音語選択や自然言語翻訳の訳語選択に適用できる。 このモデルでは、偏ったパターンで連想メモリを学習しなければならない。 しかし従来の連想メモリではランダムパターン(パターンをN個の0と1との列として表現すると、i番目の値とj(j
    ≠i)番目の値とが互いに独立に決まるようなパターンをランダムパターンという。 この場合パターンは集合として偏りのないパターンとなる)の学習にしか適していないので、コネクショニストモデルに基づく認識理解技術に従来型連想メモリを適用することは困難であった。
    以下これについて以下の手順で詳しく述べる。 1. コネクショニストモデルを用いたかな漢字変換の例 2. パターンとは何か 3. コネクショニストモデルにおけるパターンの特徴 4. 従来の実現方法とその問題点 5. 共分散行列に用いた連想メモリ 1. コネクショニストモデルを用いたかな漢字変換の例

    【0003】近年、コネクショニストモデルに基づく認識理解の研究が行なわれている(David L. Walts and J
    ordan B. Pollack. Massively parallel parsing: A st
    rongly interactive model of natural language inter
    pretation. Cognitive Science, Vol. 9, pp. 51-74, 1
    985, 田村他 Connectioninst modelを用いた自然言語処理システム。 情報処理学会,Vol. 28, No. 2,pp. 202
    -210, 1987)。 この手法では、シンボルをノードとし、
    シンボル間の関係をネットワークで表現し、ノードの活性値をネットワークを介して伝播させることにより、入情報の話題を把握し意味理解を行なう。 この技術は自然言語処理、音声・文字認識の分野に適用が可能である。 これを日本語ワープロのかな漢字変換に適用する研究が行なわれている(特願平1−157159号),鈴岡他 神経回路網の連想機能を用いたかな漢字変換方式−ニューロワープロへの展望。 情報処理学会第40回全国大会,Vol. 1C-3, pp. 105-106, 1990)。 ここでは、
    大量の実文書からネットワークを学習し、ユーザの入力情報をキーとしてノードの活性値を伝播させ、入力文書話題を把握する。 この話題の情報を用いてかな漢字変換の精度向上を目指す。 このかな漢字変換のメカニズムを以下により詳しく説明する。

    【0004】ワープロでかな漢字変換する場合には、読みを表すひらがな列を入力して表記を表すかな漢字混じり文字列を出力する。 これは、入力されたひらがな列の読みを持つかな漢字候補の中から、ユーザの意図にあったものを選び出すことである。 これを行なうのに、まず語の使用上の近さを表すネットワークを作成しておく(このネットワークでは、よく同時に用いられる二語に対応するノードの間には正の大きな値のリンクが張られている)。 そしてある語が選択されたならばその語に対応するノードの活性値を強制的に引き上げる。 活性値の上がったノードから活性値の伝播が行なわれ、現在の話題に関係する語に対応するノードの活性値が高まる。 活性値の伝播はノードに接続されているリンクを介して行われ、リンクの値が大きい程よく活性値が伝わるものとする。 従って、文章をワープロに入力していくと、現在入力中の文章の話題に関係深い語に対応するノードの活性値が高まるように活性値が伝播されるようになる。 そこで同音語の中で最も活性値が高いものが現在の話題に最も関係が深いと考え、それをかな漢字変換の第一候補とする。 例えば、図3のネットワークを用いてかな漢字変換の例を説明する。 「クロックの立ち上がりにおいてこの信号はプロセッサに取り込まれる」までが正しくかな漢字変換されているとする。 このとき「クロック」,
    「信号」,プロセッサ」といった語が選択されているので、それらに関連した計算機のハードウェア関係の語に対応するノードの活性値は高まる。 ここで「どうき」をかな漢字変換しようとした場合を考える。 「どうき」には「同期」,「動悸」,「動機」と同音語があるが、その中で計算機のハードウェア関係の語である「同期」に対応するノードの活性値が最も高まっているので、「同期」とかな漢字変換される。 ここで用いるネットワークは入力情報(入力語)から話題を想起するものであるので、機能として神経回路網の連想メモリに相当する。 2. パターンとは何か

    【0005】ワープロのかな漢字変換の場合に、この連想メモリを学習するために使われるパターンについて説明する(特願平1−317791号)。 単語が1からN
    の連続する整数の単語コードを持つとき(単語と単語コードとは一対一に対応する)、パターンはN個の0もしくは1の値を取るビットパターンで表現される。 このビットパターンは次の手順で決められる。 1. 文章を段落ごとに切り分ける。 2. 段落ごとに文章を単語に分解し、単語を単語コードに変換する。

    【0006】3. ある段落に含まれる単語の単語コードに対応するビットの値は1とし、その段落に含まれない単語の単語コードに対応するビットの値は0とする。 例えば、「今日は天気が良い。」という非常に短い段落があった場合には、まずその文章を単語に分解し、その段落に含まれる単語コードの集合を作る。 例えば、以下のように単語と単語コードとの対応があるとすると、 「今日」=10120 「は」 =123 「天気」=22378 「が」 =1034 「良い」=2876 次のような単語コード集合ができる。 {123,1034,2876,10120,2237
    8} 単語数N=100000とすると、このパターンは10
    0000ビットのパターンからなり、 {123,1034,2876,10120,2237
    8}番目のビットのみが1で、それ以外のビットは0であるようなパターンである。 この場合重複は考慮されない。 即ち、ある段落中に同じ単語が二度以上出現しても二度目以降の出現は無視されビットは1のままとなる。 このように定められた学習パターンはノイズや偏りを含むことが本質的に避けられない。 例えば、「昨日僕は本を買った。」という文章では、「昨日」と「本」とは直接意味的なつながりはないが、同じ段落(この場合には同じ文)に「昨日」と「本」とが現れているため、共に対応するビットが1となる。 このように、実際の文章からのパターンはノイズや偏りを含むことが避けられないため、従来の連想メモリをそのまま適用することはできない。

    【0007】まず、学習パターンの特徴について述べる。 次に、そのような特徴があるパターンを従来の連想メモリでは適切に連想することが困難であったことについて説明する。 3. コネクショニストモデルにおけるパターンの特徴

    【0008】言語知識を扱うネットワークの学習に、実際の文書を用いる場合、上述した手順で段落内に含まれる文章を単語(ネットワーク中のシンボルに相当)の集合に変換したものを、学習パターンとする。 これらのパターンには以下の特徴がある。 P1 ノイズを含まない厳密に正しい記憶パターン(ネットワーク中のシンボルを表すノードに1/0のビットを割り当てたもの)は存在しない。

    【0009】学習データとしてのパターン(実際の文章例)はたくさんあるが、それは殆どの場合ノイズ(話題と関係ない語)を含んでいる。 そこで大量のパターンを用いてノイズを避けた汎化パターンを学習しなければならない。 これは逆に言えば、厳密なパターンを記憶しておかなくてもよいということでもある。 P2 一つのパターンは全語種に対して非常に少ない語種しか含まない。

    【0010】日本語には数十万の語があり、一人使う語に限っても数千語があるが、一つの段落に含まれるのは数百語である。 このようなパターンはスパースなパターンと言われている。 P3 語の出現頻度差が大きい。

    【0011】「これ」という指示語は文章によらず頻繁に出現するが、「奥書」という専門語は特殊な場合にしか現れない。 この頻度差は入力文章の話題により顕著になることもあれば、話題によらず頻度の高い語,低い語もある。 P4 学習が追加的にできなければならない。

    【0012】コネクショニストモデルでは大量の学習パターン(実際の文章例)が次々に与えられる。 これらに即応するには新たな学習パターンを追加的に、すなわち容易に学習できなければならない。 P5 パターンの出現頻度に偏りがある。

    【0013】話題を明示できないため、全ての話題について均等にパターンを集めることはできない。 例えば、
    新聞記事からデータを集めれば、政治に関する文章を1
    00集め、科学技術に関する文章を10集めたことになる可能性がある。 このように話題によって出現頻度が異なるが、どのような話題がどのくらいの頻度で現れたかも知る術がない。 P6 パターン間の相関に偏りがある。

    【0014】一般に話題間は独立ではなく、どのような話題が密接に関係しているかは文章の状況によって異なる。 特に相関の程度にも話題によって偏りがあることに注意する必要がある。 例えば、「政治」と「科学技術」
    とはあまり相関がないが、「政治」と「経済」とはかなり強い相関がある。 4. 従来の実現方法とその問題点

    【0015】コネクショニストモデルに適した連想メモリとしては、多くの文章例から同時に良く出現する語群としての話題を調べ上げ、ある入力文章が与えられた時にその話題に相当する語群が提示できればよい。 神経回路網の連想メモリには、直交学習と相関学習とがある。
    直交学習はノイズのないパターンを必要とする上に追加学習にも不向きである。 このような連想メモリには、ノイズを許容し、ノイズを含んだ多くのパターンから正しいパターンを汎化によって獲得する能力が必要である。
    それには相関学習による連想メモリが適している。 相関学習ではネットワークとして用いる行列について、相関行列を用いた連想メモリと共分散行列を用いた連想メモリとがある。 しかし、相関行列を用いた連想メモリはスパースなパターンを記憶できない。 以下に従来型連想メモリの中で最も有望である共分散行列を用いた連想メモリについて述べる。 5. 共分散行列を用いた連想メモリ

    【0016】ランダムスパースなパターン(P2)を記憶するために、共分散行列用いた連想メモリが提案されている(S. Amari. Neural theory of association and
    concept-formation. Bio. Cybern, Vol. 26, pp. 185-1
    75, 1977, S. Amari. Characteristics of sparsely en
    coded associative memory. Neural Netwaorks, Vol.2,
    pp. 451-457, 1989, CJ Perez-Vicente. Finite-si
    ze capasity of sparse-coding models. Europhysics L
    etters, Vol. 10, No. 7, pp. 627-631, 1989)。 この連想メモリではNこのノードからランダム1つのノードを順次選び、(4)式に従ってその活性値を更新する。 活性値が変化するノードがなくなるまでこれを繰り返す。
    ここで関数fは閾値関数である。 このとき、(3)式のエネルギーEは計数kの符号が負(正)ならば単調減少(増加)することが保証される。

    【0017】

    【数1】

    【0018】以下、図面を参照しながら従来手法である共分散行列を用いた連想メモリのリンクの学習装置について説明する。 図4は連想メモリのリンクの学習装置の構成例を示す図、図5はこの装置の処理の流れを表すフロー図である。

    【0019】図4の学習装置は、ネットワークのリンクの重みと各ノードの活性確率とを学習する。 そのためにこの学習装置は、リンクの重み格納部46と活性確率格納部43とを持つ。 これらに格納されている値は、学習を開始する前に初期化指示部48からの指示により、0
    に初期化される。 その後、パターン提示部41において示された学習パターンについて、リンクの重み学習部4
    5は古いリンクの値をリンクの重み格納部46から取り出して、活性確率の情報も用いてリンクの値を更新し、
    その結果をリンクの重み格納部46に格納する。 同様に活性確率更新部42は提示されたパターンについて、その古い値を活性確率格納部43から取り出し、活性確率を更新した後にそれを活性確率格納部43に戻す。

    【0020】次にリンクの値の更新アルゴリズムを詳しく図5のフロー図を用いて説明する。 まず、501〜5
    08は初期化ルーチンで、リンクの値Wjiを9に初期化し、活性値の平均値a jを0に初期化する。 そして学習すべきパターンがある限り(509),510〜52
    2を繰り返す。 まず学習すべきパターンVを入力する(510)。 511〜518でWjiの値を(6)式に従って更新する。 ここでΔは、0<Δ<<1である。 但し、Wiiは0のままにするために、513によりWi
    iの値を変えないようにする。 519〜522では、活性値の平均値a jを更新する。 活性値の平均値の真の値はわからないので、520のようにa jの値を少しずつ修正しながら求める。 そして学習すべきパターンが尽きたならば(509)、リンクの値の配列Wと活性値の平均値aとをファイル等に保存し(523)、処理を終了させる。

    【0021】記憶パターンはリンクの値として学習されるので、P1は問題ない。 この連想メモリはランダムスパースなパターンを記憶するために考案されたものであるので、P2のようなスパースにエンコードされたパターンの記憶には適している。 またP3の問題はノードの活性値の活性確率a jの導入により解決されている。 さらに(6)式にあるように記憶パターンを追加的に学習できるので、P4も満たしている。

    【0022】しかし、この連想メモリはパターンの出現頻度が偏った場合(P5)には適していない。 なぜならば、良く現れるパターンのみを記憶する傾向にあるからである。 (6)式のリンク値を決める式からもわかるように、パターンが提示されるたびにそのパターンのためのリンク値(V j −a j )(V i −a i )が元のリンクの値Wjiに加算される。 これに良く出現するパターン程、よく学習が行なわれ、想起も良くなっていく。 しかし、出現頻度の低いパターンに対しては稀にしか学習しないため、正しい想起する確率は低い。

    【0023】また、この連想メモリはパターン間に相関に偏りがある場合(P6)にも適していない。 この連想メモリはパターン間に均質な相関がある場合(ランダムスパースなパターンはその一例)にのみ適しているのである。

    【0024】このことを以下に詳しく説明する。 パターンの出現頻度に偏りがある場合(P5)には、高頻度で出現するパターンしか記憶できないという問題がある。
    これはエネルギー曲面により説明できる。 学習パターンが提示される度に従来型方式でリンクの値を更新すると、図6. a(横軸はパターンを表し、各パターンに対応するエネルギー値をプロットした概念図である)のように出現頻度の高いパターンAの方が頻度の低いパターンBよりエネルギー値が低くなる(以下の説明ではエネルギーの係数kが負の定数であるとする。勿論kが正の定数としても同様に説明ができる)。 一般に連想メモリはエネルギーが低い状態にほど陥り易いので、エネルギー値が低い出現頻度の高いパターンしか想起できない。

    【0025】パターン間の相関に偏りがある場合(P
    6)の問題は二つある。 一つは、望ましいパターンではなく、相関の特に強い複数のパターンの中間のパターンを想起するという問題である。 しかし、この問題はあまり重要ではない。 なぜならば、パターン間の相関が弱ければこの問題は起こらないし、逆に強ければ中間のパターンを想起したとしても望ましいパターンとあまり違っていないからである。 もう一つは、相関のあまりないパターンを想起できないという問題である。 これもP5の場合と同様にエネルギー曲面で説明できる。 例えば、パターン1〜3があり、それらが全てのパターンが同じ頻度で出現した場合には、従来方式によりリンクの値を学習すると、図7. aのようなエネルギー曲面になる。 このため、パターン1と2との中間パターンの想起は容易となるが、パターン1及び2とあまり相関のないパターン3の想起は困難となる。

    【0026】以上まとめると、人工的神経回路網における連想は、エネルギー値Eを極小化するようにノード(人工的ニューロン)の活性値を更新(伝搬)していくことにより行われる。 このため一般にエネルギー値が低い状態に各ノードの活性値は落ち着く。 学習パターンがランダムパターンである場合には、それらの従来型のリンクの重みの決め方で作られた連想メモリにおけるエネルギー値はほぼ一定を取るため、各ノードの活性値は適切なパターンに落ち着く。 しかし偏ったパターンの場合には、従来型連想メモリにおけるエネルギー値にはパターンによって差が出るため、各ノードの活性値はエネルギー値の低いパターン(Aや1,2)にはなるが、それ以外の想起してほしいパターン(Bや3)にはなりにくい。

    【0027】

    【発明が解決しようとする課題】このように従来の連想メモリは、学習パターンを提示してリンクの重みを最適化する際、パターンの出現頻度やパターン間の相関に偏りがあると、適切な連想を行えるようなリンクの重み学習により獲得することができないとう問題があった。

    【0028】本発明はコネクショニストモデルに基く認識理解で現れるような偏ったパターンを想起するのに適した、即ち上記P1〜P6の問題を同時に解決することのできる人工的神経回路網のリンク学習装置を提供することにある。

    【0029】

    【課題を解決するための手段】本発明に係る人工的神経回路網のリンクを学習する装置は以下のように構成される。 即ち、複数のノードがリンクで結合されノードの活性値をリンクの重みに基づいて伝搬させて連想を行うための人工的神経回路網を備え、前記連想が適切に行われるよう前記リンクの重みを更新するものであって、各ノードに対応する活性値を学習すべきパターンとして入力する入力手段と、この入力手段により入力されたパターンの想起のされ易さの指標となるエネルギー値Eを計算するE計算手段と、このE計算手段で計算されたエネルギー値Eと所定のエネルギー値Ethとの差に基づいてリンクの重みを更新させる度合いを決定する学習量決定手段と、前記入力手段により入力されたパターンに基づき、前記学習量決定手段により決定された度合いに従って、リンクの重みを更新する更新手段とを具備するものである。

    【0030】尚、入力された各ノードに対応する活性値の複数パターン分の平均値に基づいて各ノードの活性確率を求め、上記更新手段においてこの活性確率をも考慮してリンクの重みを更新してもよい。

    【0031】ここで言うエネルギー値Eとは(3)式のように決定され、リンクの重みを更新させる度合い(学習量δ)は(2)式のように決定され、リンクの重みは(1)式のように学習される。

    【0032】

    【数2】

    【0033】

    【作用】本発明によれば、学習パターンがどのようなものであってもエネルギー値をほぼ一定にするようにリンクの値を学習する。 これにより偏ったパターンについても適切に想起できるようになる。 以下にこれについて詳しく説明する。

    【0034】本発明では、全ての記憶パターンのエネルギーが同じ値を持つように(図6.b,図7.b)、全ての記憶パターンにおいてエネルギー値を一定の負の値Ethとなるように学習を行なう。 このため、次のようなエネルギー値で重み付けをした学習をする。 まず学習を行なう前に、提示パターンのエネルギー値Eを求める。 その値が基準エネルギーEthよりも大きければ、
    その大きさに応じて強く学習するよう学習量δを決定する。 gはg(0)=0である、上下限のある単調増加関数である。 そしてδの値に応じて学習を行なう。

    【0035】これにより、不得意なパターンを積極的に学習するようになる。 なお、この学習則は現に提示されたパターンを覚えるのではなく忘れることもあることに注意されたい。 提示パターンのエネルギー値Ethよりも低くなった場合には、(E−Eth)は負の値となり、δも負数になる。 このような場合には、過学習が行なわれていると考えそのパターンを忘却するように学習が働く。

    【0036】

    【実施例】本発明の一実施例に係わる人工的神経回路網のリンク学習装置について以下の手順で説明する。 1. 一実施例についての概説 1.1 構成図の説明 1.2 アルゴリズムの説明 2. 実験 2.1 パターンの出現頻度に偏りがある場合 2.2 パターンの相関に偏りがある場合 2.3 学習の高速化についての実験 3. 応用例 3.1 ワープロのかな漢字変換技術に適用した例 3.2 自然言語翻訳における訳語選択に適用した例 1. 一実施例についての概説

    【0037】図面を参照して本発明の一実施例を説明する。 図1は連想メモリのリンクの学習装置の構成例を示す図、図2はこの装置の処理の流れを表すフロー図である。 1.1 構成図の説明 図1の学習装置は、図4の従来型の学習装置と比較して、エネルギー計算部109と学習量δ算出部110がある点が異なる。

    【0038】ネットワークのリンクの重みと各ノードの活性確率とを学習する。 そのためにこの学習装置は、リンクの重み格納部106と活性確率格納部103とを持つ。 これらに格納されている値は、学習を開始する前に初期化指示部108からの指示により、0に初期化される。 パターン提示部101において示された学習パターンについて、エネルギー計算部109においてエネルギー値Eを計算する。 さらにその値Eと基準エネルギー値記憶部111のEthとの差から学習量δを学習量δ算出部110において求める。 そして、リンクの重み学習部105は古いリンクの値をリンクの重み格納部106
    から取り出して、活性確率の情報も用いて学習量δ分だけリンクの値を更新し、その結果をリンクの重み格納部106に格納する。 同様に活性確率更新部42は提示されたパターンについて、その古い値を活性確率格納部1
    03から取り出し、活性確率を更新した後にそれを確率格納部103に戻す。 ここで学習したものについて、リンクの重みはリンクの重み取出し部107を介して、また活性確率については活性確率取出し部104を介して、値を取出す。

    【0039】尚、ここでは活性確率をパターンを提示する毎に更新するようにしたが、活性確率を予め定められた値(例えば0.5)に固定しておいても、本方式はうまく機能する。 これら取出された値の用い方については後述する。 1.2 アルゴリズムの説明

    【0040】図2は本発明の実施例方式を適用した連想メモリのリンク値の学習方式を示したフロー図である。
    図5と基本的に異なるのは、211〜213の追加である。 まず、201〜208は初期化ルーチンで、リンクのWjiを0に初期化し、活性値の平均値a jを0に初期化する。 そして学習すべきパターンがある限り(20
    9)、210〜235を繰り返す。 まず学習すべきパターンVを入力する(210)。 211〜221でWji
    の値を(1)式に従って更新する。 図5の従来技術ではWの更新量はΔで固定であったが、実施例方式では更新量δがエネルギー値によって変わる。 211で学習すべきパターンのエネルギー値Eを求める。 次に関数gを作用させて学習量δを計算する(212)。 もしそのδが0ならばリンクの値は変わらないので、214〜221
    の処理を省略する(213)。 また、Wiiは0のままにするために、216によりWiiの値を変えないようにする。 222〜225では、活性値の平均値a jを更新すると、活性値の平均値の真の値はわからないので、
    223のようにa jの値を少しずつ修正しながら求める。 そして学習すべきパターンが尽きたならば(20
    9)、リンクの値は変わらないので、リンクの値の配列Wと活性値の平均値aとをファイル等に保存し(42
    6)、処理を終了させる。

    【0041】ここで、上述したようにδが0の時には、
    リンクの値を更新する処理を省略できる。 このδの値は関数gの出力である。 この関数g(x)は、x=0のときに0を出力する上下限のある単調増加関数である。 ここで、g(x)はx=0のときのみ0を出力するとすると、x=0となる確率は非常に低いので、殆どの場合にδは非零となりリンクの値の更新処理を行わなければならない。 そこで、xの絶対値が0に近い場合にはg
    (x)の出力を0にすることにより、δが0となる確率が高くなる。 これによってリンクの更新処理を省略できる確率が高まり、学習速度の高速化を達成することができる。 2. 実験 この方法による想起能力の向上を調べる為に、P5,P
    6の条件下で実験を行った。 2.1 パターンの出現頻度に偏りがある場合の実験

    【0042】従来手法の中で最も有望である共分散行列を用いた連想メモリ(以下、従来型連想メモリと称する)と本発明方式による連想メモリとの性能を比較するために、パターンの出現頻度に偏りがある状況(P5)
    で実験した。 方法

    【0043】パラーメータとしては、学習回数,ノイズ,リンク密度がある。 学習回数とはリンクの値を学習するためのパターン提示回数である。 ノイズとは提示される学習パターン及び、テスト時に提示される初期パターンに含まれるノイズを意味する。 コネクショニストモデルでは、一つの段落といったある決まった量をデータとして与えるのが普通である。 そのため活性値が活性化しているノード数は与えられたデータ量に比例する。 従ってノイズを含んでいてもいなくとも、パターン中の活性化ノードの数は変わらないと考えるのが適切である。
    ここでノイズがn(0≦N<1)であることは、次のことを意味する。 活性値が1であるべきノードの活性値が確率nで0に反転しており、逆に活性値が0であるべきノードの活性値が確率pn/(1−p)で1に反転している。 このようにすると、ノイズを含んだパターンにおける活性ノードの比率の期待値は、

    【0044】

    【数3】

    となり、ノイズを含まない場合と同じになる。 また、ノイズを含まない記憶パターンとそれにノイズnを加えたパターンとの間のハミング距離(ハミング距離とは、二つのヘクトルの間で対応する要素の値が異なっているものの数である。要素数がNのとき、二つのベクトルが完全に一致していればハミング距離は0であり、すべての対応する要素の値が異なっていればハミング距離はNである。ハミング距離が小さいほど二つのベクトルは似ていると言える)の期待値は 2Npn である。 リンク密度とはネットワークのリンク数の完全結合時のリンク数との比である。 ノード数がNでリンク数がLであるならば、リンク密度1は1=L/N

    2

    で与えられる。 なお、リンク数を減らす場合にはリンクの値の小さいリンクから順に削除した。

    【0045】ノイズを含まない記憶パターンとしてN=
    1000要素(ノード)から成るM=100個のパターンをランダムに生成した。 但し、どのパターンも100
    0ノードのうち100ノードの活性値が1であるようにした(P2)。 このときノードの活性値の平均値pは0.1であった。

    【0046】学習パターンにはノイズを含まない記憶パターンにノイズnを学習時にランダムに与えた。 即ち有限個の学習パターン集合をあらかじめ用意しておくことはしなかった。 このためある程度ノイズがあるならば、
    毎回異なったパターンが学習パターンとして提示されることになる。 更に、i番目(1≦i≦0)のパターンの出現確率を2i/{M(M/1)}とした。 これにより最も出現しにくい1番目のパターンと最も出現しやすいM番目のパターンとでは、出現頻度に100倍の差があることになる。 関数gとしては次のものを用いた。 この関数のグラフを図8に示す。

    【0047】

    【数4】

    (3)式のkは−1/2とし、Eth=−1とした。

    【0048】評価方法としては、ノイズを加える前の記憶パターンと、それにノイズを加えたものを初期パターンとして想起されたパターンとの間のハミング距離を用いた。 一条件の実験のために5000回これを繰り返した。 学習時も想起時も提示パターンのノイズおよび出現確率は等しくした。 想起時に与えられるパターンも動的にランダム生成し、学習パターンとは異なるものとした。 尚、活性値が共にpである二つのランダムパターンの間のハミング距離の平均値は、2Np(1−p)である。 p=0.1,N=1000の時、この値は180である。 従って、想起結果として真のパターンとの間のハミング距離が180近くになれば、想起に完全に失敗したと考えられる。 学習回数,ノイズ,リンク数を変えた実験

    【0049】学習回数を50から50000に変化させた場合の両連想メモリの想起能力を図4に示す。 但し、
    ノイズn=0.0;0.4;0.5,リンク密度1=
    0.2とした。 学習回数が少ない場合には、両連想メモリの想起能力はほぼ同じであったが、学習回数がある程度多くなると本連想メモリの方が従来型連想メモリよりも想起能力が高くなった。

    【0050】リンク密度1を0.001から0.4に変化させた場合の両連想メモリの想起能力の図9に示す。
    但し、学習回数を10000,ノイズn=0.0,0.
    4,0.5とした。 リンク密度の増加と共に両連想メモリとも想起能力が高まったが、本連想メモリが常に従来型連想メモリより優れていた。

    【0051】また、図9,10からわかるようにこの想起実験では、学習回数10000回、リンク密度0.2
    で十分であることが分かった。 そこで以降の実験ではこのパラメータを用いた。

    【0052】ノイズnを0から0.8に変化させた割合の両連想メモリの想起能力を図11に示す。 この場合には本連想メモリが常に従来型連想メモリより優れていた。 従来型連想メモリでは頻度の低いパターンの記憶ができないために、ノイズが0であっても完全な想起をすることができなかった。 これに対して本連想メモリでは提示パターンのノイズが小さくなればそれに従って想起結果も向上した。 この理由については後で述べる。 ノイズを含まない記憶パターンとのハミング距離が初期提示パターン(図11の破線)よりも想起によって得られたパターンの方が向上していなければ想起の意味はない。
    従来型連想メモリはノイズn=0.25〜0.6の範囲でのみ有効であったが、本連想メモリはノイズn=0.
    0〜0.6の範囲で有効であった。 本方式の特長

    【0053】学習時の提示頻度の違いがリンクの形成にどのような影響を与えるかを調べるために、学習時のパターン提示頻度とそのノイズを含まない記憶パターンにおけるエネルギー値との関係を調べた(図12)。 ここでの考察では、学習回数10000,リンク密度1=
    0.2の場合についてであるが、他の場合にも同様のことが言えた。

    【0054】提示頻度の高いパターン程、またノイズが小さい程、エネルギー値も低くなった。 これはノイズが大きいとリンクの値は様々なノイズを含んだ重みベクトルの和になるので、互いにある程度相殺しあってエネルギー値を高くしているからであると考えられる。

    【0055】本連想メモリの場合には、ノイズnが0.
    5以下では提示パターンの頻度に係わらずエネルギー値がほぼ一定になっていた(図13)。 ノイズnが0.6
    になると従来型連想メモリのように提示頻度に従ってエネルギーが低くなった。 これは、ノイズn=0.6以上では両者の連想メモリの性能の差はないという図11の結果と符合している。 なお、従来型連想メモリではノイズが大きい程エネルギー値が高かったが、本連想メモリではこれと逆になっていった。 これは本連想メモリでは十分学習したと思われるパターンについては更に学習をしないため、そのようなパターンのためにリンクの値が更新されないので、エネルギーが低くなることがない。
    このことを示すために、提示頻度と学習量との関係を図14に示す。 ここで縦軸は一連の学習における学習総量(即ち(6)式のδの和)である。 図から明らかなようにノイズnが0.5以下の場合には、提示パターンの頻度とは無関係に学習量が一定である。 しかし、ノイズn
    が0.6以上になると共分散行列を用いた連想メモリの場合と同様に提示パターンの頻度に応じて学習量が増加する。 これは(6)式でδを定数に固定したことを相当し、本連想メモリが従来型連想メモリと等しくなっていることが確認できる。

    【0056】ノイズn=0.4のときの学習時のパターンの提示頻度と想起の良さとの関係を図15に示す。 従来型の連想メモリでは提示頻度が0.013以上でないと適切な想起ができなかったが、本連想メモリでは提示頻度が0.003程度でも適切な想起ができた。 このように本連想メモリの方が提示頻度に偏りがある場合でも良い想起ができた。

    【0057】学習回数が2000回と20000回とのときの想起能力の関係について調べてみた。 いずれの連想メモリにおいても学習回数を増やすことにより想起能力は向上したが、本連想メモリの方が劇的に向上した。
    本連想メモリでは提示頻度が0.001程度でも学習の進行と共に想起能力は向上したが、従来型連想メモリでは、提示頻度が0.007以下の場合には学習回数を増やしても想起能力は向上しなかった。

    【0058】リンク密度は0.2と0.002とに変えて想起能力の違を調べた。 リンク密度を下げるとリンクの値の小さい方から順に削除される。 このとき従来型連想メモリでは出現頻度の低いパターンのリンクから順に削除されるので、学習時の提示頻度が低いものから順に想起能力が低下した。 これに対して本連想メモリでは均一にリンクが削除されるので、学習時の提示頻度に関係なく全体的に想起能力が低下した。 2.2 パターンの相関に偏りがある場合の実験 従来型連想メモリと本連想メモリとについて、パターンの相関に偏りがある場合(P6)の実験を行なった。 方法

    【0059】この実験の場合にも予備実験を行ない、パタメータとして学習回数を10000回,リンク密度1
    =0.2として十分であることを確認し、そのパラメータを用いた。 ノイズnを0〜0.8の範囲で変化させて実験を行なった。

    【0060】ノイズを含まない記憶パターンとして前回の実験と同様にN=1000要素(ノード)から成るM
    =100個のパターンについて実験した。 どのパターンも1000ノードのうち100ノードの出力値1であるようにした。 i番目(1≦i≦75)の75パターンはランダムに生成し、j番目(76≦j≦100)のパターンは、(j−25)番目のパターンとハミング距離が20離れたランダムに生成したパターンとした。 つまり、1番から50番までのパターンは独立なパターンであるが51番から100番までのパターンは25組の相関のあるパターンとした。 学習パターンも前回の実験と同様にノイズを加えた。 また今回は学習時も評価時もパターンの提示頻度を等しくした。 ノイズを変えた実験

    【0061】ノイズnを0〜0.8に変化させた場合の想起能力を図16に示す。 この図では、両連想メモリついての相関のあるパターンとないパターンとを分けて想起能力を示している。

    【0062】相関のあるパターンに対する想起能力はいずれの場合もほぼ同じであった。 この場合ノイズが全くない場合でも想起パターンとそれからノイズを除いたパターンとの間のハミング距離は10程度であった。 これは、51〜100番のパターンについてはハミング距離が20離れたところにノイズを含まないパターンがあるので、その中間のパターン(真のパターンとハミング距離で10だけ離れている)が記憶されているためである。

    【0063】独立なパターンに対しては両連想メモリの性能は全く異なった。 従来型連想メモリではノイズ量に無関係に初期提示パターンよりもハミング距離の点で悪い結果を得た。 これに対して本連想メモリでは良好な結果を得た。 ノイズnが0.5以下では、51〜100番のパターンと同等の性能を得た。 この場合ノイズが0の場合にハミング距離も0となっているのは、近くに強い相関のあるパターンがないため、干渉が起こらないからである。

    【0064】この現象をノイズを含まない記憶パターンにおけるエネルギー値という観点から説明する。 従来型の連想メモリにおける相関のあるパターンとないパターンの平均エネルギー値の図を図17に示す。 図からわかるように相関のないパターンのエネルギー値は、相関のあるパターンのエネルギー値の約半分である。 このため相関のないエネルギー値はノイズに埋もれ易く、想起することが困難であることがわかる。 同様に本連想メモリのエネルギー値を図18に示す。 ノイズnが0.5以下では相関があるパターンもないパターンもほぼ等しいエネルギー値を取り、一方のパターンを特に想起しやすいということはない。 ノイズnが0.5以上で共にエネルギー値が上昇しているのは、パターンが急速に記憶できなくなっていることを表している。 ノイズn=0.8ではエネルギー値は共に非常に高くなり、もはやノイズを含まないパターン付近で極小値を取り得なくなっていることがわかる。 2.3 学習の高速化についての実験 本実施例において、リンクの値の更新処理を省略すると、どの程度処理が高速化できるかを示す実験を行った。

    【0065】学習時間(学習回数ではない)について両連想メモリを比較する。 本連想メモリでは学習時に提示パターンのエネルギー値を求め、それが零でなければ実際にリンクの値を更新する。 ここで最も計算コストの高い浮動小数点の乗算の計算量で速度を考える。 リンク一本当たり、エネルギー値を更新するのに2回の乗算が必要であり、リンクの値を更新するのに3回の乗算が必要である。 従って、リンクの値を更新する(更新しない)
    場合には、本連想メモリの学習則ではリンク当たり5回(2回)の乗算が必要である。 これに対して、従来型の連想メモリの学習則では常にリンク当たり3回の乗算が必要である。 リンクの値を更新しないのはδ=0であるときである。 本実験では(7)式の関数gを用いているので、学習パターンのエネルギー値Eが目標エネルギー値Ethに近い場合には学習を行わない(|E−Eth
    |が一定値以下では学習しない)。 本実験の場合のリンク当たりの乗算回数のグラフを図19に示す。 学習回数が多い程、またノイズ量が少ない程、本連想メモリの学習装置の方が従来型の学習装置よりも計算量が少なくて済むことが図からわかる。 3. 応用例 3.1 ワープロのかな漢字変換技術に適用した例

    【0066】従来技術の項で述べたコネクショニストモデルを用いたかな漢字変換方式で用いる連想メモリのリンクの値を、ユーザが作成した文章(同音語選択が終了した文章)から、学習する方法について説明する。 この場合以下の手順に従って学習を行う。 1. ユーザの文章を段落に分ける。 2. 各段落について従来技術の2で述べたように、パターンを作る。 3. 上記でできたパターンを学習パターンとして、それぞれ本学習装置にてリンクの値を学習する。 このようにして、リンクのW jiとノードの活性確率a j
    とが求まる。

    【0067】次にかな漢字変換を行う手順について説明する。 初期状態として、ノードの活性値V j =a jとする。 そして、図1のリンクの重み取出部107、活性確率取出部104を介して、本リンク学習装置からかな漢字変換装置にリンクの値と活性確率とをロードしておく。 かな漢字変換時にシステムが提示した単語コードがjである変換候補をユーザが選択キーを押すことにより受理(次候補キーを押すことにより拒否)した時には、
    (4)式で閾値I jと小さな(大きな)値としてノードjの活性値V jを大きく(小さく)する。 この後、
    (4)式に従って活性値が変更するが、ここで本学習装置で求めたリンクの値W jiと活性確率a jとが用いられる。 活性値の更新により活性値が伝播する(詳しくは従来技術の1.コネクショニストモデルを用いたかな漢字変換の例を参照)。 そして、かな漢字変換する場合には同音語の中で最も大きな活性値Vを対応するノードに持つ語が、現在の話題に最も近いと考えて第一候補として選択される。 3.2 自然言語翻訳における訳語選択に適用した例 第一言語(入力言語)から第二言語(出力言語)へ翻訳する場合に、言語Aの単語の曖昧さを解消することが問題となる。 例えば、 "The boys hasten to the playground with bats, ball
    s, and gloves."という英文には次のような多義語が含まれており、 bat …野球のバット/動物のこおもり ball …野球のボール/舞踏会 glove …野球のグローブ/手袋 文法および品詞を解析しただけでは、日本語に適切に翻訳できない。そこで、コネクショニストモデルによる認識理解技術を用いて訳語選択を行う。

    【0068】まず、第二言語(ここの説明では日本語)
    における語もしくは句の意味素の近さを表現する図20
    のようなネットワークを作成しておく。 図20では関係の近いものの間にはそれぞれ近さに応じて異なる正の値のリンクが張られている。 逆に関係が近くないものの間には負の値のリンクが張られているが、図では省略してある。

    【0069】このネットワークを作成するのに、リンク学習装置を用いる。 すなわちかな漢字変換技術への応用で述べたように、第二言語の文例からパターンを段落ごとに取り出し、それらのパターンについてネットワークのリンクの値を学習する。

    【0070】次に訳語選択をする場合に、上記で求まったリンクの値W jiと活性確率a jで定められる人工的神経回路網を用いる。 まず、翻訳装置に、図1のリンクの重み取出部107、活性確率取出部104を介して、リンクの値と活性確率とをロードする。 そして、各ノードの活性値V jの初期値をa jとする。 ある文章が正しく翻訳できた場合には、その翻訳文中に現れる語に対応するノードの閾値を下げて、そのノードの活性値を高める。 そして、(4)式に従って各ノードの活性値を更新していく。 第一言語のある語を第二言語に翻訳する場合に、文法的に不適切なものを除去した後にも、その語に対応する第二言語の語が複数ある場合には、それらの語の中で対応するノードの活性値Vが最も高い語を、現在の話題に最も関係する語であると考えそれを選択する。

    【0071】

    【発明の効果】以上に説明したように、本発明によれば、コネクショニストモデルに基づく認識理解で、パターンの出現頻度が偏っていたり、パターンの相関が偏っていたりする場合にも適切に想起ができるようなリンク重みを持った人工的神経回路網を作成することができる。

    【図面の簡単な説明】

    【図1】 本発明の一実施例に係わる人工的神経回路網のリンクの学習装置の構成例を示す図。

    【図2】 本発明の一実施例に係わる人工的神経回路網のリンクの学習アルゴリズムを示すフロー図。

    【図3】 連想メモリを用いたかな漢字変換方式の説明図。

    【図4】 人工的神経回路網の従来のリンクの学習装置の構成例を示す図。

    【図5】 人工的神経回路網の従来のリンクの学習アルゴリズムを示すフロー図。

    【図6】 パターンの提示頻度に偏りのある場合のエネルギー局面の模式図。

    【図7】 パターンの相関に偏りがある場合のエネルギー局面の模式図。

    【図8】 関数gの性質を表す図。

    【図9】 学習回数の想起能力との関係を表す図。

    【図10】 リンク密度と想起能力との関係を表す図。

    【図11】 ノイズと想起能力との関係を表す図。

    【図12】 従来型連想メモリにける提示頻度とハミング距離との関係を表す図。

    【図13】 本実施例方式による連想メモリにおける提示頻度とハミング距離との関係を表す図。

    【図14】 本実施例による連想メモリにおける提示頻度と学習量との関係を表す図。

    【図15】 提示頻度と想起能力との関係を表す図。

    【図16】 パターンの相関の有無と想起能力との関係を示す図。

    【図17】 従来型連想メモリにおけるパターンの相関の有無とエネルギー値との関係を示す図。

    【図18】 本実施例方式による連想メモリにおけるパターンの相関の有無とエネルギー値との関係を示す図。

    【図19】 学習回数と乗算回数との関係を示す図。

    【図20】 本発明を自然言語翻訳に適用した例を示す図。

    【符号の説明】

    101…パターン提示部、 102…活性確率更新部、103…活性確率格納部、 104…活性確率取出部、105…リンクの重み学習部、106…リンクの重み格納部、107…リンクの重み取出部、108…初期化指示部、109…エネルギー計算部、 110…学習量δ算出部、111…基準エネルギー値記憶部

    ─────────────────────────────────────────────────────

    【手続補正書】

    【提出日】平成4年10月2日

    【手続補正1】

    【補正対象書類名】明細書

    【補正対象項目名】0032

    【補正方法】変更

    【補正内容】

    【0032】

    【数2】

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈