首页 / 专利库 / 人工智能 / 人工神经网络 / 前馈神经网络 / 多层感知器 / Method for accelerating convergence of back propagation algorithm to be applied for providing learning process at multilayer perceptron type neural circuit network

Method for accelerating convergence of back propagation algorithm to be applied for providing learning process at multilayer perceptron type neural circuit network

阅读:982发布:2021-01-15

专利汇可以提供Method for accelerating convergence of back propagation algorithm to be applied for providing learning process at multilayer perceptron type neural circuit network专利检索,专利查询,专利分析的服务。并且PURPOSE: To provide a method for accelerating convergence of back propagation algorithm to be applied for providing learning process at multilayer perceptron type neural circuit network for recognizing the cluster of samples, for example.
CONSTITUTION: This method is provided with a 1st stage based on a basic conception for progressively increasing the learning ability of a circuit network by progressively adding new samples recognized by the multilayer perceptron type neural circuit network to the start cluster of learning samples, 2nd stage based on a conception for progressively increasing the learning ability of the circuit network by progressively adding samples not recognized before, and 3rd stage based on a conception for progressively increasing the learning ability of the circuit network through progressive collapsions in the meaning of assimilation between the recognized sample and the non-recognized sample and through the following presentation of them to the circuit network.
COPYRIGHT: (C)1994,JPO,下面是Method for accelerating convergence of back propagation algorithm to be applied for providing learning process at multilayer perceptron type neural circuit network专利的具体信息内容。

【特許請求の範囲】
  • 【請求項1】 サンプルパターンの集合を認識するための多層パーセプトロン形神経状回路網の学習プロセスを実現するために適用されるバックプロパゲーション・アルゴリズムの収束の加速方法であって、初期の学習パターン集合に対して、前記回路網により認識された新しいパターンを累進的に追加することによって該回路網の学習能力を累進的に増大させる第1段階と、前に認識されなかったパターンを累進的に追加することによって該回路網の学習能力を累進的に増大させる第2段階と、認識されたパターンと認識されなかったパターンとの間の同化の意味における累進的コラプションおよび該回路網に対するそれらの後刻の提示によって該回路網の学習能力を累進的に増大させる第3段階と、を含む、神経状回路網の学習プロセスの加速方法。
  • 说明书全文

    【発明の詳細な説明】

    【0001】

    【産業上の利用分野】本発明は、一般的には、いわゆる神経状回路網、すなわち動物または人の脳に類似するように構成され、また動作的に組織された電子回路網に関する。

    【0002】

    【従来の技術】周知のように、いったん構成されたそのような回路網は、最高準の、まだプログラムされていないコンピュータとして考えられうるが、その意味は、
    それらは、何らかの機能を行なうためには、まずそれを行なうための訓練をなされるべきであるからである。 例えば、もし神経状回路が、最高水準のコンピュータに対して神経状回路網がその優越性を示す代表的な応用分野の1つである文字または一般的にはパターンまたは対象物の認識のための装置に使用される場合には、それはまず、文字、形状、または対象物を認識するための訓練を受けなくてはならない。 この段階は、「学習」段階として定義される。

    【0003】実際には、神経状回路網がその基本成分として「ニューロン」および「シナプス」を有すること、
    および「シナプス」が「重み」を特性とすること、を考慮して、学習段階は、回路網が文字、パターン、または対象物を認識し、それによってそれが所望の1つに一致しているという正確な応答を生じるように、回路網の全てのシナプスに適切な「重み」を与えることとなる。

    【0004】多層パーセプトロン神経状回路網においては、学習段階は通常バックプロパゲーション・アルゴリズムによって実現される。 反復プロシージャが学習コンピュータの助けによって取扱われ、かつ行なわれて、該プロシージャ中に、回路網に対し、認識されえなくてはならない文字、形状、または対象物のパターンについての数が示される。 神経状回路網が生じる応答のみでなく、やはり得ることが所望される正確な応答もまた、そのコンピュータへ供給される。 学習反復プロシージャの目的は、後の近似により、学習配置集合を作っている単一配置に対応して少しずつ、所望の出(目標)配置、
    すなわち正確な応答、と、回路網が供給する配置と、の間の差を(理論的極限において)ゼロにするか、または最小にするシナプスの重みの配置に到達することである。 差のこの最小化は、配置の「収束」という用語で知られている。

    【0005】周知のように、認識プロセスの効率は、学習段階において回路網に与えられるモデルまたはサンプル(「パターン」)の数による。 しかし、収束の達成に必要な反復の回数は、サンプル数の増大に伴ってかなり増大し、たとえ極めて強力な計算機が使用されたとしても、極めて長いシミュレーション時間を要するほどに大きくなる(時々100,000回に達する)。

    【0006】反復回数のこのような増大を生ぜしめるもう1つ問題は、いわゆる「耐性」の問題、すなわち同一出願人による先行特許出願の教示によるこの問題に対するEPROMメモリセルの再プログラミングの最大数に関する問題である。

    【0007】しかし、この問題は、学習プロセスの加速により、またバックプロパゲーション・アルゴリズムの収束を実現するのに必要な反復回数の減少によって処理される。 この目的のためにいくつかの教示が提案された。

    【0008】しかし、そのような技術の検討に進む前に、バックプロパゲーション・アルゴリズムについて概略を考察する方がよいと思われる。

    【0009】バックプロパゲーション・アルゴリズムにおいては、重みは一般にランダム値において初期化される。 入力ベクトルI pが与えられると、出力ベクトルO
    pが得られる。 このベクトルは、所望の応答T pに対応するベクトルと比較され、補正が計算されて、出力(o
    ut)層のニューロンのシナプスの重みに作用せしめられる。

    【0010】この目的のために、量

    【数1】

    が計算される。 O

    p,out,j (1−O

    p,out,j )は活動化(シグモイド)関数の導関数である。

    【0011】数1において、第1インデックスはサンプルまたは「パターン」(p)に、第2インデックスは層(out)に、第3インデックスはニューロン(j)に関する。

    【0012】他の層に対しては、関係

    【数2】

    が用いられる。 S

    kはk番目の層のニューロン数であり、W

    (k+1),ijは、(k+1)番目の層のi番目のニューロンがj番目の入力をフィルタする重みである。

    【0013】いったん全てのδが知られれば、重みに作用せしめられるべき補正

    【数3】

    を計算することができる。 ηおよびαは定数であり、Δ


    kij

    *は前の反復により得られたものである。

    【0014】収束条件は、全ての出力および全てのサンプルまたは「パターン」に対し、

    【数4】

    であることである。 ただし、εは適宜に選択された値である。

    【0015】必要な反復回数を最小化するために、Vo
    glは、それぞれのサンプルの提示(「パターンによる学習」)すなわち「サンプル学習」)の後にではなく、
    全学習用集合の提示(「エポックによる学習」すなわち「集合学習」)の後に、それぞれの反復に関係のあるシナプスの重みの更新を行なうことを示唆した。 彼はまた、アルゴリズムの収束が、前の反復の結果を考慮して各回ごとにパラメータηおよびαをもし更新すれば、かなり改善されることを示した。

    【0016】他の著者達は、最小化されるべき関数の局部的最小を消去する問題に関心を持っていたが、これは学習プロセスの可能な「飽和」の危険を制限するためであった。

    【0017】

    【発明が解決しようとする課題】本発明の目的は、上述の困難を有せず、極めて多様なサンプル集合に対してもバックプロパゲーション・アルゴリズムの収束を速やかに達成しうる学習プロセスを提案することである。

    【0018】

    【課題を解決するための手段】ここに提案されるプロセスは、バックプロパゲーション・アルゴリズムをさらに改訂したものではなく、学習サンプルまたはパターンを神経状回路に提示する反復技術に基づいて、上述のアルゴリズムの適用のためのある独創的な判断基準を確立する。

    【0019】前述の目的は、本発明によって達成され、
    本発明は基礎的実施例において、基本的にはサンプルの集合を認識するための多層パーセプトロン形神経状回路網の学習プロセスを実現するために適用されるバックプロパゲーション・アルゴリズムの収束の加速方法を提供するものであり、該方法は、初期の学習サンプル集合に対して、前記回路網により認識された新しいサンプルを累進的に追加することによって該回路網の学習能力を累進的に増大させる第1段階と、前に認識されなかったサンプルを累進的に追加することによって該回路網の学習能力を累進的に増大させる第2段階と、認識されたサンプルと認識されなかったサンプルとの間の同化(ass
    imilation)の意味において累進的にコラプション(corruption)を行ない、かつ後に該回路網に対してそれらを提示することによって該回路網の学習能力を累進的に増大させる第3段階と、を含む。

    【0020】本発明のその他の特徴および利点は、実施例が限定的な意味のものとしてではなく単なる例として示されている添付図面を参照しつつ行なわれる以下の開示によって明らかにされる。

    【0021】

    【実施例】以下、添付図面を参照しつつ、本プロセスを詳細に開示する。 第1段階 (図1) 学習集合を形成する文字または配置または対象物の集合から、初期学習集合を形成するできるだけ統計的に意味のある多数の「パターン」が抽出される。 この部分集合は、できるだけ多数のものから成り、適度の時間内に収束に達する(最大で数千回の動作)必要性と両立しうるものでなくてはならない。 次に、学習動作が行なわれ、
    次に全体集合に対し認識動作が行なわれる。 もし、初期部分集合のほかに新しい「パターン」が認識されれば、
    これらの新たに認識された「パターン」は、前に認識された「パターン」の部分集合に追加される。 次に、全体集合に対して学習および認識の新しいサイクルが行なわれ、回路網によって認識された「パターン」の数の増加が得られなくなるまで再反復が行なわれる。

    【0022】実際には、認識された「パターン」を追加することにより、学習および認識の能力が増大するか否かがチェックされる。 新しく認識された「パターン」が発見されない時は、第II段階へ進む。

    【0023】 第2段階 (図2) 前の段階の終りに回路網により認識されなかった「パターン」が、一時に1つずつ、それぞれの時に学習動作を行なうことによって現在の学習部分集合に追加される。
    もし、収束条件が制限された反復回数、例えば100
    回、以内に達成されれば、追加された「パターン」は現在の学習部分集合に属することが確認され、そうでない場合は「パターン」はしばらくわきへ置かれ、プロセスは新しい「パターン」について繰返される。

    【0024】図2からわかるように、収束が起こり、従って追加された「パターン」が現在の学習部分集合に属することが確認された時には、第1段階が繰返される。
    すなわち、全体集合に対しての認識動作、次に他の認識された「パターン」の追加のための動作、従って新しい学習動作、が行なわれる。

    【0025】この段階は、第2段階の終りにおける全ての認識されなかった「パターン」に対して反復して行なわれるので、もし認識されなかった「パターン」がもはや存在しなければ、学習プロセスは終了したものと考えられうる。

    【0026】もし、逆に、認識されなかった「パターン」がまだ存在すれば、第3段階へ進むことになる。

    【0027】 第3段階 (図3) 第3段階は、2つの相異なるモードによって行なわれ、
    これらの双方は、「コラプション」、すなわち文字、配置、または対象物の画像の少数の画素の改変、の概念に基づいている。

    【0028】図3に示されている第1実行モードにおいては、第1および第2段階の終りにおいて認識されなくなる全ての「パターン」を分離した後、それらの「パターン」をして一時に1つずつ反復するコラプションを受けしめる。 特に、その「パターン」のすでに認識された「パターン」に対する同化の意味においてその「パターン」をコラプションして、それを現在の学習集合に追加し、従って学習動作を実行する。 次に、コラプションされなかった「パターン」を認識するための動作が行なわれ、もしそのコラプションされなかった「パターン」が再び認識されなければ、既にコラプションされた「パターン」をして上述と同じ意味においてもう一度コラプションを受けしめ、同様に進んで、追加、学習、および認識動作を行ない、後のコラプションを再反復することにより、そのような初め認識されなかった「パターン」が最後には反対に認識されるようにする。 その時点において、準備された「パターン」は認識された「パターン」
    の部分集合に追加され、学習動作が行なわれる。 このようにして、全ての残された認識されていない「パターン」へ進む。

    【0029】第2の(まだ説明されていない)実行モードにおいては、初期学習集合を形成する「パターン」
    は、前の段階によってわきに置かれた認識されなかった「パターン」に対するそれらの同化の意味において、徐々にコラプションを受ける。 それぞれのコラプションにおいて、学習プロセスが繰返され、数十回以内の反復により収束が得られる。 回路網が、前に拒否された「パターン」を認識しうるようになるまで、このようなプロシージャが繰返される。

    【0030】この場合にも、第3段階において既にそうであったように、それぞれの反復の終りに認識されたはずの新しい「パターン」は、現在の学習集合に追加される。

    【0031】ここに開示されたプロセスは、第1層上に32ニューロンを、また第2層上に10ニューロンを有する、2層をなすパーセプトロン形の神経状回路網に対し、約500「パターン」の学習集合を用いて適用された。 収束条件は、全体で約700回の反復を(η=0、
    2およびα=0において)実行することにより達成された。 そうでない場合は、回路網に対して、全学習集合を提示するとき、収束を達成するのに100,000回の反復でも不十分なようであった。

    【0032】以上においては、本発明の実施例を開示したが、本技術分野に習熟した者ならば、特許請求の範囲から逸脱することなく動作の系列および組合せに対し改変および変更を行ないうるはずである。

    【0033】以上説明に関して更に以下の項を開示する。 (1) サンプルパターンの集合を認識するための多層パーセプトロン形神経状回路網の学習プロセスを実現するために適用される後方伝搬アルゴリズムの収束の加速方法であって、初期の学習パターン集合に対して、前記回路網により認識された新しいパターンを累進的に追加することによって該回路網の学習能力を累進的に増大させる第1段階と、前に認識されなかったパターンを累進的に追加することによって該回路網の学習能力を累進的に増大させる第2段階と、認識されたパターンと認識されなかったパターンとの間の同化の意味における累進的コラプションおよび該回路網に対するそれらの後刻の提示によって該回路網の学習能力を累進的に増大させる第3段階と、を含む、神経状回路網の学習プロセスの加速方法。

    【0034】(2) 前記第1段階が、次の各項記載の動作を含む第1項記載の神経状回路網の学習プロセスの加速方法。 i) できるだけ多くの統計的に意味のあるパターンを含む、速やかな収束の切迫した必要性と両立するできるだけ多くの出発学習集合の選択。 ii) 学習動作の実行。 iii) その後の全体的パターン集合に対する認識動作の実行。 iv) もし1つまたはそれ以上の新しいパターンが認識された場合の、該新しいパターンの前記出発学習集合への追加。 v) 前記回路網により認識されたパターンによりもはや増大が得られなくなるまでの、ii) 、iii)、iv) の動作の反復。

    【0035】(3) 前記第2段階が次の各項記載の動作を含む、第1項および第2項記載の神経状回路網の学習プロセスの加速方法。 i) 前記第1段階の終りにおいて前記回路網により認識されなかったパターンの分離。 ii) 既に認識されたパターンの集合への認識されなかったパターンの追加。 iii) 学習動作の実行。 iv) もし収束が起こらず従って追加が確認しえない場合に認識されなかったパターンをわきに置く動作。 またもし逆に収束が起こり、追加を確認した場合の、既にわきに置かれたものを含むパターンの全体集合に対しての認識動作の進行。 v) もし1つまたはそれ以上の新しいパターンが認識された場合の、前記認識されたパターンの集合に対する該新しく認識されたパターンの追加。 vi) 学習動作の実行。 vii) なんらかの他のパターンの認識が得られるまでの、前記第1段階の終りにおいて認識されなかった全てのパターンに対するi)からvi) までの動作の反復。

    【0036】(4) 前記第3段階が次の各項記載の動作を含む、第1項、第2項、および第3項記載の神経状回路網の学習プロセスの加速方法。 i) 前記第2段階の終りにおいて前記回路網により認識されなかったパターンの分離。 ii) 認識されなかったパターンをして、既に認識されたパターンに対するその同化の意味においてコラプションを受けしめ、それを認識されたパターンの集合に追加する動作。 iii) 学習動作の実行。 iv) コラプションされなかったパターンをして認識を受けしめる動作。 v) もしコラプションされなかったパターンが認識された場合に、その認識されたパターンを他の認識されたパターンに追加する動作。 vi) 最後の学習動作の実行。 vii) もし逆にコラプションされなかったパターンが認識されなかった場合に於ける、それが認識されるまでの
    ii) からv)までの動作の反復。 viii) 動作i)において分離された全ての認識されなかったパターンに対するii) からvii)までの動作の反復。

    【0037】(5) 前記第3段階が次の各項記載の動作を含む、第1項、第2項、および第3項記載の神経状回路網の学習プロセスの加速方法。 i) 前記第2段階の終りにおいて前記回路網により認識されなかったパターンの分離。 ii) 前記出発学習部分集合のパターンをして、前記第1段階においてわきに置かれた前記認識されなかったパターンに対するそれらの同化の意味において徐々にコラプションを受けしめる動作。 iii) 学習動作の実行。 iv) 前記認識されなかったパターンをして認識を受けしめる動作。 v) もし前記前に認識されなかったパターンが今認識された場合に、その認識されたパターンを他の認識されたパターンに追加する動作。 vi) 最後の学習動作の実行。 vii) もし逆に前記前に認識されなかったパターンが今もなお認識されない場合における、それが認識されるまでのii) からv)までの動作の反復。 viii) 動作i)において分離された全ての認識されなかったパターンに対するii) からvii)までの動作の反復。

    【0038】(6) 第1項から第5項までのいずれかに記載され、実質的にここに提示され開示されている多層パーセプトロン形神経状回路網における学習プロセスを実現するために適用されるバックプロパゲーション・
    アルゴリズムの収束の加速方法。

    【0039】(7) 本発明の主題は、例えばサンプルの集合を認識するための多層パーセプトロン形神経状回路網における学習プロセスを実現するために適用されるバックプロパゲーション・アルゴリズムの収束の加速方法であり、該方法は、学習サンプルの出発集合に対して、前記回路網により認識された新しいサンプルを累進的に追加することによって該回路網の学習能力を累進的に増大させるという基本的概念に基づく第1段階と、前に認識されなかったサンプルを累進的に追加することによって該回路網の学習能力を累進的に増大させるという概念に基づく第2段階と、認識されたサンプルと認識されなかったサンプルとの間の同化の意味における累進的コラプションおよび該回路網に対するそれらの後刻の提示によって該回路網の学習能力を累進的に増大させるという概念に基づく第3段階と、を含む。

    【図面の簡単な説明】

    【図1】本プロセスの第1段階を形成する動作の集合を示す流れ図。

    【図2】本プロセスの第2段階を形成する動作の集合を示す流れ図。

    【図3】本プロセスの第3段階を形成する動作の集合を示す流れ図。

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈