首页 / 专利库 / 人工智能 / 误差反向传播算法 / Learning system for neural network

Learning system for neural network

阅读:501发布:2021-03-29

专利汇可以提供Learning system for neural network专利检索,专利查询,专利分析的服务。并且PURPOSE: To obtain the leaning system of a neural network which can compose the neural network of high generalization ability by individually monitoring/ calculating the advance of the learning of an input pattern.
CONSTITUTION: A pattern P
1 is inputted to the input layer 1 of the neural network (ST 110), and calculated in a forward direction so as to obtain an output pattern 05 at an output layer (ST 120). Next, the square error E1 of a teacher pattern T
1 and the output pattern O
1 is calculated (ST 130). Then, when the square error E1 is over a value α which is previously set, weight is updated in a reverse direction in accordance with back-propagation algorithm and when being less than the value α, weight is not updated (ST 140). The operation of ST 110 to 140 is executed to the other input patterns (P
2 to PN) (ST 150) and when an average square error Em obtained by calculating to all the input patterns is less than set value β, the leaning of the neural network is stopped (ST 160, 170).
COPYRIGHT: (C)1993,JPO&Japio,下面是Learning system for neural network专利的具体信息内容。

【特許請求の範囲】
  • 【請求項1】 入力層、中間層および出力層からなる多層構造型ニューラルネットワークに入力パターンと教師パターンを与えて、バックプロパゲーション・アルゴリズムにより入力パターンと教師パターンとの間の相関関係を学習させるニューラルネットワークの学習方式であって、入力パターンを入力したときの出力層の出力パターンと教師パターンとの2乗誤差が所定の値以上のときには、バックプロパゲーション・アルゴリズムによる重みの更新処理を行い、前記2乗誤差が所定の値未満のときに、前記重みの更新処理を行わないという動作を入力パターン毎に実行することを特徴とするニューラルネットワークの学習方式。
  • 说明书全文

    【発明の詳細な説明】

    【0001】

    【産業上の利用分野】本発明は、入層、中間層および出力層からなる多層構造型ニューラルネットワークの学習方式に関する。

    【0002】

    【従来の技術】入力層、中間層および出力層からなる多層構造型ニューラルネットワークに入力パターンと教師パターンを与えて、バックプロパゲーション・アルゴリズム[参考文献 Rumelhart,DEet al.:Parallel Dist
    ributed Processing,Vol.1,MITPress(1986)]により、上記入力パターンと上記教師パターン間の相関関係を学習させる場合の従来技術を以下に説明する。

    【0003】図1は、多層構造型ニューラルネットワークの構成例を示す図である。 同図において、1は入力層のニューロンを、2は中間層のニューロンを、3は出力層のニューロンをそれぞれ示す。

    【0004】入力パターンをP i (i=1,2,…,
    N)、教師パターンをT i (i=1,2,…,N)とする。 また、P iを入力したときのニューラルネットワークの出力層の出力パターンO i (i=1,2,…,N)
    とする。

    【0005】従来技術では、すべての入力パターンを対象とした上記出力パターンと上記教師パターンとの平均2乗誤差E mの値があらかじめ設定した値よりも小さくなったとき、学習を停止するという方法が採用されていた。 出力層のニューロンの指標をj(j=1,2,…,
    M)としたとき、E mは次のように定義される。

    【0006】 E m =(1/N)ΣE p (1) E p =(1/2)Σ(T pj −O pj2 (2) 例えば、手書き数字のメッシュ特徴(図2(a)〜
    (d)は16×16メッシュの手書き数字「0」〜
    「3」のメッシュ特徴の例である)を入力層1への入力パターンとし、出力層3への教師パターンとして、断定的な値を与えて(数字「0」を入力としたときには、
    「0」に対応する出力層のニューロンだけに1、残りのニューロンには0を与え、他の数字のときも同様な教師パターンを与えて)、バックプロパゲーション・アルゴリズムにより学習を進め、平均2乗誤差が0.01より小さくなったら学習を停止する。

    【0007】

    【発明が解決しようとする課題】従来技術のように、入力パターンごとに区別することなく、すべての入力パターンでの平均2乗誤差で学習の停止条件を設定したときに生じる問題を説明する。

    【0008】一般的に言って、N個の入力パターンを学習に用いたとき、すべての入力パターンが同じ速度で学習されていくとはかぎらない。 比較的速く学習されるパターン(2乗誤差が速やかに小さくなっていくパターン)と、なかなか学習が進まないパターン(2乗誤差がなかなか小さくならないパターン)というように分かれる。 このような状況下で、従来技術のようにトータルに見て停止条件を設定すると、どの入力パターンも、ニューラルネットワークの学習に関して、同じくらい重要な意味をもつようなケースでは次のような問題が生じる。

    【0009】すなわち、従来技術では、もっと学習させたいのに(他のパターンが十分学習され、平均2乗誤差が設定値よりも小さくなってしまったために)学習を打ち切られたり、十分学習が行われているのに(他のパターンの学習が十分行われていないために)さらに学習を進めることになる。

    【0010】上記により、用意した入力パターンを満偏なく学習させる(各パターンでの2乗誤差をできるだけ同じように小さくする)ことができなくなる。 また、
    上記により、必要以上に特定のパターンを学習させる(過剰学習させる)ことになる。 これらが原因で、汎化能力の高いニューラルネットワークを構築できないという問題が生じる。

    【0011】本発明は、上記に鑑みてなされたもので、
    その目的とするところは、入力パターンの学習の進み具合いを個別に監視し、汎化能力の高いニューラルネットワークを構築し得るニューラルネットワークの学習方式を提供することにある。

    【0012】

    【課題を解決するための手段】上記目的を達成するため、本発明のニューラルネットワークの学習方式は、入力層、中間層および出力層からなる多層構造型ニューラルネットワークに入力パターンと教師パターンを与えて、バックプロパゲーション・アルゴリズムにより入力パターンと教師パターンとの間の相関関係を学習させるニューラルネットワークの学習方式であって、入力パターンを入力したときの出力層の出力パターンと教師パターンとの2乗誤差が所定の値以上のときには、バックプロパゲーション・アルゴリズムによる重みの更新処理を行い、前記2乗誤差が所定の値未満のときに、前記重みの更新処理を行わないという動作を入力パターン毎に実行することを要旨とする。

    【0013】

    【作用】本発明のニューラルネットワークの学習方式では、入力パターンを入力したときの出力層の出力パターンと教師パターンとの2乗誤差が所定の値以上のときには、バックプロパゲーション・アルゴリズムによる重みの更新処理を行い、前記2乗誤差が所定の値未満のときに、前記重みの更新処理を行わないという動作を入力パターン毎に実行している。

    【0014】

    【実施例】以下、図面を用いて本発明の実施例を説明する。

    【0015】本実施例では、入力パターンとして、図2
    に例示するような手書き数字のメッシュ特徴を与え、教師パターンとして、上述したように例えば数字「0」を入力したときには、「0」に対応する出力層のニューロンのみに1を与え、残りのニューロンには0を与えるというように断定的な値を与える場合を例にとって説明を行う。

    【0016】入力パターンをP i (i=1,2,…,
    N)、教師パターンをT i (i=1,2,…,N)とする。 P iを入力したときの出力パターンをO i (i=
    1,2,…,N)とする。

    【0017】P iが数字「0」の入力パターンのときには、T i =(1000000000)である(「0」に対応する出力層のニューロンには1、その他のニューロンには0を教師信号として与えるという意味)。 P iが数字「1」の入力パターンのときには、T i =(010
    0000000)である(他の数字に対応する入力パターンのときも同様)。

    【0018】多層構造型ニューラルネットワークの規模は、入力層のニューロン数は256個(入力パターンが16×16のメッシュ特徴なので)、出力層のニューロン数は10個(手書き数字には、10個のクラスがあるので)、中間層のニューロン数は20個(これは通常、
    試行錯誤的に決定する)である。

    【0019】次に、図3を参照して、作用を説明する。

    【0020】まず、パターンP 1をニューラルネットワークの入力層1に入力する(ステップ110)。 それから、順方向(入力層→中間層→出力層)に計算して、出力層での出力パターンO 1を得る(ステップ120)。

    【0021】前述した式(2)に従って、T 1とO 1との間の2乗誤差E 1を計算する(ステップ130)。 そして、計算した2乗誤差E 1があらかじめ設定した値α
    以上のときには、バックプロパゲーション・アルゴリズムにしたがい、逆方向(出力層→中間層→入力層)で重みの更新を行なう。 α未満のときには重みの更新は行なわない(ステップ140)。

    【0022】そして、上記ステップ110〜ステップ1
    40と同様の動作を他の入力パターン(P 2 〜P N )に対して実行する(ステップ150)。 すべての入力パターン(P 1 〜P N )を対象とした平均2乗誤差E mを式(1)および式(2)にしたがって計算する(ステップ160)。

    【0023】計算した平均2乗誤差E mがあらかじめ設定した値β未満のときには、ニューラルネットワークの学習を停止する。 β以上のときには、上記の第1からの一連の動作を繰り返す(ステップ170)。

    【0024】例えば、α=0.005、β=0.010
    と設定して、上記の学習を実行させたとする。 従来の学習方式では、個々のパターンの学習の進み具合いを見ないで、平均2乗誤差だけで学習の停止条件を規定していた。 従って、特定のパターンでは2乗誤差が十分小さい(例えば0.001)のに対し、学習の遅いパターンでは2乗誤差がかなり大きい(例えば0.050)のに学習が停止してしまうという、学習上のアンバランスが生じる。

    【0025】これに対し、本発明の学習方式では、2乗誤差が0.005未満に到達したパターンに対する学習動作(重みの更新)は行なわず、2乗誤差が0.005
    以上のパターンに対する学習動作のみ実行する。

    【0026】従って、トータルに見たときの停止条件(平均2乗誤差がβ未満になったとき学習を終了する)
    は従来技術と同じであるが、個々の入力パターンで見たときの学習内容がまったく異なってくる。 つまり、すべての入力パターンにおける2乗誤差が従来技術に比べて、ばらつきが少なく、減るように学習が進むようになる。

    【0027】従って、本発明の学習方式では、従来技術に比べて、入力パターンに関して偏りの少ない学習が実現できるとともに、特定のパターンに対する過剰学習を抑えることができる。 これらの結果として従来技術よりも汎化能力の高いニューラルネットワークを構築できることは明らかである。

    【0028】

    【発明の効果】以上説明したように、本発明によれば、
    入力パターンを入力したときの出力層の出力パターンと教師パターンとの2乗誤差が所定の値以上のときには、
    バックプロパゲーション・アルゴリズムによる重みの更新処理を行い、前記2乗誤差が所定の値未満のときに、
    前記重みの更新処理を行わないという動作を入力パターン毎に実行しているので、学習が十分進んだ状態にあるパターンの学習は停止し、学習がまだ十分でないパターンの学習のみ継続し、従って入力パターンに関して偏りの少ない学習が実現できるとともに、特定のパターンに対する過剰学習を抑えることができ、結果として汎化能力の高いニューラルネットワークを構築することができる。

    【図面の簡単な説明】

    【図1】多層構造型ニューラルネットワークの構成を示す図である。

    【図2】手書き数字のメッシュ特徴の例を示す図である。

    【図3】本発明の一実施例に係わるニューラルネットワークの学習方式の作用を示すフローチャートである。

    【符号の説明】

    1 入力層のニューロン 2 中間層のニューロン 3 出力層のニューロン

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈