专利汇可以提供Internal connecting method in neural network专利检索,专利查询,专利分析的服务。并且PURPOSE: To reduce a task regarding prediction, i.e., spatial expansion by applying a saturation function to the result of the weight total of a function and applying a dispersion function to the result after the process of the saturation function. CONSTITUTION: A 1st step 21 is constituted by providing the weight total of a function fxi . representing a neuron (i) from a precedent layer. In a 2nd stage 22, the result Xj of the weight total is considered to be very accurate by the saturation function F5 and the result Xj =Fs (Xj ) given by the result Xj of the weight total is, for example, a connection hyperoblic type. In a 3rd state 23, the dispersion function dn is supplied with the value Xj so as to obtain an output function featuring the output state of the neuron (j), and fxj represents this function. Consequently, the capability of multi-layered perceptron for handling a nonlinear problem which is improved as to the prediction of perceptron and a decrease in performance can be improved.,下面是Internal connecting method in neural network专利的具体信息内容。
【0001】
【産業上の利用分野】本発明はニューラルネットワークにおける内部結合方法に関し、特に例えば画像処理と分解フィールドで観測ベクトルの広がりの縮小、または予報タスクを提供することに関する。 更に一般に多層ニューラルネットワークのモデル化された構成を用いる技術を提供できる。
【0002】
【従来の技術】ここ数年、多くの数のニューラルネットワークのモデルが提案されている。 この中には産業上最も関心があるであろうモデルは、「並列分散」(ケンブリッジ、MIT プレス、1986年)という本での「エラー逆伝搬による学習内部表現」というDEランメルハート氏、GEヒントン氏、RJウィリアムズ氏による論説で特に論じられた多層パーセプトロンである。 この構成は「ニューロン」又は「オートメ」と称される単一ユニットのアセンブラである。 ニューロンは層の中に組織化され、各層は入力部に先の層から出力を受信する。 評価逆伝搬アルゴリズムとして知られる学習アルゴリズムはネットワークのこの型として提案されている。 このアルゴリズムは前述の論説で論じられている。
【0003】
【発明が解決しようとする課題】しかしながら、多層パーセプトロンの性能は種別に関しては十分であるが予測に関するタスク、つまり空間広がりの縮小を提供されない。 非線形な問題を取り扱うための能力に乏しいので多層パーセプトロンはこれらのフィールドで不完全に作用するという欠点がある。
【0004】
【課題を解決するための手段及び作用】上記問題点を解決するため、この発明の方法は、関数によってニューロンの出力状態を表すことで構成する方法であって、各層は入力部で直ぐ下の層からの出力を受信し、連続するニューロン層を連結したニューラルネットワークにおける内部結合方法において、関数が、関数のウェイト総計を行い、前記関数の各々は先の層からニューロンの出力状態を表す第1のステップと、前記総計の結果に飽和関数を施す第2のステップと、飽和関数の処理後の結果に分散関数を施す第3のステップとからなることに特徴がある。
【0005】
【実施例】図1aは多層パーセプトロンの構成による層で組織化されたニューロンの構成を示す図である。 入力ベクトル1は矢印による記号で表された入力ユニットへ情報を供給する。 層内では内部結合はない。
【0006】各ニューロンは各入力でのすぐ下の列の層からの出力を受信する。 一般に、三角形で示された、出力が常に1である入力がない、いわゆる閾値ニューロンは自由程度を加えることによってネットワーク容量を改良するために出力ベクトル2のレベルを除いて各層へ供給される。
【0007】図1bはランメルハート氏らによって提案された、多層パーセプトロンの構成と関連したニューロンの結合の一部を示す図である。 総和素子3と、例えば接線ハイボリック型の非線形遷移関数4から成る。 O iは先の層からのニューロンiの出力状態を表し、O jは次の層の部分を形成するニューロンjの出力状態であり、総和素子3へ入力される3つの矢印は各層のニューロンへの結合を示す。 W ijはニューロンiとニューロンjとの結合に関するウェイト係数を表す。 X jはウェイト総和素子3の結果である、ニューロンjのポテンシャルと呼ばれる。 もしニューロンの遷移関数4をFで表し、ニューロンjの先の設定値をpred(j) と表し、この記号方法を使うと、次のようにかける。
【0008】
【数1】
なお、記号∈はiが設定値pred(j) に属することを示す。 【0009】図2aは本発明による結合モデルを示す図である。 ニューロン出力状態は関数によってでなく以前からもはやスカラー量によって示されていない。 本発明による結合方法は、先の層からニューロンiを表す関数
f xiのウェイト総和を供給する第1のステップ21で構成される。 もしニューロンiとjとの結合を特長とするウェイト連続を関数W ijと表し、ニューロンjに関するポテンシャルX jは次の関係式で与えられる。
【0010】
【数2】
【0011】なおpred(j) は予め定義されている。
【0012】第2のステージ22において、ウェイト総和の結果X jは飽和関数F sによって非常に正確にみなされ、X jによって与えられることからの結果X j =F s (X j )、
F sは例えば接線ハイパーボリック型である。 最後に、第3のステップ23において、分散関数d hはニューロンj
の出力状態を特徴とする出力関数を得るために値X jを供給され、f xjはこの関数を表す。 3つのステップを用いた分散関数d hはR内のRという応用の全ての中で実数R
の設定を供給し、hによって表された同一又は非周期的な関数を用いて、δ xによって表されてxを中心とするディラックデルタ関数のコンボルーションの創作の結果のすべての実数xに関係付けた関数である。 次の表記方法を用いて各実数xとして f x =d h (x)= δ x * h となる。
【0013】なおδ x *は関数hによる関数δ xのコンボルーションを表す。 この場合、全ての実数をxとyとして f x (y)=h(y・x)=h(x・y) ・・・(1) となる。
【0014】この故に分散関数d hは周知の関数hによって完全に解決される。 次に、関数f xはxで表された分散スカラーと呼ばれる。 実際問題として、関数hは例えば平滑フィルタである。
【0015】図2bは例えばhは一般にガウス曲線に沿っての関数であり、その場合のいくつかの分散スカラー表記を示す図である。 y軸は実数の設定値であり、f
x (y) 軸は関数f xの適用から結果として実数のイメージの設定である。 曲線201はx=0としての関数f xの形状を示し、曲線202はx=0.3としての関数f xの形状を示し、曲線203はx=0.7としての関数f xの形状を示す。 本発明によるネットワークはニューロンiとニューロンjとの間の結合の次の検査から理解されるであろう。 ポテンシャルX jとして式から表現すると次の関係式を得ることができる。 関係式(1)に関係して
【0016】
【数3】
【0017】事実後者の関係式は実数x iに供給される関数W ijによる関数hのコンボルーション(convolution)
の創作を表す。 他の関係式として S ij (x i )=(h*W ij )(x i ) ・・・(3)
【0018】そして、ニューロンiとニューロンjとの結合を特徴とするウェイト連続体を持つニューロンiとしての分散関数を一緒にグループ化することによって、
この結合は関数生成分散スカラー表記によってウェイト連続体をフィルタリングする結果として現れる。 もしC
ij =h*W jと書くと、次の列によってニューロンンjで終わる結合を記述でき、先の表記方法を用いると、
【0019】
【数4】
となる。【0020】分散スカラー表記の効果を表現する位置方法は、結合が適応関数であり、もはや形式的なニューラルモデルの場合でのシンプルな適応性のゲインのようでなく、そして実際上非線形性の問題と共により処理することができる。
【0021】しかしながら、実際問題ウェイト連続体を表現することは未だできる。 本発明によれば、標本関数によってウェイトを表現する。 ニューロンiとニューロンjとの間のこの標本関数は次のように定義され、かつ表現される。
【0022】
【数5】
【0023】なおnは相対値、W ij,nは点nでのウェイトW ijの連続体の値、δはダイラックデルタ関数である。
【0024】関係式(3) から、表現方法を用いて、先の層のニューロンiの値X iへニューロンjのポテンシャル
X jをリンクする関数S ijは
【数6】
でSij (X
i )=(h
* W
ij
* )(X
i )のように定義される。 W
ijが一定ならば、
【数7】
が得られ、【数8】
とすると、【数9】
が得られる。 【0025】図2cは標本化されたニューラルモデルを示す図である。 ステップ21の総和関数、ステップ22
の飽和関数とステップ23の分散関数が上述のものと同じであって、nとmは相対値であり、O j,n =f xj,n及びO
i,n =f xi,mとなる。 なお、W ij, mはサンプリングmのときウェイト連続体W ijの値である。 ステップ23からの出力で、前の場合であってひとつの矢印の代わりに、点線によって離間された2つの矢印は、ひとつの特有の値であるO j,nを得る標本化値を記号化したものである。 ニューラルネットワークの内部結合での改良はひとつの値によって表されたニューロンン出力に代わってここに明らかにすることができ、処理の複雑化の可変型へ高い適合と正確さを同時に改良することを揺する標本化値の連続体によって表される。
【0026】図2bにおいて、フィルタリング関数hは一般にガウス関数である。
【0027】図3からは、f x (y)=h(xy)=h(yx) の値は常に小さく、間隔[n 1 ,n 2 ] の外側にあり、関係式(5) の
W ij,n f xi,nで小さな影響を有するレンジ[n 1 ,n 2 ] の外側にあるnでのウェイトW ij,nを意味することがわかる。 レンジ[n 1 ,n 2 ] の外側のnの値において、ウェイト
W ij,nの値はその後0に設定される。 実際問題として、
レンジ[n 1 ,n 2 ] の限界範囲は飽和関数F sの漸近値を含むことについてえらばられる。 図3において、F MINとF MAX
は最小最大の飽和値又は飽和関数F sの漸近値である。 接線双曲線関数においては、F MIN =-1 とF MAX =+1 となる。
上述の設定した表記方法に従って
【0028】
【数10】
とかける。【0029】設定された結合モデルを有し、学習アルゴリズムを定義する必要がある。 ネットに入力にもかかわらず、出力ニューロンンの状態が入力に適合されるために学習遷移を供給する必要がある。 本発明によって定義された学習アルゴリズムはランメルハート氏らによる論説において論じられた逆伝搬アルゴリズムによってし刺された評価アルゴリズムである。
【0030】本発明に従って定義された学習アルゴリズムにおいて、エラーの列における平均値e QMはターゲット出力(t j )と実際に得られる(X j )との間で次に用に定義される。
【0031】e QM =E{e Q }
【0032】処理E{ }は
【数11】
によって定義された値eQとして平均値を計算する。 なおsは出力ニューロンンのすべてに同一である。
【0033】学習遷移中においてすべての例はランダムにいくつかの時間にフィードされる。 提案された例の各時間、ウェイトW ij,nはエラー評価とある意味で変化する。 ΔW ij,nによる変化を示すと、
【0034】
【数12】
【0035】となる。 なおαは正の定数であり、エラーでの減少が補償される。 列のエラーのローカル減少はg
ij,nとして次ように書ける。
【0036】
【数13】
【0037】e QM =E{e Q } ならば、微分として
【数14】
と書ける。 したがって、ΔWij,n =−αE{g
ij,n }が得られる。
【0038】学習遷移を実行するために、ウェイト
【数15】
に関してエラーの評価gij,nを知るために必要である。
なお
【数16】
は関係式(2) と(6) から求められる。【0039】そして
【数17】
と設定することによりgij,n =−δ
j O
i,nが得られる。 g
ij,nを得るためにはδ
jを定義しなければならない。
微積分の基本によって層のニューロンkに関係する
【数18】
を条件の関数として表すことができることがわかる。 要するに、【0040】
【数19】
【0041】X j =F s (X j ) ここで
【数20】
と【数21】
である。【0042】
【数22】
は先の定義された間隔[n1 ,n
2 ] で
【数23】
と表現できる。【0043】
【数24】
は【数25】
と書ける。 succ(j) は位置されたニューロンjの層にすぐ続く層のニューロンと同一である。【0044】関係式(2) と(6) から
【数26】
と【数27】
で【数28】
となる。 更に【数29】
となる。 要するに、Oj,n =f
xj,n 、と関係式(1) と(4) から
【数30】
は次の層のニューロンkにおけるδk's の条件でδjとして次のように表す。
【0045】
【数31】
【0046】最後の層の特別の場合において、δ jは選ばれたエラーのタイプの関数として容易に表され、要するに、
【数32】
となる。 ここで、関係式(7) から最後の層に関係するニューロンjにとって【数33】
となる。【0047】その結果としてδ j =-(X j -t j )F s (X j )となる。
【0048】そして、反復を用い、かつターゲット出力と現実に得られた出力との間の連続する二次のエラーを用いることで、学習遷移を構成し、係数W ij,nを検出することができる。
【0049】本発明による方法は例えば特に信号処理で空間の広がりの縮小を提供できる。 そして多数の信号の処理において観測値は有効に広がりNの空間に関係するベクトルによって表現される。 このベクトルの成分はしばしば独立しておらず、実際はNより小さい広がりMのハイパーサーフェイス(hyper-surface) に制限される。
実際に分析のいくつかの方法はハイパープレン(hyper-p
lane) に近づくようにこのハイパーサーフェスを可能にする。 しかしながらハイパーサーフェスが曲げられている時この近似値は十分でなく、また現在十分な方法は存在しない。 本発明による方法は得られるような十分な結果となり得る。 2つの広がりを有する場合を考察した例は高い広がりの問題を表している。 図4aにおいて、ハイパーサーフェスSはユニット半径の円の1/4によって表される。
【0050】処理されたデータは、例えば、角度の関数である同様な法則に従って円の1/4のSを越えて自由に選ばれる座標(a,b) を用いてベクトルによって表される総合のデータである。 図4bは本発明に従って用いられたニューラルネットを示す図であり、同図においてa
とbは入力データである。 d関数41,42は関係式
(1) で定義された分散されたスカラーを表す関数f aとf b
を出力する分散関数であり、ニューロン43,44,4
5は本発明の方法似従って結合される。 関数f x1は参照番号43によって示されたニューロン1の状態を表す分散スカラ表記関数である。 AとBはネットからの出力で得られた値である。 学習遷移中ネットは自己結合方法によって設定され、ネットワークからの出力で必要とされるターゲット値はネットワークの入力で供給されたデータと等しいことを意味し、この場合もしaとbが入力データで、AとBが得られた出力データであるとき、列のエラーe Qは次のような関係式によって与えられる。
【0051】e Q =1/2[(Aa) 2 +(Bb) 2 ]
【0052】このネットワークであってすべての情報は図4bでの43によって示されたニューロン1を必然的に通らなければならず、計算された問題点はディメンション1の問題点へ整理され、図4aの曲線S1によって表された、得られた出力座標(A,B) の点として十分な結果を与えるこれは曲線Sによって表されたターゲット出力座標の十分な近似値である。 他の解決方法は本発明により結合されなかった通常のニューラルネットを有する同じデータを処理することからなり、ディメンションを1
へ減らされたにもかかわらず、直線Pによって表された近似値を出力することができる。
【0053】また、本発明による方法は予言のフィールドで用いることができ、性能をかなり改良する。 非線形問題を処理することでのこの方法によって得られる良い結果は結合が適応性の関数のように動き、かつもはや単一の適応性のゲインのようでない。 例えば、分散関数を定義するために用いた関係式(1) の平滑関数hはガウス関数によって
【数34】
と定義され、特有の問題の関数として適応され、一般に1の値である標準偏差σに変えることによって処理される。【0054】
【発明の効果】以上説明したように、本発明によれば、
パーセプトロンの予測と性能の減少の改良を有する非線形な問題を取り扱うための多層パーセプトロンの能力を改良することができる。
【図1a】多層パーセプトロンの構成における層でのニューロンの組織状態を示す図である。
【図1b】ニューロン結合モデルを示す図である。
【図2a】本発明によるニューロン結合モデルを示す図である。
【図2b】分散巣カラー関数の例を示す図である。
【図2c】別のニューロン結合モデルを示す図である。
【図3】分散スカラー関数の特性を示す図である。
【図4a】本発明による方法によって得られる結果を示す図である。
【図4b】図4aの結果を得るためのニューラルネットワークの構成を示す図である。
1 入力ベクトル 2 出力ベクトル 3 総和素子 4 遷移関数
标题 | 发布/更新时间 | 阅读量 |
---|---|---|
一种基于自适应连接神经网络的图像处理方法及装置 | 2020-05-08 | 329 |
一种基于安全态势感知的传感云双层网络防御系统及方法 | 2020-05-15 | 506 |
基于深度卷积神经网络的人脸遮挡检测方法 | 2020-05-18 | 1008 |
一种基于特征选择和集成学习的软件缺陷个数预测方法 | 2020-05-18 | 531 |
一种基于结构化用户属性描述的个性化任务型对话系统 | 2020-05-19 | 384 |
基于多挑战感知学习模型的训练、跟踪方法 | 2020-05-14 | 823 |
一种基于对抗生成网络的人脑效应连接识别方法 | 2020-05-16 | 365 |
基于神经网络与点云配准的发动机叶片重构方法 | 2020-05-18 | 114 |
生成法律文书的方法、装置、设备和存储介质 | 2020-05-15 | 180 |
基于知识增强的注意力神经网络的隐式篇章关系识别方法 | 2020-05-17 | 604 |
高效检索全球专利专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。
我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。
专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。