首页 / 专利库 / 数学与统计 / 自相关矩阵 / Picture processing unit

Picture processing unit

阅读:523发布:2021-10-21

专利汇可以提供Picture processing unit专利检索,专利查询,专利分析的服务。并且PURPOSE: To apply delicate binarization and multi-value processing to an input picture by implementing learning through the use of time correlation.
CONSTITUTION: Layers 2, 3 of a neural network in which neuron circuits are combined with symmetry are coupled by a matrix. A preceding result and current information are compared through binarization structure of the neuron circuits. In this case, a fixed parameter is set to the layers 2, 3, an initial picture is inputted to the layer 2, self-association is implemented repetitively by the neuron circuit and a binary or multi-value picture is coded. A coded picture is propagated to the layers, and the binary or multi-value picture is coded with further association and the result is propagated to the layer 2. The state on the way of the coding is extracted at any time and the result of learning of each weight is calculated by taking the correlation of the information state between the two layers into account. Based on the calculation result, the coding of the layers 2, 3 is corrected based on the calculation result.
COPYRIGHT: (C)1994,JPO&Japio,下面是Picture processing unit专利的具体信息内容。

【特許請求の範囲】
  • 【請求項1】 画像が入力する画素に1対1対応するニューロン(神経回路)が相互結合されて形成されるニューラルネットワークからなる第1層と、 前記第1層のニューロンに個々に対応するニューロンが相互結合し、該第1層に積層されるニューラルネットワークからなる第2層と、 前記第1,第2層のそれぞれのニューロンが、第1層から第2層に向かうシナプス結合μ ABと第2層から第1層に向かうシナプス結合μ BAの2方向のシナプス結合と、 前記シナプス結合を予め所定値に設定することにより、
    同一画素に対応する第1,第2層のニューロンの間で繰り返し行われる画像情報の2値又は多値の符号化におけるニューロンの安定値への収束を促すように、途中符号化値に基づき相関学習から得た重みを第1,第2層に伝搬する相関学習手段とを具備することを特徴とする画像処理装置。
  • 说明书全文

    【発明の詳細な説明】

    【0001】

    【産業上の利用分野】本発明は、ニューラルネットワークを用いた2値化及び多値化を行う処理装置に関する。

    【0002】

    【従来の技術】近年、画像信号の符号化技術において、
    “C.Koch, etc"Analog NeuralNetworks in Early Visio
    n",Proc.Noil.Acad.Sci,USA,vol 83 p4263-p4267

    【0003】(1986)”や「電子情報通信学会論文誌 D II vol J74-D-II No6 p678 1991.6 曽根登
    著」に記載されるようなニューラルネットを応用した画像信号の2値及び多値符号化の技術が提案されている。

    【0004】このニューラルネットワークを応用した画像の符号化は、ファクシミリ装置やバーコードリーダ等の画像処理技術の進歩に伴い、画像の高効率、高速符号化の要請に対して、ニューラルネットワークの並列処理機能がDSP等ハード面の技術的進歩に伴い、実用化レベルに達したことにより、新たな技術として採用されるようになった。 このニューラルネットワークを応用した画像の符号化の特徴を説明する。 1)各画素ごとにニューロンを対応させる。 2)基本的にはホップフィールドモデルを用いる。

    【0005】すなわち、図3(a)に示すように、層内の対称結合を用いた1層のニューラルネットワークで繰り返し、自己想起を行うことにより、2値又は多値画像の想起(すなわち符号化)を行う。

    【0006】ここでは、対称結合を採用しているため、
    評価関数としてのエネルギーEが用いられている。 ここで対称結合とは、結合の強さμ i ;μ jはそれぞれ送信側、受信側のニューロンを表す)として、μ ij =μ jiのことである。 3)同じ画素に対応する結合μ ijは、2値又は多値化をするための結合となる。

    【0007】4)画像のなめらかさやヘエッジの保存などの条件は、図3(b)に示すような最隣接する画素を表わすニューロンどうしの結合μ i+1 、又は図3(c)
    に示すような1つ跳びに隣り合う画素を表わすニューロンどうしの結合μ i+2で表わされる。 すなわち局所相互作用結合で表わされる。

    【0008】また他の従来例としては、ニューラルネットワークによる画像の2値化及び多値化方式においては、2層系による対称結合を6つ神経回路について述べられている例もあるが、実際の画像処理への適用例については、ほとんど例示されず原理を述べたにとどまっている。

    【0009】なお、3層系のパーセブトロン型(通常学習は誤差逆伝播型)の神経回路はよく用いられるが、これは信号が1層から3層まで一方方向に進むのみのものである。

    【0010】

    【発明が解決しようとする課題】しかし、前述した従来のニューラルネットワークによる画像の2値化及び多値化方式において、1層系は、自己想起で同じ想起をくり返すため、想起や処理に自から限界があり、調整する自由度も狭くなる。

    【0011】また、前回の情報と現在の情報とを比較すること、及び時間的な変化への対応がしにくい。 従来では、画像処理のニューラルネットワークの学習量が少なく、入画像等の状態によっては対応ができない場合があった。

    【0012】そこで本発明は、時間相関をとり入れた学習を行い、入力画像に対して、微妙な2値及び多値化処理を行うニューラルネットワークを有する画像処理装置を提供することを目的とする。

    【0013】

    【課題を解決するための手段】本発明は上記目的を達成するために、画像が入力する画素に1対1対応するニューロン(神経回路)が相互結合されて形成されるニューラルネットワークからなる第1層と、前記第1層のニューロンに個々に対応するニューロンが相互結合し、該第1層に積層されるニューラルネットワークからなる第2
    層と、前記第1,第2層のそれぞれのニューロンが、第1層から第2層に向かうシナプス結合μ ABと第2層から第1層に向かうシナプス結合μ BAの2方向のシナプス結合と、前記シナプス結合を予め所定値に設定することにより、同一画素に対応する第1,第2層のニューロンの間で繰り返し行われる画像情報の2値又は多値の符号化におけるニューロンの安定値への収束を促すように、途中符号化値に基づき相関学習から得た重みを第1,第2
    層に伝搬する相関学習手段とで構成される画像処理装置を提供する。

    【0014】

    【作用】以上のような構成の画像処理装置における2値及び多値符号化が、各画素に対して1個づつのニューロンが対応する2層構造の神経回路網が用いられ、その間を2つのシナプス結合で結び、この結合を通じて情報を交互に伝搬することにより行われる。 前記2層構造により、前回の情報と現在の情報とが比較された2層の間の情報の状態の相関を考慮した相関(ヘビニアン)学習により得た時間相関を考慮した重み(学習結果)により情報処理の最適化が図られる。 このような2段階処理をくり返し施すことにより微妙な符号化処理が行われる。

    【0015】

    【実施例】以下、図面を参照して本発明の実施例を詳細に説明する。 図1には、本発明による第1実施例としての画像処理装置の概念的な構成を示し、2値及び多値化処理について説明する。

    【0016】この画像処理装置の構成においては、ニューロン(神経回路)1が対称結合されたニューラルネットワークの第1層2及び第2層3がマトリックスμ ABij ,μ BAijで結合されて構成される。 前記第1層2
    と第2層3を結ぶマトリックスμ ABijと第2層3と第1
    層2を結ぶ結合マトリックスμ BAijの間に次式、

    【0017】

    【数1】

    の関係がある場合には、第1層2と第2層3の神経場を合わせた神経場ベクトルa、すなわち両層の場をベクトルとみたてての直積ベクトルに対応する場、

    【0018】

    【数2】

    に対し、結合マトリックスM

    ABは、

    【0019】

    【数3】

    となり、対称になるため、

    【0020】

    【数4】

    【0021】が導入でき、想起は、このエネルギーの極小値を到達すべき目標値として行われる。 さらに特殊な場合として、マトリックスμ AB自体が対称であった場合には、より簡単になる。

    【0022】次に、具体的な評価関数(通常、エネルギーと称される)の表式について説明する。 このエネルギーをより低くするように想起(符号化)を行うことにより、入力画像の改良と多値化が行われる。 まず、第1層2と第2層3を結ぶ結合は、対称なものと仮定する。 すなわち、

    【0023】

    【数5】

    となる。 全エネルギーは、これらにより与えられる。

    【0024】

    【数6】

    ここで、f

    ijは画素の濃淡レベルを示す。 神経場a

    dij 、b

    dijの想起はエネルギーを低める形すなわち方式である、

    【0025】

    【数7】

    で示される。 これらの式は、後述する(13)式に対応するがエネルギーの第2項Evによる項が加わる。

    【0026】

    【数8】

    よって、エネルギー第1項E

    Qは入力画像の濃淡値f

    ij


    に沿って多値化(2値化)出力α

    dijが与えられることを保証する。 同様に、

    【0027】

    【数9】

    であるため、この項は2値化が行われる。 すなわち(α


    d →0又は1)を保証する項である。

    【0028】ここで、本実施例の神経回路の2層化構造により、前回の結果と現在の情報とを比較して行う、2
    層の間の情報の状態の相関を考慮したヘビニアン学習について説明する。

    【0029】前記ヘビニアン学習とは、第1層2のニューロンi(興奮の度合a i )と第2層3のニューロンj
    (興奮の度合いb i )に対し、その結合μ ABijを次の学習方程式に従って変化させる方法である。

    【0030】

    【数10】

    ここで、S( ) はシグモイド関数、c

    1 、c

    2は正の定数とする。 また、通常の想起は、

    【0031】

    【数11】

    に従って行われ、γは演算係数である。 図1(c)に示す多値化過程を参照して、前述した多値化(2値化)の概念と表式に基づいた実際の多値化について説明する。


    まず、第1層2及び第2層3の固定パラメータを設定する。

    【0032】次に、第1層2に初期画像を入力させる。
    この初期画像は、第1層2により、神経回路で繰り返し、自己想起が行なわれ、2値又は多値画像の符号化が行われる。

    【0033】次に符号化された2値又は多値画像は、第2層3にマトリックスμ ABijを介して伝搬される。 第2
    層3では、さらに想起を行うことにより、2値又は多値画像の符号化を行った後、第2層3から結合マトリックスμ BAijを介して、符号化された2値又は多値画像が第1層2に戻るように伝搬され、この符号化処理を繰り返し行い、エネルギーが極小値になるまで行われる。

    【0034】そして、この第1層2及び第2層3による符号化のそれぞれの途中経過を随時、取出し、前述した学習方程式4に基づき、2層の間の情報の状態の相関を考慮した、それぞれの重みの学習結果を算出する。 その重みの学習結果を伝搬された第1層2及び第2層3の符号化が修正され、処理の最適化が行なわれる。

    【0035】次に、本発明による第2実施例としてのニューラルネットワークを用いた画像処理装置について説明する。 この第2実施例では、単一の画素ニューロンを対応させず、ニューロンがさらに広がった領域に対応する例を説明する。

    【0036】図2(a)には、領域(正方形、若しくは長方形の領域)にニューロンを対応させた形態を示し、
    図2(b)には、境界を多形で近似し、その近傍をベクトルで表し、このベクトルとニューロンを対応させた状態を示す。

    【0037】これらの例では、ニューロンを1画素で表すような他の例に比べ、実際に興奮し使われているニューロンの数が減るため、ダイナミカルにはメモリ量が減少し、計算時間が減る。 また、エネルギー関数も、より簡潔に表現されるようになるが、同じ画像情報に対してエネルギー値は同一である。

    【0038】ただし、実際は使われていないニューロンの絶対数は増加しているため、計算上、スタティックなメモリ配分をすると、無駄なメモリ配分がふえるが、それを避け極力ダイナミカルなメモリ配分を使用することにより効率化が図れる。

    【0039】従って、この画像処理装置による符号化すなわち、2値及び多値化は、2層構造の神経回路を用い、その間を2つのシナプス結合で結び、この結合を通じて情報を交互に伝搬することにより情報の処理と最適化を行う。 このような2段階処理をくり返し施すことにより微妙な処理が可能となる。

    【0040】そして、前記神経回路の2層化構造により、前回の結果と現在の情報とが比較できる。 この比較を利用して2層の間の情報の状態の相関を考慮した2層間のヘビニアン学習を採用することにより時間相関を考慮した学習が可能となる。

    【0041】また、本実施例の結合以外に画素iと隣接若しくは1画素おいての近接した画素i+1又はi+2
    との間に結合μ ABi,i+1 μ BAi,i+1等が設けることによって画像の画質の向上、エッジ保存を行うことができる。 また本発明は、前述した実施例に限定されるものではなく、他にも発明の要旨を逸脱しない範囲で種々の変形や応用が可能であることは勿論である。

    【0042】

    【発明の効果】以上詳述したように本発明によれば、時間相関をとり入れた学習を行い、入力画像に対して、微妙な2値及び多値化処理を行うニューラルネットワークを有する画像処理装置を提供することができる。

    【図面の簡単な説明】

    【図1】図1は、本発明による第1実施例としての画像処理装置の概念的な構成を示す図である。

    【図2】図2は、本発明による第2実施例としてのニューラルネットワークを用いた画像処理装置について説明するための図である。

    【図3】図3は、従来の画像の符号化を行うニューラルネットワークの概略的な構成を示す図である。

    【符号の説明】

    1…ニューロン(神経回路)、2…第1層、3…第2
    層、4…学習方程式、μ ABij ,μ BAij …マトリックス。

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈