首页 / 专利库 / 人工智能 / 人工神经网络 / 前馈神经网络 / Neural network equipped with expert system

Neural network equipped with expert system

阅读:249发布:2021-01-07

专利汇可以提供Neural network equipped with expert system专利检索,专利查询,专利分析的服务。并且PURPOSE: To provide a neural network equipped with an expert system function.
CONSTITUTION: A method for executing the function of each kind of expert system on a trained feed-forward neural network is provided. Those functions include decision preparation, explanation, calculation of reliability measurement, and intelligence direction of information capture. Moreover, knowledge implied in the network is converted into a set of exact if-then rules.
COPYRIGHT: (C)1993,JPO,下面是Neural network equipped with expert system专利的具体信息内容。

【特許請求の範囲】
  • 【請求項1】入力変数を示す入力処理素子(PE)のレイヤと、出力変数を示す出力(PE)のレイヤと、任意の数の隠れ(PE)のレイヤを備えた、訓練された連続状態フィードフォワードニューラルネットワークに基づくエキスパートシステムを動作させる方法であって:基礎となるPEの状態に基づく各出力変数に関する決定を決定するステップと;既知となるネットワークに対する入力として、決定が不可逆である場合に、各出力変数に関する結論を決定するステップと;各決定に関する信頼度測定を計算するステップと;既知の値を備えた各入力変数により決定に対してなされた貢献を計算することにより各決定を説明するステップと;既知の値を備えた各入力変数により結論の到達に対してなされた貢献を計算することにより各結論を説明するステップと;未知の値を備えた各入力変数の決定に対する潜在的な影響を判定するステップと;ニューラルネットワーク内に含意される知識をif-then規則の正確な組へと変換するステップと;から成ることを特徴とする方法。
  • 【請求項2】フィードフォワードニューラルネットワークにおいて、隠れPEと出力PEの状態の高位及び低位バウンドを計算するための方法であって、前記バウンドはかかる状態、ある既知の入力状態及び現在は未知である入力PEのいくつかの又は全ての可能な状態の組合わせの、可能な範囲の限界として機能するような方法において:入力変数偏差統計量を用いて、連続型にゅ力変数の値の上位バウンド及び回バウンドを決定するステップと;入力変数のバウンドと隠れPEの状態のバウンドから回帰的に出力PEの状態のバウンドを計算するステップと;から成ることを特徴とする方法。
  • 【請求項3】連続型状態PEを備えたフィードフォワードニューラルネットワークにおいて、未知の入力状態の数にかかわらず、結論が出力変数の値に関して形成可能な場合を決定するステップが、 出力状態の高位及び低位バウンドを決定するステップと;出力変数に関する一時的決定が変化可能であるかを判定するために出力状態の高位バウンド及び低位バウンドを用いるステップと;一時的決定が変化不能である場合に結論を生成するステップと;から成ることを特徴とする、請求項2に記載の方法。
  • 【請求項4】フィードフォワードニューラルネットワークにおいて出力変数に対応する決定に関する解決度の信頼度測定を計算するための方法であって:既知の入力値の組を与えるネットワーク出力状態を決定するステップと;選択されたしきい値又はその他の決定基準と出力状態を比較して、量的に決定基準に対する出力状態の接近度を測定するステップと;から成ることを特徴とする方法。
  • 【請求項5】フィードフォワードニューラルネットワークにおいて出力変数の値に対応する決定に関する必然度の信頼度測定を計算するための方法であって:出力PE
    の状態のバウンドを決定するステップと;選択されたしきい値又はその他の決定基準と出力状態を比較して、量的に決定基準に対する出力状態の接近度を測定するステップと;から成ることを特徴とする方法。
  • 【請求項6】ニューラルネットワークに関する根拠を説明するための方法であって:既知の入力値の組のネットワーク出力の状態を決定するステップと;出力状態を決定基準と比較して、出力決定を決定するステップと;未知の条件に各既知の入力値を順次変換するステップと;
    既知から未知へと変換された各入力値に関して、決定基準に対する出力状態の変化を測定するステップと;出力決定を決定する際に各既知の入力値の重要性を量的にランク付けするステップと;から成ることを特徴とする方法。
  • 【請求項7】フィードフォワードニューラルネットワークにおける既知の値を備えた各入力変数により結論条件の到達に対する貢献を測定するための請求項3に記載の説明の方法であって:上位及び下位の出力状態バウンドを決定するステップと;順次各既知の入力値を未知の条件に変換するステップと;既知から未知に変換された各入力値に関して、決定基準に対する上位及び下位の出力バウンドにおける変化を測定するステップと;結論条件に到達するに際し各既知の入力の重要性を量的にランク付けするステップと;から成ることを特徴とする請求項3に記載の方法。
  • 【請求項8】連続型状態フィードフォワードニューラルネットワークにおける結論条件を支援するに十分な現在の入力値の最小のサブセットを計算するための請求項3
    に記載の方法であって:各既知の入力値に対する出力バウンドにおける相対的変化を評価するステップと;結論条件に到達するに十分な最も重要な入力の最小組を選択するステップと;から成ることを特徴とする請求項3に記載の方法。
  • 【請求項9】変数の値が既知となる場合のフィードフォワードニューラルネットワークの出力に対応する決定に対する、未知の入力変数の潜在的な影響を測定するための方法であって:各未知の入力値に関して、各入力がその可能な値範囲にわたって変化する場合に、順次出力状態の変化を決定するステップと;各未知の入力に関して決定基準に対する出力状態の変化を量的に計算するステップと;から成ることを特徴とする方法。
  • 【請求項10】可能な結論を支援するif-then規則の正確な組に連続状態フィードフォワードニューラルネットワーク内に含意される知識を翻訳するするために結論発生プロセスを用いる請求項3に記載の方法であって:結論状態に到達するだろう入力値の最小組を決定し、その場合に入力値の組は特定の結論に関する規則を構成するステップと;特定の出力変数に関する結論を支援する全ての可能な規則の組に関する入力値を調査するステップと;から成ることを特徴とする請求項3に記載の方法。
  • 【請求項11】特定値が変数の値領域の上位、低位及び中位の統計量領域を示すように選択され、これらの値が1又はそれ以上の基礎における可能な結論に関して試験されることを特徴とする、請求項10に記載の連続型入力変数の値を用いる方法。
  • 【請求項12】フィードフォワードニューラルネットワークの重みのサブセットを用いて、入力値における実際の変化又は仮定上の変化から帰結する修正出力状態を計算するための請求項6に記載の方法であって:さらに、
    状態が変化した入力PEの1つと、修正状態を計算するために修正状態が計算された出力PEの1つとの間の経路にある接続に関連する重みを用いるステップを含むことを特徴とする;請求項6に記載の方法。
  • 说明书全文

    【発明の詳細な説明】

    【0001】

    【産業上の利用分野】本発明はニューラルネットワークに関し、さらに詳細には、フィードフォワードネットワークとして知られるニューラルネットワークのクラスに関する。

    【0002】

    【従来の技術】ニューラルネットワークは、一連のニューロン状処理要素(PE)の相互接続から構成される。
    PE間の接続の強さは重みにより表される。 各PEは状態として知られる値を格納する。 状態は、入データにより特定されるか、あるいは、PEの変換機能を用いて、PEの入力と重みから計算される。 典型的には、変換機能がPEのネット入力、すなわちその入力の重み合計に付与されている。 総合的には、状態は短期間の情報を表すために用いられる。 長期間情報、すなわち学習は重みにより表される。 ニューラルネットワークはそれらの重みを修正することにより事例から学習を行う。 学習又は訓練が完了すると、これらのネットワークは各種の計算機用タスクを実行可能になる。

    【0003】ニューラルネットワークの大部分の使用は、フィードフォワードネットワークに向けられている。 これらのネットワークは、入力ノードのレイヤ、出力ノードのレイヤ、及び任意選択により、それらの間のいくつかの隠しレイヤから成るアーキテクチャを備えている。 入力データは、入力レイヤの状態を用いて表される。 このデータに対するネットワークの応答は、出力レイヤの状態により表される。 これらのネットワークのフィードフォワードの特質は、対話の間に、計算が入力レイヤから各隠しレイヤを通して出力レイヤに流れるという事実に起因している。 このアーキテクチャにより、ネットワークは、入力状態を、入力に対する正確な応答に近似する出力状態にマップすることを学習する。 例えば、入力状態が医療患者により示される容体を表す場合には、ネットワークは、これらの容体に対する正確な診断の評価を示す出力状態を発生することが可能である。

    【0004】ニューラルネットワークが広く受け入れられることに対する障害の一つは、ニューラルネットワークが主としてブラックボックスとして機能するという事実である。 特定の組の入力がどうして特定の出力を発生するのかを理解することが困難なことがしばしばある。
    この困難性は、ネットワークの「知識」は、相互接続の複雑なウェブに関連する重みにコード化される。 ネットワークの入力の項目内の特定の出力を説明するための方法である、ニューラルネットワークの説明方法を見いだすことが好ましい。 例えば、ネットワークが貸出決定を行うために用いられる場合には、申請者を記述する入力データの項目内のこれらの項目を説明することが好ましい。 この種の説明は否定的な貸出決定に必要である。

    【0005】ブラックボックス問題は、2つのレイヤのフィードフォワードネットワーク、すなわち、隠しレイヤの存在しない場合には、そう深刻な問題ではない。 これらのネットワークでは、入力と出力の関係が直接的である。 入力PEと出力PEの間の状態の間の関係の大きさ及び方向は、2つのPEの間の接続の重みにより得られる。 各入力と出力の間の関係は固定されているので、
    これらの単純なネットワークは、非単調関係ような、入力と出力の可変的関係を捕捉することができない。 さらにまた、複数の入力の間の相互独立をも捕捉することができない。 すなわち、かかるネットワークでは、ある出力に対するある入力の効果を他の入力の間とは独立にマッピングすることができない。 かかるネットワークは、
    線形的なマッピング、すなわち、各出力が入力の重み付け合計に比例するようなマッピングを学習することのみである。 このように、これらのネットワークは、実世界に存在する関係の限定されたサブセットのみを学習するように制限されている。

    【0006】隠しレイヤを備えたネットワークは、入力と出力の間の非単調関係及び複数の入力の間の独立性を含むような、非単調的なマッピングを学習するために必要である。 これらのネットワークでは入力と出力の直接的関係は存在しないために、説明は困難な問題である。
    説明の一つの試みでは、感度分析を用いる。 この技法は、入力の値を変更し、ネットワークと対話し、ネットワークの出力内に意味のある変更が存在するかどうかを調べることを含んでいる。 事例として、医療分野を用いれば、感度分析は、入力容体の1つの変更と、ネットワークの診断出力の変更が存在するかどうかを調べることを含んでいる。

    【0007】説明はまたエキスパートシステムの分野でも問題となる。 これらのシステムはしばしばニューラルネットワークと比較される。 というのも、この2つの技術はいくつかの同じ問題を解決するための試行だからである。 すなわち、分類、予想及び意思決定である。 説明は、エキスパートシステムにおいてはニューラルネットワークよりも直接的である。 というのも、エキスパートシステムにおける「知識」は、規則ベースとして知られている一連のIF-THEN規則に組み込まれる点でより正確である。 説明の他に、エキスパートシステムは、従来のニューラルネットワークには見られない他の好ましい性能を有している。 これらの性能には、意思決定をするために十分な入力情報が存在するかを判定すること;ユーザの情報獲得に対する知識方向を提供すること:及び付随する決定に対する信頼度測定を計算すること;が含まれる。

    【0008】不幸にして、エキスパートシステムは、ニューラルネットワークの最も特筆すべき特徴である事例からの学習の能力を欠いている。 学習能力をエキスパートシステムに持たせるためのいくつかの試みがなされてきたが、それらは未だに「知識」源としての手作業の規則に基本的には依存している。 このように、特定の問題を解決するためにエキスパートシステムを構築するためには、問題領域の人間の専門家を発見し、彼の知識をIF
    -THEN規則に変換し、それから、規則ベースの欠陥を除去することが必要である。

    【0009】明らかに、ニューラルネットワークの学習能力と、エキスパートシステムの説明その他の能力とを組み合わせることが好ましい。 かかる組合わせに対する1つの公知の試行には、ニューラルネットワークを「知識」源として用い、それによりニューラルネットワークの学習の利点を得るエキスパートシステムが含まれる。
    エキスパートシステムの説明のような能力に加えて、この混合型システムは、ネットワークに含まれる知識を一連の規則に変換するための機能を任意選択的に含んでいる。 このシステムは例えば、米国特許第4,730,2
    59号といった文献に記載されている。

    【0010】不幸にして、従来の混合型システムで用いられている技法は、いくつかの重要な限界を有している。 最も重要なのは、従来の混合型システムは、線形判別ネットワークとして知られているような、パーセプトロンネットワークのみに受け入れ可能である。 入力レイヤの可能な例外でもって、これらのネットワークのPE
    は、三次状態、すなわち、大まかに真、偽、未知に対応する、3つの可能な状態に制限される。 この結果、パーセプトロンネットワークは、連続状態ネットワーク、すなわち、状態が一連の計数値に限定されないようなネットワークのように正確にマッピングを計算することができない。 精度の損失以上に重要なことは、パーセプトロンネットワークは、隠しレイヤを備えたネットワークに関しては最もよく用いられる訓練である、バックプロパゲーション学習で訓練できないことである。

    【0011】従来の混合型システムの説明技法もまた制限を有している。 例えば、どのようにしてシステムが最終決定の前にある出力又は別の出力に向かって学習を行ったかについて説明をするための方法が存在しないために、説明は結果に対して行われるだけである。 説明は、
    規則の左側の条件(入力又は隠しレイヤ状態)が右側の結論に関する説明として機能する、規則の形式をとる。
    規則に含まれるこれらの条件は、省略されたものよりも、結果に対して大きく積極的に貢献する。 しかし、含まれた条件にしろ、省略された条件にしろ、貢献に対する正確な測定が行われることはない。

    【0012】従来の混合型システムは、また、ユーザの情報獲得を管理する方法において制限される。 システムは未知であるが重要な単一の入力を選択して、ユーザにかかる入力に関する値を入れるように尋ねる。 しかしながら、システムは、比較的重要な他の未知の入力についての情報を提供することはない。

    【0013】

    【発明が解決しようとする課題】従って、本発明の目的は、説明を含むエキスパートシステムの機能にフィードフォワードニューラルネットワークの機能が付加されたようなシステムを提供することである。 さらに、本発明の目的は、従来技術の欠点を克服することである。 特に、本発明の目的は、連続状態のフィードフォワードネットワークに関する欠点を克服し、十分な入力情報が結論を作成するために存在知る場合に決定を行うことが可能であり;その決定及びどうしてこれらの決定のうちのあるものが結論になるかを正確に説明可能であり;その決定に伴う信頼度測定を計算可能であり;未知の値を備えた相対的に重要な入力を計算可能であるようなシステムを提供することである。 さらに、本発明の目的は、人間が規則の形式で知識を与えることに依存せずに、事例から学習可能である点で、現存のエキスパートシステムとは異なるシステムを提供することである。 さらに、本発明の目的は、線形関係を扱うことが可能なので、説明が2レイヤネットワークにおける説明に関する現存の技法とは異なるようなシステムを提供することである。 さらに、本発明は、例えば、連続状態フィードフォワードネットワークの強力なクラス上で動作する点において、
    従来の混合型システムの欠点を克服可能なので、従来の混合型システムとも異なるようなシステムを提供することである。

    【0014】

    【課題を解決するための手段】クレーム

    【0015】

    【実施例】本発明を理解するためには、入力及び出力変数を理解することが重要である。 本発明のユーザは、変数の基礎となる入力及び出力状態を直接扱うのではなく、これらの変数を扱う。 本発明に基づく決定作成プロセスは、入力変数を1又は2以上の出力変数に対するマッピングとして見ることが可能である。 いくつかの又は全ての入力変数に関する値が与えられると、本発明は出力変数を決定する。 これらの値は、本発明に基づき作成された決定に直接対応する。 例えば、貸出決定を示す出力変数が存在したとすると、真の値は貸出許可の決定に対応することが可能である。

    【0016】本発明は3つのタイプの入力変数、すなわち、連続型、論理型(ブール演算型)及び記号型を備えている。 連続型入力変数は全ての数値を含むことが可能であり、それはその値に等しい状態を備えた単一のPE
    により示される。 変数の値が未知の場合には、状態はいくつかのデフォルト値、典型的には変数の平均値に設定される。 論理型入力変数は真又は偽の何れかの値を備えることが可能である。 それは、{偽、未知、真}に対応する、{−B、M、B}の組から引き出された状態を備えた単一のPEにより表される。 Bは典型的には1.0
    に設定され、Mは典型的には0.0に設定される。 記号型入力変数は有限組の記号からその値を引き出す。 例えば、変数「地域」は、{北東部、南東部、北西部、南西部}からなる組に含まれる全ての値を備えることが可能である。 記号型変数は、複数のPEと1−OUT−OF
    −nコードを用いて表される。 nの可能値を備えた記号型変数はnのPEにより示され、それぞれは異なる値に対応する。 変数の値が知られている場合には、現在値に対応するPEにはBの状態が与えられ、他のPEには−
    Bの状態が与えられる。 記号型変数の値が未知の場合には、全てのPEがMの状態を備えている。 論理型変数の場合にように、Bは典型的には1.0に設定され、Mは典型的には0.0に設定される。

    【0017】出力変数は論理型又は記号型とすることが可能である。 これらの変数のタイプは、本発明の決定出力に適している。 というのも、これらの変数はカテゴリー値を備えており、決定は本質的にはカテゴリー的だからである。 訓練モードにおける動作の間、ネットワークは論理型及び記号型訓練値、すなわち、出力変数に対する正確な決定に対応する値で表される。 これらの訓練値は、{−B、M、B}組における状態を用いて、論理型又は記号型入力値と同様に表される。 しかしながら、連続状態フィードフォワードネットワークの出力レイヤ内で発生される状態は、定義により、連続的であり、{−
    B、M、B}に限定されない。 従って、出力状態は、論理型及び記号型値の近似値として翻訳される。

    【0018】出力状態を翻訳する場合に、記号型出力変数には最高状態を備えた基本PEに基づく値を与えられる。 このPEは選択されたPEと呼ばれる。 論理が他出力変数にはユーザ選択の論理型決定しきい値に応じた値が与えられる。 基本出力状態がしきい値よりも高い場合には、変数の値が真である。 そうでない場合には、変数の値が偽である。

    【0019】図1には、本発明の基本的要素が示されている。 これらの要素は本発明の構成要素として言及されており、これらは3つのカテゴリーに分割される。 すなわち、入力、出力及び内部構成要素である。 入力構成要素の1つは、選択された問題領域からの事例でネットワークを訓練した結果生じた重み組である。 重み9は領域についてのネットワークの「知識」をコード化する。 訓練の方法は本発明とは独立であり、ユーザは、フィードフォワードネットワーク用の学習アルゴリズムの中から任意選択可能である。 バックプロパゲーションは、最も広く用いられている、本発明が動作可能な隠しレイヤを備えた連続状態フィードフォワードネットワークの強力クラスに関する学習アルゴリズムである。

    【0020】別の主要な入力構成要素は、入力データ1
    1であり、これは、本発明により分析されるべき各事例に関する入力変数の値を特定するものである。 各入力変数の値は、本発明が知能的に未知の値を処理することを意図しているために、特殊な場合には未知として特定することが可能である。

    【0021】さらに、別な入力構成要素は、いくつかの入力変数が連続的である場合にのみ受け入れ可能な入力変数統計量13である。 これらの統計量は、各連続型入力変数に関する値の分散を記述する。 特に、このシステムは、各かかる変数に関する平均及び標準偏差か、あるいは、各変数の最小値及び最大値のいずれかを必要とする。 稀な場合には、(1) 平均値が連続型入力変数の値が未知の場合にデフォルト状態として用いられる場合、又は、(2) 説明モジュール23が規則生成31に関して用いられる場合には、平均値が必要となる。 必要な分散統計量は、訓練事例組又は分析される事例組のような、データ組から計算可能である。 代わりに、統計量を推定することも可能である。

    【0022】図1において示されるように、本発明は3
    つの主な内部構成要素を備えている。 これらの構成要素のうちの最も基本的なものは、推論モジュール15であり、これから3つの出力構成要素、すなわち、決定1
    7、結論19及び信頼度測定21(解決度及び必然度)
    が派生する。 推論モジュールは、単一の出力変数に関して図2の流れ図においてH説明される。 モジュールと図についは後述する。

    【0023】推論モジュールは、図2のブロック41に記録されているように、入力変数の値が付加、削除、又は修正される場合には常に動作される。 新しい入力値に基づいて、ネットワークの出力状態がブロック43で更新される。 さらに、モジュールは、ブロック45においてこれらの出力状態の高低バウンドを更新する。 これらのバウンドは、各出力状態の可能範囲の上限及び下限であり、既知の入力値及び未知の入力変数のいくつか又は全てに関する値の組合わせにより与えられる。 これらのバウンドの計算には、連続型入力変数の可能な値に関してなされる仮定が必要となる。 これらの仮定の詳細及びバウンドを計算するための正確な方法を説明してから、
    推論モジュールを概観する。

    【0024】更新された出力状態は出力変数の値を決定するために用いられる。 これらの値は本発明の決定17
    である。 上述のように、出力状態から出力変数値又は決定を判定する方法は、出力変数が論理型か記号型かに依存している。 論理型である場合には、基礎となる出力状態がユーザ選択論理型決定のしきい値とブロック49において比較される。 状態がしきい値よりも大きい場合には、ブロック51において決定が真となる。 そうでない場合には、ブロック53において決定が偽となる。 出力変数が記号型である場合には、最高位の出力状態を備えた基礎となるPEがブロック59で選択される。 ブロック61において、決定は選択されたPEに対応した記号である。

    【0025】決定を更新した後に、本発明は、結論19
    されるべき決定を宣言可能であるかどうかを判定する。
    入力値が未知の入力変数に関する可能な値のどの組合わせも決定に対応する出力変数の値を変更できないほど既知である場合に、結論に到達可能である。 記号型出力変数に関しては、この結論条件がブロック63においてチェックされる。 選択されたPEの状態の低いバウンドが選択されなかった各PEの状態の高いバウンドよりも大きい場合には、選択されたPEが未知の入力に対する値の全ての組合わせに対しても最高位の状態を備えていることが保証される。 結論条件が満たされると、決定が結論となることがブロック67で宣言される。 そうでない場合には、結論はブロック65で仮のものである言われる。

    【0026】論理型出力変数に関しては、結論条件を検査する方法は決定に依存している。 決定が真である場合には、結論条件がブロック55で検査される。 条件が、
    基礎となる出力PEの状態の低いバウンドが論理型決定のしきい値よりも大きい場合に出会うと、PEの状態が未知の入力に関する値の全ての組合わせに対してしきい値を越えているだろうことが保証される。 決定が偽の場合には、結論条件がブロック57で検査される。 条件が、基礎となる出力状態の高いバウンドが決定しきい値より小さい場合に出会うと、状態がしきい値以下であろうことが保証される。

    【0027】全ての入力値が既知の場合には、結論条件に到達することが保証される。 しかしながら、実世界においては、いくつかの入力値が未知である場合がしばしば生じる。 医療診断においては、例えば、重要なデータが、獲得するためにコストや費用がかかったり、あるいは危険であったりして、欠けている場合がある。 本発明の結論生成能力によればこの欠落データの問題を克服できる。 本発明によれば、ユーザに対して、ユーザが計算された決定を確かなものにするに十分な入力データを備えた時を、知らせることが可能である。

    【0028】結論を得るために用いられる状態バウンドは、決定に関する必然度信頼度測定21を計算するために用いられる。 必然度は、出力変数に関する結論が変数に関する現在の決定と同じであるかについての信頼度の測定である。 必然度の範囲は0%から100%であり、
    結論に到達した場合にのみ、ブロック71において最大値に到達する。 その場合にのみ、別の入力が決定を変化しないことが保証される。 結論に到達する前に、必然度がブロック69において計算される必要がある。 それは、決定が結論になるために必要な出力バウンドと実際の出力バウンドの間の距離に基づいて計算される。

    【0029】論理型出力変数に関して、必然度の割合は次式により計算される。

    【0030】真の決定については、 (S(o,lo)-L)*100/(TL) 偽の決定については、 (US(o,hi))*100/(UT) ここで、S(o,hi)及びS(o,lo)は、基礎となる出力PE
    oの状態の高位バウンドと低位バウンドであり、U及びLは、それぞれ、oの変換関数の出力の上限及び下限であり、Tは論理型決定しきい値である。

    【0031】記号型出力変数に関しては、必然度の割合は次式により計算される。

    【0032】[{(S(o,lo)-S(o',hi))/(U,L)}+1]*100 ここで、oは選択された出力PEであり、o'は最高位バウンドを備えた選択されなかったPEである。

    【0033】第2の信頼度測定21、すなわち解決度は、決定の強さを測定し、ブロック73で計算される。
    最大の可能性決定強さは100%の解決度数により示される。 0%に近い数値は、弱い決定を示す。 解決度は、
    出力状態と決定の境界との間の距離に基づいて計算される。 特に、論理型出力変数に関しては、解決度割合は、
    真の決定については、 (S(o,lo)-L)*100/(TL) 偽の決定については、 (US(o,hi))*100/(UT) に等しい。 ここで、S(o)は基礎となる出力PE oの状態である。

    【0034】記号型出力変数に関して、解決度の割合は、 (S(o)-S(o'))*100/(UL) に等しい。 ここで、oは選択された出力PEであり、
    o'は最高位バウンドを備えた選択されなかったPEである。

    【0035】医療領域は、上述の信頼度測定が有用であることの例を示す。 本発明が、診断決定を行うために用いられる場合には、これらの決定が生死の結論になる可能性がある。 特定の決定又はそれに対する行動を信頼する前に、医者はその決定に対してどれだけの信頼度を持つべきかを知りたい場合がある。 解決度は、医者にどの程度明確にその診断決定が他の診断よりも好ましいかを教えてくれるだろう。 必然度は、医者に、彼が他の情報を収集してもどの程度同じ決定であり続けるかの確からしさを示してくれるだろう。

    【0036】2つの信頼度測定は間接的に言及されているだけであることに留意すべきである。 高い必然度数を備えているが解決度数は少ない場合があるし、また逆もしかりである。 例えば、前者の事例は弱い決定が結論になっている場合に生じる。

    【0037】さて、出力状態のバウンドを計算するための正確な方法を考えてみると、この方法は、連続型入力変数の可能性のある数値について仮定がなされることを必要とする。 これらの仮定は、入力変数の分布統計量1
    3に基づいている。 ユーザが最小及び最大の統計量を用いることを選択した場合には、本発明は、未知の連続型入力変数の可能値が最小値と最大値との間にあることを仮定する。 ユーザが平均値及び標準偏差を代わりに用いることを選択する場合には、彼は、全ての連続型入力変数に適応可能な正範囲値rを特定する必要がある。 本発明は、未知の連続型変数iの可能値が以下の限界により定義される領域に収まることを仮定している。 : 下限=平均値(i)-(r*Sd(i)) 上限=平均値(i)+(r*Sd(i)) ここで、平均値(i)及びSd(i)は変数iの平均値及び標準偏差である。

    【0038】出力PEの状態のバウンドは、非入力PE
    の状態バウンドに関する以下の回帰方程式を用いて計算できる。

    【0039】S(p,lo)=T(Σ S C(s,p,lo)) S(p,hi)=T(Σ S C(s,p,hi)) ここで、Tはp及びC(s,p,hi)及びC(s,p,lo)は、各ソースsによるpの正味入力にされる貢献の高位バウンド及び低位バウンドである。 各sは、隠れPE、すなわち入力変数か、又はバイアス(特に、状態が常に1.0である場合の入力PE)のいずれかである。

    【0040】3つのsのいずれかは、どのようにして貢献バンドが計算されるかにより決定される。 sがバイアスの場合には、 C(s,p,hi)=C(s,p,lo)=W(s,p) であり、ここでW(s,p)はsないしpの連続の重みを示している。

    【0041】sが隠れPEである場合には、以下の方程式が用いられる。

    【0042】W(s,p)>0である場合には、 C(s,p,lo)=W(s,p)*S(s,lo) C(s,p,hi)=W(s,p)*S(s,hi) そうでない場合には、 C(s,p,lo)=W(s,p)*S(s,hi) C(s,p,hi)=W(s,p)*S(s,lo) sが入力変数である場合には、貢献バウンドの計算はs
    のデータタイプ及びsが既知か未知かに依存する。 sが論理型又は連続型であり、値vを備えていると知られている場合には、 C(s,p.lo)=C(s,p,hi)=v*W
    (i,p) であり、iはsに基づくPEである。

    【0043】sが論理型又は連続型であり、その数値が未知の場合には次の方程式が用いられる。

    【0044】W(i,p)>0である場合には、 C(s,p,lo)=W(s,p)*Min(s) C(s,p,hi)=W(s,p)*Max(s) そうでない場合には、 C(s,p,lo)=W(s,p)*Max(s) C(s,p,hi)=W(s,p)*Min(s) ここで、Max(s)及びMin(s)はsの最大及び最小の可能値である。 sが論理型である場合には、Max(s)はBであり、Min(s)は−Bである。 ここでB及び−Bは、それぞれ、真及び偽を示すために用いられる数値である。 sが連続型である場合には、Max(s)及びMin(s)は、分布統計量から得られた、sの仮定上の上限及び下限とされる。

    【0045】sが記号型であり、基礎となる選択グループ内のPE vに対応する値を備えていると知られている場合には、 C(s,p,lo)=C(s,p,hi)=C(s,p,v) であり、ここで、C(s,p,v)は貢献sであり、sの値がv
    に対応する場合に、pの正味入力となる。 特に、 C(s,p,v)=(W(v,p)-Σ i <> v W(i,p))*B であり、ここで、iは基礎となる選択グループ内のPE
    にわたり反復する。

    【0046】sが記号型であり、値が未知の場合には、 C(s,p,lo)=Min(C(s,p,i)) C(s,p,hi)=Max(C(s,p,i)) であり、ここでMax及びMinは、基礎となる選択グループ内の全てのPE iにわたり計算される。

    【0047】例示の問題は、上述の推論モジュールの動作を説明するために用いられる必要がある。 例示には、
    個人的な申請人のデータに基づく、個人の貸出決定に対する応用が含まれる。 ニューラルネットワークのアーキテクチャ及びこの問題に関して用いられるデータ流れは図7において説明される。 ネットワークは、コンピュータソフトウェアを用いてシミュレートされるが、本発明は、ハードウェアで実行されるネットワークに対しても等しく応用可能である。 ネットワークの入力レイヤ20
    3は13のPEを含み、それぞれが13の連続型入力変数に対応している。 入力レイヤは完全に単一の隠れレイヤ205に接続されており、隠れレイヤは3つのPEを備えており、それは単一のPEからなる出力レイヤ20
    7に完全に接続されている。 出力PEは貸出決定209
    に対応する値を備えた論理型変数を示してる。 真の値は貸出を認める決定に対応し、偽の値は断る決定に対応する。 出力及び隠れPEは従来の範囲[−1.0、1.
    0]内の出力を備えたシグモイド変換関数を備えている。

    【0048】図7内のネットワークは、本発明が動作可能なニューラルネットワークのタイプの1つの例であるに過ぎないことを留意すべきである。 一般的に、本発明は、任意の数の隠れレイヤ(0を含む)と、隠れレイヤと入力レイヤと出力レイヤ内の任意の数のPEとPEに関する任意の変換関数(異なるPEは異なる変換関数を有することが可能である)を備えた、フィードフォワードネットワーク上で動作可能である。

    【0049】特定のネットワークが、重み211を修正する、バックプロパゲーション学習を用いて訓練される。 バックプロパゲーション学習のアルゴリズムは、本発明とは独立であり、図7に示したフィードフォワードフローに加えてバックワードデータフローを含んでいる。 図7のネットワークは、貸出結果が知られている以前の申請人の例を示しているデータ201上で訓練される。 各事例は、許可(1.0)又は不許可(−1.0)
    の訓練値に、申請人がデフォルト値で貸出になっているかどうかにより、割当てられる。 申請人は、図8の表において説明される、13の入力変数の値により記述される。 表は、また、試験データベース内の実際の申請人に関する入力値を含んでいる。

    【0050】図7のネットワークを用いて、本発明は、
    図8に記述されている2つの欠落入力値にもかかわらず、この事例の申請人についての結論を作成することが可能である。 結論とされる決定は貸出の許可である。 この決定は出力変数の真値に対応し、申請人が実際のローンを満足に返済する限りに正しい決定である。 結論に到達すると、必然度は100%となる。 解決度は、真の決定を与える解決度に関する上述の公式を用いて、13.
    4%と計算される(解決度は、通常は、試験データベースにおける事例では40%以下である)。 さらに説明するために、信用報告(例えば、実際の預金口座、新しい預金口座、調査回数、公的記録項目、信用ファイルの時刻、及び3つの延滞変数)から得られる図8の値のみが知られていると仮定する。 ここでは、結論を得るためには多くの未知の入力が存在するが、本発明は、一時的な結論を発生する。 結論は、解決度10.1%及び必然度47.4%の許可である。 これらの値は真の決定に関する解決度及び必然度の公式を用いて計算される。

    【0051】図1を再び参照すると、第2の内部構成要素が説明モジュール23であることが示されている。 このモジュールは2つのタイプの説明を生成する。 1つのタイプは、各既知の入力値がこの決定を作成するにあたっての貢献を計算することにより、決定が、一時的であるか、または結論であるかを説明する。 このタイプは決定説明25であり、出力状態に基づく。 別のタイプは、
    結論説明27は、どのように結論に到達したかを説明するための出力バウンドを試験する。 結論説明は結論条件に到達する既知の入力によりなされる貢献を計算し、結論を支援するに十分な入力の最小のサブセットを決定する。

    【0052】貢献の2つのタイプは、入力値の現在の組の分脈で計算されることに留意する必要がある。 ある決定又は結論に対するある入力変数によりなされる貢献は、変数自身の値ではなくて、他の入力変数の値(又はその欠落)に依存している。 このように、説明の2つのタイプは、隠れレイヤを備えたフィードフォワードネットワークに見いだされる入力の相互依存性を捉えている。

    【0053】結論説明27は、変数の値が未知であると仮定された場合の結論条件の強さにおける減少に等しい各既知の入力変数に対する貢献を計算する。 この強さは、結論条件を示すバウンドと、結論が到達する出力変数の基礎となる状態の実際のバウンドとの間の距離として測定される。 結論説明の動作は、図3の流れ図において、単一の出力変数に関連して説明される。 モジュールと図については下で述べる。

    【0054】図3のブロック81においては、本発明は、結論が、説明が記述される出力変数に到達したかをチェックする。 どの結論も到達しない場合には、結論説明がブロック83において不能となる。 そうでない場合には、結論説明が、値が知られている第1又は次の入力変数を試験することによりブロック85に進む。 変数の値が一時的に未知であると仮定されると、出力状態のバウンドが一時的にブロック87で調整されて、その仮定を反映するようにされる。 調整されたバウンドと(調整される前の)真の出力バウンドは、試験される入力バウンドの貢献を判定するために比較される。

    【0055】貢献を計算する方法は、ブロック89において、出力変数が論理型か記号が高に依存している。 出力変数が論理型である場合には、貢献は、さらに、ブロック91において、変数に関する決定が真か偽かに依存している。 決定が真である場合には、結論条件は、論理型出力変数を基礎とするPEの状態の低位バウンドに基づき、こうして、ブロック93における貢献は、真の低位バウンドから基礎となる状態の調整された低位バウンドを引いた値に等しくなる。 決定が偽である場合には、
    結論条件は高位バウンドに基づき、こうして、ブロック95の貢献が、調整された高位バウンドから基礎となる状態の真の高位バウンドを引いた値となる。 公式的には、貢献は、真の決定に関しては、 S(o,lo)-S'(o,lo) 偽の決定に関しては、 S'(o,hi)-S(o,hi) に等しくなる。 ここでoは基礎となる出力PEであり、
    Sは真のバウンドを表し、S'は調整されたバウンドを示す。

    【0056】出力変数が記号型である場合には、結論条件は、選択されたPEの状態の低位バウンドと選択されないPEの中の最高位バウンドの間のギャップに基づく。 こうして、記号型出力変数に関しては、ブロック9
    7の貢献は、真のバウンドを与えるギャップから調整されたバウンドを引いた値になる。 公式的には、貢献は、 (S(o,lo)-S(o',hi))-(S'(o,lo)-S'(o'',hi)) に等しくなる。 ここでoは選択された出力PEであり、
    o'は最高位の真の高位バウンドを備えた選択されなかったPEであり、o''は最高位の調整された高位バウンドを備えた選択されなかったPEである。

    【0057】結論説明により計算された全ての貢献は負ではないことに流利すべきである。 これは、次の事実の組合わせに起因する。 1. 変数は、未知である変数に関連して計算される。 2. 入力変数の値が既知である場合には、各出力状態のバンドが同じままか、狭くなり、その場合に狭いバウンドは高位バンドが減少したか、及び/又は、低位バンドが減少したかを意味する。 3. 狭いバウンドは、結論条件を、強化できるが、弱めることはできない。 4. 貢献は結論条件の強さを測定する。

    【0058】特定の入力変数に関する貢献を計算した後に、本発明は、ブロック99において、全ての入力変数が試験されたかどうかを判定するためにチェックを行う。 試験されていない場合には、次の既知の変数が試験される。 そうでない場合には、結論説明はブロック10
    1に進み、そこで、全ての既知の入力変数に関する貢献が、スケーリング定数により積算されて、最大のスケーリング貢献が100.0であると判定される。 定数は、
    100.0をスケーリングされない貢献の最大値により割ることにより計算される。 ブロック103において、
    スケーリングされる貢献は、対応する変数名及び変数と共に、出力として生成される。 出力は貢献により数値的に順序づけられる。

    【0059】結論説明は、さらに、それ自体で到達するに十分な既知の入力値のサブセットである、最小前提を発見することにより、結論を説明する。 最小前提にない既知の入力は、未知であるとも言え、結論は保持される。 結論と最小前提は、現在分析される事例とは独立に、結論に到達するための十分な条件の組を述べる規則として、見ることも可能である。

    【0060】最小前提を発見する場合の結論説明の動作は図4において説明される。 第1のステップは、kを既知の入力変数の数に設定し、カウントcをブロック11
    1で初期化することである。 ブロック113に到達するごとに、cは1だけインクリメントされる。 ブロック1
    15を通る最初に、本発明は最小の貢献を有する既知の入力を選択する。 ブロック117において、変数の値は未知であると仮定される。 ブロック119において、それは、結論条件が、推論モジュールにより決定されたように、まだ仮定の下におかれているかどうかをチェックする。 結論がまだ支持されている場合には、2番目に小さな貢献を有する既知の入力変数がブロック115にもどって選択される。 この変数の値は未知であると仮定される。 この処理が、cが未知であると仮定された既知の入力変数の数を計数しながら、返付腐れる。 結論がブロック119を保持しなくなった場合に、最小前提がブロック121において決定される。

    【0061】図10は、図8に示されたローン申請人の例及び図7に記述されたネットワークの例を用いて、結論説明の出力の例を含んでいる。 各既知入力に関して、
    出力は貢献をリストアップして、変数が最小前提に属するかどうかを示す。 貢献が真の決定を与える貢献に関する上述の公式を用いて計算される。 最小前提は見出し十分条件に示されるように出力において区別される。 最小前提にない既知の入力変数は付帯条件においてリストアップされる。 図10は、この場合には最小前提が、信用ファイルの時刻を除いて、全ての既知の入力変数を含んでいる。 30日の現時点での延滞と調査の数が、認可の結論に到達するために最も重要であることを示している。

    【0062】説明の第2のタイプである、決定説明25
    は、貢献が既知の入力変数により結論にされたかを測定する。 このタイプの説明は、結論説明27と比較することにより最良に説明される。 両方のタイプの説明は、変数が未知であると仮定された場合に、出力の変化を試験することにより各既知の入力変数により形成される貢献を測定する。 しかしながら、結論説明は出力バウンドにおける変化を試験するのに対して、決定説明は出力状態における変化を試験する。 この違いは、結論説明が出力バウンドに基づく結論条件に対する貢献を測定するのに対して、決定説明が出力状態に基づく決定に対する貢献を測定するという事実により動機付けられる。

    【0063】別の相違は貢献の符号に関している。 上述のように、結論説明における貢献は、入力変数の値が結論条件を強化するかそのままにしておくかを知るだけで、値を知るのではないために、負の値をとることがない。 しかしながら、入力変数の値を知ることは、解決度信頼度測定における増減により示されるように、決定を弱めるばかりでなく強めることができる。 このように、
    決定説明における貢献は負の値も正の値をも取り得る。
    実際に、入力変数に関する特定の値は、1つの入力に関する分脈で特定の決定に対する正の貢献を形成することが可能であるが、別の分脈では同じ決定に対する負の貢献を形成することも可能である。 これは、隠れレイヤを備えたフィードフォワードネットワークに見いだされる入力の相互依存性のためである。

    【0064】決定説明の動作は、単一の出力変数に関して図5の流れ図において説明される。 モジュール及び図は次のように説明される。 ブロック131において、本発明は値が既知である第1の及び次の入力変数を試験する。 その変数の値が一時的に未知であると仮定され、出力状態がブロック133においてその仮定を反映するように一時的に調整される。 調整された出力状態と(調整される前の)真の出力状態が、試験される入力変数の貢献を決定するために比較される。

    【0065】貢献を計算する方法は、ブロック135において、出力変数が論理型であるか記号型であるかに依存している。 出力変数が論理型である場合には、貢献はさらに、ブロック137において、変数が真であるか偽であるかについての決定に依存している。 決定が真である場合には、ブロック139において、貢献は、真の状態から論理型出力変数を基礎とするPEの調整された状態を引いたものに等しくなる。 決定が偽である場合には、ブロック141において、貢献は、調整された出力状態から真の出力状態を引いたものである。 公式的には、貢献は、真の決定に関しては、 S(o)-S'(o) 偽の決定に関しては、 S'(o)-S(o) に等しくなる。 ここで、oは基礎となる出力PEであり、Sは真の状態を示し、S'は調整された状態を示す。

    【0066】出力変数が記号である場合には、ブロック143において、貢献は、選択されたPEの状態と選択されなかったPEの中の最高位の状態の間のギャップに基づく。 貢献は、真の状態を与えるギャップから調整された状態を与えるギャップを引いたものに等しい。 公式的には、貢献は、 (S(o)−S(o'))−(S'(o)−S'
    (o'')) に等しくなる。 ここで、oは選択された出力PEであり、o'は最高位の真の状態を備えた選択されなかったPEであり、o''は最高位の調整された状態を備えた選択されなかったPEである。

    【0067】特定の入力変数に対する貢献を計算した後で、本発明は、ブロック145において、全ての入力変数が試験されたかどうかを見るためにチェックを行う。
    行われない場合には、次の既知の変数が試験される。 そうでない場合には、決定試験がブロック147に進み、
    そこで、全ての既知の入力変数に関する貢献が、スケーリング定数により積算されて、貢献の最大の絶対値が1
    00.0となるように決定される。 定数は、100.0
    をスケーリングされない貢献の最大の絶対値で割ることにより計算される。

    【0068】ブロック149において、スケーリング貢献は、対応する変数名及び数値と共に出力として生成される。 出力は貢献により数値的に順序付けられる。 さらに、出力は既知の入力変数の3つのグループに区別される。 1. 決定に対して重要な貢献をしないもの、すなわち、絶対値がユーザが選択した重要度しきい値より下になるもの。 2. 決定を支援するのに重要であるもの、すなわち、しきい値以上の正の貢献を有するもの。 3. 決定を弱めるために重要であるもの、すなわち、絶対値がしきい値以下となる負の貢献を有するもの。

    【0069】図9は、再び、図8に示した貸出申請人及び図7に示したネットワークを用いて、決定説明の出力を例を含んでいる。 出力は、20.0の重要度しきい値を用いて生成される。 出力にリストアップされる貢献は、真の決定を与える貢献に関して示された上述の公式を用いて計算された。 出力は、許可の決定を支持するために4つの重要な要因があることを示している。 他の3
    つの要因は延滞変数を含んでいる。 許可に対して重要な重み付けを行う要因のみが、信頼度ファイルにおける時刻の値であった。 図10において留意すべきは、信頼度ファイルの時刻は、結論説明に示される最小の支持入力変数であった点である。 それは最小の貢献をなし、最小前提内にはない既知の入力変数であった。 しかしながら、一般的に、各測定は異なる特性を有するから、2つのタイプの説明に基づいた変数のランキングの間には間接的な関係が存在するのみである。

    【0070】決定説明における貢献の判定には、既知の入力変数が未知であるとの仮定に基づいて、調整された出力状態を計算する必要がある。 しかしながら、調整された状態の計算はネットワークの反復を必要としない。
    これは、従来の感度分析において入力変化の効果が変化を生じた後にネットワークを反復することにより決定されたことと対称的である。 本発明は、入力の変化から生じた修正された出力を発見すると共に、ネットワークの反復により計算コストを上昇を回避するための方法を含んでいる。

    【0071】ネットワークの反復の計算は、ネットワーク内の全ての重みを含んでいるが、本発明によれば、重みのサブセットのみを含む簡便な部分重み方法が用いられる。

    【0072】これは、計算に必要な計算時間がほぼ用いられる重みの数に比例するために重要である。 特に、本発明に基づく重み方法は、状態が変化された入力PEの1つと状態変化が測定された出力PEの1つとの間の経路にある接続に関する重みのみを用いる。

    【0073】かかる経路にある接続の精度は、隠れレイヤの数とネットワークの接続性に依存している。 特殊な例を提供するために、図7に示すネットワークを参照する。 vからv'に入力PEの状態を変更することに起因するこのネットワークの修正出力状態を発見することが必要であると仮定してみよう。 この部分重み方法は、i
    から3つの隠れPEのそれぞれに対する接続及び各隠れPEから出力PEに対する接続に関する重みのみを用いる。

    【0074】図7のネットワークに関する部分重み計算における第1のステップは3つの隠れPEのそれぞれの結果の正味入力を計算することである。 各隠れノードh
    に関する結果正味入力I'(h)は、I(h)+((v'-v)*W
    (i,h))に等しい。 ここで、W(i,h)はiからhへの接続の重みであり、I(h)はhに関する元の正味入力である。 次の段階は、隠れPEのそれぞれの結果状態を計算することである。 S'(h)はhの新しい状態であり、T(I'(h))に等しい。 ここで、Tは図7のネットワークで用いられる従来のシグモイド変換関数である。 修正出力状態は、T
    を各S'(h)の重み付け合計に加えることにより計算される。

    【0075】本発明に基づいて、部分重み方法を用いることで、図9の決定貢献の各々が6つの重みのみで計算される。 この方法なしでは、各貢献は、42の重みを用いるネットワーク反復を計算する必要がある。 部分重み方法はまた、決定における変化と、ユーザが入力値を付加、修正又は削除した結果の解決度を計算するためにも用いられる。

    【0076】決定及び結論を説明することに加えて、説明モジュール23は規則発生31を行う能力も有する。
    この処理は、一組のif-then規則を生成する。 各規則は、ある数の可能入力値と決定とから成る。 規則は、決定が入力値が真であると知られる場合の結論として支持されることを意味するように翻訳される。 これらの規則は、ネットワークの重みに含まれる知識をほぼ表すように意図される。 入力値と決定の精度の間の関係を形成することにより、ネットワーク内の知識が正確にされる。
    重みから規則に変換することにより、幾分精度が犠牲にされるが、規則は、ネットワーク内に含まれる知識を分析しようとするユーザの目的のみを意図するものであって、本発明の他の能力に必要なものではない。

    【0077】規則発生のキーは上述の最小前提29である。 規則内の入力値は、規則内の結論に到達するための一組の最小前提である。 換言すれば、規則発生は、規則内のいずれかの入力値が除去された場合に、規則の結論がもはや保持されないような規則を構成することである。 規則発生は、一組の最小前提を生成して仮説的な結論を支持することにより規則性構成する。 この場合に、
    前提は仮設(しかし可能な)入力値から構成される。 特に、規則は、結論としての変数に関する可能な決定の1
    つを支持可能な一組の仮説的最小前提を発見することにより、出力変数に関して生成される。 発見された最小前提の各固有組が規則になる。 全ての可能な組が発見されて、全ての可能な規則が発生されるが、それは規則当たりの前提の最大数を特定するユーザの選択により制限を受けるのみである。

    【0078】最小前提の全ての可能な組が入力空間の調査を行うことにより発見される。 特に規則発生は従来のデプス−ファースト・ツリー(depth-first tree)調査を用いる。 本発明の分脈においては、シミュレートされたツリーを通る経路は入力値の可能な組合わせに対応する。 ツリーの各レベルは異なる入力変数入力変数に対応する。 ツリー内の各ノードはn+1のブランチを有しており、ここで、nはノードが存在するレベルに対応する入力変数に関する可能な値の数である。 1つのブランチは各可能値に対応し、余分のブランチは未知の値に対応する。 論理型入力変数に関しては、可能値は真及び偽であり、従って、nは2である。 記号型変数に関しては、
    nは可能な記号の数である。 連続型変数に関しては、非常に多くの可能値が存在し、そのため値の代表的サンプルを選択する必要がある。 本発明の解決はある連続型入力変数の数値範囲内の異なる領域を代表する3つの値を選択することである。 これらの値を選択するための特定の方法については後述する。

    【0079】ツリー内の特定経路に沿った調査は、経路内の各ブランチに対応する値(場合によっては未知である)の選択として解釈される。 こうして、調査がツリーをmレベル下ったときに、m入力変数の値が設定されるか、あるいは未知であると宣言される。 調査は、組値が結論になるか、ツリーの底部に到達するまで、各可能経路について行われる。 結論なしに底部に到達した場合には、経路は何の規則も生成しない。 しかし、結論に到達した場合には、経路内の既知の値の組が、結論と共に候補規則を構成する。 候補規則は、その前提が最小である場合、すなわち、経路内の全ての既知の値の組が結論を支持するために必要とされる場合にのみ選択される。 規則発生は、既知の値が、結果的に結論を欠落させずに、
    未知であると仮定できるかどうかを判断するためにチェックを行う。 その場合には、前提は最小ではなく、候補規則は捨てられる。 そうでない場合には、候補規則は規則発生の出力内に含まれる。

    【0080】各連続型入力変数に関する3つのサンプル値を選択するための正確な方法について考えてみるに、
    規則発生は、変数の値範囲の上部、下部及び中部の範囲から値を選択する。 選択された値は、高位、低位及び中位として言及され、入力変数統計量13から計算される。 中位値は入力変数の平均に等しい。 高位及び低位に関する数値は、どの統計量が用いられるかに依存している。 最小及び最大の統計量が用いられた場合には、後続の値が連続型入力変数iに関して選択される。

    【0081】低位=(3 Min(i)+Max(i))/4 高位=(3 Max(i)+Min(i))/4 ここで、Min(i)及びMax(i)はiの最小値及び最大値である。 選択された値は間隔[Min(i),Max(i)]の間の4分の1及び4分の3の点に対応する。

    【0082】平均値及び標準偏差統計量を用いる場合には、次の値が選択される。

    【0083】低位=平均値(i)-(z*Sd(i)) 高位=平均値(i)+(z*Sd(i)) ここで平均値(i)及びSd(i)は変数iの平均値及び標準偏差値であり、zは全ての連続型入力変数に適応すべくユーザにより選択された可能値である。

    【0084】図12は、上述の方法を用いて、規則発生器により生成された典型的な規則を含んでいる。 貸出記録問題が再び例として用いられている。 この問題は連続型入力変数を含むから、本発明の、規則前提として連続型変数を用いるための方法、すなわち、高位、低位及び中位を用いる方法の良好な事例となる。 図12に示す規則は、許可結論を支持するために十分な6つの入力値を特定する。 申請人がこれらの6つの値を有する場合には、彼は、残りの7つの入力変数に関する彼の値いかんにかかわらず、許可が保証される。

    【0085】再び図1を参照すると、第3の内部構成要素は知能知識獲得モジュール33である。 用語「知能知識獲得」は、どの知識が目的にとって有益であるかを決定するための組織的な方法について言及している。 本発明の分脈において、これは、どの未知の入力変数が、それらの値が既知になった場合に、特定の出力変数に最も大きなインパクトを有するかについての評価を含んでいる。 最も大きな影響力を有する未知の入力変数に関する値を追うことにより、ユーザは結論の調査に必要とされる別の入力の数を減じることが可能になる。 これは、特に、情報の収集に関して、非常にコストと危険がかかり、時間の遅れが生じる医療診断のような分野において重要である。

    【0086】知能知識獲得(IKA)モジュールの動作は図6の流れ図において説明される。 モジュールは、ユーザ選択の出力変数に関する各未知の入力変数33の潜在的な影響を測定する。 図6のブロック161においては、IKAモジュールは、値が未知である第1の又は次の入力変数を試験する。 試験値は、ブロック163において、変数に関して決定される。 変数が論理型又は記号型である場合には、変数の各可能値が試験値として用いられる。 それらは、規則発生31において連続型入力変数に関して高位及び低位の値が選択された公式と同様の公式を用いて計算される。

    【0087】入力変数に関する試験値が決定された後に、影響のトータルが、ブロック165においてゼロに初期化される。 第1及び次の試験値がブロック167において選択されて、入力変数が、一時的に、その値を備えているものと仮定される。 モジュールは、ユーザ選択の出力変数に関する決定に対する入力値により形成される貢献を計算する。 貢献は、決定説明25が貢献を計算する公式と同様の公式を用いて計算される。 計算された貢献の絶対値は、ブロック169において影響の総計に加算される。 全ての試験値がブロック171で用いられると、入力変数に関する影響測定が、ブロック173において、試験値の数により影響総計を割ることにより、
    計算される。 未知の変数の影響は、このようにして、変数の試験値により形成された貢献の平均値の絶対値となるように、計算される。

    【0088】変数の影響を計算した後に、IKAモジュールが、ブロック175において、全ての未知の入力変数が試験されたかどうかを判定するためにチェックされる。 試験されなかった場合には、次の未知の変数が試験される。 そうでない場合には、モジュールはブロック1
    77に進み、そこで、全ての未知の入力変数に関する影響測定が、最大の測定値が100.0になるように決定されたスケーリング定数により積算される。 定数が、1
    00.0をスケーリングされなかった測定値の最大値で割ることにより計算される。 ブロック179において、
    スケーリングされた影響の測定値が、対応する変数の平均値と共に、出力として生成される。 出力は影響測定値により数値的に順序付けられる。

    【0089】図11は、再び、図8に示す貸出に対する応用例と、図7に示すネットワークとを用いて、IKA
    の出力の例を含んでいる。 前掲の例にように、この例は、私たちが、信用報告書に由来する図8にリストアップされた値のみを知っていることを仮定する。 ここでは、5つの未知の入力変数が存在する。 図11の出力は、これらの5つの変数に関して計算された影響の測定値を、図6の流れ図に示した方法を用いて、示している。 測定値は、銀行カード口座、又は就労年月が結論に到達するための最大の変数であることを示している。 その場合に、居住年月値を知ることが最も価値がないことを示している。

    【0090】IKAモジュールにより計算された影響の測定は、説明モジュール23により計算された貢献と同様に、入力値の現在の組に依存している。 こうして、未知の入力変数が、大きな影響測定値に示されているように、同じ状況において重要なものとなり、他のものが重要でなくなる可能性があることを示している。

    【0091】

    【発明の効果】以上のように、本発明は、説明を含むエキスパートシステムの機能にフィードフォワードニューラルネットワークの機能が付加されたようなシステムである。 本発明は、従来技術の欠点を克服する。 特に、本発明は、連続状態のフィードフォワードネットワークに関する欠点を克服し、十分な入力情報が結論を作成するために存在知る場合に決定を行うことが可能であり;その決定及びどうしてこれらの決定のうちのあるものが結論になるかを正確に説明可能であり;その決定に伴う信頼度測定を計算可能であり;未知の値を備えた相対的に重要な入力を計算可能である。 本発明は、人間が規則の形式で知識を与えることに依存せずに、事例から学習可能である点で、現存のエキスパートシステムとは異なる。 本発明の説明は、本発明が非線形関係を扱うので、
    2レイヤネットワークにおける説明に関する現存の技法とは異なる。 本発明は、例えば、本発明は連続状態フィードフォワードネットワークの強力なクラス上で動作する点において、従来の混合型システムの欠点を克服可能なので、従来の混合型システムとも異なっている。

    【図面の簡単な説明】

    【図1】本発明に基づく、入力及び出力を含む、主な構成要素の概略図である。

    【図2】本発明に基づく、推論モジュールの動作を示す流れ図である。

    【図3】本発明に基づく、結論説明の動作を示す第1の流れ図である。

    【図4】本発明に基づく、結論説明の動作を示す第2の流れ図である。

    【図5】本発明に基づく、決定説明の動作を示す流れ図である。

    【図6】本発明に基づく、知能知識獲得の動作を示す流れ図である。

    【図7】貸出評価問題で動作する本発明に基づくニューラルネットワークアーキテクチャとデータフローの概略図である。

    【図8】図7に示す動作において、事例の値と共に、貸出評価問題における入力変数を示している。

    【図9】図7及び図8に示す貸出評価問題における決定説明の出力の例を示している。

    【図10】図7及び図8に示す貸出評価問題における結論説明の出力の例を示している。

    【図11】図7及び図8に示す貸出評価問題における知能知識獲得の出力の例を示している。

    【図12】図7及び図8に示す貸出評価問題における規則発生の出力の例を示している。

    【符号の説明】

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈