首页 / 专利库 / 人工智能 / 人工智能 / 机器学习 / 半监督学习 / Semi-supervised learning method, device, and program

Semi-supervised learning method, device, and program

阅读:471发布:2020-11-25

专利汇可以提供Semi-supervised learning method, device, and program专利检索,专利查询,专利分析的服务。并且PROBLEM TO BE SOLVED: To provide a general-purpose, practical and high-accuracy classifier having a small number of learning parameters, and allowing application of supervised learning as a lower learning machine.
SOLUTION: Training data are stored. Unlabeled data and test data are stored. The supervised learning is performed by the training data. A gradient is stored. The training data, the unlabeled data, and the test data are combined, and the supervised learning is repeatedly performed. A learned discriminant function is stored. A label of the test data is predicted by use of the discriminant function.
COPYRIGHT: (C)2009,JPO&INPIT,下面是Semi-supervised learning method, device, and program专利的具体信息内容。

  • アンサンブル学習に基づく半教師あり学習方法において、
    記憶データ、テストデータ及びラベル無しデータを記憶するデータ記憶ステップと、
    前記データ記憶ステップにおいて記録した訓練データに基づいて教師あり学習を行う初期学習ステップと、
    前記初期学習ステップにおいて算出されたデータを記憶する算出結果記憶ステップと、
    前記データ記憶ステップにおいて記録した訓練データとラベル無しデータの属性を結合したデータ及び前記算出結果記憶ステップで記憶しているデータに基づいて教師あり学習を反復的に行う学習ステップと を備えることを特徴とする半教師あり学習方法。
  • 請求項1に記載の半教師あり学習方法において、
    前記学習ステップにおける教師あり学習は、前記初期学習ステップによって算出された訓練データの勾配及びテストデータの勾配をラベルとして行われることを特徴とする半教師あり学習方法。
  • 請求項1又は2に記載の半教師あり学習方法において、
    前記初期学習ステップにおける教師あり学習の方式がブースティング又は勾配ブースティングであることを特徴とする半教師あり学習方法。
  • 請求項1乃至3の何れか1項に記載の半教師あり学習方法において、
    前記初期学習ステップにおける訓練データに関する損失関数が凸関数であることを特徴とする半教師あり学習方法。
  • 請求項1乃至4の何れか1項に記載の半教師あり学習方法において、
    前記初期学習ステップにおける訓練データに関する損失関数が指数関数であることを特徴とする半教師あり学習方法。
  • 請求項1乃至5の何れか1項に記載の半教師あり学習方法において、
    前記初期学習ステップにおける各ラウンドで学習された判別関数に縮小パラメータを乗ずる、初期正則化ステップを更に備えることを特徴とする半教師あり学習方法。
  • 請求項1乃至6の何れか1項に記載の半教師あり学習方法において、
    前記初期学習ステップにおける下位学習機械が決定木であることを特徴とする半教師あり学習方法。
  • 請求項1乃至7の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおける教師あり学習の方式がブースティング又は勾配ブースティングであることを特徴とする半教師あり学習方法。
  • 請求項1乃至8の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおけるラベル無しデータとはテストデータであることを特徴とする半教師あり学習方法。
  • 請求項1乃至9の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおける訓練データに関する損失関数が凸関数であることを特徴とする半教師あり学習方法。
  • 請求項1乃至10の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおける訓練データに関する損失関数が指数関数であることを特徴とする半教師あり学習方法。
  • 請求項1乃至11の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおいて、ラベル無しデータに対する下位学習機械の予測値の分散を最小化することを特徴とする半教師あり学習方法。
  • 請求項1乃至12の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおける各ラウンドで学習された判別関数に縮小パラメータを乗ずる、正則化ステップを更に備えることを特徴とする半教師あり学習方法。
  • 請求項1乃至13の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおける下位学習機械が決定木であることを特徴とする半教師あり学習方法。
  • 請求項1乃至14の何れか1項に記載の半教師あり学習方法において、
    前記学習ステップにおいて得られた学習結果に基づいてテストデータのラベルを予測する予測ステップを更に備えることを特徴とする半教師あり学習方法。
  • アンサンブル学習に基づく半教師あり学習装置において、
    訓練データを記憶する訓練データ記憶部と、ラベル無しデータおよびテストデータを記憶するテストデータ記憶部と、訓練データにより教師あり学習を行う初期学習部と、勾配を記憶するパラメータ記憶部と、訓練データとラベル無しデータおよびテストデータを結合し、教師あり学習を反復的に行う学習部と、学習された判別関数を記憶する判別関数記憶部と、判別関数を用いてテストデータのラベルを予測する判別部を備えることを特徴とする半教師あり学習装置。
  • アンサンブル学習に基づく半教師あり学習装置において、
    記憶データ、テストデータ及びラベル無しデータを記憶するデータ記憶手段と、
    前記データ記憶手段において記録した訓練データに基づいて教師あり学習を行う初期学習手段と、
    前記初期学習手段において算出されたデータを記憶する算出結果記憶手段と、
    前記データ記憶手段において記録した訓練データとラベル無しデータの属性を結合したデータ及び前記算出結果記憶手段で記憶しているデータに基づいて教師あり学習を反復的に行う学習手段と を備えることを特徴とする半教師あり学習装置。
  • 請求項17に記載の半教師あり学習装置において、
    前記学習手段における教師あり学習は、前記初期学習手段によって算出された訓練データの勾配及びテストデータの勾配をラベルとして行われることを特徴とする半教師あり学習装置。
  • 請求項17又は18に記載の半教師あり学習装置において、
    前記初期学習手段における教師あり学習の方式がブースティング又は勾配ブースティングであることを特徴とする半教師あり学習装置。
  • 請求項17乃至19の何れか1項に記載の半教師あり学習装置において、
    前記初期学習手段における訓練データに関する損失関数が凸関数であることを特徴とする半教師あり学習装置。
  • 請求項17乃至20の何れか1項に記載の半教師あり学習装置において、
    前記初期学習手段における訓練データに関する損失関数が指数関数であることを特徴とする半教師あり学習装置。
  • 請求項17乃至21の何れか1項に記載の半教師あり学習装置において、
    前記初期学習手段における各ラウンドで学習された判別関数に縮小パラメータを乗ずる、第1の正則化手段を更に備えることを特徴とする半教師あり学習装置。
  • 請求項17乃至22の何れか1項に記載の半教師あり学習装置において、
    前記初期学習手段における下位学習機械が決定木であることを特徴とする半教師あり学習装置。
  • 請求項17乃至23の何れか1項に記載の半教師あり学習装置において、
    前記学習手段における教師あり学習の方式がブースティング又は勾配ブースティングであることを特徴とする半教師あり学習装置。
  • 請求項17乃至24の何れか1項に記載の半教師あり学習装置において、
    前記学習手段におけるラベル無しデータとはテストデータであることを特徴とする半教師あり学習装置。
  • 請求項17乃至25の何れか1項に記載の半教師あり学習装置において、
    前記学習手段における訓練データに関する損失関数が凸関数であることを特徴とする半教師あり学習装置。
  • 請求項17乃至26の何れか1項に記載の半教師あり学習装置において、
    前記学習手段における訓練データに関する損失関数が指数関数であることを特徴とする半教師あり学習装置。
  • 請求項17乃至27の何れか1項に記載の半教師あり学習装置において、
    前記学習手段において、ラベル無しデータに対する下位学習機械の予測値の分散を最小化することを特徴とする半教師あり学習装置。
  • 請求項17乃至28の何れか1項に記載の半教師あり学習装置において、
    前記学習手段における各ラウンドで学習された判別関数に縮小パラメータを乗ずる、第2の正則化手段を更に備えることを特徴とする半教師あり学習装置。
  • 請求項17乃至29の何れか1項に記載の半教師あり学習装置において、
    前記学習手段における下位学習機械が決定木であることを特徴とする半教師あり学習装置。
  • アンサンブル学習に基づく半教師あり学習プログラムにおいて、
    訓練データを記憶する訓練データ記憶機能と、ラベル無しデータおよびテストデータを記憶するテストデータ記憶機能と、訓練データにより教師あり学習を行う初期学習機能と、勾配を記憶するパラメータ記憶機能と、訓練データとラベル無しデータおよびテストデータを結合し、教師あり学習を反復的に行う学習機能と、学習された判別関数を記憶する判別関数記憶機能と、判別関数を用いてテストデータのラベルを予測する判別機能をコンピュータに実現させることを特徴とする半教師あり学習プログラム。
  • アンサンブル学習に基づく半教師あり学習プログラムにおいて、
    記憶データ、テストデータ及びラベル無しデータを記憶するデータ記憶機能と、
    前記データ記憶機能において記録した訓練データに基づいて教師あり学習を行う初期学習機能と、
    前記初期学習機能において算出されたデータを記憶する算出結果記憶機能と、
    前記データ記憶機能において記録した訓練データとラベル無しデータの属性を結合したデータ及び前記算出結果記憶機能で記憶しているデータに基づいて教師あり学習を反復的に行う学習機能と をコンピュータに実現させることを特徴とする半教師あり学習プログラム。
  • 说明书全文

    本発明は、アンサンブル学習を用いてラベル有りデータだけでなくラベル無しデータも学習することによる予測精度の高い半教師あり学習方法、半教師あり学習装置及び半教師あり学習プログラムに関する。

    ラベル有りデータを訓練データとして学習機械に学習させたうえで、テストデータのラベルを予測する学習方式は、教師あり学習と呼ばれている。

    教師あり学習の方法としては、ブースティング、バギング、サポートベクターマシンなどが有名であり、様々なデータにおいて適用されている。 ブースティング、バギング、サポートベクターマシンについては、非特許文献1乃至3に記載されている。

    しかしながら、教師あり学習で高精度の分類器を構成するためには十分な量の訓練データが必要である。 この点、一般的にはデータを人手でラベル付けするために、十分な量の訓練データを得るためには非常に時間や労を要するという問題がある。 また、得られたデータの分布に偏りが大きい場合は、テストデータに対する予測精度が低いという問題が指摘されている。

    これらの問題に対して、半教師あり学習と呼ばれる手法が提案されている。 従来のブースティングやサポートベクターマシンの方法論を拡張することにより、半教師あり学習が実現されている事例が非特許文献4乃至7に記載されている。

    ここで、半教師あり学習とは、訓練データだけでなく、ラベル無しデータあるいはテストデータの分布も考慮した学習方式を指し、訓練データが少数の場合であっても高精度の分類器を構成することを目的とする学習方式をいう。

    なお以下の説明では、ラベル無しデータおよびテストデータを単にテストデータと記載する。
    Y Freund, RE Schapire, A decision-theoretic generalization of on-line learning and an application to boosting, Journal of Computer and System Sciences, 1997, 23-27. L. Breiman, Bagging Predictors, Machine Learning, 1996, 123-140. JP Vert, K. Tsuda and B. Scholkopf, " A primer on kernel methods ",in Kernel Methods in Computational Biology, MIT Press, 2004, 35-70. F.d'Alche Buc, Y. Grandvalet, and C. Ambroise, Semi-supervised margin boost, Advances in Neural Information Processing Systems 14, MIT Press, 2002. Y. Grandvalet, F.d'Alche Buc, and C. Ambroise, Boosting mixture models for semi-supervised learning, ICANN, Springer-Verlag, 2002, 41-48. KP Benett, A. Demiriz, and R. Macin, Exploiting unlabeled data in ensemble methods, SIGKDD, ACM, 2002. O. Chapelle and A. Zien, Semi-supervised classification by low density separation, In Proceedings of the Tenth International Workshop on Artificial Intelligence and Statistics, 2005. J Friedman, Greedy Function Approximation: A Gradient Boosting Machine, The Annals of Statistics, 2001, 1189-1232. Boaz Leskes, The Value of Agreement, a New Boosting Algorithm, Master Thesis, Section Computational Science and Institute for Logic, Language & Computation, University of Amsterdam, 2005. A. Buja and YS Lee, Data Mining Criteria for Tree-Based Regression and Classification, Proceedings of KDD 2001, 27-36. UCI Machine Learning Repository Content Summary [平成19年9月12日検索]、インターネット 〈http://mlearn.ics.uci.edu/MLSummary.html〉

    もっとも、上記した非特許文献4乃至7に記載の方法では、以下に示すような問題点がある。

    まず、非特許文献4及び5に記載の方法は、ブースティングに用いる下位学習機械として半教師あり学習を行う学習機械が必要であり、従来の教師あり学習の手法を用いることができない。 そのため、適用可能なデータ形式に制限があり汎用性に乏しいという問題がある。 また、大規模データに対して、計算時間を要するという問題もある。

    一方、非特許文献6に記載の方法では、非特許文献4,5において問題であったブースティングの下位学習機械として、教師あり学習の学習機械を用いることが可能である。 しかし、学習の定式化に問題があるため、分類精度の向上効果が乏しく、性能が劣化する場合もあることが報告されている。

    また、非特許文献7に記載の方法では、サポートベクターマシンの目的関数にテストデータに関する損失関数を導入しているが、計算方法や最適化法が煩雑なため、多数の学習パラメータのチューニングや計算時間を要する問題がある。

    そこで、本発明は上述した問題点を鑑み、学習理論に基づき、ブースティングを用いてラベル無しデータに対する予測値の分散を最小化しつつ訓練データの損失関数も最小化することで、下位学習機械として教師あり学習を適用可能な汎用的かつ学習パラメータの少ない実用的な高精度の分類器を提供することを目的とする。

    本発明の第1の観点によれば、方法としてアンサンブル学習に基づく半教師あり学習方法において、記憶データ、テストデータ及びラベル無しデータを記憶するデータ記憶ステップと、前記データ記憶ステップにおいて記録した訓練データに基づいて教師あり学習を行う初期学習ステップと、前記初期学習ステップにおいて算出されたデータを記憶する算出結果記憶ステップと、前記データ記憶ステップにおいて記録した訓練データとラベル無しデータの属性を結合したデータ及び前記算出結果記憶ステップで記憶しているデータに基づいて教師あり学習を反復的に行う学習ステップとを備えることを特徴とする半教師あり学習方法が提供される。

    更に、本発明の第2の観点によれば、第1の装置としてアンサンブル学習に基づく半教師あり学習装置において、訓練データを記憶する訓練データ記憶部と、ラベル無しデータおよびテストデータを記憶するテストデータ記憶部と、訓練データにより教師あり学習を行う初期学習部と、勾配を記憶するパラメータ記憶部と、訓練データとラベル無しデータおよびテストデータを結合し、教師あり学習を反復的に行う学習部と、学習された判別関数を記憶する判別関数記憶部と、判別関数を用いてテストデータのラベルを予測する判別部を備えることを特徴とする半教師あり学習装置が提供される。

    更に、本発明の第3の観点によれば、第2の装置としてアンサンブル学習に基づく半教師あり学習装置において、記憶データ、テストデータ及びラベル無しデータを記憶するデータ記憶手段と、前記データ記憶手段において記録した訓練データに基づいて教師あり学習を行う初期学習手段と、前記初期学習手段において算出されたデータを記憶する算出結果記憶手段と、前記データ記憶手段において記録した訓練データとラベル無しデータの属性を結合したデータ及び前記算出結果記憶手段で記憶しているデータに基づいて教師あり学習を反復的に行う学習手段とを備えることを特徴とする半教師あり学習装置が提供される。

    更に、本発明の第4の観点によれば、第1のプログラムとしてアンサンブル学習に基づく半教師あり学習プログラムにおいて、訓練データを記憶する訓練データ記憶機能と、ラベル無しデータおよびテストデータを記憶するテストデータ記憶機能と、訓練データにより教師あり学習を行う初期学習機能と、勾配を記憶するパラメータ記憶機能と、訓練データとラベル無しデータおよびテストデータを結合し、教師あり学習を反復的に行う学習機能と、学習された判別関数を記憶する判別関数記憶機能と、判別関数を用いてテストデータのラベルを予測する判別機能をコンピュータに実現させることを特徴とする半教師あり学習プログラムが提供される。

    更に、本発明の第5の観点によれば、第2のプログラムとしてアンサンブル学習に基づく半教師あり学習プログラムにおいて、記憶データ、テストデータ及びラベル無しデータを記憶するデータ記憶機能と、前記データ記憶機能において記録した訓練データに基づいて教師あり学習を行う初期学習機能と、前記初期学習機能において算出されたデータを記憶する算出結果記憶機能と、前記データ記憶機能において記録した訓練データとラベル無しデータの属性を結合したデータ及び前記算出結果記憶機能で記憶しているデータに基づいて教師あり学習を反復的に行う学習機能とをコンピュータに実現させることを特徴とする半教師あり学習プログラムが提供される。

    本発明によれば、訓練データだけでなく、ラベル無しデータの分布も学習することから、少数の訓練データから高精度の分類器を構成することが可能になる。

    次に、本発明の実施形態について図面を用いて説明する。

    本発明は訓練データだけなくテストデータも用いて、ブースティングによる学習を行い、下位学習機械として任意の教師あり学習の学習機械を利用することで、訓練データが少ない状況においても、高精度の分類器を構成する新しい方法である。 以下に本発明を実施するための形態について、図面を参照して説明する。

    図1を参照すると、本発明の実施形態は、キーボード等の入力装置1と、プログラム制御により動作するデータ処理装置2と、情報を記憶する記憶装置3と、ディスプレイ装置や印刷装置等の出力装置4を備える。

    データ処理装置2は、初期学習部21と、学習部22と、判別部23を備える。

    初期学習部21は、訓練データのみを用いてブースティングによる学習を行い、テストデータの勾配を計算する部分である。 学習部22は、訓練データ及びテストデータの勾配をラベルとしてブースティングによる学習を行い、判別関数を更新する部分である。 判別部23は、学習された判別関数を用いてテストデータのラベルを予測する部分である。

    記憶装置3は、訓練データを格納する訓練データ記憶部31と、テストデータを格納するテストデータ記憶部32と、損失関数の勾配を格納するパラメータ記憶部33と、判別関数を格納する判別関数記憶部34を備える。

    次に図1、図2及び図3を参照して、本発明を実施するための形態の動作について、説明する。

    まず、入力装置1によって実行指示が与えられ、訓練データ記憶部31及びテストデータ記憶部32からデータ処理装置2に訓練データとテストデータが入力される(図2、ステップA1)。

    次に、初期学習部21により、訓練データを用いた判別関数Fの教師あり学習が行われる(図2、ステップA4)。 なお初期学習部21の具体的動作(ステップA2及びステップA3)については下記する。

    そして、判別関数を反復的に更新し(図2、ステップA5)、判別関数による訓練データの勾配を計算する(図2、ステップA6)。

    その後、算出された勾配がパラメータ記憶部33、判別関数が判別関数記憶部34に記憶される。

    図2を参照して、初期学習部21の具体的な動作について、説明する。

    まず、訓練データ記憶部31とテストデータ記憶部32から訓練データ及びテストデータがデータ処理装置2に入力される(図2、ステップA1)。

    次に初期学習部21は、反復回数にt 、縮小パラメータにν を設定する(図2、ステップA2)。 また、反復回数を計数する指示パラメータTを1に初期化する(図2、ステップA3)。

    訓練データを用いた判別関数Fの教師あり学習を行う(図2、ステップA4)。

    ラウンドT−1で得られた判別関数F T−1に、学習により得られた判別関数Fを加えることにより、判別関数F として更新する(図2、ステップA5)。 数式として、以下に示す。

    ここで、ν

    (0<ν

    ≦1)は縮小パラメータであり、オーバーフィッティングを防ぐ正則化のために導入されている。 ν1が導入されていることにより汎化誤差を最小にするようなF

    に収束することとなる。

    次に、判別関数F を用いて、損失関数を最小化する訓練データの勾配を求める(図2、ステップA6)。

    ここで、教師あり学習におけるブースティングの損失関数は、訓練データにおける誤り率を最小化することにより、テストデータの誤り率も同時に最小化することを目的として、設計されている。 非特許文献8には、勾配ブースティングと呼ばれる方法で損失関数を判別関数により微分することで、損失関数の最小化方向を探索するという方法が記載されている。

    具体的な損失関数としては、以下の数式で表されるような関数がある。

    ここで、Lは損失関数、yiはi番目のデータのクラスラベル、yi∈(−1,1)、F(xi)は判別関数であり、i番目のデータの属性xiが与えられたときの出力を表す。 損失関数は凸関数であるので、損失関数LをF(xi)で微分し、負をとることによって、損失関数の最小化方向が得られる。

    ここで、giはデータxiの勾配であり、Dlabeledは訓練データの属性とラベルの組の集合である。

    次に、反復回数の指示パラメータTに1を加える(図2、ステップA7)。 そしてTの値が予め定めた定数tに達すれば、学習を終了する。 一方、定数tに達していない場合は、勾配をラベルとした判別関数の教師あり学習(図2、ステップA4)に戻る(図2、ステップA8)。

    次に、判別関数F を用いてテストデータの勾配を算出する(図2、ステップA9)。

    ここで、テストデータはラベル無しデータである。 そのため、テストデータについては、訓練データと同じ損失関数や勾配を用いることができない。 しかし、非特許文献9において、下位学習機械の集合から得られるラベル無しデータの予測値の分散を小さくすることにより、ブースティングの汎化性能が向上できることが示されている。 すなわち、ラベル無しデータの予測値の分散を最小にするような勾配を、テストデータについて求めれば性能を向上させることが可能である。

    そこで、逐次的に分散を最小化することのできる勾配を以下のようにして導出する。 下位学習機械の数がLと下位学習機械の数がL+1における予測値の分散をそれぞれ、VL,VL+1とすると、

    と書ける。 ここで、flはl番目に学習された判別関数であり、xiはテストデータである。 ここで、L+1番目の下位学習機械で求めるべき勾配をgとすると、

    と書き直すことができる。 gはΔV=VT−VT+1を最大化するように求めればよい。 そこで、gによりΔVの微分が0になるようにgを定める。

    ここで、ΔVがgに関する2階微分が常に負であることから、凹関数であり、大域的な最大値を求めることができることが保証されている。 また、上記のgをΔVに代入すると、ΔV>0であるので、単調に分散を減少させることができる。

    初期学習部21によって得られた訓練データとテストデータの勾配はパラメータ記憶部33に格納し、学習された判別関数F は判別関数記憶部34に格納する。

    初期学習部21は勾配ブースティングと同一のアルゴリズムであり、テストデータの勾配を複数の判別関数から予測値の分散を求めるために学習を行う。

    次に、学習部22の動作を図3を用いて説明する。

    まず、訓練データ記憶部31とテストデータ記憶部32から訓練データ及びテストデータが学習部22に入力される。 また、初期学習部21によって得られた訓練データとテストデータの勾配がパラメータ記憶部33から学習部22に入力される(図3、ステップB1)。

    反復回数t 、縮小パラメータν が設定される(図3、ステップB2)。 反復回数を計数する指示パラメータTを1に初期化し(図3、ステップB3)、訓練データとテストデータの勾配をラベルとして訓練データ及びテストデータを用いた判別関数Fの教師あり学習を行う(図3、ステップB4)。

    次に、ラウンドT−1で得られた判別関数F T−1に、学習により得られた判別関数Fを加えることにより、判別関数F として更新する(図3、ステップB5)。
    得られた判別関数F を用いて、訓練データ及びテストデータの勾配を計算する(図3、ステップB6)。

    初期学習部21と同様にして、訓練データ及びテストデータの勾配をそれぞれで求めた後、反復回数の指示パラメータTに1を加える(図3、ステップB7)。

    Tが予め定めた定数t に達すれば、学習を終了する。 一方、達していない場合は、勾配をラベルとした判別関数の教師あり学習(図3、ステップB4)に戻る(図3、ステップB8)。 学習された判別関数は判別関数記憶部34に格納する。

    判別学習部23では、テストデータをテストデータ記憶部32から入力し、判別関数記憶部34から判別関数を入力し、テストデータのラベルを予測する。

    ラベル情報としては、例えば医学・生物学分野の場合、疾患や薬効の有無、病態の進行度の他に生存時間などを用いることができる。 教師付き学習の方法としては、例えばバギング、ブースティングなどのアンサンブル学習や、サポートベクターマシン、決定木、生存木を用いることができる。 なお、上記したラベル情報や教師付き学習方法は例示であり、他のラベル情報や教師付き学習方法を利用することも可能である。

    そして、テストデータの予測結果は出力装置4から出力される。

    なお、半教師あり学習装置は、ハードウェア、ソフトウェア又はこれらの組合せにより実現することができる。

    次に、本発明の実施例について説明する。

    実施に用いるデータとして、糖尿病に関する臨床情報を機械学習ベンチマークデータのUCIレポジトリ(非特許文献11参照)から取得した。

    糖尿病発症の有無(属性名:diabetes)を診察された768人の患者のうち臨床情報8項目に基づき、性能評価を行った。 768人の患者のうち糖尿病と診断された者は268人、発症していないと診断された者は500人である。 臨床情報の属性における欠損値については、カテゴリーデータについては、最頻カテゴリー、数値データについては、中央値により補完した。

    本発明の学習パラメータとして、縮小パラメータν ,ν =1とし、訓練データの損失関数として、勾配ブースティングのAdaboostタイプの指数関数を用いた。 下位学習機械としては、決定木の1つであるCARTを用いた。 CARTの詳細については、非特許文献10に記載されている。 なお説明の便宜上、本発明の方法をSSBoost(Semi−Supervised Boosting)と記載する。

    本発明の対照法として、訓練データのみを用いた勾配ブースティングとCARTを用いた。 なお、勾配ブースティングの詳細は非特許文献8に記載されている。 便宜上、対照法をAdaboostと記載する。 SSBoostはAdaboostと全く同様に訓練データについて学習を20回行い(t1=20)、その後、20回テストデータの勾配も用いて学習を行った(t2=20)。

    Adaboostの反復回数は40回とした。 SSBoostとAdaboostは計40回の反復学習を行い、同等の条件下で、公平な性能比較を行った。 性能比較の結果を図4に示す。

    図4に示された結果から、本発明の方法SSBoostはAdaboost及びCARTと比較して、分類性能が常に高いことが分かる。

    以上より、本発明を実施することにより下位学習機械として教師あり学習を適用可能な高精度の分類器を実現する事ができる。

    本発明の実施形態の基本的構成を表す図である。

    本発明の実施形態における初期学習部の処理手順を示すフローチャートである。

    本発明の実施形態における反復学習部の処理手順を示すフローチャートである。

    本発明の実施形態の対照法として、訓練データのみを用いた勾配ブースティングとCARTを用いた性能比較の結果を表す図である。

    符号の説明

    1 入力装置2 データ処理装置3 記憶装置4 出力装置21 初期学習部22 学習部23 判別手段31 訓練データ記憶部32 テストデータ記憶部33 パラメータ記憶部34 判別関数記憶部

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈