首页 / 专利库 / 医疗服务 / 机器人手术学 / Method and apparatus for processing medical image, and robotic surgery system using image guidance

Method and apparatus for processing medical image, and robotic surgery system using image guidance

阅读:46发布:2020-06-16

专利汇可以提供Method and apparatus for processing medical image, and robotic surgery system using image guidance专利检索,专利查询,专利分析的服务。并且PROBLEM TO BE SOLVED: To provide a method and apparatus for processing medical image, and robotic surgery system using image guidance.SOLUTION: The method of processing a medical image, includes: acquiring medical images captured using a plurality of different medical image capturing apparatuses with respect to a predetermined organ; extracting surface information of the predetermined organ, which is included in each of the medical images, from each of the medical images; mapping each of the medical images using the extracted surface information; and generating a synthesis image in which the medical images have been matched, based on the mapping result.,下面是Method and apparatus for processing medical image, and robotic surgery system using image guidance专利的具体信息内容。

  • 相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得するステップと、
    前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出するステップと、
    前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングするステップと、
    前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成するステップと、を含むことを特徴とする医療映像処理方法。
  • 前記抽出するステップは、前記獲得された医療映像それぞれから、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を前記表面情報として抽出することを特徴とする請求項1に記載の医療映像処理方法。
  • 前記マッピングするステップは、前記抽出されたそれぞれの表面情報を利用して、前記医療映像撮影装置それぞれの位置をマッチングさせることで、前記医療映像をマッピングすることを特徴とする請求項1に記載の医療映像処理方法。
  • 前記医療映像撮影装置それぞれの位置を検出するステップをさらに含み、
    前記マッピングするステップは、
    前記抽出されたそれぞれの表面情報を比較するステップと、
    前記比較結果に基づいて、前記検出された前記医療映像装置の位置をマッチングさせるステップと、を含み、
    前記マッピングするステップは、前記マッチング結果に基づいて、前記医療映像をマッピングすることを特徴とする請求項1に記載の医療映像処理方法。
  • 前記比較するステップは、前記抽出されたそれぞれの表面情報が前記所定の臓器の同じ部位の表面に対してどのように対応するかを比較することを特徴とする請求項4に記載の医療映像処理方法。
  • 前記複数の医療映像撮影装置は、内視鏡装置と、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(PET)装置のうち少なくとも一つを含む非内視鏡装置と、を含むことを特徴とする請求項1に記載の医療映像処理方法。
  • 前記生成された合成映像は、前記内視鏡装置により撮影された映像に含まれた前記所定の臓器及び周辺についての外部組織の映像と、前記非内視鏡装置により撮影された映像に含まれた前記所定の臓器及び前記周辺についての内外部組織の映像とが三次元的に同時に表現された映像であることを特徴とする請求項6に記載の医療映像処理方法。
  • 前記抽出するステップは、
    前記内視鏡装置により撮影された内視鏡映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出するステップと、
    前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出するステップと、を含むことを特徴とする請求項6に記載の医療映像処理方法。
  • 前記第1表面情報を抽出するステップは、
    前記所定の臓器及び周辺についての外部組織と前記内視鏡装置との距離情報を獲得するステップと、
    前記獲得された距離情報を利用して、前記内視鏡映像に対応する三次元の第1表面モデルを生成するステップと、を含み、
    前記生成された第1表面モデルから前記第1表面情報を抽出することを特徴とする請求項8に記載の医療映像処理方法。
  • 前記第2表面情報を抽出するステップは、
    前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面を表す境界線についての情報を獲得するステップと、
    前記獲得された境界線情報を利用して、前記所定の臓器の表面に対応する三次元の第2表面モデルを生成するステップと、を含み、
    前記生成された第2表面モデルから前記第2表面情報を抽出することを特徴とする請求項8に記載の医療映像処理方法。
  • 前記境界線情報を獲得するステップは、
    前記非内視鏡装置により撮影された映像に対して、ライン検出及びエッジ検出のうち少なくとも一つを適用することで、前記境界線を獲得することを特徴とする請求項10に記載の医療映像処理方法。
  • 前記所定の臓器は、手術用ロボットにより治療される手術部位または前記手術部位の周辺の臓器であることを特徴とする請求項1に記載の医療映像処理方法。
  • 請求項1ないし12のうちいずれか一項に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  • 相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得する映像獲得部と、
    前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出する表面情報抽出部と、
    前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングする映像マッピング部と、
    前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する合成映像生成部と、を備えることを特徴とする医療映像処理装置。
  • 前記表面情報抽出部は、前記獲得された医療映像それぞれから、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を前記表面情報として抽出することを特徴とする請求項14に記載の医療映像処理装置。
  • 前記映像マッピング部は、前記抽出されたそれぞれの表面情報を利用して、前記医療映像撮影装置それぞれの位置をマッチングさせることで、前記医療映像をマッピングすることを特徴とする請求項14に記載の医療映像処理装置。
  • 前記医療映像撮影装置それぞれの位置を検出する検出部をさらに備え、
    前記映像マッピング部は、
    前記抽出されたそれぞれの表面情報を比較する比較部と、
    前記比較結果に基づいて、前記検出された前記医療映像装置の位置をマッチングさせる位置マッチング部と、を備えることを特徴とする請求項14に記載の医療映像処理装置。
  • 前記複数の医療映像撮影装置は、内視鏡装置と、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(PET)装置のうち少なくとも一つを含む非内視鏡装置と、を含むことを特徴とする請求項14に記載の医療映像処理装置。
  • 前記生成された合成映像は、前記内視鏡装置により撮影された映像に含まれた前記所定の臓器及び周辺についての外部組織の映像と、前記非内視鏡装置により撮影された映像に含まれた前記所定の臓器及び前記周辺についての内外部組織の映像とが三次元的に同時に表現された映像であることを特徴とする請求項18に記載の医療映像処理装置。
  • 前記表面情報抽出部は、
    前記内視鏡装置により撮影された内視鏡映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する第1抽出部と、
    前記非内視鏡装置により撮影された映像から、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する第2抽出部と、を備えることを特徴とする請求項18に記載の医療映像処理装置。
  • 前記内視鏡装置は、腹腔鏡装置であり、前記非内視鏡装置が前記超音波装置を含む場合、前記超音波装置は、経直腸的超音波(TRUS)装置であることを特徴とする請求項18に記載の医療映像処理装置。
  • 前記所定の臓器は、手術用ロボットにより治療される手術部位または前記手術部位の周辺の臓器であることを特徴とする請求項14に記載の医療映像処理装置。
  • 手術部位についての映像を誘導して、手術用ロボットによるロボット手術を行うロボット手術システムにおいて、
    被検体内の所定の臓器に対して、医療映像を撮影する内視鏡装置と、
    前記所定の臓器に対して、医療映像を撮影する、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(PET)装置のうち少なくとも一つを含む非内視鏡装置と、
    前記複数の医療映像撮影装置を利用して撮影された前記医療映像を獲得し、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出し、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングし、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する医療映像処理装置と、
    前記生成された合成映像を表示する表示装置と、
    ユーザーの入力によってロボット手術を行う手術用ロボットと、を備えることを特徴とするシステム。
  • 前記医療映像処理装置は、前記獲得された医療映像それぞれから、前記所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を前記表面情報として抽出することを特徴とする請求項23に記載のシステム。
  • 前記医療映像処理装置は、前記抽出されたそれぞれの表面情報を利用して、前記内視鏡装置及び非内視鏡装置それぞれの位置をマッチングさせることで、前記医療映像をマッピングすることを特徴とする請求項23に記載のシステム。
  • 前記所定の臓器は、前記手術用ロボットにより治療される手術部位または前記手術部位の周辺の臓器であることを特徴とする請求項23に記載のシステム。
  • 说明书全文

    本発明は、医療映像を処理する方法及び装置に関り、特に映像誘導を利用したロボット手術システムに関する。

    ロボット手術は、開腹手術と異なり、医師が患者の体内の手術部位を直接肉眼で見ることができず、モニターに表示された画面のみを通じて手術部位を把握することになる。 ロボット手術を執刀する医師は、手術前にコンピュータ断層撮影(Computed Tomography:CT)、磁気共鳴映像(Magnetic Resonance Imaging:MRI)、超音波映像などを通じて手術部位を把握して手術するが、これは、医師の経験に多く依存するという限界がある。 また、手術部位映像を獲得するために、腹腔鏡を患者の体内に挿入して、表示された体内の実際の映像を見つつ、ロボット手術を進める方法も試みられた。 しかし、手術部位に対して、腹腔鏡のような内視鏡のみで獲得できる映像は、体内の臓器組織の外部表面についての映像だけであるので、手術部位が臓器により隠れて見えない場合や手術部位が臓器の内部である場合には、手術部位についての正確な位置及び形態などを正確に把握し難い。

    米国特許第5704897号明細書

    本発明の目的は、医療映像を処理する方法及び装置を提供することである。 また、前記方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することである。 さらに、処理された医療映像に基づいて、映像誘導を利用したロボット手術システムを提供することである。 ただし、本発明の目的は、前記したような目的に限定されるものではない。

    本発明の一側面によれば、医療映像処理方法は、相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得するステップと、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出するステップと、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングするステップと、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成するステップと、を含む。

    他の側面によれば、前記医療映像処理方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。

    さらに他の側面によれば、医療映像処理装置は、相異なる複数の医療映像撮影装置を利用して撮影された所定の臓器についての医療映像を獲得する映像獲得部と、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出する表面情報抽出部と、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングする映像マッピング部と、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する合成映像生成部と、を備える。

    さらに他の側面によれば、手術部位についての映像を誘導して、手術用ロボットによるロボット手術を行うロボット手術システムにおいて、被検体内の所定の臓器に対して、医療映像を撮影する内視鏡装置と、前記所定の臓器に対して、医療映像を撮影する、超音波装置、コンピュータ断層撮影(CT)装置、磁気共鳴映像(MRI)装置及び陽電子放射断層撮影(Positron Emission Tomography: PET)装置のうち少なくとも一つを含む非内視鏡装置と、前記複数の医療映像撮影装置を利用して撮影された前記医療映像を獲得し、前記獲得された医療映像それぞれから、前記獲得された医療映像それぞれに含まれた前記所定の臓器の表面情報をそれぞれ抽出し、前記抽出されたそれぞれの表面情報を利用して、前記医療映像をマッピングし、前記マッピング結果に基づいて、前記医療映像が整合された合成映像を生成する医療映像処理装置と、前記生成された合成映像を表示する表示装置と、ユーザーの入によってロボット手術を行う手術用ロボットと、を備える。

    本発明によれば、人工的なマーカーを使用せず、医療映像に含まれた情報のみに基づいて、リアルタイムで医療映像を整合することで、映像整合時にマーカーの使用による面倒さ、不便さなどを減らすことができる。 特に、ロボット手術において、金属成分のマーカーと手術用ロボットとの干渉による映像整合の正確度の低下を減らすことができる。

    そして、リアルタイムで内視鏡映像及び非内視鏡映像が整合された合成映像を生成することで、医師にさらに正確な患者の診断映像が提供され、ロボット手術システムでさらに正確な映像誘導を行ったりすることができる。 また、ロボット手術の場合、このように手術部位についての正確な医療映像が提供されることで、手術すべき部位と保存すべき部位とを正確に把握できるので、手術性能が向上する。 さらに、今後ロボット手術が自動化される場合、ロボットを正確に制御することができる情報が提供される。

    本発明の一実施形態によるロボット手術システムの構成図である。

    本発明の一実施形態によるロボット手術システムの構成図である。

    本発明の一実施形態による膀胱についての内視鏡装置と超音波装置との相対的な位置を示す図面である。

    本発明の一実施形態による医療映像処理装置の構成図である。

    本発明の一実施形態による第1抽出部で第1表面モデルが生成された後、第1表面情報が抽出される過程を示す図面である。

    本発明の一実施形態による第2抽出部で第2表面モデルが生成された後、第2表面情報が抽出される過程を示す図面である。

    本発明の一実施形態による図1Bのロボット手術システムにおいて、内視鏡装置と超音波装置との配置のみを別途に示す図面である。

    本発明の一実施形態によって、合成映像生成部で合成映像を生成する時に利用される三次元の超音波映像に含まれた情報の例を示す図面である。

    本発明の一実施形態による合成映像を示す図面である。

    本発明の一実施形態による医療映像を処理する方法のフローチャートである。

    図9の医療映像を処理する方法の詳細なフローチャートである。

    本発明の一実施形態による第1表面情報を抽出する過程のフローチャートである。

    本発明の一実施形態による第2表面情報を抽出する過程のフローチャートである。

    以下、図面を参照して、本発明の実施形態を詳細に説明する。

    図1Aは、本発明の一実施形態によるロボット手術システム1の構成図である。 図1Aを参照すれば、ロボット手術システム1は、第1医療映像撮影装置11、第2医療映像撮影装置21、医療映像処理装置30、手術用ロボット40及び表示装置50から構成される。 図1Aでは、本実施形態の特徴が不明確になることを防止するために、本実施形態に関連したハードウェア構成要素のみを記述する。 ただし、図1Aに示すハードウェア構成要素以外に、他の汎用的なハードウェア構成要素が含まれることを当業者ならば理解できるであろう。

    図1Aを参照すれば、ロボット手術システム1は、第1及び第2医療映像撮影装置11,21のみを備えるものと示されたが、これに限定されず、本実施形態は、その他にも少なくとも一つの更なる医療映像撮影装置を備えてもよい。

    医療映像撮影装置の種類には、内視鏡装置、超音波装置、コンピュータ断層撮影(Computed Tomography:CT)装置、磁気共鳴映像(Magnetic Resonance Imaging:MRI)装置、陽電子放射断層撮影(Positron Emission Tomography:PET)装置など多様な種類がある。 以下、内視鏡映像を撮影する医療映像撮影装置以外の医療映像撮影装置は、非内視鏡装置という。 すなわち、超音波装置、コンピュータ断層撮影装置、磁気共鳴映像装置及び陽電子放射断層撮影装置は、非内視鏡装置である。

    以下、説明の便宜のために、本実施形態によるロボット手術システム1の第1医療映像撮影装置11は、腹腔鏡装置のような内視鏡装置に該当し、第2医療映像撮影装置21は、経直腸的超音波(Trans-Rectal Ultrasound:TRUS)装置のような超音波装置に該当するものと説明するが、本実施形態は、これに限定されない。 すなわち、第1及び第2医療映像撮影装置11,21それぞれは、前記内視鏡装置、超音波装置、コンピュータ断層撮影装置、磁気共鳴映像装置、陽電子放射断層撮影装置のような医療映像撮影装置のうちいずれか一つであってもよい。

    図1Bは、本発明の一実施形態によるロボット手術システム100の構成図である。 図1Bを参照すれば、ロボット手術システム100は、前述したように、内視鏡装置10、超音波装置20、医療映像処理装置30、手術用ロボット40及び表示装置50から構成される。

    図1Bでも、図1Aと同様に、本実施形態の特徴が不明確になることを防止するために、本実施形態に関連したハードウェア構成要素のみを記述する。

    ロボット手術システム100は、患者の体にあけられた小さい穴に手術用ロボット40のアームを挿入し、患者の体外で医師が手術用ロボット40の動きを制御して、患者を手術するシステムである。

    最近、米国のインテュイティヴ・サージカル社製のda Vinci(登録商標)が、かかる手術用ロボット40として一般的に多く使われている。 より詳細に説明すれば、da Vinci(登録商標)は、患者の体内に直接挿入されるロボットであって、医師の手のように動くことができるので、あたかも医師が直接手術部位に手術するように手術するロボットである。 本実施形態では、単に説明の便宜のために、手術用ロボット40としてda Vinci(登録商標)を例として挙げただけであり、手術用ロボット40は、患者の体内でロボットの動きを通じて手術する他の装置でもよい。

    ロボット手術システム100で医師が手術用ロボット40を利用して手術しようとする時、医師は、表示装置50に表示された患者の体内の医療映像を参考にして手術を進める。 すなわち、ロボット手術システム100において、医師は、患者の体内に特殊レンズを挿入して、肉眼で見られない神経、血管、臓器についての映像を通じて視野を確保した後で手術を進める。

    ロボット手術システム100では、開腹手術と異なり、医師が患者の体内の手術部位を直接肉眼で見ることができず、表示装置50に表示された画面のみを通じて手術部位を把握できるため、手術部位についての正確な映像が要求される。

    特に、ロボット手術は、手術中に周辺神経及び血管に損傷を与えた時、激しい副作用と合併症とが生じる前立腺癌、直腸癌、食道癌、膀胱癌の手術などに一般的に多く使われるので、手術部位についての精巧かつ細密な映像が表示装置50に表示されることが重要である。

    従来は、手術前にCT、MRI、超音波、PET映像などを医師に見せることで、診断映像を記憶する医師の頭脳から現在手術すべき部位を思い起こして手術する方法を使用した。 しかし、これは、医師の経験に多く依存するので、正確な手術が困難であった。

    また、従来のロボット手術の場合、腹腔鏡を患者の体内に挿入して、表示された体内の実際の映像を見つつ、ロボット手術を進めた。 しかし、手術部位に対して、腹腔鏡のみで獲得できる映像は、体内の臓器組織の外部表面についての映像だけである。 したがって、手術部位が臓器に隠れて見えない場合や手術部位が臓器の内部である場合には、腹腔鏡で手術部位についての実際の映像を獲得しがたかった。 特に、前立腺手術の場合がそうであった。

    前立腺手術を説明すれば、前立腺は、手術部位が狭く、尿道と連結されている。 そして、前立腺が除去される時、前立腺近辺の神経血管束は保存されねばならない。 なぜならば、この神経血管束は、尿機能、性機能などに重要な役割を行うためである。 しかし、腹腔鏡は、外部表面の組織についての映像のみを提供するので、腹腔鏡のみでは前立腺の位置及び形態などを精巧かつ細密に把握するのに多少困難さがある。

    かかる既存の方法を改善するために、従来には、経直腸的超音波(TRUS)装置を利用したが、手術部位の実際の映像ではない超音波映像という限界があった。

    また、従来には、光学方式あるいは磁場方式のマーカーを利用して、経直腸的超音波装置の位置と方向をリアルタイムで検出することで、三次元超音波映像を獲得し、それを手術に使用した。 しかし、磁場方式を利用する場合、手術ロボットのような金属性物質と磁場との干渉により、マーカーの位置測定が不正確になった。 そして、光学方式を利用する場合には、位置測定時に手術用ロボットの活動範囲と重なって、手術用ロボットの動きに制約を与えた。

    さらに、従来には、手術ロボット以外のタンデムロボットを利用して、経直腸的超音波装置を回転させ、それから三次元前立腺映像を獲得する方法も使われた。 しかし、この方法は、更なるロボットを使用せねばならないので、タンデムロボットによる干渉のために、手術ロボットの移動が制限された。 そして、手術ロボットとタンデムロボットとの位置を補正せねばならないので、実際の手術時に超音波映像を全く利用できなかった。

    すなわち、前記したように、ロボット手術を行う時、特に前立腺に対するロボット手術のように、周辺神経及び血管に損傷を与えてはならないロボット手術を行う時、従来は、手術部位についての正確な映像を得がたく、患者の安全に問題があるという限界があった。

    しかし、本実施形態によるロボット手術システム100では、相異なる複数の医療映像撮影装置で撮影された相異なる医療映像がリアルタイムで整合された合成映像を利用することで、臓器に隠された手術部位または臓器の内部に位置した手術部位に対しても、正確な映像が提供される。 したがって、本実施形態によれば、ロボット手術の性能や患者の安全を保証することができる。

    ただし、本実施形態では、ロボット手術システム100下でロボット手術を行う医師のための医療映像を提供すること、すなわち医療映像誘導について説明するが、本実施形態の医療映像処理装置30で生成された合成映像は、必ずしもロボット手術システム100のみで提供されるものに限定されない。 すなわち、本実施形態で提供される医療映像は、ロボット手術ではない患者を単純に診察または診断するための他のシステムでも同様に提供される。

    以下では、本実施形態によるロボット手術システム100において、医療映像を処理する過程について詳細に説明する。

    ここで、本実施形態による手術部位は、説明の便宜のために、前立腺である場合を例として挙げる。 そして、前述したように、手術部位が前立腺である場合、本実施形態による医療映像処理過程は、前立腺の周辺に位置している特定の臓器である膀胱を利用するものと説明する。 すなわち、かかる特定の臓器は、手術用ロボット40により治療される手術部位の臓器または手術部位の周辺の他の臓器であってもよい。

    さらに、当業者ならば、本実施形態は、手術部位が患者の他の部位であるか、または他の臓器を利用して医療映像処理が行われることを理解できるであろう。

    再び図1Bを参照すれば、ロボット手術システム100下で、内視鏡装置10は、患者の臓器、例えば、膀胱についての内視鏡映像を獲得する。 したがって、内視鏡映像には、膀胱及びその周辺についての映像が含まれる。 本実施形態において、内視鏡装置10は、腹腔鏡装置に該当するが、これに限定されない。

    そして、超音波装置20は、患者の膀胱及びその周辺についての超音波映像を獲得する。 したがって、超音波映像には、膀胱及びその内外部の周辺についての映像が含まれる。 すなわち、超音波映像には、内視鏡映像と異なり、膀胱の内部の組織についての情報も含まれる。 本実施形態において、超音波装置20は、経直腸的超音波装置に該当するが、これに限定されない。

    図1Bにおいて、内視鏡装置10と超音波装置20とは、相異なる位置で医療映像を撮影する。 すなわち、ロボット手術システム100では、内視鏡装置10と超音波装置20の動き及び位置がそれぞれ制御されることで、医療映像が撮影される。 この時、ロボット手術システム100は、制御中である内視鏡装置10と超音波装置20それぞれの撮影位置、例えば、ロボット手術テーブル上での仮想的座標などをロボット手術システム100上の保存部(図示せず)に保存し続ける。

    図2は、本発明の一実施形態による膀胱についての内視鏡装置10と超音波装置20との相対的な位置を示す図面である。 図2を参照すれば、内視鏡装置10が腹腔鏡装置である場合、膀胱を基準として相対的に膀胱の上方から内視鏡映像を獲得する。 そして、超音波装置20が経直腸的超音波装置である場合、膀胱を基準として相対的に膀胱の下方から超音波映像を獲得する。 しかし、かかる内視鏡装置10及び超音波装置20それぞれの位置は、例示的なものであって、ロボット手術環境によって変更してもよい。

    再び図1Bを参照すれば、医療映像処理装置30は、内視鏡装置10及び超音波装置20から獲得された内視鏡映像及び超音波映像を整合することで、合成映像を生成する。 本実施形態による医療映像処理装置30の動作及び機能についてさらに詳細に説明すれば、次の通りである。

    図3は、本発明の一実施形態による医療映像処理装置30の構成図である。 図3を参照すれば、医療映像処理装置30は、検出部31、映像獲得部32、表面情報抽出部33、映像マッピング部34及び合成映像生成部35を備える。 そして、映像獲得部32は、内視鏡映像獲得部321及び非内視鏡映像獲得部322を備え、表面情報抽出部33は、第1抽出部331及び第2抽出部332を備え、映像マッピング部34は、比較部341及び位置マッチング部342を備える。

    かかる医療映像処理装置30は、プロセッサに該当する。 このプロセッサは、多数の論理ゲートのアレイにより具現されてもよく、汎用的なマイクロプロセッサと、このマイクロプロセッサで実行されるプログラムが保存されたメモリとの組み合わせにより具現されてもよい。 また、他の形態のハードウェアにより具現されてもよいことを当業者ならば理解できるであろう。

    検出部31は、合成映像を生成しようとする時、前述したロボット手術システム100上の保存部(図示せず)に保存された医療映像撮影装置それぞれの現在の位置を検出する。

    映像獲得部32は、相異なる複数の医療映像撮影装置を利用して撮影された臓器についての医療映像、すなわち、内視鏡映像及び非内視鏡映像を獲得する。 表面情報抽出部33は、獲得された医療映像それぞれから獲得された医療映像それぞれに含まれた臓器の表面情報をそれぞれ抽出する。 特に、表面情報抽出部33は、獲得された医療映像それぞれから、所定の臓器の表面の位置及び形態のうち少なくとも一つを表す情報を表面情報として抽出する。

    映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。 特に、表面情報抽出部33は、抽出されたそれぞれの表面情報を利用して、医療映像撮影装置それぞれの位置をマッチングさせることで、医療映像をマッピングする。

    以下、まず、内視鏡映像を処理する過程についてさらに詳細に説明し、次に、超音波映像、CT映像、MR(Magnetic Resonance)映像のような非内視鏡映像を処理する過程についてさらに詳細に説明する。

    内視鏡映像獲得部321は、内視鏡装置10(図1B)を利用して撮影された内視鏡映像を獲得する。

    第1抽出部331は、内視鏡装置10(図1B)により撮影された内視鏡映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。 すなわち、本実施形態において、第1抽出部331は、内視鏡映像に表れた膀胱についての第1表面情報を抽出する。

    その方法として、第1抽出部331は、膀胱及び周辺の外部組織と内視鏡装置10(図1B)との距離情報を獲得することで、視差空間映像を生成する。 一実施形態によれば、第1抽出部331は、二つのステレオカメラが備えられた内視鏡装置10(図1B)を利用して、視差空間映像を獲得する。 この時、他の実施形態によれば、第1抽出部331は、構造光及びパターン光のうち少なくとも一つを照射するプロジェクタをさらに備えた内視鏡装置10(図1B)を利用することで、視差空間映像を生成する。 この場合、内視鏡映像獲得部321は、膀胱及び周辺の外部組織から反射された構造光またはパターン光についての情報も共に獲得する。 すなわち、第1抽出部331は、獲得された構造光またはパターン光についての情報を利用して、内視鏡装置10(図1B)から膀胱及び周辺の外部組織までの距離を計算する。 この時、第1抽出部331は、計算された距離に基づいて、視差空間映像のような距離映像を生成する。

    次いで、第1抽出部331は、獲得された距離情報、すなわち、計算された距離または生成された距離映像を利用することで、内視鏡映像に対応する三次元の第1表面モデルを生成する。

    最後に、第1抽出部331は、このように生成された第1表面モデルから、膀胱の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。

    図4は、本発明の一実施形態による第1抽出部331(図3)で第1表面モデルが生成された後、第1表面情報が抽出される過程を示す図面である。 図4の映像401は、内視鏡装置10(図1B)で獲得された内視鏡映像であって、実際の膀胱及びその周辺に構造光またはパターン光を照射した映像である。

    図4の映像402は、視差空間映像であって、構造光及びパターン光のうち少なくとも一つを利用して生成された一種の距離映像に該当する。 しかし、前述したように、第1抽出部331(図3)は、構造光及びパターン光を利用せずに視差空間映像を生成することも可能である。

    図4の映像403は、前記のような過程を通じて、第1抽出部331(図3)で生成された第1表面モデルである。 第1抽出部331(図3)は、映像403の第1表面モデルから、膀胱の表面の形態及び位置についての第1表面情報404を抽出する。

    再び図3を参照すれば、非内視鏡映像獲得部322は、超音波装置20(図1B)のような非内視鏡装置を利用して撮影された非内視鏡映像を獲得する。 第2抽出部332は、非内視鏡装置により撮影された映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。 すなわち、本実施形態において、第2抽出部332は、非内視鏡映像に表れた膀胱についての第2表面情報を抽出する。

    その方法として、まず、第2抽出部332は、非内視鏡装置により撮影された非内視鏡映像から、膀胱の表面を表す境界線についての情報を獲得する。 この時、境界線についての情報は、非内視鏡映像に対して、ライン検出及びエッジ検出のうち少なくとも一つを適用することによって獲得する。

    非内視鏡映像が超音波映像である場合、超音波の特性上、超音波が臓器の表面組織に対して高いエコー輝度(high echogenicity)を有する性質を利用する。 すなわち、第2抽出部332は、臓器の表面組織が超音波映像で相対的に明るい線で表れる性質を利用することで、境界線についての情報を獲得する。

    非内視鏡映像がMR映像である場合、第2抽出部332は、組織の分子構成比の差によるMR映像での映像明度差が発生する点に基づいて、ライン検出またはエッジ検出を利用することで、境界線についての情報を獲得する。

    同様に、非内視鏡映像がCT映像である場合、第2抽出部332は、組織の密度差によるCT映像での映像明度差が発生する点に基づいて、ライン検出またはエッジ検出を利用することで、境界線についての情報を獲得する。

    次いで、第2抽出部332は、獲得された境界線情報を利用して、臓器(膀胱)の表面に対応する三次元の第2表面モデルを生成する。 この時、第2抽出部332は、獲得された境界線情報に基づいて、境界線を三次元的にレンダリングすることで、三次元の第2表面モデルを生成する。

    最後に、第2抽出部332は、このように生成された第2表面モデルから、膀胱の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。

    図5は、本発明の一実施形態による第2抽出部332(図3)で第2表面モデルが生成された後、第2表面情報が抽出される過程を示す図面である。 図5を参照すれば、超音波映像501から第2表面情報505が抽出される過程、MR映像502から第2表面情報505が抽出される過程、及びCT映像503から第2表面情報505が抽出される過程が示されている。 ロボット手術システム100(図1B)の環境で、いかなる医療映像撮影装置を利用したかによって、第2抽出部332(図3)は、それぞれの過程のうちそれに対応する過程によって、第2表面情報505を抽出する。

    超音波映像501である場合、第2抽出部332(図3)は、前述した超音波映像の特性を利用して、膀胱の表面に該当する境界線をそれぞれの映像から抽出する。 そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。

    MR映像502である場合、第2抽出部332(図3)は、前述したMR映像の特性を利用して、直腸の表面に該当する境界線をそれぞれの映像から抽出する。 そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。

    CT映像503である場合、第2抽出部332(図3)は、前述したCT映像の特性を利用して、直腸の表面に該当する境界線をそれぞれの映像から抽出する。 そして、それぞれの境界線を三次元的にレンダリングすることで、第2表面モデル504を生成する。

    第2抽出部332(図3)は、第2表面モデル504に表れた境界線情報に基づいて、臓器の表面の形態及び位置のうち少なくとも一つを表す第2表面情報505を抽出する。

    すなわち、ロボット手術システム100(図1B)の環境で、いかなる医療映像撮影装置を利用したかによって、第2抽出部332(図3)は、超音波映像501、MR映像502及びCT映像503についてのそれぞれの過程のうち該当する過程によって、第2表面情報505を抽出する。

    再び図3を参照すれば、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。 映像マッピング部34は、抽出された第1表面情報及び第2表面情報を利用して、医療映像撮影装置それぞれの位置をマッチングさせることで、医療映像をマッピングする。 前述した図1Bのように、内視鏡装置10(図1B)及び超音波装置20(図1B)を利用する場合、表面情報を利用して、内視鏡装置10(図1B)の位置及び超音波装置20(図1B)の位置をマッチングさせることで、内視鏡映像及び超音波映像をマッピングする。

    マッピング過程についてさらに詳細に説明すれば、映像マッピング部34は、前述したように、比較部341及び位置マッチング部342を備える。

    比較部341は、抽出されたそれぞれの表面情報を比較する。 すなわち、比較部341は、第1表面情報と第2表面情報とを比較する。 その理由は、抽出された第1表面情報及び第2表面情報は、臓器(膀胱)の同じ部位の表面についての情報であるためである。 したがって、比較部341は、抽出された第1表面情報及び第2表面情報が臓器の同じ部位の表面に対してどのように対応するかを比較する。 この時、比較部341は、公知のアルゴリズムであるICP(Iterative Closest Point)アルゴリズムなどを利用して比較する。

    位置マッチング部342は、比較結果に基づいて、前記検出部31で検出された医療映像装置の位置をマッチングさせる。

    結局、映像マッピング部34は、かかる過程によるマッチング結果に基づいて、医療映像をマッピングする。

    図6は、本発明の一実施形態による図1Bのロボット手術システム100において、内視鏡装置10と超音波装置20との配置のみを別途に示す図面である。 図6を参照すれば、内視鏡装置10は、腹腔鏡装置に該当し、超音波装置20は、経直腸的超音波装置に該当する。

    ロボット手術システム100(図1B)上で、内視鏡装置10の仮想的位置は、X camera座標系による。 そして、超音波装置20の仮想的位置は、X US座標系による。 すなわち、内視鏡装置10の位置と超音波装置20の位置とは、相異なる座標系を利用しているので、相互の位置は独立している。

    しかし、内視鏡装置10の位置と超音波装置20の位置とは、同じ基準によりマッチングされる。 このために、本実施形態によれば、映像マッピング部34は、基準として、抽出された第1表面情報及び第2表面情報を利用する。 さらに詳細に説明すれば、第1表面情報及び第2表面情報は、臓器(膀胱)の同じ部位の表面についての情報である。 したがって、内視鏡映像から抽出された第1表面情報と、超音波映像から抽出された第2表面情報とを基準として、X camera座標系とX US座標系とをマッチングさせる。 その結果、内視鏡装置10の位置と超音波装置20の位置もマッチングされる。

    再び図3を参照すれば、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。 生成された合成映像は、臓器及びその周辺についての三次元医療映像であってもよい。 さらに詳しくは、生成された合成映像は、内視鏡装置10(図1B)により撮影された映像に含まれた臓器及び周辺についての外部組織の映像と、非内視鏡装置20(図1B)により撮影された映像に含まれた臓器及び周辺についての内外部組織の映像とが三次元的に同時に表現された映像である。 合成映像は、一種の増強映像に該当する。

    合成映像生成部35で生成された合成映像は、結局、内視鏡映像及び非内視鏡映像それぞれで表れた臓器の位置が同一であるように合成されて生成されるものである。

    内視鏡映像は、それ自体で臓器及びその周辺の実際の三次元映像に該当する。 しかし、内視鏡映像は、臓器の内外部の組織の形態及び位置などの情報を知りがたい。

    一般的に、かかる非内視鏡映像は、臓器を断面で撮影した映像の集合に該当する。 しかし、超音波映像、CT映像及びMR映像のような非内視鏡映像は、臓器及び周辺の内外部の組織の形態及び位置などについての一種の透視情報を含んでいる。 したがって、獲得された非内視鏡映像には、臓器の外部組織だけでなく、内部組織の形態及び位置などについての情報も共に含まれている。 したがって、内視鏡映像と非内視鏡映像とが合成される場合、実際の臓器及び周辺の内外部にある組織についての情報を正確に知ることができ、それが医師に提供されることで、医師はさらに精巧かつ細密な手術を進めることができる。

    ここで、超音波映像、CT映像及びMR映像のような非内視鏡映像は、その映像を撮影する医療映像撮影装置11,21(図1A)の種類によって、二次元映像であってもよく、三次元映像であってもよい。 獲得された非内視鏡映像が、図5のように複数の二次元的な非内視鏡映像である場合、合成映像生成部35は、ボリュームレンダリングなどの既知の方法を通じて、二次元の非内視鏡映像を三次元の非内視鏡映像に生成した後で合成に利用する。

    図7は、本発明の一実施形態によって、合成映像生成部35で合成映像を生成する時に利用される三次元の超音波映像に含まれた情報の例を示す図面である。 図7は、経直腸的超音波装置を使用した場合の例示についての図面である。 図7を参照すれば、超音波映像は、前述したように、膀胱のような臓器の内外部の組織の形態及び位置などについての一種の透視情報を含んでいる。 したがって、三次元の超音波映像には、膀胱の外部表面701の形態及び位置、膀胱の内部の前立腺702の位置、膀胱の周辺の神経束703の位置が三次元的に表現されている。 ここで、膀胱の外部表面701の形態及び位置は、第2表面情報に含まれた情報である。 たとえ図7が三次元の超音波映像ではないとしても、当業者ならば、三次元の超音波映像を通じて、かかる情報(701,702,703の情報)が含まれているということが分かるであろう。

    再び図3を参照すれば、合成映像生成部35は、かかる内視鏡映像及び非内視鏡映像を整合することで、合成映像を生成する。

    再び図1A及び図1Bを参照すれば、表示装置50は、合成映像生成部35で生成された合成映像を表示する。 ロボット手術システム1,100は、表示装置50を通じてロボット手術を進める医師に、かかる合成映像を提供することで、映像誘導(image guidance)を行う。 表示装置50は、ユーザーに情報を報告するために、視覚情報を表示するための装置、例えば、一般的なモニタ、LCD(Liquid Crystal Display)画面、LED(Light Emitting Diode)画面、目盛り表示装置などを含む。

    一方、再び図3を参照すれば、位置マッチング部342で第1表面情報及び第2表面情報を利用して、内視鏡装置10(図1B)の位置と超音波装置20(図1B)の位置とがリアルタイムでマッチングされ続ける限り、相異なる位置の相異なる装置で獲得された、同じ臓器についての相異なる映像はマッピングされ続ける。 したがって、合成映像生成部35は、内視鏡映像と超音波映像とを整合し続けて、合成映像を連続的に生成することで、表示装置50は、内視鏡装置10(図1B)及び超音波装置20(図1B)の移動に関係なく、リアルタイムで合成映像を表示できる。

    一実施形態によれば、表示装置50は、生成された合成映像そのまま表示できるが、ロボット手術システム1,100の使用環境によって、合成映像に含まれた映像情報のうち一部の関心領域のみが表示されるように制御される。 すなわち、内視鏡映像と非内視鏡映像とが合成された場合、表示装置50には、非内視鏡映像に含まれた一部の関心領域である前立腺801の位置、及び神経束802の位置のみが表示されるように制御される。 さらに、前立腺801及び神経束802の位置についての情報が前処理された場合、表示装置50は、ロボット手術システム1,100の使用環境によって、合成映像に特定の部位が前立腺801及び神経束802に該当するという情報を共に表示できる。

    図8は、本発明の一実施形態による合成映像を示す図面である。 図8を参照すれば、合成映像は、膀胱及び周辺の内視鏡映像に、前立腺及び神経束のような膀胱の内外部の組織位置についての情報を有する超音波映像が合成されたことを示す図面である。

    図9は、本発明の一実施形態による医療映像を処理する方法のフローチャートである。 図9を参照すれば、本実施形態による医療映像処理方法は、図1A、図1B及び図3に示すロボット手術システム1,100の医療映像処理装置30で時系列的に処理されるステップで構成される。 したがって、以下省略された内容であるとしても、前記図面に関して記述された内容は、本実施形態による医療映像処理方法にも適用される。

    ステップ901で、映像獲得部32は、相異なる複数の医療映像撮影装置を利用して撮影された臓器についての医療映像を獲得する。 ステップ902で、表面情報抽出部33は、獲得された医療映像それぞれから、獲得された医療映像それぞれに含まれた臓器の表面情報をそれぞれ抽出する。

    ステップ903で、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。 ステップ904で、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。

    図10は、図9の医療映像を処理する方法の詳細なフローチャートである。 同様に、以下省略された内容であるとしても、図1A、図1B及び図3に関して記述された内容は、本実施形態による医療映像処理方法にも適用される。

    ステップ1001で、内視鏡映像獲得部321は、内視鏡装置10(図1B)を利用して撮影された内視鏡映像を獲得する。 ステップ1002で、第1抽出部331は、内視鏡装置10(図1B)により撮影された内視鏡映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第1表面情報を抽出する。

    ステップ1003で、非内視鏡映像獲得部322は、超音波装置20(図1B)のような非内視鏡装置を利用して撮影された非内視鏡映像を獲得する。 ステップ1004で、第2抽出部332は、非内視鏡装置により撮影された映像から、臓器の表面の位置及び形態のうち少なくとも一つを表す第2表面情報を抽出する。

    ここで、ステップ1001及びステップ1003の開始は、同時に並列的に進められてもよく、いずれか一つのステップが先に開始されて進められてもよい。 すなわち、ステップ1001及びステップ1002の進行と、ステップ1003及びステップ1004の進行とは、互いに影響なしに独立して進められる。

    ステップ1005で、映像マッピング部34は、抽出されたそれぞれの表面情報を利用して、医療映像をマッピングする。 ステップ1006で、合成映像生成部35は、マッピング結果に基づいて、医療映像が整合された合成映像を生成する。

    図11は、本発明の一実施形態による第1表面情報を抽出する過程のフローチャートである。 ステップ1101で、第1抽出部331は、臓器及び周辺についての外部組織と内視鏡装置10(図1B)との距離情報を獲得する。

    ステップ1102で、第1抽出部331は、獲得された距離情報を利用して、内視鏡映像に対応する三次元の第1表面モデルを生成する。 ステップ1103で、第1抽出部331は、生成された第1表面モデルから第1表面情報を抽出する。

    図12は、本発明の一実施形態による第2表面情報を抽出する過程のフローチャートである。 ステップ1201で、第2抽出部332は、非内視鏡装置20(図1B)により撮影された映像から、臓器の表面を表す境界線についての情報を獲得する。

    ステップ1202で、第2抽出部332は、獲得された境界線情報を利用して、臓器の表面に対応する三次元の第2表面モデルを生成する。 ステップ1203で、第2抽出部332は、生成された第2表面モデルから第2表面情報を抽出する。

    一方、前述した本発明の実施形態は、コンピュータで実行されるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して、前記プログラムを動作させる汎用のデジタルコンピュータで具現される。 また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に複数の手段を通じて記録される。 前記コンピュータで読み取り可能な記録媒体は、磁気記録媒体(例えば、ROM(Read Only Memory)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的な読み取り媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。

    これまで、本発明について、その望ましい実施形態を中心に述べた。 当業者は、本発明が、本発明の本質的な特性から逸脱しない範囲で、変形された形態に具現可能であるということを理解できるであろう。 したがって、開示された実施形態は、限定的な観点ではなく、説明的な観点で考慮されねばならない。 本発明の範囲は、前述した説明ではなく、特許請求の範囲に表れており、それと同等な範囲内にあるあらゆる相違点は、本発明に含まれていると解釈されねばならない。

    本発明は、医療機器関連の技術分野に適用可能である。

    1 ロボット手術システム10 内視鏡装置11 第1医療映像撮影装置20 超音波装置21 第2医療映像撮影装置30 医療映像処理装置31 検出部32 映像獲得部33 表面情報抽出部34 映像マッピング部35 合成映像生成部40 手術用ロボット50 表示装置321 内視鏡映像獲得部322 非内視鏡映像獲得部331 第1抽出部332 第2抽出部341 比較部342 位置マッチング部

    高效检索全球专利

    专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

    我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

    申请试用

    分析报告

    专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

    申请试用

    QQ群二维码
    意见反馈