JP2018514748A - 光学撮像システムおよびその方法 - Google Patents
光学撮像システムおよびその方法 Download PDFInfo
- Publication number
- JP2018514748A JP2018514748A JP2017539649A JP2017539649A JP2018514748A JP 2018514748 A JP2018514748 A JP 2018514748A JP 2017539649 A JP2017539649 A JP 2017539649A JP 2017539649 A JP2017539649 A JP 2017539649A JP 2018514748 A JP2018514748 A JP 2018514748A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- target object
- light
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional [3D] objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00006—Operational features of endoscopes characterised by electronic signal processing of control signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/07—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0064—Body surface scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0071—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/508—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for non-human patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/37—Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/21—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from near infrared [NIR] radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7285—Specific aspects of physiological measurement analysis for synchronizing or triggering a physiological measurement or image acquisition with a physiological event or waveform, e.g. an ECG signal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient; User input means
- A61B5/742—Details of notification to user or communication with user or patient; User input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient; User input means
- A61B5/742—Details of notification to user or communication with user or patient; User input means using visual displays
- A61B5/7445—Display arrangements, e.g. multiple display units
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10064—Fluorescence image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10076—4D tomography; Time-sequential 3D tomography
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10108—Single photon emission computed tomography [SPECT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- High Energy & Nuclear Physics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pulmonology (AREA)
- Dentistry (AREA)
- Gynecology & Obstetrics (AREA)
- Toxicology (AREA)
- Electromagnetism (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Endoscopes (AREA)
Abstract
光学撮像システムは、3次元(3D)光スキャナを利用して、外科患者などの、撮像されている目標対象の形状情報、色反射率情報、および蛍光情報を捕捉する。本システムは、また、画像マッピング処理を実行するために目標対象の形状情報を利用して、捕捉した蛍光または他の術中画像を、改善された精細度または鮮明さで、目標対象上に投影して戻す。追加として、本システムは、目標対象の形状情報を利用して、ディスプレイ上への提示のため、または目標対象上への投影のために、目標対象のカラー画像などの2つ以上の画像を、蛍光画像に重ね合わせる。【選択図】図1
Description
関連出願の相互参照
本出願は、2015年2月6日に出願された、米国仮出願第62/112,993号の利益を主張し、その内容が参照により本明細書に組み込まれる。
本出願は、2015年2月6日に出願された、米国仮出願第62/112,993号の利益を主張し、その内容が参照により本明細書に組み込まれる。
技術分野
一般に、本発明は、光学撮像のシステムおよび方法に関する。詳細には、本発明は、3D走査、光学撮像、マルチモーダル撮像、ならびに画像重ね合わせおよび表示に関する。さらに詳細には、本発明は、3D走査を、光学撮像および放射線画像診断法などの、医用撮像と組み合わせて利用して、診断機能を実行するためのシステムおよび方法に関する。
一般に、本発明は、光学撮像のシステムおよび方法に関する。詳細には、本発明は、3D走査、光学撮像、マルチモーダル撮像、ならびに画像重ね合わせおよび表示に関する。さらに詳細には、本発明は、3D走査を、光学撮像および放射線画像診断法などの、医用撮像と組み合わせて利用して、診断機能を実行するためのシステムおよび方法に関する。
医療分野で使用されているような、現在の撮像技術は、外科医などの、医療従事者によって求められるような、複数画像の強固な統合をまだ提供できない。例えば、表面形状測定は、現在、構造化光3次元(3D)スキャナによって利用されるものなどの、3D走査法を使用して実施され、それは、蛍光撮像または偏光撮像によって提供されるものなどの、高度な光学撮像機能を提供しない。3D走査ベースの撮像方法は、表面情報、形状データ、3D点群データ、ならびに対象およびそれらの動きを追跡する能力を提供するが、3D走査は、限られた生医学応用および診断情報しか提供しない。
あるいは、医用光学撮像法は通常、平面撮像法の使用を伴い、表面形状情報を提供しない。例えば、かかる医用光学撮像法によって取得された平面撮像情報は、形態/形状情報を提示しない。加えて、かかる平面撮像情報は、コンピュータ断層撮影(CT)または磁気共鳴断層撮影(MRI)データなどの、他の撮像情報と融合させるか、または組み合わせるのが困難である。蛍光撮像システムなどの、現在の光学撮像システムが3D形状情報を欠いていることにより、光学撮像と他の画像診断法との間の画像重ね合わせが困難になる。
例えば、典型的な平面蛍光撮像では、十分な奥行き/形状情報を、手術部位などの、関心の標的から取得することができない。蛍光断層撮影法は、非常に低速であり、術中撮像用に使用すること、および組織変形を追跡することが不可能である。さらに、蛍光撮像を、CT、MRI、または陽電子放射断層撮影(PET)から術前撮像データと重ね合わせることは困難である。
従って、3D走査を医用光学撮像技術と一緒に利用して、蛍光撮像または偏光撮像などの、専用光学撮像法から取得される情報と統合される表面形状画像を生成する撮像システムに対する必要性がある。加えて、3D走査を利用して、目標対象の動きおよび変形を追跡する、表面形状情報、ならびに、診断情報を提供する光学撮像法と組み合わせた、データ融合/画像重ね合わせのための3Dモデルの生成を提供する撮像システムに対する必要性もある。追加として、手術、治療モニタリング、放射線療法モニタリング、創傷治癒、遠隔医療、保安点検、および医学訓練を含むが、それらに限定されず、様々な用途で使用可能な、3D走査を利用する撮像システムに対する必要性がある。さらに、バーチャルリアリティ特徴を3D走査撮像および医用光学撮像技術と組み合わせる撮像システムに対する必要性がある。
前述の観点から、目標対象を撮像するための光学撮像システムを提供することは、本発明の一態様であり、それは、コントローラ、コントローラに結合された、目標対象を光で照らすための発光体モジュール、およびコントローラに結合された、目標対象を撮像するための視野を有する画像検出モジュールを含み、コントローラは、1つのモードにおいて、画像検出モジュールが目標対象の3次元(3D)形状画像を捕捉し、第2のモードでは画像検出モジュールが目標対象の特定の画像を捕捉するように、発光体および画像検出モジュールを制御する。
平坦でない目標対象を撮像するための光学撮像システムを提供することは本発明の別の態様であり、それは、コントローラ、コントローラに結合された、目標対象を光で照らすための発光体モジュール、コントローラに結合された、平坦でない目標対象を撮像するための視野を有する画像検出モジュールを含み、コントローラは、画像検出モジュールが目標対象の3次元(3D)形状画像を捕捉するように発光体および画像検出モジュールを制御し、かつ、コントローラは、平坦でない表面の複数の部分と発光体モジュールとの間の相対距離を識別して補正した投影画像を生成し、その後、補正した投影画像が発光体モジュールによって投影される。
目標対象の画像を重ね合わせるための方法を提供することは、本発明の別の態様であり、それは、目標対象の第1の特定の画像を第1の画像検出モジュールから取得すること、目標対象の第2の特定の画像を第2の画像検出モジュールから取得すること、目標対象の2つ以上の画像検出モジュールに対する距離を取得して目標対象の形状画像を取得すること、第1の特定画像、第2の特定画像、および距離に基づいて変換行列を計算すること、ならびに変換行列に基づき、第1の特定画像を第2の特定画像に重ね合わせること、のステップを含む。
目標対象の光学走査の方法を提供することは本発明の別の態様であり、それは、目標対象を偏光によって照らすこと、目標対象から戻った光を分析器により分析光として処理すること、および分析光を目標対象の形状画像として検出すること、のステップを含む。
光学撮像システムを提供することは本発明の別の態様であり、コントローラは、術前画像空間、術中画像空間、および周辺画像空間の間の変換行列を計算すること、ならびに術前画像空間、術中画像空間、および周辺画像空間を重ね合わせること、を含むステップを実行するように構成される。
目標対象の酸素飽和度撮像または脈管構造撮像は、本発明の光学撮像システムの別の態様である。
目標対象の3D形状、蛍光撮像、吸収係数および散乱係数を捕捉するために提供することは、本発明の光学撮像システムの別の態様である。
ジェスチャ認識を提供することは、本発明の光学撮像システムの別の態様である。
心臓ゲーティングを提供することは、本発明の光学撮像システムの別の態様である。
二重標識である造影剤(例えば、蛍光性であり、PETまたはSPECT撮像用に放射性同位元素でも標識される造影剤)と一緒に利用されることは、本発明の光学撮像システムの別の態様である。
本発明の光学撮像システムにより、蛍光撮像(例えば、5−アミノレブリン酸またはインドシアニングリーン)が、介入または手術をガイドするために、術前手術ナビゲーション(例えば、MRI、CT、PET、SPECT...)と併せて使用されるように構成されることは、本発明の光学撮像システムの別の態様である。
(5−アミノレブリン酸またはインドシアニングリーンなどの)蛍光撮像が、脳に対する治療介入または手術をガイドするために、術前手術ナビゲーション(例えば、MRI、CT、PET、SPECT...)と併せて使用される場合に提供することは、本発明の光学撮像システムの別の態様である。
生体力学モデリングおよびFEMモデリングを使用して変形補正を提供することは、本発明の光学撮像システムの別の態様である。
光源および検出器を、撮像する組織の2つの異なった側または反対側に配置した静脈撮像(透過幾何形状)が好まれる、脈管構造撮像を提供することは、本発明の光学撮像システムの別の態様である。
撮像する組織の同じ側にある光源および検出器を用いて静脈撮像(反射幾何形状)が実行される、脈管構造撮像を提供することは、本発明の光学撮像システムの別の態様である。
静脈撮像がマルチスペクトル撮像で実行される、脈管構造撮像を提供することは、本発明の光学撮像システムの別の態様である。
投影品質モニタリングを提供することは、本発明の光学撮像システムの別の態様であり、投影最適化および最小二乗誤差が実装され、投影の精度がそれに応じて更新される。
目標対象の光学走査の方法を提供することは本発明の光学撮像システムの別の態様であり、それは、目標対象を偏光によって照らすこと、目標対象から戻った光を分析器により分析光として処理すること、および分析光を目標対象の形状画像として検出することであって、偏光は、複数の波長を含み、それにより各波長は目標対象内の奥行きに対応し、および複数の波長の各1つに対して帯域通過を有するスペクトルフィルタによって偏光を処理すること、複数の波長の各1つに対して帯域通過を有するスペクトルフィルタによって分析光を処理すること、複数の波長の各1つの分析光を目標対象内の各奥行きに対する形状画像として検出すること、のステップを含む。
正規化に続いて複数の波長の1つに基づく反射画像を複数の波長の別の1つに基づく別の反射画像で減算することにより画像を生成することは、本発明の光学撮像システムの別の態様である。
本発明のこれらおよび他の特徴および利点は、以下の記述、添付のクレーム、および付随の図面を参照してより良く理解されるであろう。
本発明の光学撮像システムは、図面の図1に示すように、概して、番号100で参照される。具体的には、撮像システム100は、3D走査モジュール110および光学撮像モジュール120を含み、それらは、任意の適切なコントローラ130を介して、相互に動作可能に通信する。
3D走査モジュール110は、レーザー走査三角測量、構造化光、飛行時間、コノスコープホログラフィ(conoscopic holography)、調光、ステレオカメラ、フーリエ3D走査(Fourier 3D scanning)、低コヒーレンス干渉法、コモンパス干渉3D走査、および接触側面計を含むが、それらに制限されない、1つ以上の技術を含む。
光学撮像モジュール120は、蛍光撮像、反射撮像、ハイパースペクトル撮像、IR熱撮像、チェレンコフ撮像、偏光撮像、偏光差/偏光比撮像、分光偏光差撮像、多光子撮像、二次高調波発生撮像、光音響撮像、および蛍光寿命撮像を含むが、それらに制限されない、1つ以上の技術を含む。
そのため、システム100は、表面形状測定値および、蛍光撮像情報などの、光学撮像情報の両方を取得することが可能である。
コントローラ130は、説明する本発明の機能を実行するために、必要なハードウェア、ソフトウェア、またはそれらの組合せを含み得ることも理解されよう。さらに、コントローラ130は、3D走査モジュール110および光学撮像モジュール120の動作を制御することが可能な任意の適切な携帯型またはスタンドアロンのコンピューティング装置を含み得る。コントローラ130は、撮像データなどのデータを、データインタフェース132に結合された適切なプロジェクタまたはディスプレイに出力することが可能なデータインタフェース132を含み得ることも理解されよう。かかる構成のいくつかの実施形態を以下で詳細に説明する。コントローラ130のデータインタフェース132は、有線または無線ネットワークを通して、ディスプレイまたはプロジェクタと、およびデータインタフェース132によってそれに出力された画像データを転送するために他のリモートコンピューティング装置と通信するように構成され得ることも理解されよう。加えて、コントローラ130は、データインタフェース130を通して、キーボードなどの入力装置から、またはデータインタフェース130と通信しているコンピューティング装置によって、適切なコマンドを受信することも可能であり得る。
システム100の別の実施形態では、図2に示すように、100Aとして示されて、3D走査モジュール110と動作可能に通信するディスプレイモジュール200、光学撮像モジュール120、および前述したコントローラ130も含み得る。具体的には、ディスプレイモジュール200は、有線または無線接続を経由し、データインタフェース132を通して、コントローラ130と通信する。ディスプレイモジュール200は、液晶ディスプレイ(LCD)、または2次元(2D)ディスプレイ、3次元(3D)ディスプレイ、ヘッドマウント式ディスプレイ、もしくはプロジェクタを含むが、それらに限定されない、任意の他のディスプレイなどの、任意の適切なディスプレイを含む。
100Bとして示された、システム100の別の実施形態では、光学撮像システム100Aのコントローラ130は、ソフトウェアモジュール210として示された、必要なハードウェア、ソフトウェア、またはそれらの組合せで構成され得、光学画像および表面形状を、陽電子放射断層撮影(PET)、単光子放射型コンピュータ断層撮影法(SPECT)、磁気共鳴断層撮影(MRI)、2Dおよび3D超音波、ガンマ線撮像、光干渉断層撮影(OCT)、X線撮像、および同様のものなどの、他の画像診断法に重ね合わせるための処理を実行する。言うまでもなく、ソフトウェアモジュール210は、コントローラ130内に埋め込まれるように構成され得るか、またはインタフェース132と通信するリモートコンピューティング装置もしくは記憶装置によって提供され得る。
前述した光学撮像システム100および100A〜Bの実施形態によって利用される構造的特徴は、以下で詳細に提示されることが理解されよう。
具体的には、3D走査モジュール110および撮像モジュール120によって提供される機能は、図4Aに示すように、撮像構成300Aで具現化され得る。具体的には、構成300は、図4Aに示すように、発光体モジュール310および画像検出モジュール320を含む。発光体モジュール310は、1つ以上の光線322を放出するための任意の適切な発光デバイスを含み、光線322は、目標対象324の励起光/照明光として、および/または目標対象324上への、3D走査用のパターン投影などの、画像の投影のために、機能する。一態様では、発光体モジュール310は、目標対象324を照らすことが可能な、投光機またはレーザー干渉モジュールを含み得る。画像検出モジュール320は、発光体モジュール310によって出力された放出光線322によって照らされていることに応答して、目標対象324によって反射されたか、または放出された光326を検出するように構成された任意の適切な光検出装置を含む。一態様では、画像検出モジュール320は、電荷結合撮像素子(CCD)または相補型金属酸化膜(CMOS)撮像素子を含み得るが、1つ以上の光電子増倍管(PMT)、1つ以上のアバランシェフォトダイオード(APD)またはフォトダイオードなどの、任意の他の適切な撮像素子が使用され得る。加えて、発光フィルタ340は、画像検出モジュール320の入力の前に動作可能に配置される。発光フィルタ340は、帯域通過フィルタ、ロングパスフィルタまたは波長可変フィルタとして構成され得、それは、それが吸収した励起光322によって照らされていることに応答して、目標対象324によって放出される蛍光と関連した光の波長だけを透過させる。さらに、発光フィルタ340は、励起光322と関連した光の波長を阻止することが理解されよう。具体的には、発光フィルタは、フィルタホイールまたは他の適切な機構を含み得、それは、第1のモードでは、光326が、画像検出モジュール320によって捕捉される前に、発光フィルタ340を透過し、第2のモードでは、光326が発光フィルタ340を透過せず、画像検出モジュール320によって直接検出されるように、フィルタホイール340が、回転されるか、または移動されるように、選択的に作動されるように構成される。一態様では、発光フィルタ340は、蛍光発光フィルタを含み得る。そのため、構成300は、フィルタ340が画像検出モジュール320によって使用されない場合、単一の撮像素子は目標対象324の形状情報を捕捉し、フィルタ340が画像検出モジュール320によって使用される場合には、目標対象324の蛍光情報を捕捉することになる。従って、検出構成300の動作中、発光フィルタ340が画像検出モジュール320の検出経路から出される場合、画像検出モジュール320は、目標対象324の形状情報を捕捉し、発光フィルタ340が画像検出モジュール320の検出経路に入れられる場合には、目標対象324の蛍光情報を捕捉する。別の態様では、3D走査プロセスは、任意選択で、発光フィルタ340を画像検出モジュール320の検出経路から出すことなく実行され得る。例えば、発光体モジュール310は、3D走査を可能にするために発光フィルタ340を透過できる光を放出するように構成され得る。このプロセスの一例は、発光体モジュール310が、約830nmの波長で光を放出し得、それは、830nmに中心を置く帯域通過発光フィルタ340を透過でき、そのため3D走査が可能になることである。
別の態様では、システム100は、目標対象324の3D形状および蛍光情報を連続して捕捉し得る。これを達成するために、システム100は、3D走査を第1に、次いで、蛍光撮像を第2に実行する。
別の態様では、本システムは、目標対象324の3D形状および蛍光情報を並行して、または同時に捕捉し得る。そのため、画像検出モジュール320は、同様の時間枠中に、3D走査信号および蛍光信号の両方を検出することが可能である。従って、画像検出モジュール320によって捕捉される画像フレームは、それぞれ、3D走査および蛍光撮像の目的に対して指定され得る。例えば、画像検出モジュール320のフレームレートが30フレーム/秒(FPS)の場合、1秒間では、3D形状を捕捉するために15フレーム(例えば、奇数フレーム1,3,5,7,9,...)が使用でき、他方、残りの15フレーム(例えば、2,4,6,8,10,...)は蛍光検出のために使用できる。画像フレーム指定の任意の他の組合せが並行/同時走査に対して使用され得、例えば、総画像フレームの3分の2が3D走査のために使用され得、他方、総画像フレームの3分の1が蛍光撮像のために使用されることが理解されよう。
発光体310および画像検出モジュール320の動作は、コントローラ130によるフレーム同期化の動作によって調整されることも理解されよう。例えば、画像検出モジュール320は、30フレーム/秒(FPS)で動作し、発光体310は、画像検出モジュール320と同期して15フレーム(例えば、奇数フレーム:1,3,5,7,9,...)内で3D形状を捕捉するための縞パターンを放出することが可能である。発光体モジュール310は、検出器320と同期して、残りの15フレーム(例えば、偶数フレーム2,4,6,8,10,...)の蛍光撮像のために蛍光励起光を放出するように構成される。
フィルタホイールは、必要に応じて同期化の一部として提供され、それにより、発光フィルタ340は、発光体310および画像検出モジュール320の動作モードに従い、光路に入ったり光路から出たりし得るとも考えられる。発光体モジュール310および画像検出モジュールおよび蛍光検出モジュール510を含む、システム100の異なる構成要素の同期化および制御はコントローラ130によって制御され、この場合、同期クロック信号はコントローラ130によって生成されることも理解されよう。
一態様では、システム300Aは、目標対象324の3D走査および蛍光撮像に加えて、色反射率撮像を可能にするように構成される。具体的には、画像検出モジュール320がカラー撮像素子(例えば、Bayerパターンフィルタ配列など、撮像センサーレベルで配置されたフィルタ配列を備えた)の場合、画像検出モジュール320は色情報を単独で検出できる。
別の態様では、画像検出モジュール320がモノクロ撮像素子を含み得る場合、それによって目標対象324のカラー画像が捕捉され得、それにより発光体モジュール310が、赤、緑および青の波長を連続して投影し、画像検出モジュール320は、それぞれ、赤、緑および青の反射に対して3つのモノクロ画像を捕捉する。加えて、カラー画像は、デジタル的に合成することが可能である。カラー撮像、蛍光撮像および3D走査は、連続して、または同時に実行できることも理解されよう。並行または同時モードでは、画像フレームは、それぞれ、カラー撮像、蛍光撮像および3D走査に対して分割することが可能である。例えば、総撮像フレームの半分が3D走査のために使用され得、総撮像フレームの4分の1が蛍光撮像のために使用され得、総撮像フレームの4分の1がカラー撮像のために使用され得る。発光体モジュール310、画像検出モジュール320および発光フィルタ340を具現化しているフィルタホイールは、並行/同時モードの動作に対して、コントローラ130の支援と同期する方法で動作することが理解されよう。
更に別の実施形態では、発光フィルタ340は、波長可変フィルタを含み得る。波長可変フィルタを使用すると、ハイパースペクトル撮像が構成300Aによって実行できるようにして、複数の光波長を捕捉する。更に別の実施形態では、発光フィルタ340は、複数の狭帯域フィルタを含むフィルタホイールを含み得る。そのため、構成300Aは、複数の光波長の反射画像または吸収画像を捕捉することが可能である。
更に別の実施形態では、発光フィルタ340を具現化しているフィルタホイールは、酸素飽和度の撮像に適したフィルタを含む。例えば、組織酸素飽和度(STO2)または静脈血酸素飽和度(SVO2)の画像が測定され得る。例えば、660nmおよび950nmフィルタが酸素飽和度画像を捕捉するために使用され得る。酸素飽和度は、式:StO2=酸素飽和したヘモグロビン値/総ヘモグロビン値(未飽和+飽和)、を使用して計算できる。適切なフィルタ340を使用することによりチェレンコフ撮像も可能になり得ることも理解されよう。
スペクトルフィルタの代わりに偏光器が使用でき、また、偏光撮像、および偏光差/偏光比撮像を可能にするために、別の偏光器が発光体モジュール310の前に配置され得ることも理解されよう。前述した異なる画像診断法が、以前に説明した、インターリーブ方式を使用して、連続して、または並行して、のいずれかで、3D走査と一緒に獲得され得ることが理解されよう。本発明により、複数の画像診断法が可能になり得ることが理解されよう。例えば、酸素飽和度撮像、色反射率撮像、自動蛍光撮像および外因性コントラスト(extrinsic contrast)に基づく近赤外線(NIR)撮像は、一緒に同時に可能になり得る。
別の実施形態では、3D走査モジュール110および撮像モジュール120は、図4Bに示すように、撮像構成300Bで具現化され得る。具体的には、構成300Bは、蛍光励起フィルタ410を追加して、前述したように、発光体モジュール310、画像検出モジュール320、発光フィルタ340を含む。具体的には、蛍光励起フィルタ410は、発光体モジュール310と併せて使用され、発光体モジュール310から放出された光が、撮像されている目標対象324を照らす前に、励起フィルタ410を透過するように配置される。蛍光励起フィルタ410は、目標対象324によって容易に吸収可能な励起波長(すなわち、励起光)の範囲内の光線を有する光322だけがそれを透過できる、帯域通過フィルタ、ショートパスフィルタまたは、波長可変フィルタとして構成される。具体的には、蛍光励起フィルタ410は、フィルタホイールまたは他の適切な機構を含み得、それは、第1のモードでは、光322は、目標対象324上に入射する前に、発光フィルタ410によって処理されるように、励起フィルタ410を透過し、第2のモードでは、光322が、励起フィルタ340を透過せず、発光体モジュール310から直接放出されて、目標対象324上に入射するように、フィルタホイール340が、回転されるか、または移動されるように、選択的に作動されるように構成される。光の吸収に応答して、目標対象324は蛍光の形で光326を放出することが可能である。そのため、一態様では、検出構成300Bの動作中、画像検出モジュール320は、励起フィルタ410が放出された光322の経路から出され、発光フィルタ340が画像検出モジュール320の検出経路から出されると、目標対象324の形状情報を捕捉し、また、励起フィルタ410が放出された光322の経路に入れられ、発光フィルタ340が画像検出モジュール320の検出経路に入れられると、目標対象324の蛍光情報を捕捉する。別の態様では、検出構成300Bの動作中、画像検出モジュール320は、励起フィルタ410が放出された光322の経路から出され、他方、発光フィルタ340は光路内にとどまっていると、目標対象324の形状情報を捕捉する。代替として、画像検出モジュール320は、発光フィルタ340が画像検出モジュール320の検出経路から出され、他方、励起フィルタ410は光路内にとどまっていると、目標対象324の形状情報を捕捉する。加えて、検出構成300Bは、励起フィルタ410が放出された光322の経路に入れられ、発光フィルタ340が画像検出モジュール320の検出経路に入れられと、目標対象324の蛍光情報を捕捉する。
別の態様では、システム300Bは、3D形状および蛍光画像に加えて、カラー画像も捕捉し得る。
3D走査は、発光フィルタ340または励起フィルタ410のいずれかを光検出または発光経路から出して、実行され得ることが理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図4Cに示すように、撮像構成300Cで具現化され得る。具体的には、撮像構成300Cは、蛍光励起フィルタ410と共に動作する励起光源450を追加して、前述したように、発光体モジュール310、画像検出モジュール320、発光フィルタホイール340を含む。励起光源450は、任意の適切な光を発生するように構成され得、その光は次いで、励起フィルタ410を透過する。具体的には、蛍光励起フィルタ410は、励起光源450から放出された光322が、撮像されている目標対象324に当たる前に、励起フィルタ410を透過するように配置される。一態様では、検出構成300Cの動作中、発光フィルタ340が任意選択で画像検出モジュール320の光326検出経路から出され、発光体モジュール310が光322を発生するために使用されて目標対象324を照らす場合、画像検出モジュール320は、目標対象324の形状情報を捕捉する。代替として、発光フィルタ340が画像検出モジュール320の検出経路に入れられて、励起フィルタ410が、目標対象324を照らすために光源450から放出された光322の経路に入れられる場合、画像検出モジュール320は、目標対象324からの蛍光情報を捕捉する。並列モードでは、形状走査フレームおよび蛍光撮像フレームは、同期されている発光体モジュール310、励起光源450および画像検出モジュール320で、順次にインターリーブされ得る。別の態様では、フィルタ340および410はまた、並列走査を可能にするために、発光体モジュール310、励起光源450および検出モジュールと同期され得る。
励起光源450は、レーザー光、白色LEDなどの発光ダイオード(LED)、白熱光、プロジェクタ用電球、キセノン、キセノン水銀、またはメタルハライドランプなどのアーク灯、およびコヒーレントまたはインコヒーレント光源を含み得ることも理解されよう。
励起光源450は、デジタル(LEDベースの)プロジェクタも含み得、追加として、光源は、バターン照明のための空間周波数を投影し得る。例えば、デジタルプロジェクタはスペクトルフィルタと併せて、光源として使用され得る。加えて、励起光源450は、連続出力またはパルス出力を放出し得、任意の所望のスペクトル窓内の電磁波である光を発生し得る。
励起光源450は光拡散体も含み得ることも理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図4Dに示すように、別の撮像構成300Dで具現化され得る。具体的には、撮像構成300Dは、別の画像検出モジュール320Aおよび別の発光フィルタ340Aを追加して、前述のように、発光体モジュール310、画像検出モジュール320、発光フィルタ340を含む。発光フィルタ340および340Aはフィルタホイールとして構成され、それは、それぞれの画像検出モジュール320および320Aの光検出経路に入れられたり、光検出経路から出されたりし得ることが理解されよう。そのため、検出構成300Dの動作中、発光体モジュール310は目標対象の目標対象324を光322で照らす。加えて、目標対象324の形状情報を画像検出モジュール320および320Aによって捕捉するために、発光フィルタ340および340Aは、任意選択で、それぞれの画像検出モジュール320および320Aの光326検出経路から出される。さらに、目標対象324の蛍光情報を画像検出モジュール320および320Aによって捕捉するために、発光フィルタ340および340Aは、それぞれの画像検出モジュール320および320Aの光326検出経路に入れられる。そのため、構成300Dは複数の画像検出モジュール320および320Aを利用するので、光路妨害が回避される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図4Eに示すように、撮像構成300Eで具現化され得る。具体的には、撮像構成300Eは、励起フィルタ410を追加して、前述のように、発光体モジュール310、画像検出モジュール320、発光フィルタ340、画像検出モジュール320Aおよび発光フィルタ340Aを含む。励起フィルタ410は、選択的に発光体310の出力経路に入れられたり、出力経路から出されたりするように、フィルタホイールとして構成され得ることが理解されよう。そのため、検出構成300Eの動作中、目標対象324を照らすために発光体モジュール310によって放出された光322が励起フィルタ410によって処理されないように、励起フィルタ410が任意選択で移動され、発光フィルタ340および340Aが任意選択で、光326を捕捉するために、それぞれの画像検出モジュール320および320Aの検出経路から移動される場合、画像検出モジュール320および320Aは、目標対象324の形状情報を捕捉する。加えて、光が励起フィルタ410によって処理されるように励起フィルタ410が検出経路に入れられて、発光フィルタ340および340Aが、光326を捕捉するために、それぞれの画像検出モジュール320および320Aの検出経路に入れられる場合、画像検出モジュール320および320Aは、目標対象324の蛍光情報を捕捉する。そのため、構成300Eは複数の画像検出モジュール320を利用するので、光路妨害が回避される。別の態様では、励起フィルタ410は、フィルタホイールを使用することなく、固定フィルタ(stationary filter)として具現化され得、そのため、フィルタ410は、前述した実施形態と同様に、検出経路に入れたり検出経路から出したりする必要がないことが理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図4Fに示すように、撮像構成300Fで具現化され得る。具体的には、撮像構成300Fは、蛍光励起フィルタ410と共に動作する励起光源450を追加して、前述のように、発光体モジュール310、画像検出モジュール320、発光フィルタ340、画像検出モジュール320Aおよび発光フィルタ340Aを含む。発光フィルタ340および340Aはフィルタホイールとして構成され得、それらは、それぞれの画像検出モジュール320および320Aの光検出経路に入れられたり、光検出経路から出されたりし得ることが理解されよう。そのため、検出構成300Fの動作中、目標対象324を照らすために発光体310を使用して光322を放出し、また、発光フィルタ340および340Aが、任意選択で、目標対象324からの反射光326を検出するために、それぞれの画像検出モジュール320および320Aの検出経路から出される場合、画像検出モジュール320および320Aは、目標対象324の形状情報を捕捉する。代替として、目標対象324の蛍光情報を捕捉するために、光源450が、目標対象324を照らす、蛍光励起フィルタ410によって処理される、光322を放出するために使用され、発光フィルタ340および340Aは、目標対象324からの放出光326を検出するために、それぞれの画像検出モジュール320および320Aの検出経路に入れられる。
一態様では、構成300Fは、3D形状および蛍光情報を連続して捕捉し得る。そのため、形状情報の収集中、励起光源450および蛍光励起フィルタ410は使用されず、他方、蛍光情報の収集中、発光体モジュール310は使用されない。別の態様では、構成300Fは、3D形状および蛍光情報を並行して、または同時に捕捉し得る。そのため、検出モジュール320および320Aは、同様の時間枠中に、3D走査信号および蛍光信号の両方を検出し得る。そのため、検出モジュール320および320Aのフレームは、それぞれ、3D走査および蛍光撮像のために指定され得る。例えば、フレームレートが30フレーム/秒(FPS)の場合、1秒間の間に、3D形状を捕捉するために15フレーム(例えば、奇数フレーム:1,3,5,7,9,...)が使用され得、他方、残りの15フレーム(例えば、偶数フレーム:2,4,6,8,10,...)は蛍光検出のために使用され得る。フレーム指定の任意の他の組合せが並行走査に対して使用され得る(例えば、総画像フレームの3分の2が3D走査のために使用され、総画像フレームの3分の1が蛍光撮像のために使用される)ことも理解されよう。
別の態様では、1つの検出モジュール320が蛍光撮像のために指定でき、他方、他の検出モジュール320Aが3D走査のために指定できる。そのため、同時の3D走査および蛍光撮像が可能にできる。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図5Aに示すように、撮像構成500Aで具現化され得る。具体的には、構成500Aは、蛍光発光フィルタ340と共に使用される蛍光検出モジュール510を追加して、図4Aに関して前述したように、発光体モジュール310、画像検出モジュール320を含む。そのため、蛍光検出モジュール510および発光フィルタ340は、発光体モジュール310からの光322によって照らされていることに応答して目標対象324から放出された光326が、蛍光検出モジュール510によって検出される前に、発光フィルタ340を透過するように、動作可能に配置される。加えて、蛍光検出モジュール510は、蛍光波長に敏感に反応する任意の適切な撮像素子として構成され得、いくつかの実施形態では、電荷結合撮像素子(CCD)または相補型金属酸化膜(CMOS)撮像素子を含み得る。そのため、検出構成500Aの動作中、発光体モジュール310は、光322を放出して目標対象324を照らし、その後、画像検出モジュール320が、目標対象324の、奥行き情報などの形状情報を、目標対象324から反射された光322から捕捉する。加えて、蛍光検出モジュール510は、発光体モジュール310の光322によって照らされていることに応答して、目標対象324から放出された光322から目標対象324の蛍光情報を捕捉する。従って、構成500Aは、2つのカメラ/センサー/検出器、画像検出モジュール320および蛍光検出モジュール510を利用し、それにより、画像検出モジュール320は、目標対象324の形状情報を捕捉し、蛍光検出モジュール510は、目標対象324の蛍光情報を捕捉する。発光体モジュール310は、交互フレーム(alternating frame)をそれぞれ、形状および蛍光撮像用に分割し得ることが理解されよう。例えば、奇数の撮像フレームは、形状走査のために使用でき、偶数の撮像フレームは、蛍光撮像のために使用され得る。別の態様では、システム500Aは、3d形状および蛍光画像に加えて、蛍光検出器モジュール510または画像検出モジュール320を使用してカラー画像も捕捉できる。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図5Bに示すように、撮像構成500Bで具現化され得る。具体的には、構成500Bは、蛍光励起フィルタ410に加えて、図5Aに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光検出モジュール510および蛍光発光フィルタ340を含む。具体的には、蛍光励起フィルタ410は、発光体モジュール310と共に使用するように構成され、それと動作可能に配置される。そのため、励起フィルタ410は、発光体モジュール310から放出された光が、撮像されている目標対象324を照らす前に、励起フィルタ410を透過するように配置される。励起フィルタ410は、フィルタホイールを含み、それは、選択的に、発光体モジュール310の出力経路に入れたり、出力経路から出したりできることも理解されよう。そのため、検出構成500Bの動作中、放出光322が、目標対象324を照らす前に励起フィルタ410によって処理されないように、励起フィルタ410が、任意選択で、発光体モジュール310の光出力経路から出され、その後、画像検出モジュール320が目標対象324によって反射された光326を検出する場合、画像検出モジュール320は、目標対象324の形状情報を捕捉する。加えて、放出光322が、目標対象324を照らす前に励起フィルタ410によって処理されるように、励起フィルタ410が、発光体310の光出力経路に入れられる場合、蛍光検出モジュール510は、目標対象324の蛍光情報を捕捉し、その後、蛍光検出モジュール510は、発光フィルタ340によって処理された目標対象324から放出された光326を目標対象324の蛍光情報として検出する。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図5Cに示すように、撮像構成500Cで具現化され得る。具体的には、撮像構成500Cは、励起光源450および蛍光励起フィルタ410に追加して、図5Aで前述したように、発光体モジュール310、画像検出モジュール320、蛍光検出モジュール510、および発光フィルタ340を含む。具体的には、蛍光励起フィルタ410は、光源450と共に動作し、光源450から放出された光322が、撮像されている目標対象324を照らす前に、励起フィルタ410を透過するように、動作可能に配置される。そのため、検出構成500Cの動作中、発光体モジュール310が目標対象324を照らすために光322を放出し、その後、画像検出モジュール320が、目標対象324からの反射光326を検出する場合、画像検出モジュール320は目標対象324の形状情報を捕捉する。代替として、励起光源450が、目標対象324を照らすために励起フィルタ410によって処理されている光322を発生し、その後、照らされていることに応答して目標対象324により放出された光326が、蛍光検出モジュール510により蛍光情報として検出される前に、発光フィルタ340によって処理される場合、蛍光検出モジュール510は目標対象324の蛍光情報を捕捉する。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図5Dに示すように、撮像構成500Dで具現化され得る。具体的には、撮像構成500Dは、画像検出モジュール320Aを追加して、図5Aで前述のように、発光体モジュール310、画像検出モジュール320、画像検出モジュール320A、蛍光撮像モジュール510、および発光フィルタ340を含む。そのため、検出構成500Dの動作中、目標対象324の形状情報を検出するために、発光体モジュール310は光322を放出して目標対象324を照らし、すると、画像検出モジュール320および320Aは、目標対象324から反射された光322から、目標対象324の、奥行き情報などの、形状情報を捕捉する。加えて、蛍光検出モジュール510は、発光体モジュール310の光322によって照らされていることに応答して目標対象324から放出された光326から、目標対象324の蛍光情報を捕捉する。従って、構成500Dは、画像検出モジュール320および320Aならびに蛍光検出モジュール510を含め、複数のカメラ/センサー/検出器を利用し、それにより、画像検出モジュール320および320Aは目標対象324の形状情報を捕捉し、蛍光検出モジュール510は目標対象324の蛍光情報を捕捉する。従って、構成500Dは複数の画像検出モジュール320を利用するので、光路妨害が回避される。検出モジュール320、320Aのうちの1つは、色反射率撮像などの、他の特定の撮像を実行するために、任意選択で、指定され得ることが理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図5Eに示すように、撮像構成500Eで具現化され得る。具体的には、撮像構成500Eは、励起フィルタ410を追加して、図5Dに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、画像検出モジュール320Aを含む。具体的には、励起フィルタ410は、発光体モジュール310と共に動作するように構成されて、発光体モジュール310から放出された光が、撮像されている目標対象324を照らす前に、励起フィルタ410を透過するように、動作可能に配置される。具体的には、励起フィルタ410は、フィルタホイールまたは他の適切な機構を含み得、それは、第1のモードでは、光322は、目標対象324を照らす前に、発光フィルタ410によって処理されるように、励起フィルタ410を透過し、第2のモードでは、光322が、励起フィルタ340を透過せず、発光体モジュール310から直接放出されて、目標対象324を照らすように、フィルタホイール340が、回転されるか、または移動されるように、選択的に作動されるように構成される。そのため、検出構成300Eの動作中、目標対象324を照らすために発光体モジュール310によって放出された光322が励起フィルタ410によって処理されないように、励起フィルタ410が任意選択で移動される場合、画像検出モジュール320および320Aは、反射光326を目標対象324の形状情報として捕捉する。加えて、蛍光検出モジュール510は、励起フィルタ410によって処理されている発光体モジュール310の光322によって照らされていることに応答して、目標対象324から放出された光326から目標対象324の蛍光情報を捕捉する。そのため、構成300Eは複数の画像検出モジュール320を利用するので、光路妨害が回避される。コントローラ130は、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、画像検出モジュール320A、および励起フィルタホイール410を同期させて作動させることが理解されよう。システム500Eは、コントローラ130の助けにより、投影および画像フレームを分割するために、以前に説明したインターリーブ方式を使用し得ることも理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図5Fに示すように、撮像構成500Fで具現化され得る。具体的には、撮像構成500Fは、画像検出モジュール320Aを追加して、図5Cに関して前述したように、発光体モジュール310、画像検出モジュール320、画像検出モジュール320A、蛍光撮像モジュール510、発光フィルタ340、光源450および励起フィルタ410を含む。そのため、検出構成500Fの動作中、目標対象324を照らすために発光体モジュール310が光322を放出し、その後、画像検出モジュール320および320Aが、目標対象324からの反射光326を検出する場合、画像検出モジュール320および320Aは、目標対象324の形状情報を捕捉する。形状情報の収集プロセス中、励起光源450は使用されず、さらに、励起フィルタ410は使用されないことが理解されよう。代替として、励起光源450が、目標対象324を照らすために励起フィルタ410によって処理された光322を発生し、その後、照らされていることに応答して、目標対象324によって放出された光326が、蛍光検出モジュール510によって蛍光情報として検出される前に、発光フィルタ340によって処理される場合、蛍光検出モジュール510は、目標対象324の蛍光情報を捕捉する。発光体モジュール310は、蛍光情報収集プロセス中に使用されないことが理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図6Aに示すように、別の撮像構成600Aで具現化され得る。具体的には、撮像構成600Aは、ビームスプリッタ610に加えて、図5Aに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、および発光フィルタ340を含む。一態様では、ビームスプリッタ610は、ダイクロイックフィルタまたは1つの範囲の波長の光を反射して、別の範囲の波長の光を透過することが可能な任意の適切な装置を含み得る。画像検出モジュール320および蛍光撮像モジュール510は、実質的に直角など、相互にある角度をなして配置され、他方、ビームスプリッタ610は、画像検出モジュール320および蛍光撮像モジュール510に対して、約45度の角度など、斜角で配置される。そのため、検出構成600Aの動作中、発光体モジュール310は、光322を放出して目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射されて放出された光326がビームスプリッタ610によって受信され、そこで、目標対象324の形状データを捕捉するために、光326の部分620が、画像検出モジュール320による受信のためにビームスプリッタ610を透過するのを可能にされる。加えて、光326の別の部分622が、ビームスプリッタ610によって反射され、すると、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510による受信のために、発光フィルタ340を透過するように向けられる。別の態様では、ビームスプリッタ610は、偏光に基づき光を分割し得る。ビームスプリッタ610は、プレートビームスプリッタ、キューブビームスプリッタ、非偏光ビームスプリッタ、横変位ビームスプリッタ、五角柱(pent−prism)ビームスプリッタ、ワイヤグリッド偏光ビームスプリッタ、または偏光ビームスプリッタを含み得るが、それらに限定されないことが理解されよう。検出器モジュール510または画像検出モジュール320のいずれかにより、カラー画像も捕捉できることも理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図6Bに示すように、別の撮像構成600Bで具現化され得る。具体的には、撮像構成600Bは、励起フィルタ410に加えて、図6Aに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、発光フィルタ340、およびビームスプリッタ610を含む。具体的には、励起フィルタ410は、発光体310に対して動作可能に配置され、そのため、出力された光622が励起フィルタ410によって処理されるようになる。励起フィルタ410は、フィルタホイールまたは他の可動装置として構成され、それは、発光体310によって出力された光が、励起フィルタ410によって選択的に処理されるか、または処理されないように動かすことができることが理解されよう。そのため、構成600Bの動作中、励起フィルタ410は、発光体310によって放出された光322が、励起フィルタ410によって処理されず、目標対象324を照らすように動かされ、すると、照らされていることに応答して目標対象324によって反射された光326がビームスプリッタ610によって受信される。次に、目標対象324から反射されて放出された光326がビームスプリッタ610によって受信され、そこで、光の部分620が、目標対象324の形状データを捕捉するために、画像検出モジュール320による受信のためにビームスプリッタ610を透過するのを可能にされる。蛍光情報を検出するために、励起フィルタ410は、発光体310によって放出された光が、励起フィルタ410によって処理されて、目標対象324を照らすように動かされ、すると、照らされていることに応答して目標対象324から放出された光326がビームスプリッタ610によって受信される。次に、放出された光326の部分622が、ビームスプリッタ610によって反射され、すると、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510による受信のために、発光フィルタ340を透過するように向けられる。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図6Cに示すように、撮像構成600Cで具現化され得る。具体的には、撮像構成600Cは、光源450および励起フィルタ410に加えて、図6Aに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、発光フィルタ340、およびビームスプリッタ610を含む。具体的には、蛍光励起フィルタ410は、励起フィルタ410と併せて使用するように構成され、発光体モジュール310から放出された光322が、撮像されている目標対象324を照らす前に、それ透過するように動作可能に配置される。そのため、検出構成600Cの動作中、発光体310が光322を放出して目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射された光326がビームスプリッタ610によって受信され、そこで、光326の部分620が、目標対象324の形状データを捕捉するために、画像検出モジュール320による受信のためにビームスプリッタ610を透過するのを可能にされる。代替として、目標対象324からの蛍光情報を検出するために、励起光源450は、目標対象324を照らすために励起フィルタ410によって処理される光322を発生するように作動される。そのため、照らされていることに応答して目標対象324から放出された光326がビームスプリッタ610によって受信される。次に、放出された光326の部分622が、ビームスプリッタ610によって反射され、すると、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510による受信のために、発光フィルタ340を透過するように向けられる。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図7Aに示すように、撮像構成700Aで具現化され得る。具体的には、撮像構成700Aは、ビームスプリッタ610A、画像検出モジュール320A、蛍光撮像モジュール510Aおよび発光フィルタ340Aを追加して、図6Aに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、発光フィルタ340を含む。そのため、画像検出モジュール320および蛍光撮像モジュール510は、実質的に互いに直角に配置され、他方、画像検出モジュール320Aおよび蛍光撮像モジュール510Aも実質的に互いに直角に配置される。加えて、ビームスプリッタ620は、画像検出モジュール320および蛍光撮像モジュール510に対して、約45度など、斜角で配置される。同様に、ビームスプリッタ620Aは、画像検出モジュール320Aおよび蛍光撮像モジュール510Aに対して、約45度など、斜角で配置される。そのため、検出構成700Aの動作中、発光体モジュール310は、光322を放出して目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射されて放出された光326がビームスプリッタ610およびビームスプリッタ610Aによって受信され、そこで、光326の部分620が、目標対象324の形状データを捕捉するために、画像検出モジュール320および320Aによる受信のためにビームスプリッタ610および610Aを透過するのを可能にされる。加えて、ビームスプリッタ610および610Aによって受信された光326の別の部分622が、ビームスプリッタ610および610Aによって反射され、すると、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510および510Aによる受信のために、発光フィルタ340および340Aを透過するように向けられる。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図7Bに示すように、撮像構成700Bで具現化され得る。具体的には、撮像構成700Bは、励起フィルタ410に加えて、図7Aで前述したように、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、発光フィルタ340、ビームスプリッタ610A、画像検出モジュール320A、蛍光撮像モジュール510Aおよび発光フィルタ340Aを含む。具体的には、励起フィルタ410は、発光体310に対して動作可能に配置され、そのため、それによって出力された光が励起フィルタ410によって処理されるようになる。励起フィルタ410は、フィルタホイールまたは他の可動装置として構成され、それは、発光体310によって出力された光が、励起フィルタ410によって選択的に処理されるか、または処理されないように移動できることが理解されよう。そのため、構成700Bの動作中、励起フィルタ410は任意選択で、発光体310によって放出された光322が、励起フィルタ410によって処理されないように、発光体モジュール310の光出力経路から出され、すると、発光体310によって放出された光322によって照らされていることに応答して、目標対象324から反射された光326が、ビームスプリッタ610および610Aによって受信され、そこで、光326の部分620が、目標対象324の形状情報を捕捉するために、それぞれの画像検出モジュール320および320Aによる受信のためにビームスプリッタ610および610Aを透過するのを可能にされる。加えて、目標対象324から蛍光情報を収集するために、励起フィルタ410は、発光体の光出力経路に入れられ、そのため、それによって放出された光が励起フィルタ410によって処理されるようになる。そのため、処理された光322によって照らされていることに応答して、目標対象324から放出された光326が、ビームスプリッタ610および610Aによって受信され、すると、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510および510Aによる受信のために、発光フィルタ340および340Aを透過するように向けられるか、または反射される。本発明の別の態様では、励起フィルタ410は、フィルタホイールを使用することなく、固定フィルタとして具現化され得、そのため、フィルタ410は、前述した実施形態と同様に、検出経路に入れたり検出経路から出したりする必要がないことが理解されよう。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図7Cに示すように、撮像構成700Cで具現化され得る。具体的には、撮像構成700Cは、励起光源450および励起フィルタ410を加えて、図7Aに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光撮像モジュール510、発光フィルタ340、ビームスプリッタ610、画像検出モジュール320A、蛍光撮像モジュール510A、発光フィルタ340Aおよびビームスプリッタ610Aを含む。そのため、検出構成700Cの動作中、発光体モジュール310が光322を放出して目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射された光326が、ビームスプリッタ610および610Aによって受信され、そこで、光326の部分620が、目標対象324の形状データを捕捉するために、画像検出モジュール320および320Aによる受信のためにビームスプリッタ610および610Aを透過するのを可能にされる。加えて、目標対象324から蛍光情報を収集するために、励起光源450は、それから放出された光322が励起フィルタ410によって処理されるように、作動される。そのため、励起フィルタ410を透過して出力された処理された光によって照らされていることに応答して、目標対象324から放出された光326が、ビームスプリッタ610および610Aによって受信される。受信された光326は次いで、ビームスプリッタ610および610Aによって反射され、すると、光326の部分622は、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510および510Aによる受信のために、発光フィルタ340および340Aを透過するように向けられるか、またはそうでなければ反射される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図8Aに示すように、撮像構成800Aで具現化され得る。具体的には、構成800Aは、図フィルタホイール810、およびフィルタホイール820を追加して、図4Aに関して前述したように、発光体モジュール310および画像検出モジュール320を含む。具体的には、フィルタホイール810は、発光体モジュール310と一緒に使用するように構成されて、励起フィルタ410および偏光器830をその上に備えて含む。加えて、フィルタホイール820は、発光フィルタ340および分析器840の両方をその上に備えて含む。具体的には、フィルタホイール810は、発光体モジュール310に対して選択的に移動され得、それにより、1つの状態では、励起フィルタ410が、目標対象324を照らすために使用する発光体モジュール310によって放出された光322を処理し、別の状態では、偏光器830が、目標対象324を照らすために使用する発光体モジュール310から放出された光322を処理するようになる。同様に、フィルタホイール820は、画像検出モジュール320に対して選択的に移動され得、それにより、1つの状態では、発光フィルタ340が、照らされていることに応答して目標対象324から放出された光326を処理し、別の状態では、分析器840が、照らされていることに応答して目標対象324から反射された光326を処理するようになる。そのため、検出構成800Aの動作中、目標対象324の形状情報を捕捉することが望まれる場合、フィルタホイール810の偏光器部分830が、発光体モジュール310によって放出された光322を処理するための位置に入れられて、それにより、処理された光322が目標対象324を照らすようになる。加えて、フィルタホイール820の分析器部分840が、画像検出モジュール320の検出経路に入れられて、それにより、照らされていることに応答して目標対象324によって反射された光326が、画像検出モジュール320によって検出される前に、分析器840によって処理されるようになる。一態様では、分析器840および偏光器830は、共偏光(co−polarization)構成で配置されて、目標対象324の表面に反射した光子を検出し、目標対象324中に拡散した光子の検出を最小限にし得る。代替として、目標対象324の蛍光情報を捕捉することが望まれる場合、フィルタホイール810の励起フィルタ410が、発光体モジュール310によって放出された光322を処理するための位置に入れられて、それにより、処理された光322が目標対象324を照らすようになる。加えて、発光フィルタ340が、画像検出モジュール320の検出経路に入れられて、それにより、発光体310によって放出された処理された光322によって照らされていることに応答して目標対象324によって放出された光326が、画像検出モジュール320によって検出される前に、発光フィルタ340を透過するようになる。一態様では、蛍光検出中、分析器840および偏光器830は、照明および検出経路内に留まり得、そのため、分析器840および偏光器830は交差偏光構成に配置されて目標対象324の鏡面反射を低減する。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図8Bに示すように、撮像構成800Bで具現化され得る。具体的には、構成800Bは、画像検出モジュール320と一緒に使用する分析器840および画像検出モジュール320と一緒に使用する蛍光検出モジュール510および蛍光検出モジュール510と一緒に使用する発光フィルタ340を追加して、図8Bに関して前述したように、発光体モジュール310、画像検出モジュール320、励起フィルタ410および偏光器830の両方をその上に備えて含むフィルタホイール810を含む。すなわち、分析器840は、画像検出モジュール320の検出経路に対して配置され、他方、発光フィルタ340は、蛍光撮像モジュール510の検出経路に対して配置される。そのため、検出構成800Bの動作中、フィルタホイール810の偏光器部分830が、発光体モジュール310によって放出された光322を処理するための位置に入れられる場合、画像検出モジュール320は目標対象324の形状情報を捕捉する。一態様では、分析器840および偏光器830は、共偏光構成で配置されて、目標対象324の表面に反射した光子を検出し、目標対象324中に拡散した光子の検出を最小限にし得る。次に、照らされていることに応答して目標対象324から反射された光326が、画像検出モジュール320により形状情報として検出される前に、分析器840によって処理される。加えて、目標対象324の蛍光情報を捕捉するため、フィルタホイール810の励起フィルタ410が、発光体モジュール310によって放出された光322を処理するための位置に入れられる。そのため、発光体モジュール310から放出された光322によって照らされていることに応答して目標対象322から放出された光326が、蛍光撮像モジュール510によって検出される前に、発光フィルタ340によって処理される。
従って、図8A〜8Bに示す、構成800Aおよび800Bの偏光器と分析器のペアの使用により、偏光ゲーティングの処理を実行するのが可能になり、目標対象324が、撮像処理中に、発光体310によって照らされると、目標対象324内を移動し得る拡散した光子を除去する。これは、表面形状走査が正確に実行されることを確実にする。すなわち、入射構造化光が直線的に偏光されると、光子の一部が、良好に保持された偏光状態で、目標対象324の表面で反射されるが、他方、拡散した光子の偏光状態は、さらにランダムに分散される。そのため、本発明で使用する偏光器/分析器のペアは、偏光ゲーティングが実行できるようにし、それによって、目標対象324の形状情報の収集中に、表面反射した光子が、拡散した光子から分離できる。
測定データ表現
本発明によって取得される形状測定値は、奥行きzのマップとして、また空間位置xおよびyの関数として、表現され、それは、fzij={(xi,yj);i=1,2......L,j=1,2......M}と表現され得ることが理解されよう。本発明では、蛍光撮像情報と組み合わされた3D(3次元)表面形状情報は、目標対象324の撮像されている表面上の各点と関連付けられるスカラー値を識別することが可能である。値のこの関連付けは、「点群(point cloud)」と呼ばれ、Pi=xi,yi,zi,Iiとして表現され、この場合(i=1,2,3.....N)で、Iiは、データセット内のi番目の表面点における蛍光撮像値を表す。同様に、両方の色反射率情報も、目標対象324から捕捉されて、同様に目標対象324から捕捉された蛍光および形状情報と統合される場合、点群は、Pi=(xi,yi,zi,Ii,Ri,Gi,Bi)として表現され、この場合、i=1,2,3.....Nで、ベクトル(Ri,Gi,Bi)は赤、緑、青の色成分を表す。蛍光情報の複数のチャネルが、目標対象324からの色反射率と共に捕捉される場合、点群はPi=xi,yi,zi,Ii,Ri,Gi,Bi)として表現され、この場合、i=1,2,3.....Nで、Iiは蛍光チャネル2を表し、Fiは蛍光チャネル1を表し、各チャネルは異なる波長を有する。
本発明によって取得される形状測定値は、奥行きzのマップとして、また空間位置xおよびyの関数として、表現され、それは、fzij={(xi,yj);i=1,2......L,j=1,2......M}と表現され得ることが理解されよう。本発明では、蛍光撮像情報と組み合わされた3D(3次元)表面形状情報は、目標対象324の撮像されている表面上の各点と関連付けられるスカラー値を識別することが可能である。値のこの関連付けは、「点群(point cloud)」と呼ばれ、Pi=xi,yi,zi,Iiとして表現され、この場合(i=1,2,3.....N)で、Iiは、データセット内のi番目の表面点における蛍光撮像値を表す。同様に、両方の色反射率情報も、目標対象324から捕捉されて、同様に目標対象324から捕捉された蛍光および形状情報と統合される場合、点群は、Pi=(xi,yi,zi,Ii,Ri,Gi,Bi)として表現され、この場合、i=1,2,3.....Nで、ベクトル(Ri,Gi,Bi)は赤、緑、青の色成分を表す。蛍光情報の複数のチャネルが、目標対象324からの色反射率と共に捕捉される場合、点群はPi=xi,yi,zi,Ii,Ri,Gi,Bi)として表現され、この場合、i=1,2,3.....Nで、Iiは蛍光チャネル2を表し、Fiは蛍光チャネル1を表し、各チャネルは異なる波長を有する。
別の実施形態では、メッシュは計算時間を削減するので、形状データは、点群の代わりに多角形メッシュによって表され得る。メッシュ面(mesh face)は、三角形、四辺形、または任意の他の凸多角形を含み得る。例えば、メッシュ面は、頂点−頂点メッシュ、面−頂点メッシュ、ウィングドエッジメッシュおよびレンダーダイナミック(render dynamic)メッシュを含み得る。
本発明の他の実施形態では、撮像されている場面または目標対象324のアクティブな照明は、空間的に変化する光強度パターンを使用するように発光体モジュール310を構成することによって達成され得る。例えば、発光体モジュール310は、構造化照明を提供するために空間光変調器によって変調されるデジタルプロジェクタまたは光源として構成され得る。構造化照明は、2D(2次元)または3D(3次元)のいずれかにできる。形状情報を捕捉する画像検出モジュール320、発光体モジュール310、および目標対象324の間の関係は、三角測量方程式によって表現できる。
具体的には、発光体モジュール310は、様々なアルゴリズムまたは技術を使用して、目標対象324の構造化光照明を発生する。例えば、発光体モジュール310によって利用され得る構造化照明を投影するための技術または方法は、1.)バイナリパターン、およびグレイコーディング、グレイレベルパターン、位相シフト、照度差ステレオ技法、および位相シフトとグレイコーディングのハイブリッド法などの、順次投影技法、2.)レインボー3Dカメラ(rainbow 3D camera)によって提供されるような、フルフレームの空間的に変化する色パターン、連続的に変化するカラー符号化、ストライプ指標付け(単一ショット)、色を使用したストライプ指標付け、セグメントパターンを使用したストライプ指標付け、繰り返しグレイスケールパターンを使用したストライプ指標付け、De Bruijinシーケンスに基づくストライプ指標付け、ならびに3.)擬似ランダム二元配列(PRBA)、符号語として使用されるミニパターン、色分けされたグリッド、色分けされたドットの2D配列などの、グリッド指標付け(2D空間グリッドパターン)、ならびに4.)前述した方法を組み合わせるハイブリッド法、を含み得るが、それらに制限されない。
発光体モジュール310および画像検出モジュール320は、画像検出モジュール320によって捕捉された目標対象324の画像上の画素の奥行きと空間的位置との間の関係を確立するために較正され得る。一態様では、発光体モジュール310は、例えば、市松模様またはドットの配列などの、任意の適切なターゲットを使用して、強度と幾何形状の両方に対して較正され得る。
撮像および重ね合わせI
従って、本発明の実施形態は、図9に示すように、目標対象324の表面形状情報および蛍光撮像情報を手術中に捕捉し、重ね合わせを通して組み合わせることが可能である。例えば、いくつかの実施形態では、光源310は、目標対象324の蛍光励起を提供するためにNIR(近赤外線)光源を含み得、他方、白色光源も手術用照明を提供するために本発明の実施形態に組み込まれ得る。追加として、画像検出モジュール320は、CCD(電荷結合素子)撮像センサーまたはCMOS(相補型金属酸化膜)撮像センサーを含み得、それは、カラーまたはグレイスケール画像を捕捉することが可能である。さらに、他の実施形態では、本発明は、図10に示すように、術中の蛍光撮像情報および/または色反射率撮像情報と、目標対象324の陽電子放射断層撮影(PET)データ、コンピュータ断層撮影(CT)データ、または磁気共鳴断層撮影(MRI)データなどの、任意の他の術前撮像データ/情報との間で、重ね合わせることが可能である。加えて、本発明のかかる実施形態は、ガイデッドサージェリーおよび手術計画を容易にするために、術中の蛍光撮像および/または色反射率撮像データの、蛍光撮像データと共に、術前のPET/CTデータへの重ね合わせを通して、組み合わせるために利用されてきた。加えて、各画像診断法からの画像データは、異なる色を使用して表され得る。例えば、CTデータは青色で表され得、PETデータは赤色で表され得、蛍光データは緑色で表され得る。一態様では、マルチモーダル画像データを有する3Dモデルは、可視化を容易にするためにユーザー入力で回転され得る。
従って、本発明の実施形態は、図9に示すように、目標対象324の表面形状情報および蛍光撮像情報を手術中に捕捉し、重ね合わせを通して組み合わせることが可能である。例えば、いくつかの実施形態では、光源310は、目標対象324の蛍光励起を提供するためにNIR(近赤外線)光源を含み得、他方、白色光源も手術用照明を提供するために本発明の実施形態に組み込まれ得る。追加として、画像検出モジュール320は、CCD(電荷結合素子)撮像センサーまたはCMOS(相補型金属酸化膜)撮像センサーを含み得、それは、カラーまたはグレイスケール画像を捕捉することが可能である。さらに、他の実施形態では、本発明は、図10に示すように、術中の蛍光撮像情報および/または色反射率撮像情報と、目標対象324の陽電子放射断層撮影(PET)データ、コンピュータ断層撮影(CT)データ、または磁気共鳴断層撮影(MRI)データなどの、任意の他の術前撮像データ/情報との間で、重ね合わせることが可能である。加えて、本発明のかかる実施形態は、ガイデッドサージェリーおよび手術計画を容易にするために、術中の蛍光撮像および/または色反射率撮像データの、蛍光撮像データと共に、術前のPET/CTデータへの重ね合わせを通して、組み合わせるために利用されてきた。加えて、各画像診断法からの画像データは、異なる色を使用して表され得る。例えば、CTデータは青色で表され得、PETデータは赤色で表され得、蛍光データは緑色で表され得る。一態様では、マルチモーダル画像データを有する3Dモデルは、可視化を容易にするためにユーザー入力で回転され得る。
別の実施形態では、MRIスキャナによって捕捉された術前のMRIデータ、ならびにシステム100によって生成される術中の蛍光データ、色反射率データおよび形状データは、脳外科手術を容易にするために、1つの画像に一緒に重ね合わされ得る。一態様では、インドシアニングリーン(ICG)または5−アミノレブリン酸(5−ALA)などの、造影剤が、脳外科手術をガイドするために使用され得る。術前MRIデータは、光学追跡または電磁追跡などの、追跡技術を使用した手術ナビゲーションを可能にでき、術中の蛍光撮像、色反射率および形状データは正確な画像ガイダンスを提供できる。システム100は、手術ナビゲーションおよび術中撮像を重ね合わせたデータの可視化と統合することも可能である。一態様では、5−ALA蛍光は、術前MRIデータに基づく手術ナビゲーションによって検出される画像と相関させるために、脳腫瘍を撮像するために使用できる。別の態様では、ICG蛍光は、術前MRIに加えて、有用な情報を提供するために、組織の血管分布を撮像できる。一態様では、システム100の光源は、造影剤の光退色または光毒症を最小限にするために、所定の期間、所定の頻度(例えば、1回の撮影につき10ms、1秒あたり12撮影)で操作され得る。重ね合わせアルゴリズムは、サーフェス画像重ね合わせ法、特徴ベースの重ね合わせ、ポイント画像重ね合わせ、強度ベースの重ね合わせ、またはそれらの組合せを含む。重ね合わせは、点群表現、または多角形メッシュ表現、またはそれらの組合せを使用して実行できる。一態様では、脳の変形は、重ね合わせ処理を容易にするために、有限要素法(FEM)を使用して生体力学モデリングで計算できる。
他の実施形態では、視覚データは、各タイプのデータを、任意の適切なディスプレイ上での表現に対して「透過的」にすることにより明瞭に視覚化され得る。さらに、各タイプの画像データの透過性レベルは、改善された視覚化のために調整されて変更され得る。
更に別の実施形態では、二重標識である造影剤(例えば、蛍光性であり、PETまたはSPECT撮像用に放射性同位元素でも標識される造影剤)が、システム100と共に使用され得る。例えば、抗体は、陽電子放出放射性同位体および蛍光部位の両方で標識できる。二重標識した造影剤は、撮像目的で、ヒトの対象324に注射され得る。造影剤は、陽電子と蛍光の両方を生じるので、対象324の位置は、同じ源に由来する両方の画像診断法に対する信号源を用いて、PETおよび蛍光撮像の両方で撮像できる。これは、PETデータと蛍光データとの間の相関関係を容易にする。造影剤は、3つ以上の診断法(例えば、MRI、PETおよび蛍光)に対して使用するために標識され得ることが理解されよう。造影剤は、画像診断法の他の組合せ(例えば、MRIと蛍光、SPECTと蛍光など)に対して二重標識できることが更に理解されよう。
撮像および重ね合わせII
システム100の他の実施形態では、画像検出モジュール320は、高速CMOS(相補型金属酸化膜センサー)センサーを含み得、他方、振幅分割(amplitude−splitting)技術は、本発明の実施形態の撮像速度を向上するために利用され得る。例えば、画像検出モジュール320は、高速CMOSカラーセンサーを含み得、他方、蛍光撮像モジュール510は、ビームスプリッタ610などの、NIRビームスプリッタと併用して利用されるNIR(近赤外線)感知CMOSセンサーを含み得る。形状撮像または走査のために、画像検出モジュール320は、約500フレーム/秒(fps)のフレームレートを有する高速CMOSセンサー(LUPA1300−2、ON Semiconductor,Inc.)を含み得る。そのため、本発明は、これまでの生成撮像システムに比べて、形状撮像または走査を実行するために必要な時間を削減することが可能である。蛍光撮像のため、蛍光検出モジュール510は、NIR感知CMOSセンサー(MT9V032、Aptina)を含み得る。このセンサーは、800nmで約40%の高量子効率、および約60fpsの高フレームレートを提供する。加えて、このセンサーは、NIR感知モノクロセンサーを使用し、それは検出限界を改善して目標対象324に適用されるpMレベルICG(インドシアニングリーン)濃度に達し、それは、蛍光撮像を容易にするために使用される。加えて、本発明の実施形態によって使用されるビームスプリッタ610は、照らされた後に目標対象324から反射された可視光成分および目標対象324から放出されたNIR成分(蛍光)を分離するために、ショートパスダイクロイックビームスプリッタ(FF756−SDi01−25×36、Semrock)を含み得る。加えて、本発明の実施形態によって使用される発光フィルタ340は、クロストークを最小限にするために、NIR(近赤外線)発光フィルタ(#84−123、Edumund Optics、37nm帯域幅をもつ832nm CWL、OD 6)を含み得る。
システム100の他の実施形態では、画像検出モジュール320は、高速CMOS(相補型金属酸化膜センサー)センサーを含み得、他方、振幅分割(amplitude−splitting)技術は、本発明の実施形態の撮像速度を向上するために利用され得る。例えば、画像検出モジュール320は、高速CMOSカラーセンサーを含み得、他方、蛍光撮像モジュール510は、ビームスプリッタ610などの、NIRビームスプリッタと併用して利用されるNIR(近赤外線)感知CMOSセンサーを含み得る。形状撮像または走査のために、画像検出モジュール320は、約500フレーム/秒(fps)のフレームレートを有する高速CMOSセンサー(LUPA1300−2、ON Semiconductor,Inc.)を含み得る。そのため、本発明は、これまでの生成撮像システムに比べて、形状撮像または走査を実行するために必要な時間を削減することが可能である。蛍光撮像のため、蛍光検出モジュール510は、NIR感知CMOSセンサー(MT9V032、Aptina)を含み得る。このセンサーは、800nmで約40%の高量子効率、および約60fpsの高フレームレートを提供する。加えて、このセンサーは、NIR感知モノクロセンサーを使用し、それは検出限界を改善して目標対象324に適用されるpMレベルICG(インドシアニングリーン)濃度に達し、それは、蛍光撮像を容易にするために使用される。加えて、本発明の実施形態によって使用されるビームスプリッタ610は、照らされた後に目標対象324から反射された可視光成分および目標対象324から放出されたNIR成分(蛍光)を分離するために、ショートパスダイクロイックビームスプリッタ(FF756−SDi01−25×36、Semrock)を含み得る。加えて、本発明の実施形態によって使用される発光フィルタ340は、クロストークを最小限にするために、NIR(近赤外線)発光フィルタ(#84−123、Edumund Optics、37nm帯域幅をもつ832nm CWL、OD 6)を含み得る。
本発明のシステム100の実施形態は、総計の撮像時間全体を短縮しながら、並行した形状撮像/走査およびNIR蛍光撮像/走査を可能にするので、好都合である。例えば、蛍光検出モジュール510を含むNIR蛍光センサーは、外科手術中に、リアルタイム2D(2次元)蛍光ガイダンスを提供するために、目標対象324から、NIR蛍光などの、蛍光情報を捕捉することが可能であり、他方、画像検出モジュール310によって提供されるような、カラー撮像センサーは、3D(3次元)形状情報および色反射率情報を捕捉する。
加えて、本発明の実施形態は、F/4などのF値を有する画像検出センサー320を使用して、大きな被写界深度および高い光収集効率を提供し得る。画像検出センサー320は、CMOS光検出器を利用し得る。本発明のシステム100によって実行されるような、目標対象324の形状走査のために、目標対象324の撮像または走査時間を低減する高速なフレームレートでの高分解能撮像が望まれる。標準的なCCD撮像センサーに関して、その読出しレートは電荷シフト機構および画素数によって本質的に制限され、ビニングは、通常、より高速なフレームレートを達成するために必要とされ、それは、実質的に有効分解能を低下させる。CCDセンサーと比較して、本発明の画像検出センサー320によって利用されるCMOSセンサーは、ビニングを必要とすることなく、より高速なフレームレートを備え各画素へ直接アクセスする高分解能撮像を提供する。加えて、CMOSセンサーの低電力消費および低コストも望ましい。
さらに、本発明のいくつかの実施形態は、励起光源450がフィルタ処理したLED(発光ダイオード)アレイを含むように構成され、他方、発光体モジュール310は小型デジタルプロジェクタを含む。励起光源450のカスタマイズしたLEDアレイは、良好に定義されて均一な目標対象324の領域を照らすために使用され、それにより、いくつかの実施形態では、特定の術野のみが照らされ、従って、暗雑音を低減する。いくつかの実施形態では、本発明の励起光源450は、高出力780nm LEDアレイを使用し得る。加えて、いくつかの実施形態では、励起フィルタ410(#84−106、Edmund Optics、46nm帯域幅をもつ775nm CWL、OD 6)は、800nmを上回る、励起光源450によって放出された光を遮断するために使用される。いくつかの実施形態で、発光体モジュール310として使用される、小型デジタルプロジェクタ(Barco F50)は、形状走査のために、目標対象324の120Hzでの高速構造化照明を提供する。他の実施形態では、発光フィルタ340は、700nm低域通過フィルタ(#84−727、Edmund Optics、OD 4)を含み得、それは、蛍光発光検出を妨げ得るNIR(近赤外線)光成分を除去する。代替として、発光フィルタ340は、発光体モジュール310の使用によって狭帯域の構造化光照明を作り出すために、低域通過フィルタの代わりに帯域通過フィルタを含み得る。
本発明の実施形態によって使用される偏光器830および分析器840は、ペアとして一緒に使用されて、撮像されている目標対象324の生物組織中に拡散する光子を除去して、目標対象324の正確な表面形状の取得を確実にするために、目標対象324の表面に反射した光子だけを残し得る。本発明は、かなり高速で動作することが可能で、可動部品がないので、本発明によって利用される目標対象324の構造化光照明は、従来のレーザーポイント走査技法よりも好都合である。
本発明の実施形態によって利用される制御モジュールまたはコントローラ130は、構成の様々な構成要素と通信するように構成されて、それらの同期動作を可能にする。一態様では、コントローラ130は、ラップトップコンピュータなどの、適切なコンピューティング装置を備えたFPGA(フィールドプログラマブルゲートアレイ)を含む小型デジタル処理装置を含み得る。FPGAは、任意の適切なプログラミング言語を使用してプログラムされて、FPGAの並列処理機能を利用して、リアルタイム撮像およびコンピュータモニターまたは任意の他の適切なディスプレイへの結果の表示を実装し得る。FPGAボードは、画像検出モジュール310および蛍光撮像モジュール510からデータを受信し、それは、例えば、カメラリンクデータバスまたはUSBなどの、任意の適切なデータ接続を介して、任意の適切なリモートコンピューティング装置に伝送される。ラップトップコンピュータは、画像情報をFPGAボードから、格納、処理および表示目的で受信し、発光体モジュール310および励起光源450によって提供されたデジタルプロジェクタからの構造化光照明を直接制御するように動作する。ARMアーキテクチャを使用し、Linux(登録商標)オペレーティングシステムを使用する組込み型コンピュータなどの、他の組込みシステムが、FPGAの代わりにコントローラ130として使用され得ることが理解されよう。コントローラ130は、スタンドアロンまたは携帯型コンピューティングシステムなどの、任意の適切なコンピューティングシステムを含み得ることが更に理解されよう。
ジェスチャ認識
システム100は、3D走査および奥行き感知を実行する能力があるので、システム100を通して見ているものの奥行きマップが生成でき、すると、この奥行きデータが手振りなどの姿勢またはジェスチャの検出に使用できる。3Dモデルベースのアルゴリズム、骨格ベースのアルゴリズム、または外観ベースのモデルがジェスチャ認識アルゴリズムで使用され得る。例えば、ジェスチャ認識は、ユーザーがシステム100を制御するのを支援し得る。
システム100は、3D走査および奥行き感知を実行する能力があるので、システム100を通して見ているものの奥行きマップが生成でき、すると、この奥行きデータが手振りなどの姿勢またはジェスチャの検出に使用できる。3Dモデルベースのアルゴリズム、骨格ベースのアルゴリズム、または外観ベースのモデルがジェスチャ認識アルゴリズムで使用され得る。例えば、ジェスチャ認識は、ユーザーがシステム100を制御するのを支援し得る。
心臓ゲーティング
心臓ゲーティングは、心電図(ECG)信号が取得され、システム100によって取得された撮像データと相関させるために基準信号として使用され得る場合に実行され得る。そのため、データは、呼吸サイクルの異なる位相に割り当てられ得、それにより、モーションアーチファクトが低減されて、各サイクルの生理機能が観察できるようになる。一態様では、パルスオキシメトリセンサーまたは機械力センサー(患者の胸腔上に置かれた)もゲート信号を生成するために使用され得る。
心臓ゲーティングは、心電図(ECG)信号が取得され、システム100によって取得された撮像データと相関させるために基準信号として使用され得る場合に実行され得る。そのため、データは、呼吸サイクルの異なる位相に割り当てられ得、それにより、モーションアーチファクトが低減されて、各サイクルの生理機能が観察できるようになる。一態様では、パルスオキシメトリセンサーまたは機械力センサー(患者の胸腔上に置かれた)もゲート信号を生成するために使用され得る。
目標対象の組織表面上への蛍光情報の投影
さらに、本発明の様々な実施形態は、これまで、蛍光情報を表示するために使用されてきた、典型的な平面ディスプレイのいくつかの欠点を克服している。例えば、通常、蛍光撮像を提示するために利用される、かかる平面ディスプレイは、外科医または他の個人の邪魔をするか、または気をそらし得、いくつかの場合には、ディスプレイと手術をしている患者との間を連続して見る必要があるので、彼または彼女の協調(coordination)に影響を及ぼす。さらに、平面プロジェクタディスプレイなどの、典型的な平面ディスプレイは、奥行き/形状情報を解決せず、それは、蛍光情報の誤った投影となり得る。追加として、かかる平面ディスプレイは、外科医が、手術中に、目標対象324の組織変形を追跡するのを困難にする。
さらに、本発明の様々な実施形態は、これまで、蛍光情報を表示するために使用されてきた、典型的な平面ディスプレイのいくつかの欠点を克服している。例えば、通常、蛍光撮像を提示するために利用される、かかる平面ディスプレイは、外科医または他の個人の邪魔をするか、または気をそらし得、いくつかの場合には、ディスプレイと手術をしている患者との間を連続して見る必要があるので、彼または彼女の協調(coordination)に影響を及ぼす。さらに、平面プロジェクタディスプレイなどの、典型的な平面ディスプレイは、奥行き/形状情報を解決せず、それは、蛍光情報の誤った投影となり得る。追加として、かかる平面ディスプレイは、外科医が、手術中に、目標対象324の組織変形を追跡するのを困難にする。
その結果、蛍光情報を提示するために使用されてきた、現在の平面ディスプレイの欠点を克服するために、図11Aに示すように、本発明100の別の実施形態、構成900Aが、利用され得る。具体的には、構成900Aは、図11に示すように、撮像システム100に統合される画像投影システム910を含む。具体的には、画像検出センサー310、蛍光検出センサー510、投影システム910、および画像検出モジュール310が、コントローラ130に結合される。追加として、図11Aに示すように、ビームスプリッタ610が使用されて、前述したように、蛍光撮像モジュール510および画像検出モジュール310が、発光体モジュール310によって照らされていることに応答して、形状情報および蛍光情報を検出できるようにし得る。そのため、構成900Aの動作中、発光体モジュール310は光322を発生して目標対象324を照らす。加えて、蛍光検出モジュール510は、照らされていることに応答して反射された光326を受信し、それを蛍光情報として処理する。加えて、画像検出モジュール320は、照らされていることに応答して目標対象324から放出された光326を受信し、それを形状情報として処理する。次に、本システムが目標対象324から識別された形状/奥行き情報に従って検出された蛍光情報を処理した後、投影システム910は蛍光情報を、患者などの、目標対象324上に投影して戻す。投影システム910および発光体モジュール310は、2つの別々の装置にできるか、または両方の役割を実行する1つの装置から成り得ることが理解されよう。一態様では、1つのプロジェクタが、前述したインターリーブ方式を使用して、投影システム910および発光体モジュール310の両方として機能できる。そのため、2つのチャネルが作成されて、1つを形状走査用に、他の1つを、画像情報を対象324の表面上に投影して戻すために使用し得る。前述したインターリーブ方式を使用して、プロジェクタ910は、目標対象324の蛍光励起を作成することも可能であることが更に理解されよう。従って、本発明のこの特徴は、形状情報および蛍光情報の両方を外科医に同時に提供する好都合な利益を提供する。加えて、本発明は、患者または目標対象324の形状情報を利用して、蛍光情報を、空間的なずれにおける低減されたレイテンシで、患者または目標対象上に投影して戻すことを可能にする。構成900Aは、目標対象324の奥行き形状および3D形状を考慮に入れ、目標対象324の形状データに基づきプロジェクションマッピング技術を使用して、プロジェクタ910に対して適切な投影画像を計算して処理する。さらに、本発明は、3D表面形状を使用して、手術中に目標対象324の組織運動を追跡し、投影された蛍光画像におけるモーションアーチファクトを低減する。
追加の実施形態では、投影システム910は、図11Bに示すように、発光体モジュール310から離れた別々の構成要素として、撮像構成900Bで提供され得ることも理解されよう。そのため、構成900Bの画像検出モジュール310および蛍光検出モジュール510によって捕捉される形状情報および蛍光情報が、プロジェクタシステム900に送信され、それは、外科医をガイドするために、蛍光データを目標対象324に投影して戻す。
具体的には、図11A〜図11Bに示すように、投影システム910は、本発明の任意の実施形態と共に使用され得る。具体的には、投影システム910は、画像検出モジュール320、蛍光検出モジュール510、および、術前のCT/PET画像データ、MRIデータ、SPECTデータまたは超音波データを含むデータソースなど、任意の他の画像データソースまたは周辺機器を含む、複数のデータ入力チャネルから画像データを受信することが可能である。一旦、複数のデータ入力が受信されると、投影システム910は、複数のデータ入力チャネルからの画像データを目標対象324上に同時に投影して戻す。例えば、1つのデータ入力チャネルは、蛍光情報を含み得、別のデータ入力チャネルは色反射率データを含み得、別のデータ入力チャネルは術前のCT/PETデータを含み得る。一実施形態では、投影システム910は、図11Aに示すように、目標対象324の構造化照明および蛍光画像の目標対象324上への投影の両方が可能な2チャネルプロジェクタを含み得る。一態様では、画像投影および構造化照明処理は、交互フレームを使用するためにインターリーブされ得る(例えば、1番目、3番目、5番目...のフレームが画像投影用、また2番目、4番目、6番目...のフレームが構造化照明用)。
従って、蛍光情報または他の画像データを、投影システム910によって患者または目標対象324に投影して戻す方法を計算するために形状情報が使用される。例えば、本発明の投影システム910は、形状相関のある蛍光情報を患者または目標対象324に投影して戻すことができるか、または形状相関のある蛍光およびPET/CT情報を、外科医をガイドするために患者または目標対象324に投影して戻すことができる。MRI(磁気共鳴断層撮影)データ、超音波画像データ、ガンマ線撮像データ、CT撮像データ、およびX線撮像データを含むが、それらに限定されない、任意の他のタイプの画像データが、捕捉された形状データおよびプロジェクションマッピング法に基づき、患者または目標対象324への投影のために、投影システム910の入力チャネルに配信され得ることも理解されよう。
別の態様では、本発明は、図1〜図3に示すような、コントローラ130によって提供された周辺インタフェース930を含み得、それは、1つ以上の周辺機器の追加が選択的に、撮像および検出システム100に組み込まれるか、取り付けられるか、または他の方法でそれと通信を行うのを可能にする、有線または無線インタフェースを含み得る。例えば、周辺機器は、体温、血圧、脈拍、呼吸数、ECG、EEG、パルスオキシメトリ、および血糖を含むが、それらに限定されず、患者の様々な特質を監視するために構成される、バイタルサインセンサーモジュールを含む、1つ以上のセンサーおよび検出器を含み得るが、それらに限定されない。周辺機器は、超音波モジュール、分光モジュール(例えば、ラマン分光法、吸光分光法、および反射分光法)、GPS(全地球測位システム)モジュール、顕微鏡モジュール(例えば、ハンドヘルド顕微鏡、ファイバベース生体顕微鏡、および従来の顕微鏡)、および非顕微鏡的撮像モジュール(ハイパースペクトル撮像、光音響撮像、光干渉撮像)も含み得るが、それらに限定されない。
更に別の態様では、周辺機器は、任意の関心の生体標的を取得または検出するために使用されるハンドヘルドプローブなどの、プローブベースの器具を含み得る。そのため、ハンドヘルドプローブは、生体顕微鏡などの、任意の所望のタイプの顕微鏡に対して使用され得る。さらに、周辺プローブは、カラー顕微鏡、反射率顕微鏡、蛍光顕微鏡、酸素飽和度顕微鏡、偏光顕微鏡、赤外線顕微鏡、干渉顕微鏡、位相差顕微鏡、微分干渉顕微鏡、ハイパースペクトル顕微鏡、全反射照明蛍光顕微鏡、共焦点顕微鏡、非線形顕微鏡、2光子顕微鏡、第二高調波発生顕微鏡、超解像顕微鏡、光音響顕微鏡、構造化光学顕微鏡、4Pi顕微鏡、誘導放出抑制顕微鏡、確率的光学再構築顕微鏡、超音波顕微鏡、およびそれらの組合せを含むが、それらに制限されない、任意の適切な検出方法を利用し得る。
別の態様では、周辺機器を含むハンドヘルドプローブは、顕微鏡的分解能を有していない撮像装置を含み得る。従って、いくつかの実施形態では、本発明の非顕微鏡的撮像プローブ周辺機器は、反射率撮像、蛍光撮像、チェレンコフ撮像、偏光撮像、超音波撮像、放射測定撮像、酸素飽和度撮像、光干渉断層撮影、赤外線撮像、熱撮像、光音響撮像、分光撮像、ハイパースペクトル撮像、蛍光、ガンマ線撮像、およびX線コンピュータ断層撮影を含むが、それらに制限されない、様々な撮像技術を利用し得る。ハンドヘルドプローブ周辺機器の物理的形状は、内視鏡、腹腔鏡、気管支鏡、血管内視鏡、および血管造影用カテーテルを含み得る。
さらに、ハンドヘルドプローブは、ファイバベースの分光光度計などの、非撮影装置または検知装置であり得る。加えて、異なる分光法が周辺機器によって実現され得、例えば、様々な光学分光法、吸光分光法、蛍光分光法、ラマン分光法、コヒーレント反ストークスラマン分光法(CARS)、表面増感ラマン分光法、フーリエ変換分光法、フーリエ変換赤外分光法(FTIR)、マルチプレックスまたは周波数変調分光法、X線分光法、減衰全反射分光法、電子常磁性分光法、電子分光法、ガンマ線分光法、音響共鳴分光法、オージェ分光法、キャビティリングダウン分光法、円二色性分光法、冷蒸気原子蛍光分光法、相関分光法、深準位過渡分光法、二重偏光干渉法、EPR分光法、力分光法、ハドロン分光学、バリオン分光学、中間子分光学、非弾性電子トンネル分光法(IETS)、レーザー誘起破壊分光法(LIBS)、質量分光法、メスバウアー分光法、中性子スピンエコー分光法、光音響分光法、光電子分光法、光熱分光法、ポンププローブ分光法、ラマン光学活性分光法、飽和分光法、走査トンネル分光法、分光測光法、紫外光電子分光法(UPS)、ビデオ分光、振動円二色性分光法、X線光電子分光法、およびそれらの組合せなどである。
光学データ、および他の画像データ(PET/CTおよびMRIデータ)の重ね合わせのためのアルゴリズム
本発明の撮像システム100によって捕捉された術中光学データの他の画像データとの重ね合わせのためにコントローラ130によって実行されるプロセス1000を図12に示す。本発明の一実施形態では、術前のCT/PETスキャンからのデータは、本発明のシステム100を使用して術中撮像を実行する前に取得され得る。サーフェス画像重ね合わせ法は、以下で詳細に説明するプロセスに従い、処理時間を最小限にするためにk−d次元のツリーを用いて、ICP(iterative closest point)アルゴリズムを使用して実行される。最初に、ステップ1010で、コントローラ130は、PET/CT画像データなどの、術前撮像データを取得する。次に、ステップ1020で、プロセスは、術前撮像データに基づく、点群または3Dメッシュモデルを作成する。加えて、術中撮像データは、ステップ1030に示すように、点群または3Dモデルを生成するために、蛍光撮像データなどの、本発明の光学撮像形状走査システム100から取得される。引き続き、ステップ1040で、プロセス1000は、術中画像空間と術前画像空間との間の変換行列を計算する。次に、ステップ1050で、蛍光画像データおよび色反射率データなどの、術中撮像データが、術前画像空間に重ね合わされる。最後に、ステップ1060で、重ね合わせた画像データが、前述のように、投影システム910を介して患者もしくは目標対象324上に、またはLCD(液晶ディスプレイ)などの任意の適切なディスプレイ上に表示される。
本発明の撮像システム100によって捕捉された術中光学データの他の画像データとの重ね合わせのためにコントローラ130によって実行されるプロセス1000を図12に示す。本発明の一実施形態では、術前のCT/PETスキャンからのデータは、本発明のシステム100を使用して術中撮像を実行する前に取得され得る。サーフェス画像重ね合わせ法は、以下で詳細に説明するプロセスに従い、処理時間を最小限にするためにk−d次元のツリーを用いて、ICP(iterative closest point)アルゴリズムを使用して実行される。最初に、ステップ1010で、コントローラ130は、PET/CT画像データなどの、術前撮像データを取得する。次に、ステップ1020で、プロセスは、術前撮像データに基づく、点群または3Dメッシュモデルを作成する。加えて、術中撮像データは、ステップ1030に示すように、点群または3Dモデルを生成するために、蛍光撮像データなどの、本発明の光学撮像形状走査システム100から取得される。引き続き、ステップ1040で、プロセス1000は、術中画像空間と術前画像空間との間の変換行列を計算する。次に、ステップ1050で、蛍光画像データおよび色反射率データなどの、術中撮像データが、術前画像空間に重ね合わされる。最後に、ステップ1060で、重ね合わせた画像データが、前述のように、投影システム910を介して患者もしくは目標対象324上に、またはLCD(液晶ディスプレイ)などの任意の適切なディスプレイ上に表示される。
このように、プロセス1000では、画像重ね合わせは、サーフェスまたはポイントベースのいずれかであり得る。加えて、画像重ね合わせは、点群、もしくは画像データからレンダリングされるサーフェスモデル、またはそれらの組合せに基づくことができる。任意選択として、重ね合わせプロセスは、手術部位の動きまたは変形を補正するために、有限要素モデリングまたは生体力学モデリングアルゴリズムを利用し得る。3D形状データは、点群または多角形メッシュを使用して表現され得ることも理解されよう。さらに、重ね合わせは、点群表現、多角形メッシュ表現、またはそれらの組合せで実行され得る。
前述した重ね合わせ技法に加えて、ポイント画像重ね合わせ、サーフェス画像重ね合わせ、およびそれらの組合せなどの、他の重ね合わせ技法が、本発明によって使用され得ることも理解されよう。重ね合わせは、強度ベースまたは特徴ベースの重ね合わせのいずれかを含み得る。使用される変換モデルは、線形変換、または非剛体/弾性変換を含み得る。自動または対話式法だけでなく、空間または周波数領域法も使用され得る。加えて、画像重ね合わせを容易にするために、機械学習アルゴリズムが使用され得る。例えば、機械学習アルゴリズムは、デシジョンツリー学習、相関ルール学習、人工神経回路網、帰納的論理プログラミング、サポートベクターマシン、クラスタリング、ベイジアンネットワーク、強化学習、表現学習、類似度およびメトリック学習、スパース辞書学習、遺伝的アルゴリズム、ディープラーニング、およびそれらの組合せを含み得るが、それらに制限されない。
前述した技法に加えて、他の追跡技法、例えば、光学追跡、磁気追跡、ラジオ周波数追跡、ジャイロスコープ追跡、ビデオ追跡(パターン認識)、音響追跡、機械式追跡、およびそれらの組合せなど、が使用され得ることも理解されよう。加えて、本発明によって利用される追跡法は、剛体、可撓体またはデジタイザ法を利用し得る。さらに、追跡技法は、単独で、またはサーフェス画像重ね合わせなどの、重ね合わせアルゴリズムと併せて、使用され得る。前述した周辺機器モジュールは、術前撮像データおよび術中撮像データとの重ね合わせのために追跡技法を使用して追跡され得ることも理解されよう。例えば、超音波プローブは、その空間的位置を記録するために光学的に追跡され得る。
超音波またはハンドヘルド顕微鏡などの、周辺インタフェース930と通信するように配置された周辺機器が使用される場合、図13A〜図13Bに示すように、代替重ね合わせプロセス1100がコントローラ130によって実行される。最初に、プロセス1100のステップ1110で、術前撮像データが、制御システム130の周辺インタフェース930によって取得される。次に、ステップ1120に示すように、術前撮像データに基づく点群または3Dモデルが作成される。プロセス1100は次いで、ステップ1130で、点群または3Dモデルを生成するために、蛍光情報などの、術中撮像データを光学撮像システム100から取得する。ステップ1140で、プロセス1100は、術中画像空間と術前画像空間との間の変換行列を計算する。次に、ステップ1150に示すように、蛍光画像データなどの、術中撮像データが、術前画像空間に重ね合わされる。引き続きステップ1160で、ハンドヘルド撮像装置などの可動周辺装置、または検出データが、超音波、ファイバ顕微鏡、およびラマン分光法を使用して取得され、点群、多角形メッシュまたは2D/3Dモデルを生成する。次に、ステップ1170で、ハンドヘルド撮像装置の位置が、光学追跡などの追跡技法を使用して追跡され、さらに、ステップ1180で、ハンドヘルド装置画像空間と術中画像空間との間の変換行列が計算される。次に、ステップ1190に示すように、超音波ファイバ顕微鏡などの、ハンドヘルド画像空間が、術中撮像空間に重ね合わされる。最後に、ステップ1200で、ステップ1190の重ね合わせたデータが、前述のように、投影システム910を介して患者もしくは目標対象324上に表示されるか、または任意の他のディスプレイ装置上に表示され得る。
形状走査のためのレーザー三角測量を用いた蛍光撮像
別の実施形態では、本発明は、三角測量ベースの方法を利用して目標対象324の形状走査を実行し得、それにより、レーザー光を使用して、形状に対する奥行き情報を探す。そのため、三角測量レーザーは、目標対象324上にレーザースポットを照射し、カメラまたは撮像センサーを使用して、レーザードットの位置を探す。レーザーが所与の目標対象324に当たる深度に応じて、レーザードットは、カメラまたは撮像センサーの視野の深度に異なる位置で出現する。従って、目標対象324の奥行き情報が推測できる。レーザードットをラスター走査すると、目標対象324に関する奥行き情報と共に点群が生成される。任意選択として、単一のレーザードットの代わりに、レーザーストライプが使用され得、すると、レーザーストライプは、目標対象324をさっと通って、形状走査プロセスを加速する。
別の実施形態では、本発明は、三角測量ベースの方法を利用して目標対象324の形状走査を実行し得、それにより、レーザー光を使用して、形状に対する奥行き情報を探す。そのため、三角測量レーザーは、目標対象324上にレーザースポットを照射し、カメラまたは撮像センサーを使用して、レーザードットの位置を探す。レーザーが所与の目標対象324に当たる深度に応じて、レーザードットは、カメラまたは撮像センサーの視野の深度に異なる位置で出現する。従って、目標対象324の奥行き情報が推測できる。レーザードットをラスター走査すると、目標対象324に関する奥行き情報と共に点群が生成される。任意選択として、単一のレーザードットの代わりに、レーザーストライプが使用され得、すると、レーザーストライプは、目標対象324をさっと通って、形状走査プロセスを加速する。
従って、三角測量形状走査プロセスを実行するために、撮像システム100は、図14Aに示すように、別の構成1300Aとして具現化され得る。具体的には、構成1300Aは、画像検出モジュール320を含み、それは、CCD(電荷結合素子)もしくはCMOS(相補型金属酸化膜)カメラまたは他の撮像センサーを含み得る。加えて、構成1300Aは、発光体モジュール310を含み、それは、1つ以上のレーザー光を放出するように構成され、それらは目標対象324を照らすために使用される。発光体モジュール310は、1つ以上の中心波長のレーザー光を放出し、それにより1つの波長が3D走査のために使用され、別の波長が蛍光撮像のために使用されるようにも構成され得ることが理解されよう。加えて、画像検出モジュール320は、発光フィルタ340を含み、それは、前述のように、可動フィルタホイールとして構成される。そのため、目標対象324の蛍光情報を捕捉するために、目標対象324は、発光体モジュール310によって放出されたレーザー光322によって照らされる。加えて、フィルタホイールは、発光フィルタ340が、発光体モジュール310のレーザー光322によって照らされていることに応答して目標対象324によって放出された光326を処理するように動かされ、すると、画像検出モジュール320によって検出された処理された光は、目標対象324の蛍光情報を含む。別の動作モードでは、形状情報を捕捉するために、発光体モジュール310は、1つ以上のレーザー光322を放出し、それは、目標対象324を照らすために使用される。加えて、フィルタホイールは、発光フィルタ340が、発光体モジュール310のレーザー光322によって照らされていることに応答して目標対象324によって反射された光326を処理しないように動かされ、すると、画像検出モジュール320によって検出された処理された光は、目標対象324の形状情報を含む。
更なる実施形態では、代替撮像システム100は、図14Bに示すように、撮像構成1300Bで具現化され得る。具体的には、撮影構成1300Bは、蛍光撮像モジュール510を追加して、図14Aに関して前述したように、CCD(電荷結合素子)もしくはCMOS(相補型金属酸化膜)カメラまたは撮像センサーを含み得る、画像検出モジュール320、目標対象324を照らすために使用する1つ以上のレーザー光を放出するように構成される、発光体モジュール310、および発光フィルタ340を含む。蛍光撮像モジュール510は、発光フィルタ340と併せて使用するために構成される。そのため、目標対象324の蛍光情報を捕捉するために、目標対象324は、発光体モジュール310によって放出されたレーザー光322によって照らされる。発光体モジュール310のレーザー光322によって照らされていることに応答して、目標対象324は、蛍光撮像モジュール510により目標対象324の蛍光情報として検出される前に、発光フィルタ340によって処理される光326を放出する。別の動作モードでは、形状情報を捕捉するために、発光体モジュール310は、1つ以上のレーザー光322を放出し、それは、目標対象324を照らすために使用され、すると、目標対象324から反射された光326が画像検出モジュール320により、目標対象324の形状情報として検出される。発光体モジュール310は、1つ以上の中心波長のレーザー光を放出し、それにより1つの波長が3D走査のために使用され、別の波長が蛍光撮像のために使用されるように構成され得ることが理解されよう。
様々な実施形態では、蛍光光源が使用され得ることも理解されよう。さらに、様々な実施形態では、レーザーダイオードまたはレーザーが、三角測量目的で使用できる。他の実施形態では、蛍光の複数のチャネルが取得でき、かつ、色反射率情報も取得できる。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図15Aに示すように、撮像構成1350Aで具現化され得る。具体的には、撮像構成1350Aは、三角測量レーザーとして構成されている発光体モジュール310を追加して、図4Fに関して前述したように、画像検出モジュール320、発光フィルタ340、画像検出モジュール320Aおよび発光フィルタ340A、および蛍光励起フィルタ410と共に動作する励起光源450を含む。具体的には、三角測量レーザー310は、目標対象324の三角測量プロセスを実行するのに適した複数のレーザー光322を放出するように構成される。発光フィルタ340および340Aはフィルタホイールとして構成され、それらは、それぞれの画像検出モジュール320および320Aの光検出経路に入れられたり、光検出経路から出されたりし得ることが理解されよう。そのため、検出構成1350Aの動作中、目標対象324を照らすために発光体310を使用してレーザー光322を放出し、発光フィルタ340および340Aが、目標対象324からの反射光326を検出するために、それぞれの画像検出モジュール320および320Aの検出経路から出される場合、画像検出モジュール320および320Aは、目標対象324の形状情報を捕捉する。別の態様では、3D走査プロセスは、任意選択で、発光フィルタ340および340Aを画像検出モジュール320および320Aの検出経路から出すことなく実行され得る。例えば、発光体モジュール310は、3D走査を可能にするために、発光フィルタ340および340Aを透過することが可能な光を放出するように構成され得る。このプロセスの一例は、発光体モジュール310は、約830nmの波長で光を放出し得、それは、830nmに中心を置く帯域通過発光フィルタ340および340Aを透過することが可能であり、それにより、3D走査が実行可能になることである。代替として、目標対象324の蛍光情報を捕捉するために、光源450が光322を放出するために使用され、光322は、目標対象324を照らす蛍光励起フィルタ410によって処理され、発光フィルタ340および340Aは、目標対象324からの放出光326を検出するために、それぞれの画像検出モジュール320および320Aの検出経路に入れられる。3D走査および蛍光撮像は、並行して、または連続しても実行され得ることも理解されよう。
更に別の実施形態では、発光フィルタ340および340Aは、波長可変フィルタを含み得る。波長可変フィルタを使用すると、ハイパースペクトル撮像を構成1350Aによって実行して、複数の光波長を捕捉することが可能になる。更に別の実施形態では、発光フィルタ340および340Aは、複数の狭帯域フィルタを含むフィルタホイールを含み得る。そのため、構成1350Aは、複数の光波長の反射画像または吸収画像を捕捉することが可能である。
更に別の実施形態では、発光フィルタ340および340Aを具現化しているフィルタホイールは、酸素飽和度の撮像に適したフィルタを含み得る。例えば、組織酸素飽和度(STO2)または静脈血酸素飽和度(SVO2)の画像が測定され得る。例えば、660nmおよび950nmフィルタが酸素飽和度画像を捕捉するために使用され得る。酸素飽和度は、式:StO2=酸素飽和したヘモグロビン値/総ヘモグロビン値(未飽和+飽和)、を使用して計算できる。適切なフィルタ340および340Aを使用することによりチェレンコフ撮像も可能になり得ることも理解されよう。
前述した異なる画像診断法が、以前に説明した、インターリーブ方式を使用して、連続して、または並行して、のいずれかで、3D走査と一緒に獲得され得ることが理解されよう。本発明により、複数の画像診断法が可能になり得ることが理解されよう。例えば、酸素飽和度撮像、色反射率撮像、自動蛍光撮像および外因性コントラストに基づく近赤外線(NIR)撮像は、一緒に同時に実行され得る。フィルタ340および340Aは、異なる画像診断法を可能にするために異なる構成を有し得ることも理解されよう。例えば、フィルタ340は、蛍光画像を捕捉するように構成され得、フィルタ340Aは、マルチスペクトル反射率画像を捕捉するように構成され得る。
さらに、三角測量プロセスを実行するために、レーザーモジュール310は、目標対象324上にレーザースポットを照射し、検出器320を使用して、目標対象324上でレーザードットの位置を探す。レーザーが目標対象324に当たる深度に応じて、レーザードットは、カメラまたは撮像センサー320の視野の深度に異なる位置で出現する。従って、目標対象324の奥行き情報が、センサー320上の対応する画素位置に基づいて推測できる。レーザードットをラスター走査すると、目標対象324に関する奥行き情報と共に点群が生成される。任意選択として、発光体モジュール310は、単一のレーザードットの代わりに、レーザーストライプを出力でき、すると、レーザーストライプは、目標対象324をさっと通って、形状走査プロセスを加速する。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図15Bに示すように、撮像構成1350Bで具現化され得る。具体的には、撮像構成1350Bは、三角測量レーザーとして構成されている発光体モジュール310を追加して、図5Fに関して前述したように、画像検出モジュール320、画像検出モジュール320A、蛍光撮像モジュール510、発光フィルタ340、光源450および励起フィルタ410を含む。具体的には、三角測量レーザー310は、目標対象324の三角測量プロセスを実行するのに適した複数のレーザー光322を放出するように構成される。そのため、検出構成1350Bの動作中、発光体モジュール310は、目標対象324を照らすためにレーザー光322を放出し、すると、画像検出モジュール320および320Aは、目標対象324から反射されたレーザー光326を形状情報として検出する。代替として、励起光源450が目標対象324を照らすために励起フィルタ410によって処理されていて、その後、照らされていることに応答して目標対象324によって放出された光326が、蛍光検出モジュール510により蛍光情報として検出される前に、発光フィルタ340によって処理される場合、蛍光検出モジュール510は、目標対象324の蛍光情報を捕捉する。3D走査および蛍光撮像プロセスは、並行して、または連続して実行され得ることが理解されよう。
さらに、三角測量プロセスを実行するために、レーザーモジュール310は、目標対象324上にレーザースポットを照射し、検出器320を使用して、目標対象324上でレーザードットの位置を探す。レーザーが所与の目標対象324に当たる深度に応じて、レーザードットは、カメラまたは撮像センサー320の視野の深度に異なる位置で出現する。従って、目標対象324の奥行き情報が、センサー320上の対応する画素位置に基づいて推測できる。レーザードットをラスター走査すると、目標対象324に関する奥行き情報と共に点群が生成される。任意選択として、発光体モジュール310は、単一のレーザードットの代わりに、レーザーストライプを出力し得、すると、レーザーストライプは、目標対象324をさっと通って、形状走査プロセスを加速する。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図15Cに示すように、撮像構成1350Cで具現化され得る。具体的には、撮像構成1350Cは、三角測量レーザーとして構成されている発光体モジュール310を追加して、図6Cに関して前述したように、画像検出モジュール320、蛍光撮像モジュール510、発光フィルタ340、およびビームスプリッタ610、励起光源450および励起フィルタ410を含む。具体的には、三角測量レーザー310は、目標対象324の三角測量プロセスを実行するのに適した複数のレーザー光322を放出するように構成される。具体的には、蛍光励起フィルタ410は、励起フィルタ410と併せて使用するように構成され、発光体モジュール310から放出された光322が、撮像されている目標対象324を照らす前に、それを透過するように動作可能に配置される。そのため、検出構成1350Cの動作中、発光体モジュール310がレーザー光322を放出して目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射された光326がビームスプリッタ610によって受信され、そこで、反射された光326の部分620が、目標対象324の形状データを捕捉するために、画像検出モジュール320による受信のためにビームスプリッタ610を透過するのを可能にされる。代替として、目標対象324からの蛍光情報を検出するために、励起光源450は、目標対象324を照らすために励起フィルタ410によって処理される光322を発生するように操作される。そのため、照らされていることに応答して目標対象324から放出された光326がビームスプリッタ610によって受信される。次に、放出された光326の部分622が、ビームスプリッタ610によって反射され、すると、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510による受信のために、発光フィルタ340を透過するように向けられる。
三角測量のため、レーザーモジュール310は、目標対象324上にレーザースポットを照射し、検出器320を使用して、目標対象324上でレーザードットの位置を探す。レーザーが所与の目標対象324に当たる深度に応じて、レーザードットは、カメラまたは撮像センサー320の視野の深度に異なる位置で出現する。従って、目標対象324の奥行き情報が、センサー上の対応する画素位置に基づいて推測され得る。レーザードットをラスター走査すると、目標対象324に関する奥行き情報と共に点群が生成される。任意選択として、発光体モジュール310は、単一のレーザードットの代わりに、レーザーストライプを出力し得、すると、レーザーストライプは、目標対象324をさっと通って、形状走査プロセスを加速する。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図15Dに示すように、撮像構成1350Dで具現化され得る。具体的には、撮像構成1350Dは、三角測量レーザーとして構成されている発光体モジュール310を追加して、図7Aに関して前述したように、画像検出モジュール320、蛍光撮像モジュール510、発光フィルタ340、ビームスプリッタ610A、画像検出モジュール320A、蛍光撮像モジュール510Aおよび発光フィルタ340Aを含む。具体的には、三角測量レーザー310は、目標対象324の三角測量プロセスを実行するのに適した複数のレーザー光322を放出するように構成される。そのため、画像検出モジュール320および蛍光撮像モジュール510は、実質的に互いに直角に配置され、他方、画像検出モジュール320Aおよび蛍光撮像モジュール510Aも実質的に互いに直角に配置される。加えて、ビームスプリッタ620は、画像検出モジュール320および蛍光撮像モジュール510に対して、約45度など、斜角で配置される。同様に、ビームスプリッタ620Aは、画像検出モジュール320Aおよび蛍光撮像モジュール510Aに対して、約45度など、斜角で配置される。そのため、検出構成1350Dの動作中、発光体モジュール310は、レーザー光322を放出して目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射されて放出された光326がビームスプリッタ610および610Aによって受信され、そこで、光326の部分620が、目標対象324によって反射された光として、目標対象324の形状データを捕捉するために、画像検出モジュール320および320Aによる受信のためにビームスプリッタ610および610Aを透過するのを可能にされる。加えて、光326の別の部分622が、目標対象324によって放出された光として、ビームスプリッタ610および610Aによって受信され、ビームスプリッタ610および610Aによって反射され、すると、目標対象324の蛍光情報を捕捉するために、蛍光撮像モジュール510および510Aによる受信のために、発光フィルタ340および340Aを透過するように向けられる。
形状走査のための飛行時間スキャナ/距離計を用いた蛍光撮像
他の実施形態では、飛行時間レーザー距離計、もしくはライダー、もしくはレーザースキャナが、統合されるか、または前述した本発明の光学撮像能力と併せて利用され得る。蛍光、色反射率、偏光、マルチスペクトル、ハイパースペクトル、吸収および酸素飽和度を含むが、それらに制限されない、様々な光学的画像診断法も実装できる。例えば、いくつかの実施形態では、飛行時間レーザー距離計またはスキャナは、距離計によって放出された光パルスが、目標対象324に達して、距離計に戻るのにかかる往復時間を特定することにより目標対象324の距離を特定する。すなわち、パルス状レーザー距離計は、光パルスを放出し、目標対象324によって反射された光が検出器によって捕捉されるまでの時間が飛行時間として測定される。
他の実施形態では、飛行時間レーザー距離計、もしくはライダー、もしくはレーザースキャナが、統合されるか、または前述した本発明の光学撮像能力と併せて利用され得る。蛍光、色反射率、偏光、マルチスペクトル、ハイパースペクトル、吸収および酸素飽和度を含むが、それらに制限されない、様々な光学的画像診断法も実装できる。例えば、いくつかの実施形態では、飛行時間レーザー距離計またはスキャナは、距離計によって放出された光パルスが、目標対象324に達して、距離計に戻るのにかかる往復時間を特定することにより目標対象324の距離を特定する。すなわち、パルス状レーザー距離計は、光パルスを放出し、目標対象324によって反射された光が検出器によって捕捉されるまでの時間が飛行時間として測定される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図16Aに示すように、撮像構成1400Aで具現化され得る。具体的には、撮像構成1400Aは、距離計として構成されている発光体モジュール310を追加して、図4Cに関して前述したように、画像検出モジュール320、発光フィルタホイール340、励起光源450および蛍光励起フィルタ410を含む。具体的には、発光体モジュール310は、飛行時間レーザー距離計、またはレーザー距離計などの、任意の他の適切な距離計として構成され得る。一実施形態では、レーザー310は、目標対象324までの距離を特定するために距離計プロセスを実行するのに適した複数のレーザー光322を放出するように構成される。追加として、励起光源450は、任意の適切な光を発生するように構成され得、その光は次いで、励起フィルタ410を透過する。具体的には、蛍光励起フィルタ410は、励起光源450から放出された光322が、撮像されている目標対象324に当たる前に、励起フィルタ410を透過するように配置される。そのため、検出構成1400Aの動作中、発光フィルタ340が画像検出モジュール320の光326検出経路から出され、発光体モジュール310がレーザー光322を発生するために使用されて、目標対象324を照らす場合、画像検出モジュール320は、目標対象324の形状情報を捕捉する。別の態様では、3D走査プロセスは、任意選択で、発光フィルタ340を画像検出モジュール320の検出経路から出すことなく実行され得る。例えば、発光体モジュール310は、3D走査を可能にするために、発光フィルタ340を透過することが可能な光を放出するように構成され得る。このプロセスの一例は、発光体モジュール310は、約830nmの波長で光を放出し得、それは、830nmに中心を置く帯域通過発光フィルタ340を透過することが可能であり、それにより、3D走査が実行可能になることである。代替として、発光フィルタ340が画像検出モジュール320の検出経路に入れられて、励起フィルタ410が、目標対象324を照らすために光源450から放出された光322を処理するように動かされる場合、画像検出モジュール320は、目標対象324からの蛍光情報を捕捉する。そのため、光源450から処理された光322によって照らされていることに応答して、目標対象324によって放出された光326が次いで、画像検出モジュール320により目標対象324の蛍光情報として検出される前に、発光フィルタ340によって処理される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図16Bに示すように、撮像構成1400Bで具現化され得る。具体的には、撮像構成1400Aは、形状走査モジュールとして構成されている発光体モジュール310を追加して、図4Cに関して前述したように、画像検出モジュール320、発光フィルタホイール340、励起光源450および蛍光励起フィルタ410を含む。具体的には、発光体モジュール310を形成する形状走査モジュールは、コノスコープホログラフィ、調光、ステレオカメラ、フーリエ3D走査、低コヒーレンス干渉法、コモンパス干渉3D走査、接触側面計を含むが、それらに制限されない、様々な形状走査法を利用するように構成され得る。発光体310は、Microsoft Kinect(商標)などの、市販の奥行き感知カメラを含み得る。加えて、かかる技術は、形状走査および光学撮像データの両方を生成するための蛍光撮像などの、高度な光学撮像方法と統合できる。励起光源450は、任意の適切な光を発生するように構成され得、その光は次いで、励起フィルタ410を透過することも理解されよう。具体的には、蛍光励起フィルタ410は、励起光源450から放出された光322が、撮像されている目標対象324に当たる前に、励起フィルタ410を透過するように配置される。そのため、検出構成1400Bの動作中、発光フィルタ340が画像検出モジュール320の光326検出経路から出され、発光体モジュール310がレーザー光322を発生するために使用されて、目標対象324を照らす場合、画像検出モジュール320は、目標対象324の形状情報を捕捉する。別の態様では、3D走査プロセスは、任意選択で、発光フィルタ340を画像検出モジュール320の検出経路から出すことなく実行され得る。例えば、発光体モジュール310は、3D走査を可能にするために、発光フィルタ340を透過することが可能な光を放出するように構成され得る。このプロセスの一例は、発光体モジュール310は、約830nmの波長で光を放出し得、それは、830nmに中心を置く帯域通過発光フィルタ340を透過することが可能であり、それにより、3D走査が実行可能になることである。代替として、発光フィルタ340が画像検出モジュール320の検出経路に入れられて、励起フィルタ410が、目標対象324を照らすために光源450から放出された光322を処理するように動かされる場合、画像検出モジュール320は、目標対象324からの蛍光情報を捕捉する。そのため、光源450から処理された光322によって照らされていることに応答して、目標対象324によって放出された光326が次いで、画像検出モジュール320により目標対象324の蛍光情報として検出される前に、発光フィルタ340によって処理される。
更に別の実施形態では、発光フィルタ340は、波長可変フィルタを含み得る。波長可変フィルタを使用すると、ハイパースペクトル撮像を構成1400Bによって実行して、複数の光波長を捕捉することが可能になる。更に別の実施形態では、発光フィルタ340は、複数の狭帯域フィルタを含むフィルタホイールを含み得る。そのため、構成1400Bは、複数の光波長の反射画像または吸収画像を捕捉することが可能である。
更に別の実施形態では、発光フィルタ340を具現化しているフィルタホイールは、酸素飽和度の撮像に適したフィルタを含み得る。例えば、組織酸素飽和度(STO2)または静脈血酸素飽和度(SVO2)の画像が測定され得る。例えば、660nmおよび950nmフィルタが酸素飽和度画像を捕捉するために使用され得る。酸素飽和度は、式:StO2=酸素飽和したヘモグロビン値/総ヘモグロビン値(未飽和+飽和)、を使用して計算できる。適切なフィルタ340を使用することによりチェレンコフ撮像も可能になり得ることも理解されよう。
スペクトルフィルタの代わりに偏光器が使用され得、また、偏光撮像、および偏光差/偏光比撮像を可能にするために、別の偏光器が発光体モジュール310の前に配置され得ることも理解されよう。前述した異なる画像診断法が、以前に説明した、インターリーブ方式を使用して、連続して、または並行して、のいずれかで、3D走査と一緒に獲得され得ることが理解されよう。本発明により、複数の画像診断法が可能になり得ることが理解されよう。例えば、酸素飽和度撮像、色反射率撮像、自動蛍光撮像および外因性コントラストに基づく近赤外線(NIR)撮像は、本発明によって、一緒に同時に可能になるか、または実行され得る。
カラー符号化ストライプ指標付けおよび波長分割技法
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図17に示すように、撮像構成1500で具現化され得る。具体的には、撮像構成1500は、高速カラープロジェクタとして構成される、発光体モジュール310を含む。発光体モジュール310と動作可能に配置されているのは、近赤外線(NIR)阻止フィルタ1510および偏光器830である。いくつかの実施形態では、フィルタ1510はショートパスフィルタを含み得ることが理解されよう。そのため、発光体モジュール310の動作中、発光体モジュール310によって放出された光322は、NIR阻止フィルタ1510および偏光器830によって処理され、その後、処理された光322は目標対象324を照らす。撮像構成1500は、光源450も含み、それは、近赤外線LED(発光ダイオード)アレイ450を含む。光源450は、励起フィルタ410および光拡散体1520と動作可能に配置される。さらに、画像検出モジュール320、発光体モジュール310、光源450、および蛍光撮像モジュール510は、コントローラ130に結合され、そのため構成要素は、適切な通信技術を使用して互いに通信し得る。そのため、光源450の動作中、光源450によって放出された光322は、励起フィルタ410および光拡散体1520によって処理され、その後、処理された光322は目標対象324を照らす。加えて、撮像構成1500は、ビームスプリッタ610を含み、それは、ダイクロイックフィルタまたは1つの範囲の波長の光を反射して、別の範囲の波長の光を透過することが可能な任意の適切な装置を含み得る。加えて、撮像構成1500は、画像検出モジュール320、蛍光撮像モジュール510、および発光フィルタ340を含み、それにより、画像検出モジュール320は、蛍光撮像モジュール510および発光フィルタ340に対して、実質的に直角など、ある角度をなして配置される。加えて、ビームスプリッタ610は、画像検出モジュール320および蛍光撮像モジュール510/発光フィルタ340に対して、約45度の角度など、斜角で配置される。画像検出モジュール320は、目標対象324の形状情報を捕捉するためのカラーセンサーとして構成され、他方、蛍光撮像モジュール510は、目標対象324の蛍光情報を捕捉するための近赤外線(NIR)センサーとして構成されることが理解されよう。加えて、光学レンズ1550および分析器840が、ビームスプリッタ610に対して動作可能に配置され、そのため、光学レンズ1550は、ビームスプリッタ610に近接して置かれ、分析器840はビームスプリッタ610に対して遠位に置かれる。加えて、光学レンズ1550および分析器840は、蛍光撮像モジュール510に平行に、かつ画像検出モジュール320に対して実質的に直角に配置され、他方、ビームスプリッタ610は、光学レンズ1550および分析器840に対して、約45度の角度など、斜角で配置される。従って、発光体モジュール310から放出された光322または励起光源450から放出された光322によって照らされていることに応答して目標対象324から反射されるか、または放出される光326が、ビームスプリッタ610によって受信される前に、分析器840および光学レンズ1550によって処理され、すると、処理された光326は、説明した方法で、画像検出モジュール320および発光フィルタ340および蛍光撮像モジュール510に向けられる。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図17に示すように、撮像構成1500で具現化され得る。具体的には、撮像構成1500は、高速カラープロジェクタとして構成される、発光体モジュール310を含む。発光体モジュール310と動作可能に配置されているのは、近赤外線(NIR)阻止フィルタ1510および偏光器830である。いくつかの実施形態では、フィルタ1510はショートパスフィルタを含み得ることが理解されよう。そのため、発光体モジュール310の動作中、発光体モジュール310によって放出された光322は、NIR阻止フィルタ1510および偏光器830によって処理され、その後、処理された光322は目標対象324を照らす。撮像構成1500は、光源450も含み、それは、近赤外線LED(発光ダイオード)アレイ450を含む。光源450は、励起フィルタ410および光拡散体1520と動作可能に配置される。さらに、画像検出モジュール320、発光体モジュール310、光源450、および蛍光撮像モジュール510は、コントローラ130に結合され、そのため構成要素は、適切な通信技術を使用して互いに通信し得る。そのため、光源450の動作中、光源450によって放出された光322は、励起フィルタ410および光拡散体1520によって処理され、その後、処理された光322は目標対象324を照らす。加えて、撮像構成1500は、ビームスプリッタ610を含み、それは、ダイクロイックフィルタまたは1つの範囲の波長の光を反射して、別の範囲の波長の光を透過することが可能な任意の適切な装置を含み得る。加えて、撮像構成1500は、画像検出モジュール320、蛍光撮像モジュール510、および発光フィルタ340を含み、それにより、画像検出モジュール320は、蛍光撮像モジュール510および発光フィルタ340に対して、実質的に直角など、ある角度をなして配置される。加えて、ビームスプリッタ610は、画像検出モジュール320および蛍光撮像モジュール510/発光フィルタ340に対して、約45度の角度など、斜角で配置される。画像検出モジュール320は、目標対象324の形状情報を捕捉するためのカラーセンサーとして構成され、他方、蛍光撮像モジュール510は、目標対象324の蛍光情報を捕捉するための近赤外線(NIR)センサーとして構成されることが理解されよう。加えて、光学レンズ1550および分析器840が、ビームスプリッタ610に対して動作可能に配置され、そのため、光学レンズ1550は、ビームスプリッタ610に近接して置かれ、分析器840はビームスプリッタ610に対して遠位に置かれる。加えて、光学レンズ1550および分析器840は、蛍光撮像モジュール510に平行に、かつ画像検出モジュール320に対して実質的に直角に配置され、他方、ビームスプリッタ610は、光学レンズ1550および分析器840に対して、約45度の角度など、斜角で配置される。従って、発光体モジュール310から放出された光322または励起光源450から放出された光322によって照らされていることに応答して目標対象324から反射されるか、または放出される光326が、ビームスプリッタ610によって受信される前に、分析器840および光学レンズ1550によって処理され、すると、処理された光326は、説明した方法で、画像検出モジュール320および発光フィルタ340および蛍光撮像モジュール510に向けられる。
そのため、検出構成1500の動作中、目標対象324の形状情報を検出するために、発光体モジュール310は光322を放出し、それは、NIR阻止フィルタ1510および偏光器830によって処理されて目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射された光326が、ビームスプリッタ610によって受信される。ビームスプリッタ610で光326を受信すると、ビームスプリッタ610は、目標対象324のカラー形状データを捕捉するため、画像検出モジュール320による受信のために、光326を光線622として反射する。加えて、目標対象324の蛍光情報を検出するために、励起光源450は光322を放出し、それは、励起フィルタ410および光拡散体1520によって処理されて目標対象324を照らし、すると、照らされていることに応答して目標対象324によって放出される光326が、ビームスプリッタ610による受信のために、ビームスプリッタ610によって受信される。ビームスプリッタ610で光326を受信すると、ビームスプリッタ610は、放出された光326が、蛍光撮像モジュール510による目標対象324の蛍光情報としての受信のために、発光フィルタ340を光線620として透過できるようにする。
本発明の構成1500は、低走査速度で、低い近赤外線(NIR)検出感度を有するこれまでの生成撮像システムの制限を克服することが理解されよう。具体的には、本発明の構成1500は、図17に示すように、カラー符号化ストライプ指標付け単一ショット技法および高速CMOS撮像センサー320および510に基づく波長分割2センサー構成を使用する。具体的には、画像検出モジュール320、発光体モジュール310、光源450、および蛍光撮像モジュール510およびコントローラ130が一緒に結合され、それによりモジュールは適切な通信技術を使用して相互に通信し得る。
画像検出モジュール320に関しては、リアルタイム形状走査のために高速カラーCMOSセンサー(LUPA 1300−2、ON Semiconductor)を含み得る。いくつかの実施形態では、画像検出モジュール320は、約500フレーム/秒のフレームレートを有し得る。
加えて、蛍光撮像モジュール510は、NIR感知CMOSセンサー(MT9V032、Aptina)を含み得、それは、約800nmで約40%の量子効率を有し得る。さらに、発光フィルタ340は、高感度での蛍光撮像のために、832nm帯域通過発光フィルタ340(#84−123、Edmund Optics)を含み得る。加えて、ビームスプリッタ610は、ショートパスダイクロイックビームスプリッタ(FF756−SDi01−25×36、SEMROCK)を含み得、それは、図17に示すように、可視光成分とNIR光成分を分割するために使用される。本発明の波長分割2センサー構成1500は、目標対象324の形状情報および蛍光情報の並行または同時取得を可能にする。カラーCMOSセンサーを含む画像検出モジュール320は、必要に応じて、反射画像を捕捉するようにも構成され得る。F/4撮像システムは、画像検出モジュール320および蛍光撮像モジュール510によって実装されて、大きい被写界深度および高蛍光収集効率を達成し得る。
光源450は、フィルタ処理したNIR LED(発光ダイオード)アレイを含み得、発光体モジュール310は、フィルタ処理した高速カラープロジェクタを含み得る。発光体モジュール310を含むカラープロジェクタ(Barco F50)は、目標対象324のリアルタイム形状走査のために、高速、単一ショット、カラー符号化、120Hzでの構造化照明を提供する。本発明の構成1500によって利用されるカラー符号化ストライプ指標付け投影技法は、前述した技術を使用して実装される。加えて、NIR阻止フィルタ1510は、蛍光検出を妨げるNIR成分を除去するために、700nmショートパスフィルタ(#84−727、Edmund Optics)を含み得る。偏光器/分析器ペア(#89−602、Edmund Optics)830および840は、偏光解消される、組織または目標対象324を形成する他の材料中に拡散した光子を除去するために提供され、そのため、表面に反射する光子を捕捉して、目標対象324の正確な形状取得が実行されるのを確実にするように動作する。加えて、光源450は、780nm LEDアレイ(Roithner Lasertechnik LED 780−66−60)を含み得、それは、60のLEDおよび4ワットの光出力を有して、0.5mの作動距離で約30×24cmの領域に対して均一な照明を提供する。さらに、いくつかの実施形態では、目標対象324の、術野などの、関心のある定義された領域のみが照らされて、バックグラウンドを低減する。追加として、励起フィルタ410は、800nmを上回る放出された励起光を遮断するために、775nm帯域通過励起フィルタ(#840106、Edmund Optics)を含み得る。
コントローラ130は、画像検出モジュール320、発光体モジュール310、光源450、および蛍光撮像モジュール510と通信して、それらの同期した動作を確実にする。一態様では、コントローラ130は、制御および画像処理用のDell precision Tower 7810 Workstationなどの、任意の適切なコンピュータシステムと共に、ボード(Opakelly)上に実装される1GBの外部メモリなどの、任意の適切なメモリを備えたFPGA(フィールドプログラマブルゲートアレイ)を含み得る。FPGAは、Verilogなどの、任意の適切なプログラミング言語を使用してプログラムされ得、いくつかの実施形態では、リアルタイム撮像を実装するために、FPGAの並列処理能力を利用し得る。FPGAは、CMOS画像センサー320および510からデータを受信するように構成され、それは、Camera−Linkデータバスを介して送信される。そのため、コントローラ130を形成するワークステーションは、記憶、処理および表示のために、FPGAボードから画像を受信し、デジタルプロジェクタからの構造化光照明を直接制御する。
画像重ね合わせ処理
さらに、本発明は、図18に示すように、PET/CT(陽電子放射断層撮影)および/またはCT(x線コンピュータ断層撮影)の目標対象324の蛍光撮像との、サーフェス画像重ね合わせアルゴリズムも提供する。そのため、本アルゴリズムでは、個々の診断法からのデータ、および重ね合わせたデータをユーザー選択に基づくコマンドで表示可能にする。例えば、マウスのリンパ節の、図18D、図18Eに示す、術前PET/CT画像、および図18B、図18Cに示す、蛍光撮像が捕捉されている。そのため、本発明は、図18Aに示す、目標対象324の形状情報を使用して、図18F〜図18Iに示すような、術中蛍光撮像および色反射率撮像と、術前CT/PETデータとの間の正確な重ね合わせを可能にする。そのため、本発明は、図18F〜図18Iに示すように、術前PET/CT手術ナビゲーションおよび術中蛍光撮像に基づく、マルチモーダル3D(3次元)画像ガイダンスを提供できるようにする。すなわち、図18A〜図18Eに示す個々の診断法からの画像データならびに図18Cおよび図18F〜図18Iの重ね合わせた画像は、ユーザー選択に基づいて提示され得る。図18G〜図18Iの重ね合わせた画像は、手術計画および術中の意思決定を容易にするために回転され得る。
さらに、本発明は、図18に示すように、PET/CT(陽電子放射断層撮影)および/またはCT(x線コンピュータ断層撮影)の目標対象324の蛍光撮像との、サーフェス画像重ね合わせアルゴリズムも提供する。そのため、本アルゴリズムでは、個々の診断法からのデータ、および重ね合わせたデータをユーザー選択に基づくコマンドで表示可能にする。例えば、マウスのリンパ節の、図18D、図18Eに示す、術前PET/CT画像、および図18B、図18Cに示す、蛍光撮像が捕捉されている。そのため、本発明は、図18Aに示す、目標対象324の形状情報を使用して、図18F〜図18Iに示すような、術中蛍光撮像および色反射率撮像と、術前CT/PETデータとの間の正確な重ね合わせを可能にする。そのため、本発明は、図18F〜図18Iに示すように、術前PET/CT手術ナビゲーションおよび術中蛍光撮像に基づく、マルチモーダル3D(3次元)画像ガイダンスを提供できるようにする。すなわち、図18A〜図18Eに示す個々の診断法からの画像データならびに図18Cおよび図18F〜図18Iの重ね合わせた画像は、ユーザー選択に基づいて提示され得る。図18G〜図18Iの重ね合わせた画像は、手術計画および術中の意思決定を容易にするために回転され得る。
さらに、本発明は、制御システム130において高速画像重ね合わせアルゴリズムまたはプロセス1600を実装することにより、オフラインの手動画像重ね合わせを利用する従来技術のシステムの限界を克服して、マルチモーダル画像ガイダンスを術中に提供する。本アルゴリズムまたはプロセス1600によって実行されるステップを図19に示す。最初に、ステップ1610で、手術の前に、手術の目標対象324が術前画像データを取得するためにPET/CTスキャンを受ける。次に、ステップ1620で、点群{Pi=(xi,yi,zi,fi,ri,gi,bi),i=1,2,.....,N}が次いで得られ、ここでベクトル(fi,ri,gi,bi)は、個々の表面点と関連付けられた蛍光、赤、緑および青のデータを表す。ステップ1630で、本発明の撮像構成1500は、前述したように、形状、蛍光および色反射率データを含む、術中の撮像データを取得する。ステップ1640での、光学およびPET/CTデータセットのリサンプリング後、プロセス1600はステップ1650に進み、そこで、サーフェス画像重ね合わせが、前述したように、処理時間を最小限にするために、k−d次元のツリーを用いて、ICP(iterative closest point)アルゴリズムを使用して実行される。いくつかの実施形態では、重ね合わせアルゴリズムが、MATLABまたはPythonなどの、任意の適切なプログラミング言語を使用して実装され得ることが理解されよう。重ね合わせ後、術前のPET/CT容積測定データが取り込まれて、更新された点群は{Pi=(xi,yi,zi,fi,ri,gi,bi,pi,ci),i=1,2,.....,N}となり、ここでベクトル(fi,ri,gi,bi,pi,ci)は、3D体積における個々の点と関連付けられた蛍光、赤、緑、青、PETおよびCTのデータを表す。最後に、ステップ1660で、重ね合わせた術前画像データおよび術中画像データが表示され、いくつかの実施形態では、リアルタイムで表示される。表示ステップ1660中、蛍光、PETおよびCT信号は、合成画像において異なる擬似カラー方式を割り当てられ得る。重ね合わせプロセスは、任意選択として、点群表現の代わりに、多角形メッシュ表現に基づいても実行され得ることも理解されよう。本発明のグラフィックユーザーインタフェース(GUI)は、従来のキーボード/マウス入力装置、およびタッチスクリーンインタフェース、ジェスチャ認識、音声認識、または任意の他の適切なインタフェース装置の両方に対して適切であるように最適化され、それにより、撮像システムまたは構成1500を臨床状況で使用する方法において医師に卓越した柔軟性を提供する。
3D走査および医用撮像能力を備えた撮像ゴーグル
具体的には、3D走査モジュール110および撮像モジュール120によって提供される機能は、図20Aに示すように、撮像構成1700Aで具現化され得る。具体的には、構成1700Aは、ウェアラブルディスプレイ1710を追加して、図4Aに関して前述したように、発光体モジュール310、画像検出モジュール320、および発光フィルタ340を含む。具体的には、ウェアラブルディスプレイ1710は、コントローラ130の出力に結合され、コントローラ130は、発光体モジュール310および画像検出モジュール320に結合される。そのため、撮像構成1700Aによって捕捉された形状情報および蛍光情報が、説明する方法で、ウェアラブルディスプレイ1710上に提示される。
具体的には、3D走査モジュール110および撮像モジュール120によって提供される機能は、図20Aに示すように、撮像構成1700Aで具現化され得る。具体的には、構成1700Aは、ウェアラブルディスプレイ1710を追加して、図4Aに関して前述したように、発光体モジュール310、画像検出モジュール320、および発光フィルタ340を含む。具体的には、ウェアラブルディスプレイ1710は、コントローラ130の出力に結合され、コントローラ130は、発光体モジュール310および画像検出モジュール320に結合される。そのため、撮像構成1700Aによって捕捉された形状情報および蛍光情報が、説明する方法で、ウェアラブルディスプレイ1710上に提示される。
さらに、別の実施形態では、3D走査モジュール110および撮像モジュール120は、図20Bに示すように、撮像構成1700Bで具現化され得る。具体的には、構成1700Bは、ウェアラブルディスプレイ1710を追加して、図4Bに関して前述したように、発光体モジュール310、画像検出モジュール320、発光フィルタ340、および蛍光励起フィルタ410を含む。具体的には、ウェアラブルディスプレイ1710は、コントローラ130の出力に結合され、コントローラ130は、発光体モジュール310および画像検出モジュール320に結合される。そのため、撮像構成1700Aによって捕捉された形状情報および蛍光情報は、説明する方法で、ウェアラブルディスプレイ1710上に提示される。一態様では、発光フィルタ340および蛍光励起フィルタ410は、前述のように、可動フィルタホイールとして提供される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図20Cに示すように、撮像構成1700Cで具現化され得る。具体的には、構成1700Cは、ウェアラブルディスプレイ1710に加えて、図4Cに関して前述したように、発光体モジュール310、画像検出モジュール320、発光フィルタホイール340、励起光源450および蛍光励起フィルタ410を含む。具体的には、ウェアラブルディスプレイ1710は、コントローラ130の出力に結合され、コントローラ130は、画像検出モジュール320に結合される。そのため、撮像構成1700Aによって捕捉された形状情報および蛍光情報は、説明する方法で、ウェアラブルディスプレイ1710上に提示される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図20Dに示すように、撮像構成1700Dで具現化され得る。具体的には、構成1700Dは、ウェアラブルディスプレイ1710に加えて、図5Aに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光検出モジュール510、および蛍光発光フィルタ340を含む。具体的には、ウェアラブルディスプレイ1710は、コントローラ130の出力に結合され、コントローラ130は、発光体モジュール310、画像検出モジュール320および蛍光モジュール510に結合される。そのため、撮像構成1700Aによって捕捉された形状情報および蛍光情報は、説明する方法で、ウェアラブルディスプレイ1710上に提示される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図20Eに示すように、撮像構成1700Eで具現化され得る。具体的には、構成1700Eは、ウェアラブルディスプレイ1710に加えて、図5Bに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光検出モジュール510、蛍光発光フィルタ340、および蛍光励起フィルタ410を含む。具体的には、ウェアラブルディスプレイ1710は、コントローラ130の出力に結合され、コントローラ130は、発光体モジュール310、画像検出モジュール320および蛍光撮像モジュール510に結合される。そのため、撮像構成1700Aによって捕捉された形状情報および蛍光情報は、説明する方法で、ウェアラブルディスプレイ1710上に提示される。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図20Fに示すように、撮像構成1700Eで具現化され得る。具体的には、撮像構成1700Eは、ウェアラブルディスプレイ1710に加えて、図5Cに関して前述したように、発光体モジュール310、画像検出モジュール320、蛍光検出モジュール510、発光フィルタ340、励起光源450および蛍光励起フィルタ410を含む。具体的には、ウェアラブルディスプレイ1710は、コントローラ130の出力に結合され、コントローラ130は、発光体モジュール310および画像検出モジュール320に結合される。そのため、撮像構成1700Aによって捕捉された形状情報および蛍光情報は、説明する方法で、ウェアラブルディスプレイ1710上に提示される。
そのため、本発明の撮像構成1700A〜1700Fは、ウェアラブルディスプレイ1710を含み、それは、ユーザーに取り付けて装着されるように構成されているウェアラブルディスプレイなどの、任意の適切なディスプレイを含み得る。例えば、ウェアラブルディスプレイ1710は、ゴーグルタイプのウェアラブル装置の一部として含まれ得、それはディスプレイ1710の付いたウェアラブルゴーグルまたは接眼フレームを含む。
一態様では、ディスプレイ1710は、ユーザーの視野の全体、またはその一部を覆う単一の表示面を提供する単一の連続表示に適した単一のディスプレイ要素を含み得る。代替として、ディスプレイ1710は、ユーザーの各眼に対して視野を提供するために独立したディスプレイを提供する、立体ディスプレイの場合などに、右専用ディスプレイおよび左専用ディスプレイなどの、複数の別々のディスプレイ要素を含み得る。
さらに、ディスプレイ1710は、反射型液晶(Liquid crystal on silicon)(LCoS)ディスプレイ、LCD(液晶ディスプレイ)ディスプレイ、OLED(有機発光ダイオード)ディスプレイ、投写型ディスプレイ、ヘッドマウント式ディスプレイ(HMD)、ヘッドマウント式投写型ディスプレイ(HMPD)、光学透過型ディスプレイ、切換え可能光学透過型ディスプレイ、選択的遮蔽透過型ヘッドマウント式ディスプレイ、およびビデオ透過型ディスプレイを含み得る。さらに、ディスプレイは、拡張現実窓、拡張モニター、患者への投影/ヘッドマウント式透過型ディスプレイ、選択的遮蔽透過型ヘッドマウント式ディスプレイ、網膜走査ディスプレイ、または任意の他の適切なディスプレイを含み得る。別の態様では、ディスプレイ1710は、任意の静止画像または動画を表示するように構成され得る。ディスプレイ1710は、複数の独立した画像供給源からの画像を同時に表示できるピクチャーインピクチャー(PIP)ディスプレイも含み得る。一例では、超音波画像および術中の蛍光&形状の統合画像が、ピクチャーインピクチャー方式で表示され得る。別の例では、術前の断層画像、および術中のカラー画像が、ピクチャーインピクチャー方式で、形状と統合されて表示され得る。
いくつかの実施形態では、術前の断層画像(例えば、MRI、CT、SPECT、およびPET)は、術中のカラー画像、蛍光画像および形状データと重ね合わされて、ディスプレイ1710に表示され得る。
他の実施形態では、ディスプレイ1710は、立体画像を奥行き感覚とともに表示可能な立体ディスプレイを含み得る。更なる実施形態では、ディスプレイ1710は、3次元(3D)画像を奥行き感覚とともに表示可能であり得る。さらに他の実施形態では、ディスプレイ1710は、複数の画像を一度にディスプレイ1710上に同時に表示可能にするために、様々な不透明度/透明度の重ね合わせたか、または重ねられた画像を提供するように構成され得る。更に別の実施形態では、ディスプレイ1710は、ユーザーが、ディスプレイ1710によって表示されている画像を見ることができるようにし、同時に、ユーザーの周辺環境も見るために、ユーザーが直接、自分の目で、またはディスプレイ1710を通した自然視で見るのを可能にするために、少なくとも部分的に光透過であり得る。
他の実施形態では、蛍光撮像モジュール510は、赤、緑、および青の色情報、ならびに奥行き情報またはデータおよび蛍光撮像情報を捕捉するように構成されるカメラを含む。
別の態様では、システム100は、目標対象324の3D形状および蛍光情報を順次に捕捉し得る。これを達成するために、システム100は最初に3D走査を、次いで蛍光撮像を2番目に実行する。
別の態様では、本システムは、目標対象324の3D形状および蛍光情報を並行して、または同時に捕捉し得る。そのため、画像検出モジュール320は、同様の時間枠中に、3D走査信号および蛍光信号の両方を検出することが可能である。従って、画像検出モジュール320によって捕捉される画像フレームは、それぞれ、3D走査および蛍光撮像の目的に対して指定され得る。例えば、画像検出モジュール320のフレームレートが30フレーム/秒(FPS)の場合、1秒間では、3D形状を捕捉するために15フレーム(例えば、奇数フレーム:1,3,5,7,9,...)が使用でき、他方、残りの15フレーム(例えば、2,4,6,8,10,...)は蛍光検出のために使用できる。画像フレーム指定の任意の他の組合せが並行/同時走査に対して使用され得、例えば、総画像フレームの3分の2が3D走査のために使用され得、他方、総画像フレームの3分の1が蛍光撮像のために使用されることが理解されよう。
発光体310および画像検出モジュール320の動作は、コントローラ130によるフレーム同期化の動作によって調整されることも理解されよう。例えば、画像検出モジュール320は、30フレーム/秒(FPS)で動作し、発光体310は、画像検出モジュール320と同期して15フレーム(例えば、奇数フレーム1,3,5,7,9,...)に対して3D形状を捕捉するための縞パターンを放出することが可能である。発光体モジュール310は、検出器320と同期して、残りの15フレーム(例えば、奇数フレーム1,3,5,7,9,...)に対して蛍光撮像のために蛍光励起光を放出するようにも構成される。
本発明の撮像構成1700A〜Fは、様々な光学撮像技術を可能にできる。更に別の実施形態では、発光フィルタ340は、波長可変フィルタを含み得る。波長可変フィルタを使用すると、ハイパースペクトル撮像を構成1700A〜Fによって実行して、複数の光波長を捕捉することが可能になる。更に別の実施形態では、発光フィルタ340は、複数の狭帯域フィルタを含むフィルタホイールを含み得る。そのため、構成1700A〜Fは、複数の光波長の反射画像または吸収画像を捕捉することが可能である。更に別の実施形態では、発光フィルタ340を具現化しているフィルタホイールは、酸素飽和度の撮像に適したフィルタを含み得る。例えば、組織酸素飽和度(STO2)または静脈血酸素飽和度(SVO2)の画像が測定され得る。例えば、660nmおよび950nmフィルタが酸素飽和度画像を捕捉するために使用され得る。酸素飽和度は、式:StO2=酸素飽和したヘモグロビン値/総ヘモグロビン値(未飽和+飽和)、を使用して計算できる。適切なフィルタ340を使用することによりチェレンコフ撮像も可能になり得ることも理解されよう。スペクトルフィルタの代わりに偏光器が使用され得、また、偏光撮像、および偏光差/偏光比撮像を可能にするために、別の偏光器が発光体モジュール310の前に配置され得ることも理解されよう。前述した異なる画像診断法が、以前に説明した、インターリーブ方式を使用して、連続して、または並行して、のいずれかで、3D走査と一緒に獲得され得ることが理解されよう。本発明により、複数の画像診断法が可能になり得ることが理解されよう。例えば、酸素飽和度撮像、色反射率撮像、自動蛍光撮像および外因性コントラストに基づく近赤外線(NIR)撮像は、一緒に同時に可能にされ得る。
本システムでは、ウェアラブルディスプレイ1710と、撮像モジュール320、発光体モジュール310、光源、および蛍光撮像モジュール510に結合されるコントローラ130との間の接続は、有線または無線接続を含み得る。いくつかの実施形態では、ウェアラブルディスプレイ1710、撮像モジュール320および発光体モジュール310は、ユニボディ設計内に収納されて、ユーザーによって装着される。他の実施形態では、撮像モジュール320、蛍光撮像モジュール510、発光体310および光源450は、三脚上に取り付けられ得、他方、ウェアラブルディスプレイ1710はユーザーによって装着される。いくつかの実施形態では、蛍光励起のための励起光源450は、ユーザーによって装着され得るか、または固定の移動しない支持上に取り付けられ得る。
コントローラ130は、システム制御およびデータ処理のために、組込みのコンピューティング装置を含み得るか、または外部のコンピュータ/タブレットコンピュータ/スマートフォンに接続され得ることも理解されよう。
別の例では、ジャイロスコープ追跡は、システム100によって提供される追跡モジュールを使用して実行され得る。慣性測定装置(IMU)が追跡目的で使用され得る。前述した追跡技法に加えて、他の追跡技法、例えば、ラジオ周波数追跡、光学追跡、電磁追跡、ビデオ追跡(パターン認識)、音響追跡、機械式追跡、および/またはそれらの組合せなど、が使用され得ることも理解されよう。加えて、採用される追跡法は、剛体、可撓体またはデジタイザ法を利用し得る。
追跡および重ね合わせプロセス中、コントローラ130は、正確な追跡および重ね合わせを可能にするために、計算を実行して必要なステップを実行することが理解されよう。一態様では、完全な重ね合わせプロセスは、以下のステップで実行され得る。最初に、本プロセスは、患者または目標対象324、ウェアラブル撮影および表示システム100ならびにインタフェースに結合された周辺機器としてのハンドヘルドプローブの位置を取得する。次に、本システムは、術前の撮像データを取得する。次に、その術前撮像データに基づいて3Dモデルが作成される。次のステップで、患者の位置が、例えば、位置合わせマーカーなどの、任意の適切な技術を使用して術中に追跡される。次に、術前の画像空間と術中の対象空間(すなわち、患者空間)との間の変換行列が計算される。引き続き、術前の画像データが術中の対象空間(すなわち、患者空間)に重ね合わされる。次に、術中の撮像データが、例えば、蛍光またはカラー撮像などの、撮像システム100から取得される。引き続き、ウェアラブル撮像および表示システム100の位置が、光学追跡または磁気追跡などの、任意の適切な技法を使用して、取得される。次に、術中の撮像空間(すなわち、ウェアラブル撮影および表示システム)と術中の対象空間(患者空間)との間の変換行列が計算される。術中の撮像空間(蛍光画像データなど)が次いで、術中の対象空間(すなわち、患者空間)に重ね合わされる。加えて、本プロセスは、例えば、超音波ファイバ顕微鏡、およびラマン分光法などの、ハンドヘルド装置撮像または検出データを取得する。加えて、超音波ファイバ、顕微鏡、およびラマン分光プローブなどの、ハンドヘルドプローブの位置が追跡される。次に、ハンドヘルド撮像/検出プローブ画像空間と術中の対象空間(すなわち、患者空間)との間の変換行列が計算される。引き続き、ハンドヘルド装置の画像空間(すなわち、超音波または顕微鏡)が術中の対象空間(すなわち、患者空間)に重ね合わされる。最後に、重ね合わせた画像データが、ウェアラブル撮像システム100のディスプレイ1710上に提示される。
別の態様では、本プロセスは、追跡および重ね合わせプロセスが、ハンドヘルドプローブから取得した画像データなしで実行されるように、構成され得る。結果として、本プロセスは、撮像および表示システム100(すなわち、ゴーグルシステム)によって取得した術中の画像データならびに術前の手術ナビゲーション画像データだけを使用する。
更に別の態様では、本プロセスは、追跡および重ね合わせプロセスが、術前の手術ナビゲーション画像データなしで実行されるようにも構成され得る。結果として、本プロセスは、撮像および表示システム100(すなわち、ゴーグルシステム)によって取得した術中の画像データならびにハンドヘルドプローブによって取得した画像データだけを使用する。
前述した重ね合わせ技法に加えて、ポイント画像重ね合わせ、サーフェス画像重ね合わせ、および/またはそれらの組合せなどの、他の重ね合わせ技法が使用され得ることも理解されよう。重ね合わせは、強度ベース、ランドマークベースまたは特徴ベースの重ね合わせのいずれかを含み得る。使用される変換モデルは、線形変換、または非剛体/弾性変換を含み得る。自動または対話式法だけでなく、空間または周波数領域法も使用され得る。重ね合わせプロセスは、点群表現、メッシュ表現、またはそれらの組合せに基づいて実行できる。
偏光ベースおよび波長ベースの異なる深度での光学走査
異なる波長の光は、生物組織などの、目標対象324に、異なる波長で浸透する。例えば、800nmの近赤外線(NIR)光は、450nmの青色光よりも深く生物組織に浸透できる。また、直線偏光が使用される場合、組織または目標対象324の外側表面は、偏光状態を維持して光を反射する。それに対して、目標対象の組織に深く浸透する光は、光子が組織内に移動する際の散乱事象に起因して、その直線偏光を失う。これらの特性は、システム100を、異なる奥行き(例えば、最も外側の表面、表面下0.5mm、表面下1mm)で形状を生成できる3D走査システムとして構成するために使用できる。
異なる波長の光は、生物組織などの、目標対象324に、異なる波長で浸透する。例えば、800nmの近赤外線(NIR)光は、450nmの青色光よりも深く生物組織に浸透できる。また、直線偏光が使用される場合、組織または目標対象324の外側表面は、偏光状態を維持して光を反射する。それに対して、目標対象の組織に深く浸透する光は、光子が組織内に移動する際の散乱事象に起因して、その直線偏光を失う。これらの特性は、システム100を、異なる奥行き(例えば、最も外側の表面、表面下0.5mm、表面下1mm)で形状を生成できる3D走査システムとして構成するために使用できる。
従って、いくつかの実施形態では、3D走査モジュール110および撮像モジュール120は、図21Aに示すように、撮像構成1800Aで具現化され得る。具体的には、撮像構成1800Aは、偏光器830および分析器840を追加して、図4Aに関して前述したように、発光体モジュール310および画像検出モジュール320を含む。具体的には、偏光器830は、発光体モジュール310との併用のために動作可能に配置され、他方、分析器840は、画像検出モジュール320との使用のために動作可能に配置される。その結果、撮像構成1800Aの動作中、発光体モジュール310は、線形偏光器830によって処理される光322を発生して目標対象324を照らす。加えて、照らされていることに応答して目標対象324によって反射された光は、次いで、目標対象324の形状情報として検出される前に、分析器840によって処理される。そのため、撮像構成1800Aで偏光器830および分析器840を使用することにより、目標対象324の深度分解された形状が捕捉できるようにする。従って、線形偏光器830および分析器840の偏光状態が、互いに位置合わせされる(すなわち、共偏光)場合、画像検出モジュール320は、外側表面形状を取得するために、目標対象324の最も外側の表面に反射した光子を検出することが可能である。追加として、線形偏光器830および分析器840の偏光状態が、互いに直角である(すなわち、交差偏光)場合、画像検出モジュール320は、目標対象324内のわずかに深い深度で表面形状を取得するために、目標対象324の内側部分に移動する光子を検出することが可能である。
さらに、他の実施形態では、3D走査モジュール110および撮像モジュール120は、図21Bに示すように、撮像構成1800Bで具現化され得る。具体的には、撮像構成1800Bは、スペクトルフィルタ1810および1810Aのペアを追加して、図21Aに関して前述したように、発光体モジュール310および画像検出モジュール320、線形偏光器830および分析器840を含む。具体的には、スペクトルフィルタ1810Aおよび偏光器830は、発光体モジュール310との併用のために動作可能に配置され、他方、スペクトルフィルタ1810および分析器840は、画像検出モジュール320との使用のために動作可能に配置される。その結果、撮像構成1800Aの動作中、発光体モジュール310は、スペクトルフィルタ1810Aおよび線形偏光器830によって処理される光322を発生して目標対象324を照らす。加えて、照らされていることに応答して目標対象324によって反射された光は、次いで、目標対象324の形状情報として検出される前に、分析器840およびスペクトルフィルタ1810によって処理される。従って、スペクトルフィルタ1810および1810Aが、偏光器830および分析器840と組み合わせて使用される場合、目標対象324の層状に深度分解された形状を得ることができる。例えば、約400nm、500nm、600nm、700nm、800nmに中心を置く帯域通過フィルタが、2つのフィルタホイール内に配置でき、それにより、1つのフィルタホイールが画像検出モジュール320と動作可能に配置され、他のフィルタホイールが発光体モジュール310と動作可能に配置されるように、各フィルタホイールは、400nm、500nm、600nm、700nm、800nmのフィルタのセットを有する。分析器840および偏光器830が、直交偏光状態を可能にする、交差偏光構成である場合、目標対象324の形状は、画像検出モジュール320および発光体モジュール310の両方がスペクトルフィルタ1810をある波長で使用する(例えば、両方が400nmフィルタを使用し、次いで、両方が500nmフィルタを使用する。次いで両方が600nmフィルタを使用する、など)場合に走査できる。結果として、目標対象324の深度分解された形状が取得できる。波長が長ければ、目標対象324の形状が走査される深度が深くなる。そのため、異なる波長での目標対象324の詳細が取得できる。狭帯域フィルタのフィルタホイールの代わりに、波長可変フィルタが使用できることが理解されよう。
形状画像データに加えて、異なる波長(例えば、400nm、500nm、600nm、700nmなど)での反射画像が、構成1800Aを使用して取得できる。より長い波長は、生物組織または他の媒体中により深く浸透するので、より長い波長の反射画像データ(例えば、800nm画像)は、短い波長の反射画像データ(例えば、400nm画像)よりも、その深い層において目標対象324に関してより多くの情報を伝える。そのため、正規化に続いて、異なる照明波長に対して取得された2つの画像を減算すると、埋め込まれた対象が位置する、より深い深度に到達する前に反射された光子から生じた画像情報の大部分が無効にされる。異なる照明波長は、発光体モジュール310に、異なるスペクトルフィルタ1810Aによって処理される光322を放出させることにより作られ得ることが理解されよう。例えば、400nm反射画像はI400(x,y)として表現され、800nm反射画像はI800(x,y)として表現され、正規化差分画像(NDI)は数学的にINDI(x,y)=I800(x,y)−A・I400(x,y)として表現され、式中、INDI(x,y)は、正規化差分画像(NDI)であり、Aは、より浅い浸透深度における対象に起因した共通情報の大部分を無効にするための正規化係数である。一態様では、Aは、I800(x,y)とI400(x,y)との間の類似点に基づいて反復して計算される。Aは、異なる画素位置における異なる値の行列にできることが理解されよう。そのため、NDI画像に対する式は、INDI(x,y)=I800(x,y)−A(x,y)・I400(x,y)と表現できる。
蛍光情報の目標対象の組織表面上への投影
従来世代の画像投影システムは、画像情報の平坦でない表面への正確な投影に関連した問題に悩まされ、そのため、従来世代のシステムは、平坦な表面でのみ機能するように設計されたことが理解されよう。そのため、従来世代の画像投影システムが、平坦でないか、または湾曲した表面上に画像を投影する必要がある場合、投影された画像は歪む。すなわち、典型的なプロジェクタは、短い距離におけるよりも、遠い距離において、より大きな画像を生じるので、目標対象324などの、平坦でない投影表面は、表面の異なる部分にわたって異なるプロジェクタ対表面距離を取り込み、それは、湾曲した投影表面上に投影される画像が、歪みなく、はっきりとしていることを確実にするために、考慮に入れる必要がある。
従来世代の画像投影システムは、画像情報の平坦でない表面への正確な投影に関連した問題に悩まされ、そのため、従来世代のシステムは、平坦な表面でのみ機能するように設計されたことが理解されよう。そのため、従来世代の画像投影システムが、平坦でないか、または湾曲した表面上に画像を投影する必要がある場合、投影された画像は歪む。すなわち、典型的なプロジェクタは、短い距離におけるよりも、遠い距離において、より大きな画像を生じるので、目標対象324などの、平坦でない投影表面は、表面の異なる部分にわたって異なるプロジェクタ対表面距離を取り込み、それは、湾曲した投影表面上に投影される画像が、歪みなく、はっきりとしていることを確実にするために、考慮に入れる必要がある。
現在の投影システムのこの問題を克服するために、本発明のシステム100は、プロジェクションマッピングプロセスを使用して画像がその上に投影される、目標対象324などの、対象の表面を考慮に入れる。具体的には、システム100によって提供されるプロジェクションマッピングプロセスは、投影される画像情報を、目標対象324などの、画像情報がその上に投影される表面の3D形状に基づいて処理する。加えて、プロジェクションマッピングプロセスは、画像プロジェクタと、目標対象324などの、画像が投影される平坦でない表面の様々な部分/点/領域との間の相対距離を分析および計算する。距離計算に基づき、システム100は、画像が投影される表面(目標対象324)の表面形状を考慮に入れる補正画像を生成し、それにより、ユーザーが見る投影画像の歪みが低減されるか、または最小限にされる。
従って、システム100の一実施形態では、3D走査モジュール110および撮像モジュール120は、図22Aに示すように、撮像および投影構成1900Aで具現化され得る。具体的には、構成1900Aは、前述したように、発光体モジュール310および画像検出モジュール320を含むが、発光体モジュール310は、目標対象の表面走査およびユーザー可視化のための画像投影の両方を実行するように構成される。本発明は、並行または同時の3D走査および画像投影を可能にするので、本発明は、投影前に別個の3Dスキャナによって作成された3Dモデルに基づいて投影パターンを処理する以前のプロジェクションマッピング技術とは異なる。具体的には、発光体モジュール310のフレームは、画像プロジェクタとして動作する場合、インターリーブできる。例えば、プロジェクタの総フレームレートが60フレーム/秒(FPS)である場合、総フレームの1/2(奇数フレーム)が3D走査のために使用され得、他方、総フレームの残りの1/2(偶数フレーム)が画像またはビデオの平坦でない表面上への投影のために使用され得る。目標対象324を見る人の目に対する混乱を最小限にするために、画像検出モジュール320によって収集された目標対象324の3D走査フレームは、目標対象324を見る人の目には見えない発光体モジュール310による照明に対して近赤外線(NIR)波長を使用し得、他方、発光体モジュール310の投影機能による目標対象324上への画像/ビデオの投影は、可視波長を使用して実行され得る。
システム100の別の実施形態では、3D走査モジュール110および撮像モジュール120は、図22Bに示すように、別の撮像および投影構成1900Bで具現化され得る。具体的には、構成1900Bは、図22Aに関して説明したように、発光体モジュール310および画像検出モジュール320を含むが、画像検出モジュール320は、デプスカメラまたは3Dスキャナとして構成される。そのため、画像検出モジュール320によって提供されるデプスカメラまたは3Dスキャナは、目標対象324の表面形状および3Dモデルを取得することが可能であり、それは次いで、プロジェクタとして構成される発光体モジュール310によって投影される画像を処理するために使用される。従って、高速に移動する対象、スポーツ場面、および車の視点から見た画像を含む、動的シーンを撮像する場合、プロジェクションマッピングプロセスは、画像検出モジュール320のデプスカメラから取得されたデータに基づき、構成1900Bによってリアルタイムで実行される。任意のデプスカメラまたは3Dスキャナが画像検出モジュール320によって使用できることが理解されよう。具体的には、デプスカメラまたは3Dスキャナは、コノスコープホログラフィ、調光、ステレオカメラ、フーリエ3D走査、低コヒーレンス干渉法、コモンパス干渉3D走査、および接触側面計を含むが、それらに制限されない、様々な形状走査法を利用し得る。
システム100の別の実施形態では、3D走査モジュール110および撮像モジュール120は、図22Cに示すように、別の撮像および投影構成1900Cで具現化され得る。具体的には、構成1900Cは、別の発光体モジュール310Aを追加して、図22Bに関して前述したように、画像検出モジュール320および発光体モジュール310を含む。そのため、発光体モジュール310は、3D走査機能を実行するように構成され、他方、発光体モジュール310Aは、前述した画像プロジェクションマッピングを使用して、画像の目標対象324上への画像プロジェクタとして機能する。
システム100の別の実施形態では、3D走査モジュール110および撮像モジュール120は、図22Dに示すように、別の撮像および投影構成1900Dで具現化され得る。具体的には、構成1900Dは、蛍光発光フィルタ340および蛍光励起フィルタ410を追加して、図22Aに関して説明した構成1900Aで構成されたように、画像検出モジュール320および発光体モジュール310を含む。具体的には、発光フィルタ340は、画像検出モジュール320との併用のために動作可能に配置され、励起フィルタ410は、発光体モジュール310との併用のために動作可能に配置される。発光フィルタ340および励起フィルタ410の両方は、フィルタホイールとして構成され得、それにより、発光フィルタ340は選択的に、画像検出モジュール320の光検出経路に入れられたり、光検出経路から出されたりし得、励起フィルタ410は、選択的に、発光体モジュール310の発光経路に入れられたり、発光経路から出されたりし得ることも理解されよう。そのため、構成1900Dは、画像検出モジュール320による蛍光撮像が、励起フィルタ410および発光フィルタ340が使用される場合に強化できるようにする。
システム100の別の実施形態では、3D走査モジュール110および撮像モジュール120は、図22Eに示すように、別の撮像および投影構成1900Eで具現化され得る。具体的には、構成1900Eは、励起光源450を追加して、図22Dに関して前述したように、画像検出モジュール320、発光体モジュール310、蛍光発光フィルタ340、および蛍光励起フィルタ410を含む。具体的には、励起光源450は、発光フィルタ340および画像検出モジュール320による目標対象324の蛍光情報の捕捉中に、励起フィルタ410と併用するように構成される。発光フィルタ340は、フィルタホイールとして構成され得、それは選択的に、画像検出モジュール320の光検出経路に入れたり、光検出経路から出したりすることができることも理解されよう。そのため、構成1900Eは、画像検出モジュール320による蛍光撮像が、励起フィルタ410および発光フィルタ340が使用される場合に強化できるようにする。
システム100の別の実施形態では、3D走査モジュール110および撮像モジュール120は、図22Fに示すように、別の撮像および投影構成1900Fで具現化され得る。具体的には、構成1900Fは、追加の発光体モジュール310Aを追加して、図22Dに関して前述したように、画像検出モジュール320および発光体モジュール310、蛍光発光フィルタ340および蛍光励起フィルタ410を含む。具体的には、図22Cに関して前述したように、発光体モジュール310は、3D走査のためのライトプロジェクタとして構成され、他方、発光体モジュール310Aは、画像プロジェクタとして構成される。具体的には、発光フィルタ340は、画像検出モジュール320との併用のために動作可能に配置され、励起フィルタ410は、発光体モジュール310との併用のために動作可能に配置される。発光フィルタ340および励起フィルタ410の両方は、フィルタホイールとして構成され得、それにより、発光フィルタ340は選択的に、画像検出モジュール320の光検出経路に入れられたり、光検出経路から出されたりし得、励起フィルタ410は、選択的に、発光体モジュール310の発光経路に入れられたり、発光経路から出されたりし得ることも理解されよう。そのため、構成1900Fは、画像検出モジュール320による蛍光撮像が、励起フィルタ410および発光フィルタ340が使用される場合に強化できるようにする。
静脈撮像
システム100は、針または注射の静脈内での配置を容易にするために、ヒトまたは動物の静脈目標対象324が位置する場所の撮像を容易にするようにも構成され得る。この撮像機能を可能にするために、3D走査モジュール110および撮像モジュール120を含む、システム100の別の実施形態が、図23Aに示すように、撮像および投影構成2000Aで具現化され得る。具体的には、構成2000Aは、発光体モジュール310および画像検出モジュール320を含み、それにより、発光体モジュール310は、赤外光源450を追加して、図22Aに関して前述したように、目標対象の3D表面走査およびユーザー可視化のための画像投影の両方を実行するように構成される。しかし、赤外光源450は、他の波長をもつ任意の適切な光源を含み得ることが理解されよう。具体的には、撮像構成2000Aは、透過撮像幾何形状を含み、それにより、赤外光源450および画像検出モジュール320が、組織または目標対象324の異なる側または反対側に配置され、それにより、組織を透過する、放出されたIR光2030の部分2020が画像検出モジュール320によって撮像される。赤、近赤外または赤外波長は、目標対象320の生物組織により深く浸透するので、この用途に対して好まれる。本システムは、目標対象324の3D形状を捕捉し、プロジェクタ310は画像を生物組織、または手などの目標対象324に投影して戻す。そのため、目標対象の手324の静脈および脈管構造は、静注をガイドするために目標対象組織324上に表示して戻され得る。プロジェクタ310はまた、前述のように、目標対象324の形状走査と目標対象324上への画像投影との間で、インターリーブ方式で撮像フレームを分割する。カメラも、透過モード撮像と形状走査との間で撮像フレームを分割する。例えば、画像検出モジュール320および発光フィルタ310によって提供されるプロジェクタは、それらのフレームレートを60fpsで同期させて、同じクロック信号を共有できる。奇数撮像フレーム(1,3,5,7....)に対して、プロジェクタ310および画像検出モジュール320は、目標対象324の形状走査を生成するために連携する。偶数撮像フレーム(2,4,6,8....)に対して、画像検出モジュール320は光源2010と連携して、透過モード撮像(例えば、手324内の静脈撮像)を生成し、プロジェクタ310は、処理した画像を、見る人の目による視覚化のために目標対象組織324上に投影して戻す。投影された画像は、目標組織表面324の3D形状に基づいて処理されて、歪みを最小限にすることが理解されよう。構成2000Aは、脈管構造撮像の代わりに、他の器官、組織またはプラスチック成形品などの任意の対象内での減衰を撮像するために使用され得ることも理解されよう。
システム100は、針または注射の静脈内での配置を容易にするために、ヒトまたは動物の静脈目標対象324が位置する場所の撮像を容易にするようにも構成され得る。この撮像機能を可能にするために、3D走査モジュール110および撮像モジュール120を含む、システム100の別の実施形態が、図23Aに示すように、撮像および投影構成2000Aで具現化され得る。具体的には、構成2000Aは、発光体モジュール310および画像検出モジュール320を含み、それにより、発光体モジュール310は、赤外光源450を追加して、図22Aに関して前述したように、目標対象の3D表面走査およびユーザー可視化のための画像投影の両方を実行するように構成される。しかし、赤外光源450は、他の波長をもつ任意の適切な光源を含み得ることが理解されよう。具体的には、撮像構成2000Aは、透過撮像幾何形状を含み、それにより、赤外光源450および画像検出モジュール320が、組織または目標対象324の異なる側または反対側に配置され、それにより、組織を透過する、放出されたIR光2030の部分2020が画像検出モジュール320によって撮像される。赤、近赤外または赤外波長は、目標対象320の生物組織により深く浸透するので、この用途に対して好まれる。本システムは、目標対象324の3D形状を捕捉し、プロジェクタ310は画像を生物組織、または手などの目標対象324に投影して戻す。そのため、目標対象の手324の静脈および脈管構造は、静注をガイドするために目標対象組織324上に表示して戻され得る。プロジェクタ310はまた、前述のように、目標対象324の形状走査と目標対象324上への画像投影との間で、インターリーブ方式で撮像フレームを分割する。カメラも、透過モード撮像と形状走査との間で撮像フレームを分割する。例えば、画像検出モジュール320および発光フィルタ310によって提供されるプロジェクタは、それらのフレームレートを60fpsで同期させて、同じクロック信号を共有できる。奇数撮像フレーム(1,3,5,7....)に対して、プロジェクタ310および画像検出モジュール320は、目標対象324の形状走査を生成するために連携する。偶数撮像フレーム(2,4,6,8....)に対して、画像検出モジュール320は光源2010と連携して、透過モード撮像(例えば、手324内の静脈撮像)を生成し、プロジェクタ310は、処理した画像を、見る人の目による視覚化のために目標対象組織324上に投影して戻す。投影された画像は、目標組織表面324の3D形状に基づいて処理されて、歪みを最小限にすることが理解されよう。構成2000Aは、脈管構造撮像の代わりに、他の器官、組織またはプラスチック成形品などの任意の対象内での減衰を撮像するために使用され得ることも理解されよう。
別の実施形態では、3D走査モジュール110および撮像モジュール120を含むシステム100は、図23Bに示すように、撮像および投影構成2000Bで具現化され得る。具体的には、構成2000Bは、発光体モジュール310、画像検出モジュール320および光源450を含み、それにより、発光体モジュール310は、図23Aに関して前述したように、目標対象の3D表面走査およびユーザー可視化のための画像投影の両方を実行するように構成される。加えて、光源450および画像検出モジュール320は、両方とも、様々な波長のそれぞれのスペクトルフィルタ1810および1810Aと動作可能に配置される。例えば、スペクトルフィルタ1810および1810Aの両方は、フィルタホイールと結合され得、その各々は、400nm、500nm、600nm、700nm、800nmに中心を置く帯域通過フィルタのセットも含む。動作中、光源450および画像検出モジュール320の両方は、共に400nmフィルタを使用して目標対象324の画像を捕捉し、500nm、600nm、700nm、800nm画像を同様の方法で捕捉する。望ましい場合には、正規化差分画像(NDI)がINDI(x,y)=I800(x,y)−A・I400(x,y)として数学的に表現され、式中、INDI(x,y)は、正規化差分画像(NDI)であり、Aは、より浅い浸透深度における対象に起因した共通情報の大部分を無効にするための正規化係数である。任意の波長がマルチスペクトル撮像に対して選択できて、特定の生物学的構造または疾病の撮像を容易にすることが理解されよう。前述した例と同様に、画像検出モジュール320、プロジェクタ310および光源450は、同期化されて、フレームが、マルチスペクトル撮像および形状走査を並列して可能にするためにインターリーブされる。
プロジェクションマッピングおよび歪み補正
目標対象324などの、投影される平坦でない表面に対する3D形状および深度により、画像の処理が最適化された投影を達成して、投影する画像の画像歪みが最小限にできるようにする。従って、本発明により捕捉されて生成された目標対象324の3Dモデルは、空間変換によって物理的な平坦でない目標対象324にリンクされ、空間変換は、3Dモデルからのリアルタイムでの個々の点を目標対象324の投影表面にマッピングし、それにより3Dモデルの画像が1対1対応で、平坦でない物理的な目標対象324の表面上に正確に投影されるようになる。空間変換は、コントローラ130、または無線もしくは有線接続によりそれに接続された任意の適切なコンピュータシステムを含む、任意の適切なコンピューティングシステムによって計算されて処理される。空間変換は、(xw,yw,zw,w)によって表現される点(x,y,z)のデカルト座標を使用する、3Dモデル空間Xm、対象空間Xo、および目標対象324の投影表面上の画像空間Xiとの間の変換Tを使用して計算され、ここでwはスカラー因子である。この計算は、中央処理装置(CPU)もしくはグラフィック処理装置(GPU)、もしくはそれらの組合せ、または前述したような任意の適切なコンピューティングシステム上で行うことができることが理解されよう。変換Tは、1対1のマッピングプロセスであり、それは、3Dモデル空間Xmから対象空間Xoへの変換T1、および対象空間Xoから対象表面上の画像Xiへの変換T2を含む。変換Tは、T1およびT2に対して定式化された座標を使用し、標準的な画像走査技術に従い、3Dモデルを対象空間内の目標対象324に、回転、反射、およびせん断する。T1およびT2は、以下の式1〜3によって決定され、
T1*Xm=Xo 式(1)、
T2*Xo=Xi 式(2)、
式中、Xm、Xo、およびXiは、4次元(xw,yw,zw,w)の列ベクトルであり、T1およびT2は、4×4行列である。
式(1)と式(2)を組み合わせると、
T2*T1*Xm=Xi 式(3)
が提供される。
目標対象324などの、投影される平坦でない表面に対する3D形状および深度により、画像の処理が最適化された投影を達成して、投影する画像の画像歪みが最小限にできるようにする。従って、本発明により捕捉されて生成された目標対象324の3Dモデルは、空間変換によって物理的な平坦でない目標対象324にリンクされ、空間変換は、3Dモデルからのリアルタイムでの個々の点を目標対象324の投影表面にマッピングし、それにより3Dモデルの画像が1対1対応で、平坦でない物理的な目標対象324の表面上に正確に投影されるようになる。空間変換は、コントローラ130、または無線もしくは有線接続によりそれに接続された任意の適切なコンピュータシステムを含む、任意の適切なコンピューティングシステムによって計算されて処理される。空間変換は、(xw,yw,zw,w)によって表現される点(x,y,z)のデカルト座標を使用する、3Dモデル空間Xm、対象空間Xo、および目標対象324の投影表面上の画像空間Xiとの間の変換Tを使用して計算され、ここでwはスカラー因子である。この計算は、中央処理装置(CPU)もしくはグラフィック処理装置(GPU)、もしくはそれらの組合せ、または前述したような任意の適切なコンピューティングシステム上で行うことができることが理解されよう。変換Tは、1対1のマッピングプロセスであり、それは、3Dモデル空間Xmから対象空間Xoへの変換T1、および対象空間Xoから対象表面上の画像Xiへの変換T2を含む。変換Tは、T1およびT2に対して定式化された座標を使用し、標準的な画像走査技術に従い、3Dモデルを対象空間内の目標対象324に、回転、反射、およびせん断する。T1およびT2は、以下の式1〜3によって決定され、
T1*Xm=Xo 式(1)、
T2*Xo=Xi 式(2)、
式中、Xm、Xo、およびXiは、4次元(xw,yw,zw,w)の列ベクトルであり、T1およびT2は、4×4行列である。
式(1)と式(2)を組み合わせると、
T2*T1*Xm=Xi 式(3)
が提供される。
従って、本発明のシステム100から形状を識別して3Dモデルを有すると、正確なプロジェクションマッピングのための変換行列T1およびT2の計算が容易になる。
投影品質モニタリング、投影最適化および最小二乗誤差
目標対象324上への画像投影の品質は、我々のシステムによってリアルタイムで監視され得る。例えば、生物組織病変または創傷が830nmで近赤外線(NIR)蛍光を放出している場合、それは、本発明によって撮像されて、図24に示すように、緑2050などの色に擬似カラー化した目標対象324の組織表面上に投影して戻され、品質モニタリングおよび最適化のために、投影された画像2050(緑色)を本当の信号2052(近赤外信号)と比較できる。つまり、本当の信号からの点Pt(xt,yt)が、投影された画像からの対応する点Pp(xp,yp)と比較される。NIRおよび緑色は、システム100によって撮像できる。対応は、特徴マッチングおよびパターン認識に基づいて確立される。Pt(xt,yt)からPp(xp,yp)をポイントするベクトルVtpが計算され得る(例えば、Vtp=Pp(xp,yp)−Pt(xt,yt))。ベクトルVtpは、ベクトルのノルムを低減することにより、プロジェクションマッピングの最適化をガイドする。複数のマッピング点のペアが、最適化のために使用でき、最小二乗誤差法が使用できる。例えば、n個のマッピング点ペア(Pp(xp,yp),Pt(xt,yt))が選択される場合、組み合わされた二乗誤差は:
と表現でき、式中、
は、二乗残差の和を表す。最適化は、システム100が二乗残差の和を最小限にする場合に達成され、それにより、残差は、投影された画像値と撮像値との間の差である。一態様では、最適化アルゴリズムは反復して実行できる。そのため、反復アルゴリズムは、計算された二乗誤差和が、予め決められている/事前設定された値よりも小さい場合に、反復を停止し得る。事前設定された値は、手動によるか、または類似のデータセットによって訓練される機械学習アルゴリズムによるかのいずれかで、設定できることが理解されよう。
目標対象324上への画像投影の品質は、我々のシステムによってリアルタイムで監視され得る。例えば、生物組織病変または創傷が830nmで近赤外線(NIR)蛍光を放出している場合、それは、本発明によって撮像されて、図24に示すように、緑2050などの色に擬似カラー化した目標対象324の組織表面上に投影して戻され、品質モニタリングおよび最適化のために、投影された画像2050(緑色)を本当の信号2052(近赤外信号)と比較できる。つまり、本当の信号からの点Pt(xt,yt)が、投影された画像からの対応する点Pp(xp,yp)と比較される。NIRおよび緑色は、システム100によって撮像できる。対応は、特徴マッチングおよびパターン認識に基づいて確立される。Pt(xt,yt)からPp(xp,yp)をポイントするベクトルVtpが計算され得る(例えば、Vtp=Pp(xp,yp)−Pt(xt,yt))。ベクトルVtpは、ベクトルのノルムを低減することにより、プロジェクションマッピングの最適化をガイドする。複数のマッピング点のペアが、最適化のために使用でき、最小二乗誤差法が使用できる。例えば、n個のマッピング点ペア(Pp(xp,yp),Pt(xt,yt))が選択される場合、組み合わされた二乗誤差は:
この最適化は、蛍光以外の他の光学撮像機構に適用できることが理解されよう。例えば、図23A〜図23Bに関して前述した静脈撮像システムは、この最適化アルゴリズムを使用し得る。同様に、マルチスペクトル撮像、目標対象324の平坦でない表面上へのプロジェクションマッピングを伴う酸素飽和度撮像もこのアルゴリズムを利用できる。目標対象324の平坦でない表面上へ投影された画像のリアルタイムモニタリングは、投影品質を動的に監視するための技術を提供することも理解されよう。
3D形状、蛍光撮像の両方、吸収係数および散乱係数を捕捉するためのシステム
システム100の別の実施形態では、蛍光画像データ/情報および3D形状データ/情報に加えて、吸収係数(μa)および低減された散乱係数(μs′)が取得され得るように、3D走査モジュール110および撮像モジュール120が構成され得る。空間周波数領域撮像(SFDI)を使用した目標対象324の生物組織の光学特性のマッピングは、目標対象組織324の生化学的組成および構造の特性化のために、システム100に統合され、コントローラ130によって実行され得る。空間的に変調された正弦波縞照明からの拡散反射率を分析するために変調撮像が適用されて、吸収係数(μa)および低減された散乱係数(μs′)マップを提供する。SFDIシステムは、発光体モジュール310および画像検出モジュール320として具現化された画像プロジェクタを含み、それらは幾何学的に較正される。
システム100の別の実施形態では、蛍光画像データ/情報および3D形状データ/情報に加えて、吸収係数(μa)および低減された散乱係数(μs′)が取得され得るように、3D走査モジュール110および撮像モジュール120が構成され得る。空間周波数領域撮像(SFDI)を使用した目標対象324の生物組織の光学特性のマッピングは、目標対象組織324の生化学的組成および構造の特性化のために、システム100に統合され、コントローラ130によって実行され得る。空間的に変調された正弦波縞照明からの拡散反射率を分析するために変調撮像が適用されて、吸収係数(μa)および低減された散乱係数(μs′)マップを提供する。SFDIシステムは、発光体モジュール310および画像検出モジュール320として具現化された画像プロジェクタを含み、それらは幾何学的に較正される。
空間的に変調された撮像を使用した光学特性マップを取得するための手順またはプロセス2100を図25に示す。具体的には、ステップ2110で、プロジェクタ310は、目標対象324の2つのグレイスケール正弦波縞パターンを異なる空間周波数(fx)で120度シフトされた3つの位相で照らす。空間周波数パターンの順次照射は、コントローラ/コンピュータ130上で実行するプログラムによって制御され、フィルタは、空間周波数照明を異なる波長で発生するために使用される。反射光は、画像検出モジュール320によって取得されて、処理のために保存される。ステップ2120で、低空間周波数パターン(fx=0)および高空間周波数パターンが、拡散的反射強度(I)のDCおよびAC成分を抽出するために採用される。次いで、復調されたAC(MAC)およびDC(MDC)振幅が、各空間位置(xi)に対して、
式(4)
式(5)
として計算され、式中、I1、I2、I3は、シフトされた空間位相をもつ画像強度である。フーリエおよびヒルベルト変換などの、変換関数を採用する技術によって、高空間周波数パターンの単一フレームを使用して復調された強度の決定が可能になり、それにより、撮像速度が著しく、リアルタイムSFDIでの使用に対して向上する。対象の拡散反射率(Rd)は、既知の光学特性をもつ不透明なファントム(Rd,ref)の拡散反射率から測定できる:
式(6)
ステップ2130に示すように、散乱剤としてのイントラリピッドおよび吸収体としての墨を蒸留水と希釈および混合することにより、組織模擬ファントムが準備される。ステップ2140で、復調されたAC(MAC,ref)およびDC(MDC,ref)画像を取得するために、広範な吸収および拡散値をもつ均質な液体ファントムの反射率測定が実行される。ファントムの拡散反射率は、吸収係数および低減した散乱係数の所与のセットに対して、拡散近似およびホワイトモンテカルロシミュレーションなどの、拡散ベースおよび移送ベースのアプローチに基づく順モデルを適用することによって予測される。ステップ2150に示すように、最小二乗極小化および2周波数ルックアップテーブルアプローチなどのインバージョン法が、対象の光学特性を抽出するために利用される。全ての画素に対する拡散反射率の分析により、吸収係数および低減された散乱係数マップが作成され、それは次いで、本システムによって捕捉された3Dモデルと統合するために処理される。
として計算され、式中、I1、I2、I3は、シフトされた空間位相をもつ画像強度である。フーリエおよびヒルベルト変換などの、変換関数を採用する技術によって、高空間周波数パターンの単一フレームを使用して復調された強度の決定が可能になり、それにより、撮像速度が著しく、リアルタイムSFDIでの使用に対して向上する。対象の拡散反射率(Rd)は、既知の光学特性をもつ不透明なファントム(Rd,ref)の拡散反射率から測定できる:
ステップ2130に示すように、散乱剤としてのイントラリピッドおよび吸収体としての墨を蒸留水と希釈および混合することにより、組織模擬ファントムが準備される。ステップ2140で、復調されたAC(MAC,ref)およびDC(MDC,ref)画像を取得するために、広範な吸収および拡散値をもつ均質な液体ファントムの反射率測定が実行される。ファントムの拡散反射率は、吸収係数および低減した散乱係数の所与のセットに対して、拡散近似およびホワイトモンテカルロシミュレーションなどの、拡散ベースおよび移送ベースのアプローチに基づく順モデルを適用することによって予測される。ステップ2150に示すように、最小二乗極小化および2周波数ルックアップテーブルアプローチなどのインバージョン法が、対象の光学特性を抽出するために利用される。全ての画素に対する拡散反射率の分析により、吸収係数および低減された散乱係数マップが作成され、それは次いで、本システムによって捕捉された3Dモデルと統合するために処理される。
吸収係数(μa)および低減された散乱係数(μs′)画像は、前述した重ね合わせアルゴリズムを使用して、蛍光画像、色反射率画像および術前画像(MRI、CT、SPECT、PETなど)と重ね合わせることができることが理解されよう。
生体力学モデリングおよびFEMモデリングを使用した変形補正
目標対象324の生物組織、特に軟部組織は変形しやすい。軟部組織が、術前撮像と術中撮像との間で異なる変形を有する場合、変形が適切に対処されなければ、画像間での重ね合わせエラーが生じる。それに鑑み、本発明は、システム100によって捕捉される3D形状が、術前画像を更新して組織変形を吸収するために使用できるようにする。
目標対象324の生物組織、特に軟部組織は変形しやすい。軟部組織が、術前撮像と術中撮像との間で異なる変形を有する場合、変形が適切に対処されなければ、画像間での重ね合わせエラーが生じる。それに鑑み、本発明は、システム100によって捕捉される3D形状が、術前画像を更新して組織変形を吸収するために使用できるようにする。
つまり、表面メッシュまたは容積メッシュが、術前形状撮像データ(例えば、MRI、CT、SPECT、PET、3D超音波、OCTなど)に基づいて生成できる。関心のある器官を分離するために画像分割が実行できる。特徴およびランドマークが、術前画像モデル(形状撮像データに基づく)および術中画像モデル(我々の発明によって捕捉された3D形状)の両方から抽出できる。第1の画像重ね合わせは、識別された特徴およびランドマークに基づいて実行される。識別された特徴およびランドマークは、変形が少ない傾向があることが理解されよう。画像重ね合わせの後、関心のあるメッシュノードと手術中に変形した表面との間の最接近点距離が計算される。最接近点距離は、メッシュデータ、点群データまたはそれらの組合せに基づいて計算できることが理解されよう。続いて、境界条件が、以前に重ね合わされた術前画像データおよび術中画像データに基づいて生成される。一態様では、境界条件は、メッシュノードまたは点と関連付けられた関心のある組織/器官の初期変形を含む。続いて、モデルソリューションが、境界条件を反復して使用する有限要素モデリング(FEM)法を使用して計算できる(ステップA)。一態様では、最接近点距離の部分が、メッシュノードに関して変位境界条件を決定するために使用される。各反復の後、術前画像データの新しいメッシュノードまたは点群の位置が、計算されたFEMモデルソリューションに基づき、機械的変形を反映するように更新される。続いて、新しい境界条件が生成でき、ステップAを繰り返すことができる。偏微分方程式は、患者の解剖学的構造、体積力(body force)、組織材料特性などに基づく境界条件セットを用いて解かれることが理解されよう。反復アルゴリズムが実行されると、システム100のコンピュータ/コントローラ130は、全てのメッシュノードまたは対応する点について最接近点距離に対する最小二乗誤差を最小限にする。全てのメッシュノードまたは点に対する二乗誤差の総和が、動的に計算でき、事前設定値と比較できる。反復アルゴリズムは、計算された二乗誤差和が、事前設定値よりも小さい場合に、反復を停止し得る。事前設定値は、手動によるか、または類似のデータセットによって訓練された機械学習アルゴリズムによるかのいずれかで、設定できることが理解されよう。FEMは、コンピュータ/コントローラのCPUまたはGPU上のいずれかで実行できることが理解されよう。
形状および奥行き形状に基づく2つの画像検出器間での重ね合わせアルゴリズム
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図26に示すように、撮像構成2200で具現化され得る。具体的には、撮像構成2200は、図4Fに関して前述したように、発光体モジュール310、画像検出モジュール320、発光フィルタ340、画像検出モジュール320A、および蛍光励起フィルタ410と共に動作する励起光源450を含む。従って、前述した他の実施形態だけでなく、構成2200は、本発明によって提供される3D走査および奥行き感知能力と併せて、複数の画像検出モジュール320を使用し得る。従って、2つの異なる画像検出モジュール、320と320Aとの間の画像重ね合わせは、奥行き形状に基づいて最適化され得る。例えば、画像検出器320によって捕捉された画像(蛍光画像)を画像検出モジュール320Aによって捕捉された画像(カラー画像)に重ね合わせることが可能である。画像重ね合わせのための変換行列は、目標対象324から画像検出モジュール320および320Aまでの距離によって決まる。本発明では、目標対象324の距離は、既に分かっている。従って、画像検出モジュール320および画像検出モジュール320Aは、固定距離に対して計算された正しい変換行列を使用して重ね合わせことができる。例えば、変換行列は、様々な距離および作動距離(20cm、21cm、22cmなど)に対して取得され得る。本発明によって捕捉された目標対象324の距離/奥行きと共に、正しい変換行列が最適化された重ね合わせ結果のために使用され得る。
更なる実施形態では、3D走査モジュール110および撮像モジュール120は、図26に示すように、撮像構成2200で具現化され得る。具体的には、撮像構成2200は、図4Fに関して前述したように、発光体モジュール310、画像検出モジュール320、発光フィルタ340、画像検出モジュール320A、および蛍光励起フィルタ410と共に動作する励起光源450を含む。従って、前述した他の実施形態だけでなく、構成2200は、本発明によって提供される3D走査および奥行き感知能力と併せて、複数の画像検出モジュール320を使用し得る。従って、2つの異なる画像検出モジュール、320と320Aとの間の画像重ね合わせは、奥行き形状に基づいて最適化され得る。例えば、画像検出器320によって捕捉された画像(蛍光画像)を画像検出モジュール320Aによって捕捉された画像(カラー画像)に重ね合わせることが可能である。画像重ね合わせのための変換行列は、目標対象324から画像検出モジュール320および320Aまでの距離によって決まる。本発明では、目標対象324の距離は、既に分かっている。従って、画像検出モジュール320および画像検出モジュール320Aは、固定距離に対して計算された正しい変換行列を使用して重ね合わせことができる。例えば、変換行列は、様々な距離および作動距離(20cm、21cm、22cmなど)に対して取得され得る。本発明によって捕捉された目標対象324の距離/奥行きと共に、正しい変換行列が最適化された重ね合わせ結果のために使用され得る。
一態様では、様々な作動距離における重ね合わせ行列が、チェス盤パターンなどの較正ターゲットを使用して較正される。加えて、様々な距離における変換行列が較正プロセス中に取得できる。例えば、カメラ320および320Aは、チェス盤パターンなどの、同じ較正ターゲットを撮像し得、交差および/または縁が識別される。そのため、共通の特徴(例えば、交差および/または縁)は、所与の作動距離で、カメラ320によって捕捉された画像からカメラ320Aによって捕捉された画像への変換の計算のために使用できる。本発明は、撮像される対象324の奥行き情報および形状データを提供するので、正しい作動距離における変換行列が識別されて、画像重ね合わせのために使用される。例えば、対象324がシステム100から約22cm離れている場合、システム100は、奥行きを検出して、カメラ320とカメラ320Aとの間の画像重ね合わせのために、22cmの作動距離用の変換行列を使用する。
別の態様では、重ね合わせは、2つの2D(2次元)画像間で実行され得る。変換行列が、コンピュータ/コントローラ130によって計算されて処理され、それは、第1の検出器/カメラX1の画像空間と第1の検出器/カメラX2の画像空間との間の変換行列Td(式7)を使用し、それにより
Td*X1=X2 (7)。
Td*X1=X2 (7)。
この計算は、中央処理装置(CPU)もしくはグラフィック処理装置(GPU)、またはそれらの組合せ上で実行され得ることが理解されよう。変換Tは、検出器320からの画像を回転、拡大縮小、反射、およびせん断して、検出器320Aからの画像と重ね合わせる。重ね合わせアルゴリズムは、剛体重ね合わせまたは非剛体重ね合わせのいずれかにできることも理解されよう。チェス盤パターンなどの、較正パターンを使用すると、各作動距離における変換行列Tdが正確に取得できる。{T20,T21,T22,T23,T24}などの値のセットは、様々な作動距離(20cm,21cm,22cm....)および奥行きに対して取得できる。各行列に対して許容差範囲が割り当てられ得、一方、T20は、19.1〜21.0cmの間の範囲に対して割り当てることができ、T22は、21.1〜23.0cmに対して割り当てることができることが理解されよう。2つの画像検出モジュール320および320Aは、異なるタイプであり得ることが更に理解されよう。例えば、画像検出モジュール320は、カラー撮像用のシリコンベースのCCD/CMOSカメラにでき、画像検出モジュール320Aは、アンチモン化インジウム、ヒ化インジウム、テルル化カドミウム水銀(MCT)、硫化鉛、セレン化鉛、アモルファスシリコン(a−Si)、酸化バナジウム(VOx)、マンガン酸バリウムランタン(lanthanum barium manganite)(LBMO)、チタン酸ジルコン酸鉛(PZT)、ランタンをドープしたチタン酸ジルコン酸鉛(PLZT)、タンタル酸鉛スカンジウム(PST)、チタン酸鉛ランタン(PLT)、チタン酸鉛(PT)、亜鉛ニオブ酸鉛(PZN)、チタン酸ストロンチウム鉛(lead strontium titanate)(PSrT)、チタン酸ストロンチウムバリウム(BST)、チタン酸バリウム(BT)、スルホヨウ化アンチモン(antimony sulfoiodide)(SbSI)、およびフッ化ポリビニリデン(PVDF)を含むが、それらに制限されない要素から成るサーモグラフィカメラにできる。別の例では、画像検出モジュール320は、近赤外線(NIR)ナイトビジョンカメラであり得、画像検出モジュール320Aは、サーモグラフィカメラであり得、2つのタイプの画像は、システム100からの関心のある対象324の距離に基づいて重ね合わされ得る。
深度領域ベースの重ね合わせ
いくつかの状況では、撮像されている目標対象324は異なる深度にある。最も正確な重ね合わせ結果のために、深度領域(depth−region)ベースの重ね合わせプロセスが使用され得る。具体的には、画像は、システム100によって捕捉された奥行き形状に基づき、異なる領域に分割され得る。例えば、画像は2つの領域に分割でき、領域1は撮像システムから20cm離れた対象を有し、領域2は撮像システムから30cm離れた対象を有する。各領域に対して、正しい変換行列が使用され、従って、T20(20cmの作動距離用)が領域1(X1r1)の重ね合わせのために使用され、T30(30cmの作動距離用)が領域2(X1r2)の重ね合わせのために使用される。画像は、3以上の、複数の領域に分割できることが理解されよう。分割される各領域は、画像の新しいスタック(stack)によって表現され得、領域内の画素は、まだ元の強度値を保持しているが、他方、領域外の画素は0の強度値が割当てられ得ることが更に理解されよう。結果として、各領域を表現する画像の座標および次元は同じままであり、従って、各領域ベースの画像は、元の重ね合わせ変換行列と容易に使用され得る。一態様では、
いくつかの状況では、撮像されている目標対象324は異なる深度にある。最も正確な重ね合わせ結果のために、深度領域(depth−region)ベースの重ね合わせプロセスが使用され得る。具体的には、画像は、システム100によって捕捉された奥行き形状に基づき、異なる領域に分割され得る。例えば、画像は2つの領域に分割でき、領域1は撮像システムから20cm離れた対象を有し、領域2は撮像システムから30cm離れた対象を有する。各領域に対して、正しい変換行列が使用され、従って、T20(20cmの作動距離用)が領域1(X1r1)の重ね合わせのために使用され、T30(30cmの作動距離用)が領域2(X1r2)の重ね合わせのために使用される。画像は、3以上の、複数の領域に分割できることが理解されよう。分割される各領域は、画像の新しいスタック(stack)によって表現され得、領域内の画素は、まだ元の強度値を保持しているが、他方、領域外の画素は0の強度値が割当てられ得ることが更に理解されよう。結果として、各領域を表現する画像の座標および次元は同じままであり、従って、各領域ベースの画像は、元の重ね合わせ変換行列と容易に使用され得る。一態様では、
1つの数学的表現を以下に示す。
Td1*X1r1=X2r1,Td2*X1r2=X2r2,........,Tdi*X1ri=X2ri
ここで、Tdiはi番目の領域に対する変換行列であり、X1riは、i番目の領域に対する検出器/カメラ320からの画像空間であり、X2riは、i番目の領域に対する検出器/カメラ320からの画像空間である。そのため、以前に生成された画像のスタックは、対応する作動距離の変換行列を使用して変換され得る。続いて、最後の変換画像が、様々な作動距離の画像の変換されたスタックから合成画像を作成することにより、デジタル的に合成され得る。
Td1*X1r1=X2r1,Td2*X1r2=X2r2,........,Tdi*X1ri=X2ri
ここで、Tdiはi番目の領域に対する変換行列であり、X1riは、i番目の領域に対する検出器/カメラ320からの画像空間であり、X2riは、i番目の領域に対する検出器/カメラ320からの画像空間である。そのため、以前に生成された画像のスタックは、対応する作動距離の変換行列を使用して変換され得る。続いて、最後の変換画像が、様々な作動距離の画像の変換されたスタックから合成画像を作成することにより、デジタル的に合成され得る。
一実施形態では、深度領域ベースの重ね合わせアルゴリズムまたはプロセスは、次のプロセスを使用して実行され得る。最初に、本プロセスは、画像検出モジュール320および320Aなどの、2つの検出器間の変換行列を、異なる作動距離で較正する。次に、本プロセスは、対象の奥行き形状を撮像視野で取得する。次のステップでは、2つの検出器によって捕捉される画像が、奥行き形状に基づいて分割される。プロセスは次いで、様々な作動距離の画像のスタックを生成し、各スタック画像は、所与または予め決められた深度の対象324を含む。従って、特定の作動距離の各スタック画像に対して、本プロセスは、画像の重ね合わせのために、対応する作動距離の変換行列を使用する。最後に、本プロセスは、変換されたスタック画像を一緒に加えて/重ね合わせて、重ね合わせた最終画像を合成する。
深度領域ベース重ね合わせアルゴリズムまたはプロセスは、3つ以上の検出器または撮像装置からの、複数の画像を重ね合わせるために使用され得ることも理解されよう。深度領域ベース重ね合わせアルゴリズムまたはプロセスは、3Dスキャナまたはデプスカメラなどの、システム100によって提供される以外の機器によって捕捉される奥行き形状または3D形状情報を使用し得ることも理解されよう。本アルゴリズムまたはプロセスはまた、画像システム100の使用とは関係なく動作し得る。一態様では、深度領域ベース重ね合わせアルゴリズムまたはプロセスは、目標対象324の既知の奥行きマップまたは形状プロファイルを使用して複数の画像を重ね合わせるためにも使用され得る。
内視鏡構成
いくつかの実施形態では、システム100は、図27Aに示すように、撮像構成2400Aで具現化され得る。具体的には、撮像構成2400Aは、ビームスプリッタ610、および撮像プローブ2410を追加して、発光体モジュール310、画像検出モジュール320、発光フィルタ340を含む。そのため、発光体モジュール310は、目標対象の表面走査ならびに、蛍光撮像および色反射率撮像などの、光学撮像の両方を実行するように構成される。従って、本発明は、自由空間光通信によるアクセスが困難な空洞または他の場所において、並行または同時の3D走査および光学撮像を可能にする。
いくつかの実施形態では、システム100は、図27Aに示すように、撮像構成2400Aで具現化され得る。具体的には、撮像構成2400Aは、ビームスプリッタ610、および撮像プローブ2410を追加して、発光体モジュール310、画像検出モジュール320、発光フィルタ340を含む。そのため、発光体モジュール310は、目標対象の表面走査ならびに、蛍光撮像および色反射率撮像などの、光学撮像の両方を実行するように構成される。従って、本発明は、自由空間光通信によるアクセスが困難な空洞または他の場所において、並行または同時の3D走査および光学撮像を可能にする。
撮像プローブ2410は、ヒト、動物、建物、車、または任意の他の物理的対象内の空洞内に入るか、または配置することができる内視鏡、腹腔鏡、または任意のスコープの形で具現化され得ることが理解されよう。一実施形態では、撮像プローブ2410の内視鏡構成は、前述した実施形態に類似しているが、本システムは、小腔に適合できるように、小型化される追加の要件を伴う。絶縁された電気コードは、ダクト、腸、手術用ポートまたは他のアクセス経路を経由して、電力を撮像プローブ2410に供給するために使用できる。具体的には、発光体モジュール310、および画像検出モジュール320および発光フィルタ340は、実質的に直角など、相互にある角度をなして配置され、他方、ビームスプリッタ610は、画像検出モジュール320および画像検出モジュール320および発光フィルタ340に対して、約45度の角度など、斜角で配置される。加えて、構成2400Aは、レンズ2420および2430を含み、それにより、レンズ2420は、ビームスプリッタ610に近接して撮像プローブ2410の一方の端部に置かれ、他のレンズ2430は、撮像プローブ2410の他方の端部に、ビームスプリッタ610より遠位に、配置される。そのため、レンズ2430は、撮像が望まれる、様々な空洞に入るように適切に構成される。
そのため、検出構成2400Aの動作中、発光体モジュール310は光322を放出し、撮像プローブを経由して目標対象324を照らし、すると、照らされていることに応答して目標対象324によって反射されて放出された光326が、目標対象324の形状および蛍光データを捕捉するために、画像検出モジュール320による受信のためにビームスプリッタ610を透過する。いくつかの実施形態では、画像データは、LCDモニターまたはウェアラブルディスプレイなどの、ディスプレイ装置によって表され得る。加えて、発光体モジュール310によって具現化されたプロジェクタは、撮像プローブ2410を通して画像検出モジュール320によって検出された蛍光画像を目標対象324上に投影もし得る。
他の実施形態では、システム100は、図27Bに示すように、撮像構成2400Bで具現化され得る。具体的には、構成2400Bは、図27Aに関して説明したように、発光体モジュール310、画像検出モジュール320、発光フィルタ340、および撮像プローブ2410を含むが、ビームスプリッタ610は使用しない。加えて、構成2400Bは、ビームスプリッタ610、および撮像プローブ2410を追加して、対応するレンズ2420Aおよび2430Aを含む、追加の撮像プローブ2410Aを含む。そのため、発光体モジュール310は、目標対象の表面走査および光学撮像の両方を実行するように構成される。従って、本発明は、並行または同時の3D走査および光学撮像を可能にする。具体的には、動作中、撮像プローブ2410は、目標対象324の形状情報および蛍光画像情報を捕捉するために使用され、他方、撮像プローブ2410Aは、3D走査のためのパターンを目標対象324上に投影するために使用され、蛍光励起光を目標対象324に提供する。
他の実施形態では、システム100は、図27Cに示すように、撮像構成2400Cで具現化され得る。具体的には、構成2400Cは、撮像プローブ2140A、レンズ2460、スペクトルフィルタ1810および光源450を追加して、図27Aに関して説明したように、発光体モジュール310、画像検出モジュール320、発光フィルタ340、ビームスプリッタ610、および撮像プローブ2410を含む。そのため、発光体モジュール310は、目標対象の表面走査ならびに、蛍光撮像および色反射率撮像などの、光学撮像の両方を実行するように構成される。そのため、構成2400Cの動作中、スペクトルフィルタ1810、およびレンズ2460は、光源450から放出された光を処理し、すると、処理された光は、撮像プローブ2410Aを透過して目標対象324を照らす。加えて、発光体モジュール310は、ビームスプリッタ610を経由し、撮像プローブ2410を通して、目標対象324の3D走査のためのパターンを投影する。加えて、画像検出モジュール320は、照らされていることに応答して目標対象324から反射されて放出された光をビームスプリッタ610を通して受信し、それは、目標対象324の形状および蛍光情報として、内部検出装置2410撮像プローブ2410を透過する。従って、本発明は、並行または同時の3D走査および光学撮像を可能にする。
構成2400A〜2400Cの撮像プローブ2410は、ファイバ束の代わりに、液体光ガイド、リレーレンズ系を含み得ることも理解されよう。3D表面形状走査と共に、カラー内視鏡、蛍光内視鏡、酸素飽和度内視鏡撮像、ハイパースペクトル内視鏡撮像が、本発明によって可能にできることが更に理解されよう。内視鏡画像は、前述した方法を使用して、CT、MRI、PET、SEPCT、および超音波画像、または任意の他の診断画像と重ね合わせることができることが更に理解されよう。レーザー三角測量または構造化光照明などの、前述した様々な3D走査技法が、3D走査のために内視鏡内に実装され得ることが更に理解されよう。具体的には、内視鏡構成内で発光体モジュール310を形成する形状走査モジュールは、コノスコープホログラフィ、調光、ステレオカメラ、フーリエ3D走査、低コヒーレンス干渉法、コモンパス干渉3D走査、および接触側面計を含むが、それらに制限されない、様々な形状走査法を利用するように構成され得る。
発光体モジュール310、画像検出モジュール320、蛍光検出モジュール510、プロジェクタ910、光源450、ならびに、可動装置として実装された場合の様々なフィルタ340および410を含むシステム100の構成要素、または制御を必要とするシステム100の任意の他の構成要素は、コントローラ130に結合されるか、またはそうでなければ、コントローラ130と有線または無線通信することも理解されよう。それに応じて、コントローラ130は、スタンドアロンのコンピューティング装置または携帯型コンピューティング装置などの、任意の適切なコンピューティング装置内で具現化され得、それは、コントローラ130に結合された構成要素の動作を調整および同期させるために必要なハードウェア、ソフトウェアまたはそれらの組合せを有する。さらに、いくつかの実施形態では、コントローラ130は、システム100の構成要素の動作を調整および同期させるために構成され得るリモートコンピューティング装置(例えば、携帯型またはスタンドアロンのコンピューティング装置)と、有線または無線通信ネットワークを通して通信するように構成され得、それにより、コントローラ130は、システム100の構成要素と、リモートコンピューティング装置との間のインタフェースとして機能する。
従って、本発明の1つの利点は、撮像システムが形状および、蛍光情報などの光学撮像データを同時に取得するように構成されることである。本発明の更に別の利点は、収集される形状および、蛍光情報などの光学撮像データを、重ね合わせるのを可能にすることである。本発明の別の利点は、形状および蛍光値の3D点群/多角形メッシュが生成され、それは、例えば、PET/CTまたはMRI画像データなどの、術前撮像データと容易に重ね合わせることができることである。本発明の更に別の利点は、撮像システムは表面3D形状を利用して、表面変形を追跡し、サーフェス画像重ね合わせを提供することである。本発明の更に別の利点は、撮像システムは、情報を捕捉して、平坦でない(すなわち、でこぼこした、湾曲した、起伏のある)表面上に、リアルタイムまたは略リアルタイムで、低空間的遅延で、投影することが可能なことである。本発明の更に別の利点は、撮像システムは、目標対象の形状および奥行き形状に基づき複数の画像間で正確な重ね合わせを可能にすることである。本発明の更に別の利点は、撮像システムは、偏光ゲーティングおよび/またはマルチスペクトル走査により深度分解された走査を可能にすることである。本発明の更に別の利点は、撮像システムは、光学撮像を実行できる、3D走査ゴーグルを可能にすることである。本発明の更に別の利点は、撮像システムは、3D走査内視鏡が光学撮像を実行できるようにすることである。
従って、本発明の目的は、上で提示した構造およびその使用方法によって満たされていることが分かる。特許法によれば、最良の形態および好ましい実施形態だけが提示され、詳細に説明されているが、本発明はそれに制限されず、またそれによっても制限されないことが理解される。それに応じて、本発明の本当の範囲および幅の理解のため、以下のクレームを参照すべきである。
Claims (37)
- 目標対象を撮像するための光学撮像システムであって、
コントローラと、
前記コントローラに結合された、前記目標対象を光で照らすための発光体モジュールと、
前記コントローラに結合された、前記目標対象を撮像するための視野を有する画像検出モジュールと
を含み、
前記コントローラは、1つのモードにおいて、前記画像検出モジュールが前記目標対象の3次元(3D)形状画像を捕捉し、かつ第2のモードでは、前記画像検出モジュールが前記目標対象の特定の画像を捕捉するように、前記発光体および前記画像検出モジュールを制御する、
光学撮像システム。 - 前記画像検出モジュールは、CCDまたはCMOS撮像センサーを含む、請求項1に記載の光学撮像システム。
- 前記画像検出モジュールの前記視野と動作可能に配置されたフィルタをさらに含む、請求項1に記載の光学撮像システム。
- 前記フィルタは、選択的に前記画像検出モジュールの前記視野に入れられたり、前記視野から出されたりするように構成される、請求項3に記載の光学撮像システム。
- 前記フィルタは蛍光発光フィルタを含み、かつ前記特定の画像は蛍光画像を含む、請求項3に記載の光学撮像システム。
- 前記フィルタは、各々が異なる通過帯域を有する、複数のフィルタを含み、かつ前記特定の画像はマルチスペクトル画像を含む、請求項1に記載の光学撮像システム。
- 前記フィルタは、その前記通過帯域を変更するための波長可変フィルタを含み、かつ前記特定の画像はハイパースペクトル画像を含む、請求項1に記載の光学撮像システム。
- 前記画像検出モジュールと光通信する撮像プローブをさらに含み、前記撮像プローブは、内視鏡、ファイバスコープ、ボアスコープ、またはビデオスコープ、から成る群から選択される、請求項1に記載の光学撮像システム。
- 前記撮像プローブは光ガイドを含み、光ファイバ、リレーレンズ、または液体光ガイド、から成る群から選択される、請求項8に記載の光学撮像システム。
- 前記目標対象を撮像するための前記視野を拡大するために、前記コントローラに結合された別の画像検出モジュールをさらに含む、請求項1に記載の光学撮像システム。
- 前記目標対象を照らすために外部光源をさらに含む、請求項1に記載の光学撮像システム。
- 前記コントローラは、複数の撮像フレームを所定のレートで捕捉するために前記画像検出モジュールを制御し、それにより、前記複数の撮像フレームの1つの部分が前記形状画像と関連付けられ、かつ前記複数の撮像フレームの別の部分が前記特定の画像と関連付けられる、請求項1に記載の光学撮像システム。
- 前記コントローラに結合された蛍光検出モジュールをさらに含み、前記画像検出モジュールは、前記目標対象の前記3次元(3D)形状画像を検出し、かつ前記蛍光検出モジュールは、前記目標対象の前記特定の画像を蛍光画像として捕捉する、請求項1に記載の光学撮像システム。
- ビームスプリッタをさらに含み、
前記画像検出モジュールは、前記蛍光撮像モジュールに対して実質的に直角に配置され、
前記ビームスプリッタは、前記目標対象から受信した1つの範囲の波長の光が、前記画像検出モジュールに供給され、かつ前記目標対象から受信した別の範囲の波長の光が、前記蛍光撮像モジュールに供給されるように、前記画像検出モジュールおよび蛍光撮像モジュールに対して配置される、
請求項13に記載の光学撮像システム。 - 前記3D形状画像が、走査三角測量、構造化光、飛行時間、コノスコープホログラフィ、調光、ステレオカメラ、フーリエ3D走査、低コヒーレンス干渉法、コモンパス干渉3D走査、または接触側面計を使用して、前記画像検出モジュールによって捕捉される、請求項1に記載の光学撮像システム。
- 前記発光体モジュールは、順次投影技法、バイナリパターンおよびグレイコーディング、グレイレベルパターン、位相シフト、照度差ステレオ技法、位相シフトとグレイコーディングの組合せ、フルフレームの空間的に変化する色パターン、レインボー3Dカメラ、連続的に変化するカラー符号化、ストライプ指標付け(単一ショット)、色を使用したストライプ指標付け、セグメントパターンを使用したストライプ指標付け、繰り返しグレイスケールパターンを使用したストライプ指標付け、De Bruijinシーケンスに基づくストライプ指標付け、グリッド指標付け(2D空間グリッドパターン)、擬似ランダム二元配列(PRBA)、符号語として使用されるミニパターン、色分けされたグリッド、色分けされたドットの2D配列、またはそれらの組合せを使用して、前記目標対象を照らす、請求項1に記載の光学撮像システム。
- 前記コントローラに結合された周辺インタフェースをさらに含む、請求項1に記載の光学撮像システム。
- 前記周辺インタフェースは、撮像または検知機器と通信するように構成される、請求項17に記載の光学撮像システム。
- 前記撮像または検知機器が、光学分光法、吸光分光法、蛍光分光法、ラマン分光法、コヒーレント反ストークスラマン分光法(CARS)、表面増感ラマン分光法、フーリエ変換分光法、フーリエ変換赤外分光法(FTIR)、マルチプレックスまたは周波数変調分光法、X線分光法、減衰全反射分光法、電子常磁性分光法、電子分光法、ガンマ線分光法、音響共鳴分光法、オージェ分光法、キャビティリングダウン分光法、円二色性分光法、冷蒸気原子蛍光分光法、相関分光法、深準位過渡分光法、二重偏光干渉法、EPR分光法、力分光法、ハドロン分光学、バリオン分光学、中間子分光学、非弾性電子トンネル分光法(IETS)、レーザー誘起破壊分光法(LIBS)、質量分光法、メスバウアー分光法、中性子スピンエコー分光法、光音響分光法、光電子分光法、光熱分光法、ポンププローブ分光法、ラマン光学活性分光法、飽和分光法、走査トンネル分光法、分光測光法、紫外光電子分光法(UPS)、ビデオ分光、振動円二色性分光法、X線光電子分光法、カラー顕微鏡、反射率顕微鏡、蛍光顕微鏡、酸素飽和度顕微鏡、偏光顕微鏡、赤外線顕微鏡、干渉顕微鏡、位相差顕微鏡、微分干渉顕微鏡、ハイパースペクトル顕微鏡、全反射照明蛍光顕微鏡、共焦点顕微鏡、非線形顕微鏡、2光子顕微鏡、第二高調波発生顕微鏡、超解像顕微鏡、光音響顕微鏡、構造化光学顕微鏡、4Pi顕微鏡、誘導放出抑制顕微鏡、確率的光学再構築顕微鏡、超音波顕微鏡、反射率撮像、蛍光撮像、チェレンコフ撮像、偏光撮像、超音波撮像、放射測定撮像、酸素飽和度撮像、光干渉断層撮影、赤外線撮像、熱撮像、光音響撮像、分光撮像、ハイパースペクトル撮像、蛍光、ガンマ線撮像、X線コンピュータ断層撮影、またはそれらの組合せを実行するように構成される、請求項18に記載の光学撮像システム。
- 前記コントローラに結合された追跡モジュールをさらに含み、前記追跡モジュールは、前記目標対象の前記位置を追跡する、請求項1に記載の光学撮像システム。
- 前記コントローラは、前記目標対象の術前画像を前記特定の画像と、重ね合わせた画像として重ね合わせるために前記形状画像を処理する、請求項1に記載の光学撮像システム。
- 前記術前画像は、コンピュータ断層撮影(CT)画像、陽電子放射断層撮影(PET)画像、単光子放射型コンピュータ断層撮影法(SPECT)画像、または磁気共鳴断層撮影(MRI)から成る群から選択される、請求項1に記載の光学撮像システム。
- 前記重ね合わせた画像を提示するために前記コントローラに結合されたウェアラブルディスプレイをさらに含む、請求項21に記載の光学撮像システム。
- 平坦でない目標対象を撮像するための光学撮像システムであって、
コントローラと、
前記コントローラに結合された、前記目標対象を光で照らすための発光体モジュールと、
前記コントローラに結合された、前記平坦でない目標対象を撮像するための視野を有する画像検出モジュールと
を含み、
前記コントローラは、前記画像検出モジュールが前記目標対象の3次元(3D)形状画像を捕捉するように、前記発光体および前記画像検出モジュールを制御し、かつ、
前記コントローラは、前記平坦でない表面の複数の部分と前記発光体モジュールとの間の前記相対距離を識別して、補正した投影画像を生成し、すると、前記補正した投影画像が前記発光体モジュールによって投影される、
光学撮像システム。 - 前記画像検出モジュールは、前記目標対象の特定の画像を捕捉する、請求項24に記載の光学撮像システム。
- 前記特定の画像は、蛍光画像、マルチスペクトル画像、偏光画像、吸収係数画像、散乱係数画像、ハイパースペクトル画像、酸素飽和度画像、またはそれらの組合せを含む、請求項25に記載の光学撮像システム。
- 前記画像検出モジュールと動作可能に配置された蛍光発光フィルタをさらに含む、請求項24に記載の光学撮像システム。
- 前記発光体モジュール、前記画像検出モジュールのいずれか、または両方と動作可能に配置されたフィルタホイールまたは波長可変フィルタをさらに含む、請求項24に記載の光学撮像システム。
- 前記コントローラは、前記発光体モジュールを制御して、インターリーブ方式で、前記目標対象を照らし、かつ前記補正した投影画像を投影する、請求項24に記載の光学撮像システム。
- 前記コントローラに結合された光源をさらに含む、請求項24に記載の光学撮像システム。
- 目標対象の画像を重ね合わせるための方法であって、
前記目標対象の第1の特定の画像を第1の画像検出モジュールから取得するステップと、
前記目標対象の第2の特定の画像を第2の画像検出モジュールから取得するステップと、
前記目標対象の形状画像を取得するために、2つ以上の画像検出モジュールに対する前記目標対象の距離を取得するステップと、
前記第1の特定の画像、前記第2の特定の画像、および前記距離に基づいて変換行列を計算するステップと、
前記変換行列に基づき、前記第1の特定の画像を前記第2の特定の画像に重ね合わせるステップと、
を含む、方法。 - 前記第1の特定の画像はカラー画像であり、かつ前記第2の特定の画像は、蛍光画像、近赤外反射画像、および吸収画像、から成る群から選択された、狭帯域画像または狭帯域反射画像である、請求項31に記載の方法。
- 前記第1の特定の画像はカラー画像であり、かつ前記第2の特定の画像は熱画像である、請求項31に記載の方法。
- 前記第1の特定の画像は近赤外画像であり、かつ前記第2の特定の画像は熱画像である、請求項31に記載の方法。
- 前記第1の特定の画像を関連付けられた距離を有する複数の領域に分割するステップと、
前記第2の特定の画像を関連付けられた距離を有する複数の領域に分割するステップと
をさらに含み、
前記変換行列は、前記第1の特定の画像の前記複数の領域および距離、ならびに前記第2の特定の画像の前記複数の領域および距離に基づく、
請求項31に記載の方法。 - 目標対象の光学走査の方法であって、
前記目標対象を偏光によって照らすステップと、
前記目標対象から戻った前記光を分析器によって分析光として処理するステップと、
前記分析光を前記目標対象の形状画像として検出するステップと
を含む、方法。 - 前記偏光は、複数の波長を含み、それにより、各波長は、前記目標対象内の奥行きに対応し、かつ
前記複数の波長の各1つに対して帯域通過を有するスペクトルフィルタによって前記偏光を処理することと、
前記複数の波長の各1つに対して帯域通過を有するスペクトルフィルタによって前記分析光を処理することと、
前記複数の波長の各1つの前記分析光を前記目標対象内の各奥行きに対する形状画像として検出することと
を含む、請求項32に記載の方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201562112993P | 2015-02-06 | 2015-02-06 | |
| US62/112,993 | 2015-02-06 | ||
| PCT/US2016/016991 WO2016127173A1 (en) | 2015-02-06 | 2016-02-08 | Optical imaging system and methods thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018514748A true JP2018514748A (ja) | 2018-06-07 |
Family
ID=56564815
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017539649A Pending JP2018514748A (ja) | 2015-02-06 | 2016-02-08 | 光学撮像システムおよびその方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (5) | US10666928B2 (ja) |
| EP (1) | EP3254234A4 (ja) |
| JP (1) | JP2018514748A (ja) |
| CN (1) | CN107851176A (ja) |
| WO (1) | WO2016127173A1 (ja) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020076743A (ja) * | 2018-09-18 | 2020-05-21 | カール・ツアイス・メディテック・アーゲー | 対象物の特性を判断するための方法及び装置 |
| KR20200076056A (ko) * | 2018-12-19 | 2020-06-29 | 전자부품연구원 | 농연 환경 데이터 시각화 장치 및 방법 |
| KR20210018904A (ko) * | 2018-06-08 | 2021-02-18 | 덴츠플라이 시로나 인코포레이티드 | 공초점 카메라에서 동적 투영 패턴을 생성하기 위한 디바이스, 방법 및 시스템 |
| KR20210054919A (ko) * | 2019-11-06 | 2021-05-14 | 재단법인대구경북과학기술원 | 3차원 진단 시스템 |
| JP2021529633A (ja) * | 2018-07-16 | 2021-11-04 | エシコン エルエルシーEthicon LLC | 外科用可視化プラットフォーム |
| JP2022510272A (ja) * | 2018-11-30 | 2022-01-26 | スペクトラウェーブ, インコーポレイテッド | 交互配置された光源及びそれらを用いる方法 |
| JPWO2022113506A1 (ja) * | 2020-11-24 | 2022-06-02 | ||
| JP2022535888A (ja) * | 2019-06-07 | 2022-08-10 | ビーエーエスエフ コーティングス ゲゼルシャフト ミット ベシュレンクテル ハフツング | 光の3dマッピングとモデリングを使用した物体認識システム及び方法 |
| JP2022536298A (ja) * | 2019-06-07 | 2022-08-15 | ビーエーエスエフ コーティングス ゲゼルシャフト ミット ベシュレンクテル ハフツング | コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法 |
| JP2023500376A (ja) * | 2019-11-05 | 2023-01-05 | アルスペクトラ エスアーエールエル | 医用イメージング用の拡張現実ヘッドセット |
| JP2023508523A (ja) * | 2019-12-30 | 2023-03-02 | シラグ・ゲーエムベーハー・インターナショナル | 対象組織の周囲の切除マージンを決定、調整、及び管理するためのシステム及び方法 |
| JP2023529580A (ja) * | 2020-06-08 | 2023-07-11 | トムラ・ソーティング・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | 物質を検出するための装置 |
| US11754844B2 (en) | 2016-09-22 | 2023-09-12 | Magic Leap, Inc. | Augmented reality spectroscopy |
| CN116858108A (zh) * | 2023-09-05 | 2023-10-10 | 深圳市平方科技股份有限公司 | 一种基于红外光栅的物体长度检测系统及方法 |
| US11852530B2 (en) | 2018-03-21 | 2023-12-26 | Magic Leap, Inc. | Augmented reality system and method for spectroscopic analysis |
| KR20240013393A (ko) * | 2022-07-22 | 2024-01-30 | 고려대학교 산학협력단 | 공초점 현미경 영상을 활용한 인공지능 기반의 병변 정보 획득 장치 및 방법 |
| JP2024518392A (ja) * | 2021-05-04 | 2024-05-01 | アルスペクトラ エスアーエールエル | 医療イメージングのための拡張現実ヘッドセット及びプローブ |
Families Citing this family (227)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11020006B2 (en) | 2012-10-18 | 2021-06-01 | California Institute Of Technology | Transcranial photoacoustic/thermoacoustic tomography brain imaging informed by adjunct image data |
| ES3056009T3 (en) | 2013-02-13 | 2026-02-17 | 3Shape As | Focus scanning apparatus recording color |
| GB201506992D0 (en) * | 2014-11-14 | 2015-06-10 | Nplex Pty Ltd | A portable in-vitro diagnostic detector |
| US10779713B2 (en) * | 2014-12-09 | 2020-09-22 | Chemimage Corporation | Molecular chemical imaging endoscopic imaging systems |
| WO2016127173A1 (en) * | 2015-02-06 | 2016-08-11 | The University Of Akron | Optical imaging system and methods thereof |
| US11576645B2 (en) | 2015-03-02 | 2023-02-14 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for scanning a patient in an imaging system |
| CN104644205A (zh) * | 2015-03-02 | 2015-05-27 | 上海联影医疗科技有限公司 | 用于影像诊断的患者定位方法及系统 |
| US11576578B2 (en) | 2015-03-02 | 2023-02-14 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for scanning a patient in an imaging system |
| US20170116762A1 (en) * | 2015-10-21 | 2017-04-27 | Carestream Health, Inc. | Apparatus and method for scattered radiation correction |
| EP3165153A1 (en) * | 2015-11-05 | 2017-05-10 | Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts | System for fluorescence aided surgery |
| CA2948761A1 (en) * | 2015-11-23 | 2017-05-23 | Wal-Mart Stores, Inc. | Virtual training system |
| EP3182366B1 (en) * | 2015-12-17 | 2020-10-07 | Leibniz-Institut für Photonische Technologien e.V. | Property measurement on a biological tissue sample |
| US20170224205A1 (en) * | 2016-02-04 | 2017-08-10 | Wright State University | Light endoscope system for imaging, light delivery, and therapy response monitoring |
| WO2017145356A1 (ja) * | 2016-02-26 | 2017-08-31 | 株式会社ニコン | 検出装置、検出システム、検出方法、情報処理装置、及び処理プログラム |
| US10708478B2 (en) * | 2016-03-23 | 2020-07-07 | Karl Storz Imaging, Inc. | Image transformation and display for fluorescent and visible imaging |
| US20170294033A1 (en) * | 2016-04-06 | 2017-10-12 | Varex Imaging Corporation | Dose efficient x-ray detector and method |
| US10860879B2 (en) * | 2016-05-16 | 2020-12-08 | Raytheon Technologies Corporation | Deep convolutional neural networks for crack detection from image data |
| WO2017197527A1 (en) * | 2016-05-20 | 2017-11-23 | Perimeter Medical Imaging, Inc. | Method and system for combining microscopic imaging with x-ray |
| US10758127B2 (en) * | 2016-07-25 | 2020-09-01 | Sarah Kathryn Patch | Systems and methods for radiation beam range verification using sonic measurements |
| EP3284396B1 (en) * | 2016-08-16 | 2020-02-12 | Leica Instruments (Singapore) Pte. Ltd. | Observation apparatus and method for visual enhancement of an observed object |
| US10834377B2 (en) * | 2016-08-29 | 2020-11-10 | Faro Technologies, Inc. | Forensic three-dimensional measurement device |
| WO2018055066A1 (en) * | 2016-09-21 | 2018-03-29 | Koninklijke Philips N.V. | Apparatus for adaptive contouring of a body part |
| JP6734386B2 (ja) * | 2016-09-28 | 2020-08-05 | パナソニック株式会社 | 表示システム |
| US20200058389A1 (en) * | 2016-11-10 | 2020-02-20 | Koninklijke Philips N.V. | Selecting acquisition parameter for imaging system |
| KR20240157125A (ko) * | 2016-11-11 | 2024-10-31 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 다중 모달리티 이미지 디스플레이를 구비한 수술 시스템 |
| CN106420057B (zh) * | 2016-11-23 | 2023-09-08 | 北京锐视康科技发展有限公司 | 一种pet-荧光双模态术中导航成像系统及其成像方法 |
| CN106524940B (zh) * | 2016-11-30 | 2022-09-27 | 华中科技大学 | 一种盾构法隧道智能ct检测诊断系统及方法 |
| JP6687134B2 (ja) * | 2017-01-31 | 2020-04-22 | Jfeスチール株式会社 | 鋼材形状計測装置及び鋼材形状矯正装置 |
| JP2018126389A (ja) * | 2017-02-09 | 2018-08-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| US10457034B2 (en) * | 2017-02-16 | 2019-10-29 | Xerox Corporation | System and method for decreasing time for printing layers in three-dimensional objects and for enhancing color fidelity at the surface of three-dimensional objects |
| JP6790235B2 (ja) * | 2017-03-29 | 2020-11-25 | 富士フイルム株式会社 | 光音響画像生成装置 |
| WO2018191648A1 (en) | 2017-04-14 | 2018-10-18 | Yang Liu | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
| EP3618746A4 (en) * | 2017-05-04 | 2021-06-16 | Junebrain, Inc. | BRAIN MONITORING SYSTEM |
| US10762314B2 (en) * | 2017-05-10 | 2020-09-01 | Datalogic Ip Tech S.R.L. | Anti-counterfeiting barcode reader and associated methods |
| DE102017118767B4 (de) | 2017-08-17 | 2020-10-08 | Carl Zeiss Industrielle Messtechnik Gmbh | Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts |
| US9990767B1 (en) | 2017-10-24 | 2018-06-05 | Lowe's Companies, Inc. | Generation of 3D models using stochastic shape distribution |
| CN107550467A (zh) * | 2017-10-30 | 2018-01-09 | 清华大学 | 无接触颈部呼吸和脉搏信号的检测方法、装置及成像设备 |
| JP6879168B2 (ja) * | 2017-11-01 | 2021-06-02 | オムロン株式会社 | 3次元測定装置、3次元測定方法及びプログラム |
| CN109431528B (zh) * | 2017-11-08 | 2022-05-31 | 上海联影医疗科技股份有限公司 | 校正投影图像的系统和方法 |
| FR3073135B1 (fr) * | 2017-11-09 | 2019-11-15 | Quantum Surgical | Dispositif robotise pour une intervention medicale mini-invasive sur des tissus mous |
| US11484731B2 (en) * | 2017-11-09 | 2022-11-01 | International Business Machines Corporation | Cognitive optogenetics probe and analysis |
| US20190142358A1 (en) * | 2017-11-13 | 2019-05-16 | Siemens Medical Solutions Usa, Inc. | Method And System For Dose-Less Attenuation Correction For PET And SPECT |
| WO2019104329A1 (en) * | 2017-11-27 | 2019-05-31 | Optecks, Llc | Medical three-dimensional (3d) scanning and mapping system |
| DE102017129837A1 (de) * | 2017-12-13 | 2019-06-13 | Leibniz-Institut für Photonische Technologien e. V. | Kombinierte Untersuchung mit Bildgebung und Lasermessung |
| US12089930B2 (en) | 2018-03-05 | 2024-09-17 | Marquette University | Method and apparatus for non-invasive hemoglobin level prediction |
| DE102018105834A1 (de) * | 2018-03-14 | 2019-09-19 | Aesculap Ag | Medizintechnisches System und Verfahren zum nichtinvasiven Tracken eines Objektes |
| US10972643B2 (en) | 2018-03-29 | 2021-04-06 | Microsoft Technology Licensing, Llc | Camera comprising an infrared illuminator and a liquid crystal optical filter switchable between a reflection state and a transmission state for infrared imaging and spectral imaging, and method thereof |
| IL277530B2 (en) * | 2018-03-30 | 2024-07-01 | Blaze Bioscience Inc | Systems and methods for simultaneous near-infrared light and visible light imaging |
| US10778912B2 (en) * | 2018-03-31 | 2020-09-15 | Open Water Internet Inc. | System and device for optical transformation |
| CN108523849A (zh) * | 2018-05-02 | 2018-09-14 | 南开大学 | 基于自发荧光技术和光学相干层析术的甲状腺颈部组织分类和识别系统及方法 |
| US10924692B2 (en) * | 2018-05-08 | 2021-02-16 | Microsoft Technology Licensing, Llc | Depth and multi-spectral camera |
| US11636647B2 (en) * | 2018-05-09 | 2023-04-25 | Purdue Research Foundation | System and method for localization of fluorescent targets in deep tissue for guiding surgery |
| WO2019222885A1 (zh) * | 2018-05-21 | 2019-11-28 | 深圳市华讯方舟太赫兹科技有限公司 | 一种三维层析成像系统及方法 |
| EP3578126B1 (en) | 2018-06-08 | 2023-02-22 | Stryker European Operations Holdings LLC | Surgical navigation system |
| EP3581881B1 (de) | 2018-06-15 | 2025-03-19 | Hexagon Technology Center GmbH | Oberflächenvermessung mittels angeregter fluoreszenz |
| CN108844489A (zh) * | 2018-06-25 | 2018-11-20 | 苏州乐佰图信息技术有限公司 | 应用线激光扫描物体轮廓的方法以及相机标定方法 |
| CN109008966A (zh) * | 2018-07-02 | 2018-12-18 | 哈尔滨工业大学(威海) | 基于光声温度测量的光热治疗系统 |
| US11010574B2 (en) * | 2018-08-10 | 2021-05-18 | Virtek Vision International Ulc | Long range barcode scanning through conversion of coherent light |
| US11751797B2 (en) * | 2018-08-28 | 2023-09-12 | Purdue Research Foundation | System for spatial and temporal mapping of neurons in brain tissue |
| CN109375191B (zh) * | 2018-09-18 | 2022-09-20 | 南京航空航天大学 | 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置 |
| EP3877782A4 (en) * | 2018-11-06 | 2022-05-18 | Shenzhen Xpectvision Technology Co., Ltd. | IMAGING METHODS USING X-RAY FLUORESCENCE |
| US10915793B2 (en) * | 2018-11-08 | 2021-02-09 | Huawei Technologies Co., Ltd. | Method and system for converting point cloud data for use with 2D convolutional neural networks |
| EP3660791A1 (de) * | 2018-11-27 | 2020-06-03 | a.tron3d GmbH | Computerimplementiertes verfahren zum erfassen von dreidimensionalen oberflächengeometrien |
| CN109447185A (zh) * | 2018-11-28 | 2019-03-08 | 中国科学院自动化研究所 | 基于深度学习的显微荧光图像分类方法 |
| US12239294B2 (en) | 2018-12-05 | 2025-03-04 | Intuitive Surgical Operations, Inc. | Illumination corrected near-infrared (nir) imaging for image guided surgery |
| CN109738387A (zh) * | 2018-12-29 | 2019-05-10 | 佛山科学技术学院 | 一种基于吲哚箐绿的光学相干层析成像方法和装置 |
| CN109813435B (zh) * | 2018-12-29 | 2020-07-07 | 中国电子科技集团公司第十三研究所 | 静态光反射显微热成像方法、装置及终端设备 |
| DE102019100821A1 (de) | 2019-01-14 | 2020-07-16 | Lufthansa Technik Aktiengesellschaft | Boroskop zur optischen Inspektion von Gasturbinen |
| CA3127030A1 (en) * | 2019-01-17 | 2020-07-23 | University Health Network (Uhn) | Systems, methods, and devices for three-dimensional imaging, measurement, and display of wounds and tissue specimens |
| WO2020148722A1 (en) | 2019-01-17 | 2020-07-23 | University Health Network | Multi-modal system for visualization and analysis of surgical specimens |
| DE102019200786A1 (de) * | 2019-01-23 | 2020-07-23 | Siemens Healthcare Gmbh | Bildgebendes medizinisches Gerät, Verfahren zum Unterstützen von medizinischem Personal, Computerprogrammprodukt und computerlesbares Speichermedium |
| US11826124B2 (en) | 2019-01-29 | 2023-11-28 | Board Of Regents, The University Of Texas System | Apparatus and method for image-guided interventions with hyperspectral imaging |
| WO2020163286A1 (en) * | 2019-02-04 | 2020-08-13 | Massachusetts Institute Of Technology | Systems and methods for lymph nodes and vessels imaging |
| US10876889B2 (en) * | 2019-02-12 | 2020-12-29 | Viavi Solutions Inc. | Sensor device and method of use |
| US11345014B2 (en) | 2019-02-15 | 2022-05-31 | Virtek Vision International Inc | Method of detecting proper orientation of material applique |
| US11819193B2 (en) * | 2019-02-26 | 2023-11-21 | Ai Biomed Corp. | Tissue detection system and methods for use thereof |
| US12436500B2 (en) * | 2019-02-28 | 2025-10-07 | Lyncee Tec Sa | Imaging system for imaging in a controlled environment |
| US12257013B2 (en) | 2019-03-15 | 2025-03-25 | Cilag Gmbh International | Robotic surgical systems with mechanisms for scaling camera magnification according to proximity of surgical tool to tissue |
| EP3712900A1 (en) * | 2019-03-20 | 2020-09-23 | Stryker European Holdings I, LLC | Technique for processing patient-specific image data for computer-assisted surgical navigation |
| CN110033861B (zh) * | 2019-03-26 | 2021-03-23 | 西安交通大学 | 适用于octa图像的血管及黄斑无血管区定量分析方法及系统 |
| CN109828030B (zh) * | 2019-03-28 | 2021-07-27 | 烟台中凯检测科技有限公司 | 一种基于声场特征的反射体形貌提取系统和提取方法 |
| KR102877637B1 (ko) * | 2019-03-29 | 2025-10-27 | 삼성전자주식회사 | 다파장 광을 이용한 광학 장치 및 그 동작 방법 |
| CN110009595B (zh) * | 2019-04-12 | 2022-07-26 | 深圳市道通智能航空技术股份有限公司 | 一种图像数据处理方法、装置、图像处理芯片及飞行器 |
| US10928508B2 (en) | 2019-04-12 | 2021-02-23 | Ford Global Technologies, Llc | Camera and radar fusion |
| CN120742331A (zh) * | 2019-04-17 | 2025-10-03 | 密歇根大学董事会 | 多维材料感测系统和方法 |
| US10867436B2 (en) * | 2019-04-18 | 2020-12-15 | Zebra Medical Vision Ltd. | Systems and methods for reconstruction of 3D anatomical images from 2D anatomical images |
| CN111856751B (zh) | 2019-04-26 | 2022-12-09 | 苹果公司 | 具有低光操作的头戴式显示器 |
| US11478145B2 (en) * | 2019-05-15 | 2022-10-25 | Aizhong Zhang | Multispectral and hyperspectral meibography |
| KR20200133112A (ko) * | 2019-05-17 | 2020-11-26 | 삼성전자주식회사 | 생체 신호 측정 장치 |
| CN110133625B (zh) * | 2019-05-20 | 2020-05-08 | 北京奥特贝睿科技有限公司 | 一种快速球坐标激光雷达仿真方法 |
| US10769848B1 (en) * | 2019-05-24 | 2020-09-08 | Adobe, Inc. | 3D object reconstruction using photometric mesh representation |
| CN110279927B (zh) * | 2019-05-28 | 2022-03-29 | 深圳前海冰寒信息科技有限公司 | 一种智能睡眠眼镜 |
| US11937784B2 (en) | 2019-06-20 | 2024-03-26 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
| US11793399B2 (en) | 2019-06-20 | 2023-10-24 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system |
| US11071443B2 (en) | 2019-06-20 | 2021-07-27 | Cilag Gmbh International | Minimizing image sensor input/output in a pulsed laser mapping imaging system |
| US12126887B2 (en) | 2019-06-20 | 2024-10-22 | Cilag Gmbh International | Hyperspectral and fluorescence imaging with topology laser scanning in a light deficient environment |
| US11516387B2 (en) | 2019-06-20 | 2022-11-29 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
| US11096565B2 (en) | 2019-06-20 | 2021-08-24 | Cilag Gmbh International | Driving light emissions according to a jitter specification in a hyperspectral, fluorescence, and laser mapping imaging system |
| US11294062B2 (en) * | 2019-06-20 | 2022-04-05 | Cilag Gmbh International | Dynamic range using a monochrome image sensor for hyperspectral and fluorescence imaging and topology laser mapping |
| US11758256B2 (en) | 2019-06-20 | 2023-09-12 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
| US11389066B2 (en) | 2019-06-20 | 2022-07-19 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
| US11012599B2 (en) | 2019-06-20 | 2021-05-18 | Ethicon Llc | Hyperspectral imaging in a light deficient environment |
| US11533417B2 (en) | 2019-06-20 | 2022-12-20 | Cilag Gmbh International | Laser scanning and tool tracking imaging in a light deficient environment |
| US11280737B2 (en) | 2019-06-20 | 2022-03-22 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed fluorescence imaging system |
| US11240426B2 (en) * | 2019-06-20 | 2022-02-01 | Cilag Gmbh International | Pulsed illumination in a hyperspectral, fluorescence, and laser mapping imaging system |
| US11671691B2 (en) * | 2019-06-20 | 2023-06-06 | Cilag Gmbh International | Image rotation in an endoscopic laser mapping imaging system |
| US11284783B2 (en) | 2019-06-20 | 2022-03-29 | Cilag Gmbh International | Controlling integral energy of a laser pulse in a hyperspectral imaging system |
| US11134832B2 (en) | 2019-06-20 | 2021-10-05 | Cilag Gmbh International | Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system |
| US11291358B2 (en) | 2019-06-20 | 2022-04-05 | Cilag Gmbh International | Fluorescence videostroboscopy of vocal cords |
| US11213194B2 (en) | 2019-06-20 | 2022-01-04 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for hyperspectral, fluorescence, and laser mapping imaging |
| US11398011B2 (en) * | 2019-06-20 | 2022-07-26 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed laser mapping imaging system |
| US10952619B2 (en) | 2019-06-20 | 2021-03-23 | Ethicon Llc | Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor |
| US11531112B2 (en) | 2019-06-20 | 2022-12-20 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a hyperspectral, fluorescence, and laser mapping imaging system |
| US12013496B2 (en) | 2019-06-20 | 2024-06-18 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed laser mapping imaging system |
| US12440085B2 (en) | 2019-06-20 | 2025-10-14 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed laser mapping imaging system |
| US11147436B2 (en) | 2019-06-20 | 2021-10-19 | Cilag Gmbh International | Image rotation in an endoscopic fluorescence imaging system |
| CN110232863B (zh) * | 2019-06-26 | 2024-12-17 | 深圳市光鉴科技有限公司 | 具有3d摄像头模组的显示装置及电子设备 |
| CN110223601B (zh) * | 2019-06-26 | 2024-11-15 | 深圳市光鉴科技有限公司 | 具有3d摄像头模组的显示装置及电子设备 |
| CN110226974B (zh) * | 2019-07-08 | 2024-12-06 | 中国科学技术大学 | 一种基于增强现实的近红外荧光成像系统 |
| CN110502979B (zh) * | 2019-07-11 | 2023-04-14 | 哈尔滨工业大学 | 一种基于决策树的激光雷达波形信号分类方法 |
| CN110215285A (zh) * | 2019-07-16 | 2019-09-10 | 华志微创医疗科技(北京)有限公司 | 手术导航的纠偏方法及系统 |
| GB201910756D0 (en) * | 2019-07-26 | 2019-09-11 | Ucl Business Plc | Ultrasound registration |
| CN110501321B (zh) * | 2019-07-31 | 2022-03-01 | 西北大学 | 集拉曼光谱快速成像和深层光谱快速检测于一体的便携式光路系统 |
| DE102019214139B4 (de) * | 2019-09-17 | 2021-07-29 | Atlas Elektronik Gmbh | Optische Minendetektion in geringer Wassertiefe |
| JP7283324B2 (ja) * | 2019-09-18 | 2023-05-30 | 株式会社島津製作所 | 欠陥検査装置 |
| US11430097B2 (en) * | 2019-09-23 | 2022-08-30 | Boston Scientific Scimed, Inc. | System and method for endoscopic video enhancement, quantitation and surgical guidance |
| TWI701454B (zh) * | 2019-09-27 | 2020-08-11 | 財團法人國家實驗研究院 | 雷射測距與影像整合裝置 |
| US20220346650A1 (en) * | 2019-10-02 | 2022-11-03 | Blaze Bioscience, Inc. | Systems and methods for vascular and structural imaging |
| IL291884A (en) * | 2019-10-06 | 2022-06-01 | Orbotech Ltd | Hybrid 3D inspection system |
| US11633145B2 (en) * | 2019-10-21 | 2023-04-25 | The Trustees Of Dartmouth College | Specimen imaging with x-ray and optical measurement |
| EP4051126B1 (en) * | 2019-11-01 | 2025-05-07 | Koninklijke Philips N.V. | Systems and methods for vascular imaging |
| WO2021095033A1 (en) * | 2019-11-12 | 2021-05-20 | Deep Health Ltd. | System, method and computer program product for improved mini-surgery use cases |
| CN110942475B (zh) * | 2019-11-13 | 2023-02-17 | 北方夜视技术股份有限公司 | 紫外与可见光图像融合系统及快速图像配准方法 |
| CN110720986B (zh) * | 2019-11-21 | 2025-05-30 | 复旦大学附属眼耳鼻喉科医院 | 一种多模态显微外科手术导航系统 |
| US11733598B2 (en) * | 2019-12-04 | 2023-08-22 | Liqxtal Technology Inc. | Tunable light projector |
| CN110989024B (zh) * | 2019-12-17 | 2021-10-08 | 山东大学 | 基于岩石矿物分析的tbm隧道断层破碎带预报系统及方法 |
| EP4078508A4 (en) * | 2019-12-18 | 2023-11-22 | ChemImage Corporation | SYSTEMS AND METHODS FOR COMBINING IMAGING MODALITIES FOR ENHANCED TISSUE DETECTION |
| US11896442B2 (en) | 2019-12-30 | 2024-02-13 | Cilag Gmbh International | Surgical systems for proposing and corroborating organ portion removals |
| US12053223B2 (en) | 2019-12-30 | 2024-08-06 | Cilag Gmbh International | Adaptive surgical system control according to surgical smoke particulate characteristics |
| US11832996B2 (en) | 2019-12-30 | 2023-12-05 | Cilag Gmbh International | Analyzing surgical trends by a surgical system |
| US11284963B2 (en) | 2019-12-30 | 2022-03-29 | Cilag Gmbh International | Method of using imaging devices in surgery |
| US12207881B2 (en) | 2019-12-30 | 2025-01-28 | Cilag Gmbh International | Surgical systems correlating visualization data and powered surgical instrument data |
| US20250049293A1 (en) * | 2019-12-30 | 2025-02-13 | Cilag Gmbh International | Method of using imaging devices in surgery |
| US12002571B2 (en) | 2019-12-30 | 2024-06-04 | Cilag Gmbh International | Dynamic surgical visualization systems |
| US11759283B2 (en) | 2019-12-30 | 2023-09-19 | Cilag Gmbh International | Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto |
| US11744667B2 (en) | 2019-12-30 | 2023-09-05 | Cilag Gmbh International | Adaptive visualization by a surgical system |
| US12453592B2 (en) | 2019-12-30 | 2025-10-28 | Cilag Gmbh International | Adaptive surgical system control according to surgical smoke cloud characteristics |
| US11648060B2 (en) | 2019-12-30 | 2023-05-16 | Cilag Gmbh International | Surgical system for overlaying surgical instrument data onto a virtual three dimensional construct of an organ |
| US11219501B2 (en) | 2019-12-30 | 2022-01-11 | Cilag Gmbh International | Visualization systems using structured light |
| US11887298B2 (en) | 2020-01-07 | 2024-01-30 | Rensselaer Polytechnic Institute | Fluorescence lifetime imaging using deep learning |
| WO2021150921A1 (en) | 2020-01-22 | 2021-07-29 | Photonic Medical Inc | Open view, multi-modal, calibrated digital loupe with depth sensing |
| CN114945326A (zh) * | 2020-02-26 | 2022-08-26 | 深圳帧观德芯科技有限公司 | 使用x射线荧光的成像系统 |
| CN111220090B (zh) * | 2020-03-25 | 2025-03-07 | 宁波五维检测科技有限公司 | 一种线聚焦差动彩色共焦三维表面形貌测量系统及方法 |
| EP3890299A1 (en) | 2020-04-03 | 2021-10-06 | Vestel Elektronik Sanayi ve Ticaret A.S. | Camera unit having a light guide plate |
| US11694319B2 (en) | 2020-04-10 | 2023-07-04 | Samsung Display Co., Ltd. | Image-based defects identification and semi-supervised localization |
| US11656479B2 (en) * | 2020-04-23 | 2023-05-23 | Himax Display, Inc. | Display apparatus |
| CN111487040B (zh) * | 2020-04-27 | 2021-08-03 | 中国科学院长春光学精密机械与物理研究所 | 一种光学系统的点源透射比测量方法及系统 |
| US11477360B2 (en) * | 2020-05-15 | 2022-10-18 | Meta Platforms Technologies, Llc | Stacked image sensor with polarization sensing pixel array |
| WO2021232247A1 (zh) * | 2020-05-19 | 2021-11-25 | 深圳市大疆创新科技有限公司 | 点云着色方法、点云着色系统和计算机存储介质 |
| CN111616799A (zh) * | 2020-06-08 | 2020-09-04 | 广东欧谱曼迪科技有限公司 | 一种增强现实近红外荧光导航系统及方法 |
| DE102020118814A1 (de) * | 2020-07-16 | 2022-01-20 | avateramedical GmBH | Stereoendoskop |
| WO2022023332A1 (en) * | 2020-07-29 | 2022-02-03 | Surgvision Gmbh | Processing of multiple luminescence images globally for their mapping and/or segmentation |
| US11963683B2 (en) | 2020-10-02 | 2024-04-23 | Cilag Gmbh International | Method for operating tiered operation modes in a surgical system |
| US12484897B2 (en) | 2020-10-02 | 2025-12-02 | Cilag Gmbh International | Surgical instrument with adaptive configuration control |
| US12064293B2 (en) | 2020-10-02 | 2024-08-20 | Cilag Gmbh International | Field programmable surgical visualization system |
| US12213801B2 (en) * | 2020-10-02 | 2025-02-04 | Cilag Gmbh International | Surgical visualization and particle trend analysis system |
| WO2022097154A1 (en) * | 2020-11-09 | 2022-05-12 | Ariel Scientific Innovations Ltd. | Medical imaging method and device |
| WO2022103775A1 (en) | 2020-11-12 | 2022-05-19 | Singletto Inc. | Microbial disinfection for personal protection equipment |
| CN112729246B (zh) * | 2020-12-08 | 2022-12-16 | 广东省科学院智能制造研究所 | 一种基于双目结构光的黑色表面物体深度图像测量方法 |
| WO2022130133A1 (en) * | 2020-12-14 | 2022-06-23 | Universidade Do Algarve | Computer implemented method for the indexing of two-dimensional spaces, robot location system, computer program, and computer-readable data carrier thereof |
| US11536608B2 (en) | 2021-01-04 | 2022-12-27 | Argo AI, LLC | Systems and methods for characterizing spectral reflectance of real world objects |
| US12228514B1 (en) * | 2021-01-08 | 2025-02-18 | A9.Com, Inc. | Systems, devices, and methods for virus detection via fluorescence emission |
| IT202100000545A1 (it) * | 2021-01-13 | 2022-07-13 | Insection S R L | Dispositivo per il monitoraggio della guarigione delle lacerazioni cutanee. |
| CN112697737B (zh) * | 2021-01-21 | 2024-07-05 | 浙江大学 | 一种凝视型高光谱形貌四维系统 |
| AU2022215469B2 (en) * | 2021-02-02 | 2025-04-10 | Colgate-Palmolive Company | System and devices for multispectral 3d imaging and diagnostics of tissues, and methods thereof |
| EP4053794A1 (en) * | 2021-03-05 | 2022-09-07 | Leica Microsystems CMS GmbH | Multispectral microscope system and method for registering first and second images by means thereof |
| JP2024517549A (ja) | 2021-03-12 | 2024-04-23 | ストライカー・ユーロピアン・オペレーションズ・リミテッド | 腫瘍組織を検出および除去するための神経外科的方法およびシステム |
| US11710218B2 (en) * | 2021-03-17 | 2023-07-25 | GE Precision Healthcare LLC | System and method for normalizing dynamic range of data acquired utilizing medical imaging |
| US20220299645A1 (en) * | 2021-03-17 | 2022-09-22 | Southwest Research Institute | Remote visualization apparatus comprising a borescope and methods of use thereof |
| US12112415B2 (en) * | 2021-04-09 | 2024-10-08 | Universal City Studios Llc | Systems and methods for animated figure display |
| CN113409535A (zh) * | 2021-04-29 | 2021-09-17 | 辛米尔视觉科技(上海)有限公司 | 基于计算机视觉及人工智能算法的隧道火焰侦测系统 |
| US12380537B2 (en) * | 2021-05-11 | 2025-08-05 | Duke University | 2D and 3D color fusion imaging |
| EP4356398A4 (en) | 2021-06-14 | 2025-04-16 | Preh Holding, LLC | CONNECTED BODY SURFACE CARE MODULE |
| US12216053B1 (en) | 2021-06-22 | 2025-02-04 | Amazon Technologies, Inc. | System and methods for detecting pathogens using multi-wavelength sensing |
| CN113340878B (zh) * | 2021-07-01 | 2023-05-02 | 四川大学 | 利用激光诱导击穿光谱技术对癌组织进行分子光谱成像来识别肿瘤边界的方法 |
| CN113687369A (zh) * | 2021-07-14 | 2021-11-23 | 南京大学 | 一种光谱信息与深度信息同步采集系统及方法 |
| US20230013884A1 (en) * | 2021-07-14 | 2023-01-19 | Cilag Gmbh International | Endoscope with synthetic aperture multispectral camera array |
| WO2023004147A1 (en) * | 2021-07-23 | 2023-01-26 | Align Technology, Inc | Intraoral scanner with illumination sequencing and controlled polarization |
| US12310819B2 (en) | 2021-07-23 | 2025-05-27 | Align Technology, Inc. | Intraoral scanner with illumination sequencing and controlled polarization |
| US11768150B2 (en) | 2021-08-05 | 2023-09-26 | Trustees Of Boston University | Nanosecond-scale photothermal dynamic imaging |
| CN113837997B (zh) * | 2021-08-17 | 2024-03-29 | 有方(合肥)医疗科技有限公司 | Ct图像拍摄系统及标定板 |
| US12504363B2 (en) * | 2021-08-17 | 2025-12-23 | California Institute Of Technology | Three-dimensional contoured scanning photoacoustic imaging and virtual staining |
| CN113985566B (zh) * | 2021-09-10 | 2023-09-12 | 西南科技大学 | 一种基于空间光调制及神经网络的散射光聚焦方法 |
| CN113812929B (zh) * | 2021-11-22 | 2022-05-13 | 北京航空航天大学 | 一种多模态成像装置 |
| CN114052909B (zh) * | 2021-12-01 | 2025-03-14 | 辽宁北镜医疗科技有限公司 | 一种多功能近红外荧光术中导航系统及导航方法 |
| CN114414540B (zh) * | 2021-12-09 | 2023-10-13 | 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) | 一种冷原子团荧光信号相干探测装置 |
| US12210160B2 (en) | 2021-12-21 | 2025-01-28 | Alexander Sarris | System to superimpose information over a users field of view |
| WO2023119922A1 (ja) * | 2021-12-21 | 2023-06-29 | 富士フイルム株式会社 | 画像生成装置、方法及びプログラム並びに学習装置及び学習データ |
| CN114468960B (zh) * | 2021-12-21 | 2025-02-25 | 华南师范大学 | 集光学、光声、oct、荧光多模态前向成像一体化的内窥镜装置及其成像方法 |
| CN114562955B (zh) * | 2022-01-24 | 2022-11-25 | 南京航空航天大学 | 一种时空分辨的瞬态面型干涉检测系统及检测方法 |
| US12204033B2 (en) | 2022-03-25 | 2025-01-21 | Seyond, Inc. | Multimodal detection with integrated sensors |
| US11871130B2 (en) * | 2022-03-25 | 2024-01-09 | Innovusion, Inc. | Compact perception device |
| US12211161B2 (en) | 2022-06-24 | 2025-01-28 | Lowe's Companies, Inc. | Reset modeling based on reset and object properties |
| US12189915B2 (en) | 2022-06-24 | 2025-01-07 | Lowe's Companies, Inc. | Simulated environment for presenting virtual objects and virtual resets |
| CN114998407B (zh) * | 2022-08-01 | 2022-11-08 | 湖南华城检测技术有限公司 | 基于傅里叶变换的数字图像三维纹理重建方法 |
| US12359369B2 (en) | 2022-08-11 | 2025-07-15 | Singletto Inc. | Skin protection against microbial particles |
| WO2024129766A1 (en) * | 2022-12-12 | 2024-06-20 | University Of Rochester | Real-time multispectral polarimetric imaging for noninvasive identification of nerves and other tissues |
| EP4389001A1 (en) | 2022-12-22 | 2024-06-26 | Neko Health AB | Aligning simultaneously acquired images |
| US11860098B1 (en) * | 2023-01-13 | 2024-01-02 | Tencent America LLC | Method and device for three-dimensional object scanning with invisible markers |
| US20240298879A1 (en) * | 2023-03-10 | 2024-09-12 | Lazzaro Medical, Inc. | Endoscope with spectral wavelength separator |
| CN116295158B (zh) * | 2023-05-17 | 2023-08-08 | 四川华恒升科技发展有限公司 | 一种基于机载双频测深仪测量淤泥深度的仪器及方法 |
| CN121358428A (zh) | 2023-06-01 | 2026-01-16 | 拉德堡德大学基金会医疗中心 | 具有图像检测器和图像投影仪的设备 |
| CN116818665A (zh) * | 2023-06-20 | 2023-09-29 | 波粒(北京)光电科技有限公司 | 一种光伏电池片的检测装置 |
| CN116659414B (zh) * | 2023-07-21 | 2023-10-13 | 南京信息工程大学 | 一种基于改进HiIbert变换的结构光解调方法 |
| US20250040995A1 (en) * | 2023-08-04 | 2025-02-06 | Covidien Lp | Updating enb to ct registration using intra-op camera |
| CN117169915B (zh) * | 2023-09-05 | 2024-02-23 | 山西大学 | 一种远距离实时跟踪单光子特征识别和成像系统 |
| US12426841B2 (en) * | 2023-09-18 | 2025-09-30 | GE Precision Healthcare LLC | System and method for a LIDAR guided patient positioning apparatus for a computed tomography system |
| CN117694834A (zh) * | 2023-12-13 | 2024-03-15 | 浙江大学 | 多模态荧光高光谱显微ct成像方法及装置 |
| CN117571731B (zh) * | 2024-01-16 | 2024-04-16 | 山东鹰眼机械科技有限公司 | 基于灯检机的杂质检测方法及系统 |
| CN120436568A (zh) * | 2024-02-07 | 2025-08-08 | 苏州佳世达光电有限公司 | 立体扫描装置及其立体扫描方法 |
| GB2638756A (en) * | 2024-02-29 | 2025-09-03 | Zivid As | Systems and methods for generating a 3D colour image of an object |
| CN117849822B (zh) * | 2024-03-07 | 2024-05-07 | 中国科学院空天信息创新研究院 | 一种高信噪比量子安全三维成像装置及方法 |
| CN119068025A (zh) * | 2024-03-14 | 2024-12-03 | 广东工业大学 | 一种基于多模态融合的增材制造精准配准方法 |
| CN118902395B (zh) * | 2024-08-05 | 2025-11-04 | 北京理工大学 | 面向术中切缘评估的生物组织分子指纹提取方法及系统 |
| CN118623768B (zh) * | 2024-08-09 | 2024-11-08 | 深圳市爱华勘测工程有限公司 | 具有夜视功能的三维激光扫描用标靶及其使用方法 |
| TWI904831B (zh) * | 2024-09-02 | 2025-11-11 | 和亞智慧科技股份有限公司 | 用於光學投影模組之對位方法 |
| CN118882520B (zh) * | 2024-09-27 | 2025-02-18 | 中国科学院光电技术研究所 | 一种大口径曲面光学元件表面缺陷三维检测装置及方法 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07246184A (ja) * | 1994-03-09 | 1995-09-26 | Fuji Photo Optical Co Ltd | 面順次式撮像装置 |
| JP2001515382A (ja) * | 1997-03-06 | 2001-09-18 | マサチューセッツ インスティチュート オブ テクノロジー | 生体組織の光学走査用機器 |
| JP2002074346A (ja) * | 2000-09-05 | 2002-03-15 | Asahi Optical Co Ltd | 3次元画像入力装置 |
| JP2002152777A (ja) * | 2000-11-07 | 2002-05-24 | Asahi Optical Co Ltd | 3次元画像入力装置 |
| JP2003535659A (ja) * | 2000-06-19 | 2003-12-02 | ユニヴァーシティ オブ ワシントン | 走査型単一光ファイバシステムを用いる医療用画像化、診断および治療 |
| JP2010063589A (ja) * | 2008-09-10 | 2010-03-25 | Fujifilm Corp | 内視鏡システム、およびその駆動制御方法 |
| US20110268333A1 (en) * | 2010-04-30 | 2011-11-03 | Klaus Klingenbeck | Imaging method for enhanced visualization of vessels in an examination region of a patient and medical system for performing the method |
| JP2013180120A (ja) * | 2012-03-02 | 2013-09-12 | Olympus Corp | 撮像装置及び撮像方法 |
| JP2016507752A (ja) * | 2013-02-12 | 2016-03-10 | ザイゴ コーポレーションZygo Corporation | 表面色を備えた表面トポグラフィ干渉計 |
Family Cites Families (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6485413B1 (en) * | 1991-04-29 | 2002-11-26 | The General Hospital Corporation | Methods and apparatus for forward-directed optical scanning instruments |
| US6377910B1 (en) * | 1999-05-14 | 2002-04-23 | Mustek Systems Inc. | Image-sensor emulating device |
| JP4358388B2 (ja) * | 1999-11-12 | 2009-11-04 | 浜松ホトニクス株式会社 | ポジトロンイメージング装置 |
| US20060072109A1 (en) * | 2004-09-03 | 2006-04-06 | Andrew Bodkin | Hyperspectral imaging systems |
| CN1942898A (zh) * | 2004-04-01 | 2007-04-04 | 皇家飞利浦电子股份有限公司 | 用于发现狭窄的方法和成像诊断装置 |
| US7468504B2 (en) * | 2006-03-09 | 2008-12-23 | Northrop Grumman Corporation | Spectral filter for optical sensor |
| EP2126839A2 (en) * | 2006-12-29 | 2009-12-02 | Koninklijke Philips Electronics N.V. | Improved image registration and methods for compensating intraoperative motion in image-guided interventional procedures |
| US20080272312A1 (en) * | 2007-05-04 | 2008-11-06 | Chemimage Corporation | Hyperspectral fluorescence and absorption bioimaging |
| US20080300478A1 (en) * | 2007-05-30 | 2008-12-04 | General Electric Company | System and method for displaying real-time state of imaged anatomy during a surgical procedure |
| US20090082660A1 (en) * | 2007-09-20 | 2009-03-26 | Norbert Rahn | Clinical workflow for treatment of atrial fibrulation by ablation using 3d visualization of pulmonary vein antrum in 2d fluoroscopic images |
| US8553337B2 (en) * | 2007-11-12 | 2013-10-08 | Cornell University | Multi-path, multi-magnification, non-confocal fluorescence emission endoscopy apparatus and methods |
| US8167793B2 (en) * | 2008-04-26 | 2012-05-01 | Intuitive Surgical Operations, Inc. | Augmented stereoscopic visualization for a surgical robot using time duplexing |
| WO2013109966A1 (en) * | 2012-01-20 | 2013-07-25 | The Trustees Of Dartmouth College | Method and apparatus for quantitative hyperspectral fluorescence and reflectance imaging for surgical guidance |
| KR101061004B1 (ko) * | 2008-12-10 | 2011-09-01 | 한국전기연구원 | 광역학 치료 및 광 검출을 위한 장치 |
| US8610049B2 (en) * | 2009-12-07 | 2013-12-17 | Uti Limited Partnership | Apparatus, system, and method for emission filter having a solution with polar protic solvent |
| TWI514324B (zh) * | 2010-11-30 | 2015-12-21 | Ind Tech Res Inst | 影像目標區域追蹤系統與方法及電腦程式產品 |
| WO2012135601A2 (en) * | 2011-04-01 | 2012-10-04 | Fox Chase Cancer Center | Systems for fusion of fluorescence molecular tomography and magnetic resonance images |
| EP2521098A1 (en) * | 2011-05-06 | 2012-11-07 | Koninklijke Philips Electronics N.V. | Medical image system and method |
| CA2925620C (en) | 2012-10-29 | 2020-07-21 | 7D Surgical Inc. | Integrated illumination and optical surface topology detection system and methods of use thereof |
| US11653874B2 (en) * | 2013-02-01 | 2023-05-23 | Acceleritas Corporation | Method and system for characterizing tissue in three dimensions using multimode optical measurements |
| ES3056009T3 (en) * | 2013-02-13 | 2026-02-17 | 3Shape As | Focus scanning apparatus recording color |
| JP2016513540A (ja) * | 2013-03-15 | 2016-05-16 | ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation | 手術中の位置調整および誘導を容易にするシステム |
| US10013777B2 (en) | 2013-11-25 | 2018-07-03 | 7D Surgical Inc. | System and method for generating partial surface from volumetric data for registration to surface topology image data |
| CN106999247B (zh) | 2014-09-24 | 2020-10-16 | 7D外科有限公司 | 用于执行导航外科手术过程的跟踪标记支承结构以及采用其的表面配准方法 |
| US10154239B2 (en) * | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
| WO2016127173A1 (en) * | 2015-02-06 | 2016-08-11 | The University Of Akron | Optical imaging system and methods thereof |
-
2016
- 2016-02-08 WO PCT/US2016/016991 patent/WO2016127173A1/en not_active Ceased
- 2016-02-08 JP JP2017539649A patent/JP2018514748A/ja active Pending
- 2016-02-08 US US15/547,590 patent/US10666928B2/en active Active
- 2016-02-08 CN CN201680013968.5A patent/CN107851176A/zh active Pending
- 2016-02-08 EP EP16747416.2A patent/EP3254234A4/en active Pending
-
2020
- 2020-04-27 US US16/858,887 patent/US10992922B2/en active Active
-
2021
- 2021-04-23 US US17/238,737 patent/US11190752B2/en active Active
- 2021-11-22 US US17/532,186 patent/US12166953B2/en active Active
-
2024
- 2024-11-26 US US18/960,123 patent/US20250088620A1/en active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07246184A (ja) * | 1994-03-09 | 1995-09-26 | Fuji Photo Optical Co Ltd | 面順次式撮像装置 |
| JP2001515382A (ja) * | 1997-03-06 | 2001-09-18 | マサチューセッツ インスティチュート オブ テクノロジー | 生体組織の光学走査用機器 |
| JP2003535659A (ja) * | 2000-06-19 | 2003-12-02 | ユニヴァーシティ オブ ワシントン | 走査型単一光ファイバシステムを用いる医療用画像化、診断および治療 |
| JP2002074346A (ja) * | 2000-09-05 | 2002-03-15 | Asahi Optical Co Ltd | 3次元画像入力装置 |
| JP2002152777A (ja) * | 2000-11-07 | 2002-05-24 | Asahi Optical Co Ltd | 3次元画像入力装置 |
| JP2010063589A (ja) * | 2008-09-10 | 2010-03-25 | Fujifilm Corp | 内視鏡システム、およびその駆動制御方法 |
| US20110268333A1 (en) * | 2010-04-30 | 2011-11-03 | Klaus Klingenbeck | Imaging method for enhanced visualization of vessels in an examination region of a patient and medical system for performing the method |
| JP2013180120A (ja) * | 2012-03-02 | 2013-09-12 | Olympus Corp | 撮像装置及び撮像方法 |
| JP2016507752A (ja) * | 2013-02-12 | 2016-03-10 | ザイゴ コーポレーションZygo Corporation | 表面色を備えた表面トポグラフィ干渉計 |
Cited By (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11754844B2 (en) | 2016-09-22 | 2023-09-12 | Magic Leap, Inc. | Augmented reality spectroscopy |
| US12174068B2 (en) | 2018-03-21 | 2024-12-24 | Magic Leap, Inc. | Augmented reality system and method for spectroscopic analysis |
| US11852530B2 (en) | 2018-03-21 | 2023-12-26 | Magic Leap, Inc. | Augmented reality system and method for spectroscopic analysis |
| KR20210018904A (ko) * | 2018-06-08 | 2021-02-18 | 덴츠플라이 시로나 인코포레이티드 | 공초점 카메라에서 동적 투영 패턴을 생성하기 위한 디바이스, 방법 및 시스템 |
| KR102817698B1 (ko) | 2018-06-08 | 2025-06-05 | 덴츠플라이 시로나 인코포레이티드 | 공초점 카메라에서 동적 투영 패턴을 생성하기 위한 디바이스, 방법 및 시스템 |
| JP2021529633A (ja) * | 2018-07-16 | 2021-11-04 | エシコン エルエルシーEthicon LLC | 外科用可視化プラットフォーム |
| JP7416756B2 (ja) | 2018-07-16 | 2024-01-17 | エシコン エルエルシー | 外科用可視化プラットフォーム |
| JP2020076743A (ja) * | 2018-09-18 | 2020-05-21 | カール・ツアイス・メディテック・アーゲー | 対象物の特性を判断するための方法及び装置 |
| JP2022069531A (ja) * | 2018-09-18 | 2022-05-11 | カール・ツアイス・メディテック・アーゲー | 対象物の特性を判断するための方法及び装置 |
| US11391937B2 (en) | 2018-09-18 | 2022-07-19 | Carl Zeiss Meditec Ag | Method and device for determining a property of an object |
| JP7312873B2 (ja) | 2018-09-18 | 2023-07-21 | カール・ツアイス・メディテック・アーゲー | 対象物の特性を判断するための方法及び装置 |
| JP2022510272A (ja) * | 2018-11-30 | 2022-01-26 | スペクトラウェーブ, インコーポレイテッド | 交互配置された光源及びそれらを用いる方法 |
| KR102170795B1 (ko) | 2018-12-19 | 2020-10-27 | 한국전자기술연구원 | 농연 환경 데이터 시각화 장치 및 방법 |
| KR20200076056A (ko) * | 2018-12-19 | 2020-06-29 | 전자부품연구원 | 농연 환경 데이터 시각화 장치 및 방법 |
| JP7225435B2 (ja) | 2019-06-07 | 2023-02-20 | ビーエーエスエフ コーティングス ゲゼルシャフト ミット ベシュレンクテル ハフツング | コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法 |
| JP2022535888A (ja) * | 2019-06-07 | 2022-08-10 | ビーエーエスエフ コーティングス ゲゼルシャフト ミット ベシュレンクテル ハフツング | 光の3dマッピングとモデリングを使用した物体認識システム及び方法 |
| JP2022536298A (ja) * | 2019-06-07 | 2022-08-15 | ビーエーエスエフ コーティングス ゲゼルシャフト ミット ベシュレンクテル ハフツング | コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法 |
| JP7277615B2 (ja) | 2019-06-07 | 2023-05-19 | ビーエーエスエフ コーティングス ゲゼルシャフト ミット ベシュレンクテル ハフツング | 光の3dマッピングとモデリングを使用した物体認識システム及び方法 |
| US12136176B2 (en) | 2019-11-05 | 2024-11-05 | Arspectra Sarl | Augmented reality headset for medical imaging |
| JP2023500376A (ja) * | 2019-11-05 | 2023-01-05 | アルスペクトラ エスアーエールエル | 医用イメージング用の拡張現実ヘッドセット |
| KR102379481B1 (ko) | 2019-11-06 | 2022-03-25 | 재단법인대구경북과학기술원 | 3차원 진단 시스템 |
| KR20210054919A (ko) * | 2019-11-06 | 2021-05-14 | 재단법인대구경북과학기술원 | 3차원 진단 시스템 |
| WO2021091282A1 (ko) * | 2019-11-06 | 2021-05-14 | 재단법인대구경북과학기술원 | 3차원 진단 시스템 |
| JP2023508523A (ja) * | 2019-12-30 | 2023-03-02 | シラグ・ゲーエムベーハー・インターナショナル | 対象組織の周囲の切除マージンを決定、調整、及び管理するためのシステム及び方法 |
| JP7725791B2 (ja) | 2019-12-30 | 2025-08-20 | シラグ・ゲーエムベーハー・インターナショナル | 対象組織の周囲の切除マージンを決定、調整、及び管理するためのシステム及び方法 |
| US12480871B2 (en) | 2020-06-08 | 2025-11-25 | Tomra Sorting Gmbh | Apparatus for detecting matter |
| JP2023529580A (ja) * | 2020-06-08 | 2023-07-11 | トムラ・ソーティング・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | 物質を検出するための装置 |
| JP7663604B2 (ja) | 2020-11-24 | 2025-04-16 | 富士フイルム株式会社 | 医療用装置及びその作動方法 |
| WO2022113506A1 (ja) * | 2020-11-24 | 2022-06-02 | 富士フイルム株式会社 | 医療用装置及びその作動方法 |
| JPWO2022113506A1 (ja) * | 2020-11-24 | 2022-06-02 | ||
| JP2024518392A (ja) * | 2021-05-04 | 2024-05-01 | アルスペクトラ エスアーエールエル | 医療イメージングのための拡張現実ヘッドセット及びプローブ |
| KR20240013393A (ko) * | 2022-07-22 | 2024-01-30 | 고려대학교 산학협력단 | 공초점 현미경 영상을 활용한 인공지능 기반의 병변 정보 획득 장치 및 방법 |
| KR102854246B1 (ko) * | 2022-07-22 | 2025-09-03 | 고려대학교 산학협력단 | 공초점 현미경 영상을 활용한 인공지능 기반의 병변 정보 획득 장치 및 방법 |
| CN116858108B (zh) * | 2023-09-05 | 2023-11-03 | 深圳市平方科技股份有限公司 | 一种基于红外光栅的物体长度检测系统及方法 |
| CN116858108A (zh) * | 2023-09-05 | 2023-10-10 | 深圳市平方科技股份有限公司 | 一种基于红外光栅的物体长度检测系统及方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US10666928B2 (en) | 2020-05-26 |
| US10992922B2 (en) | 2021-04-27 |
| US12166953B2 (en) | 2024-12-10 |
| US20180270474A1 (en) | 2018-09-20 |
| US20210243425A1 (en) | 2021-08-05 |
| EP3254234A1 (en) | 2017-12-13 |
| CN107851176A (zh) | 2018-03-27 |
| EP3254234A4 (en) | 2018-07-11 |
| WO2016127173A1 (en) | 2016-08-11 |
| US20220086416A1 (en) | 2022-03-17 |
| US20250088620A1 (en) | 2025-03-13 |
| US20200260066A1 (en) | 2020-08-13 |
| US11190752B2 (en) | 2021-11-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12166953B2 (en) | Optical imaging system and methods thereof | |
| US12383368B2 (en) | Imaging and display system for guiding medical interventions | |
| US12226074B2 (en) | Endoscopic imaging with augmented parallax | |
| US20240110781A1 (en) | Generation of one or more edges of luminosity to form three-dimensional models of objects | |
| US11617492B2 (en) | Medical three-dimensional (3D) scanning and mapping system | |
| JP6586211B2 (ja) | プロジェクションマッピング装置 | |
| KR101572487B1 (ko) | 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법 | |
| KR101772187B1 (ko) | 이미지 데이터의 입체적 묘사를 위한 방법 및 디바이스 | |
| JP2017513662A (ja) | Q3d画像の3d画像とのアライメント | |
| KR20160089355A (ko) | 미리 결정된 생물학적 구조체의 비침습적 검출 디바이스 | |
| JP2016017921A (ja) | 観察システム | |
| WO2022207297A1 (en) | An image capture device, an endoscope system, an image capture method and a computer program product | |
| Geng | Three-dimensional endoscopic surface imaging techniques |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200811 |