[go: up one dir, main page]

JP2018126389A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2018126389A
JP2018126389A JP2017022468A JP2017022468A JP2018126389A JP 2018126389 A JP2018126389 A JP 2018126389A JP 2017022468 A JP2017022468 A JP 2017022468A JP 2017022468 A JP2017022468 A JP 2017022468A JP 2018126389 A JP2018126389 A JP 2018126389A
Authority
JP
Japan
Prior art keywords
image
image data
data
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017022468A
Other languages
English (en)
Inventor
翔也 佐々木
Shoya Sasaki
翔也 佐々木
長永 兼一
Kenichi Osanaga
兼一 長永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017022468A priority Critical patent/JP2018126389A/ja
Priority to KR1020180010381A priority patent/KR20200067254A/ko
Priority to US15/889,660 priority patent/US10607366B2/en
Priority to CN201810115115.3A priority patent/CN108403083A/zh
Priority to EP18155730.7A priority patent/EP3360468A1/en
Publication of JP2018126389A publication Critical patent/JP2018126389A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Acoustics & Sound (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】 本発明は、観察部位の視認性の高い光音響画像を表示させることのできる情報処理装置を提供することを目的とする。【解決手段】 本発明に係る情報処理装置は、光照射により発生する光音響波に由来する第1の画像データを取得する第1の画像取得手段と、第1の画像データの画像値が所定の範囲に含まれる位置を示す位置情報を取得する位置取得手段と、位置情報に基づいて、位置の近傍の位置を示す近傍位置情報を取得する近傍位置取得手段と、第1の画像データ、位置情報、及び近傍位置情報に基づいて、画像を表示手段に表示させる表示制御手段と、を有する。【選択図】 図2

Description

本発明は、光照射により発生する光音響波に由来する画像データを取得する情報処理装置、情報処理方法、およびプログラムに関する。
生体などの被検体にパルス光を照射し、光音響効果により発生した音響波(光音響波とも呼ぶ)に基づいて、被検体内の情報を示す光音響画像を表示する光音響装置が知られている。
一般に皮膚上もしくは表皮層に存在する体毛やほくろは、光の吸収量が大きい。したがって、パルス光の照射によって体毛やほくろから発生する光音響波は、被検体の他の部位から発生する光音響波よりも大きい傾向がある。そのため、光音響画像上でも体毛やほくろの画像値が大きく、観察部位の視認性を低下させる原因となる。
特許文献1では、光音響波の検出信号に基づいて被検体の表面近傍領域を検出し、表面近傍領域の情報を減衰させて表示している。
特開2013−188461号公報
ところが、特許文献1に記載の表示方法では、表面近傍領域に存在する体毛やほくろなどの観察部位以外の情報に加え、表面近傍領域に存在する観察部位の情報についても失われてしまう可能性がある。この場合、表面近傍領域に存在する観察部位の視認性が低下してしまう。
そこで、本発明は、上記課題を鑑み、観察部位の視認性が高い光音響画像を生成し、表示することのできる情報処理装置を提供することを目的とする。
本発明に係る情報処理装置は、光照射により発生する光音響波に由来する第1の画像データを取得する第1の画像取得手段と、第1の画像データの画像値が所定の範囲に含まれる位置を示す位置情報を取得する位置取得手段と、位置情報に基づいて、位置の近傍の位置を示す近傍位置情報を取得する近傍位置取得手段と、第1の画像データ、位置情報、及び近傍位置情報に基づいて、画像を表示手段に表示させる表示制御手段と、を有する。
本発明に係る情報処理装置によれば、観察部位の視認性が高い光音響画像を生成し、表示することができる。
比較例に係る画像処理方法を説明する図 実施形態1に係る画像処理方法を説明する図 実施形態1に係る光音響装置のブロック図 実施形態1に係るプローブの模式図 実施形態1に係るコンピュータとその周辺構成を示すブロック図 実施形態1に係る被検体情報の取得方法のフロー図 実施形態1に係る画像処理方法のフロー図 実施形態1に係る画像処理方法を説明する図 実施形態2に係る被検体情報の取得方法のフロー図 実施形態2に係る信号処理方法のフロー図
[実施形態1]
本実施形態に係る画像処理方法では、光音響画像データにおいて、画像値が所定の範囲に含まれる位置を決定する。そして、当該位置に存在する構造に加え、その近傍位置に存在する構造についても不要な構造と判定し、光音響画像を表示する。以下、比較例及び本実施形態に係る画像処理方法を説明する。
まず、図1を用いて、比較例に係る画像処理方法を説明する。前述したように、体毛やほくろから発生する光音響波は、被検体の他の部位から発生する光音響波よりも大きい傾向がある。そのため、ある位置の画像値が所定の閾値よりも大きい数値範囲に含まれる場合、その位置の画像は不要な画像(体毛やほくろの画像)である可能性が高い。このように、画像値が所定の範囲に含まれる位置の画像を、不要な画像として判定することができる。
図1(a)は、光音響波に由来する光音響画像データを示す。図1(a)に示す光音響画像データでは、黒に近づくにつれて画像値が小さくなり、白に近づくにつれて画像値が大きくなる。なお、符号11は不要な構造である体毛の画像であり、符号12は観察部位である血管の画像である。
図1(b)は、図1(a)に点線で示したX軸方向の画像値のプロファイルを示す。プロファイル21は画像11に対応し、プロファイル22は画像12に対応する。図1(b)によれば、体毛の画像11の画像値の方が、血管の画像12の画像値よりも高いことが理解される。また、図1(b)によれば、体毛の中央位置の画像値が特に大きく、その周囲の画像値は中央位置に比べると小さくなっている。また、体毛の周辺部の画像値は、観察部位である血管の画像値と同程度である。
ここで比較例として、図1(a)に示す光音響画像に対して、画像値が所定の範囲に含まれる位置の画像値を低減する処理を適用する。図1(b)の点線31または点線32は閾値を示し、比較例では閾値31または閾値32よりも高い画像値を代表値(ここではゼロ)に置き換える処理を行う。
図1(c)は、閾値31よりも高い画像値をゼロに置き換える処理により得られた画像値のプロファイルを示す。また、図1(d)は、閾値31よりも高い画像値をゼロに置き換える処理により得られた光音響画像データを示す。図1(c)及び図1(d)によれば、当該画像処理では体毛の画像11の大部分を低減することができないことが理解される。その結果、観察部位である血管の画像12の視認性向上の効果は限定的である。
次に、図1(e)は、閾値32よりも高い画像値をゼロに置き換える処理により得られた画像値のプロファイルを示す。図1(f)は、閾値32よりも高い画像値をゼロに置き換える処理により得られた光音響画像を示す。当該画像処理によれば、図1(c)及び図1(d)と比べて、体毛の画像11のより広い領域を低減することができることが理解される。ところが、当該画像処理によれば、血管の画像12についても低減してしまい、観察部位である血管の画像12の視認性は低下してしまう。
以上、比較例として説明したように、画像値が所定の範囲に含まれる位置の情報だけでは、観察部位の視認性を向上させることが困難である。
本発明者は、上記課題を鑑み、画像データの画像値に基づいて観察部位と不要な構造とを良好に判別することのできる画像処理を見出した。図2を用いて、本実施形態に係る画像処理を説明する。
図2(a)は、光音響波に基づいて取得された図1(a)と同様の光音響画像データを示す。図2(b)は、図2(a)に点線で示したX軸方向の画像値のプロファイルを示す。
図2(c)は、本実施形態に係る画像処理の特徴である画像値の低減対象を示す画像値のプロファイルである。本実施形態に係る画像処理では、閾値31よりも高い画像値となる位置40に加え、位置40の近傍の位置50も画像値の低減対象とすることが特徴である。
図2(d)は、図2(c)に示す位置40及び近傍の位置50に対応する画像値をゼロに置き換えることにより得られた画像値のプロファイルを示す。また、図2(e)は、当該画像処理により得られた光音響画像データを示す。
図2(d)及び図2(e)に示すように、本実施形態によれば、比較例と比べて、不要な画像である体毛の画像11の大部分を選択的に低減することができる。一方、本実施形態によれば、比較例と比べて、観察部位である血管の画像12の低減は抑制されている。このように本実施形態によれば、比較例と比べて、観察部位である血管の画像12の視認性を向上させることができる。
なお、本実施形態は、画像データの画像値に基づいて不要な構造を判別し、観察部位の視認性を向上させることのできる表示を行うことを目的とする。例えば、その手段として、不要な構造の明度を下げる(透明度を高くする)ことや、不要な構造と観察部位とを区別して表示することにより、観察部位の視認性を向上させることができる。
以下に図面を参照しつつ、本発明の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状およびそれらの相対配置などは、発明が適用される装置の構成や各種条件により適宜変更されるべきものである。よって、この発明の範囲を以下の記載に限定する趣旨のものではない。
本発明に係る光音響装置により得られる光音響画像は、光照射により発生した光音響波に由来するあらゆる画像を含む概念である。光音響画像は、光音響波の発生音圧(初期音圧)、光吸収エネルギー密度、及び光吸収係数、被検体を構成する物質の濃度(酸素飽和度など)などの少なくとも1つの被検体情報の空間分布を表す画像データである。
以下、本実施形態の光音響装置の構成及び情報処理方法について説明する。
図3を用いて本実施形態に係る光音響装置の構成を説明する。図3は、光音響装置全体の概略ブロック図である。本実施形態に係る光音響装置は、駆動部130、信号収集部140、コンピュータ150、表示部160、入力部170、及びプローブ180を有する。プローブ180は、光照射部110、及び受信部120を有する。図4は、本実施形態に係るプローブ180の模式図を示す。測定対象は、被検体100である。駆動部130は、光照射部110と受信部120を駆動し、機械的な走査を行う。光照射部110が光を被検体100に照射し、被検体100内で音響波が発生する。光に起因して光音響効果により発生する音響波を光音響波とも呼ぶ。受信部120は、光音響波を受信することによりアナログ信号としての電気信号(光音響信号)を出力する。
信号収集部140は、受信部120から出力されたアナログ信号をデジタル信号に変換し、コンピュータ150に出力する。コンピュータ150は、信号収集部140から出力されたデジタル信号を、光音響波に由来する信号データとして記憶する。
コンピュータ150は、記憶されたデジタル信号に対して信号処理を行うことにより、光音響画像を表す画像データを生成する。また、コンピュータ150は、得られた画像データに対して画像処理を施した後に、画像データを表示部160に出力する。表示部160は、光音響画像を表示する。ユーザーとしての医師や技師等は、表示部160に表示された光音響画像を確認することにより、診断を行うことができる。表示画像は、ユーザーやコンピュータ150からの保存指示に基づいて、コンピュータ150内のメモリや、モダリティとネットワークで接続されたデータ管理システムなどに保存される。
また、コンピュータ150は、光音響装置に含まれる構成の駆動制御も行う。また、表示部160は、コンピュータ150で生成された画像の他にGUIなどを表示してもよい。入力部170は、ユーザーが情報を入力できるように構成されている。ユーザーは、入力部170を用いて測定開始や終了、作成画像の保存指示などの操作を行うことができる。
本実施形態に係る被検体情報処理方法では、生成された画像データの画像値が所定の範囲に含まれる位置とその近傍位置に対応する画像値を低減した画像データを作成し、表示する。これにより、画像上で体毛やほくろなど観察部位以外の箇所を除去し、被検体内の観察部位の視認性を向上させることができる。
以下、本実施形態に係る光音響装置の各構成の詳細を説明する。
(光照射部110)
光照射部110は、光を発する光源111と、光源111から射出された光を被検体100へ導く光学系112とを含む。なお、光は、いわゆる矩形波、三角波などのパルス光を含む。
光源111が発する光のパルス幅としては、1ns以上、100ns以下のパルス幅であってもよい。また、光の波長として400nmから1600nm程度の範囲の波長であってもよい。血管を高解像度でイメージングする場合は、血管での吸収が大きい波長(400nm以上、700nm以下)を用いてもよい。生体の深部をイメージングする場合には、生体の背景組織(水や脂肪など)において典型的に吸収が少ない波長(700nm以上、1100nm以下)の光を用いてもよい。
光源111としては、レーザーや発光ダイオードを用いることができる。また、複数波長の光を用いて測定する際には、波長の変更が可能な光源であってもよい。なお、複数波長を被検体に照射する場合、互いに異なる波長の光を発生する複数台の光源を用意し、それぞれの光源から交互に照射することも可能である。複数台の光源を用いた場合もそれらをまとめて光源として表現する。レーザーとしては、固体レーザー、ガスレーザー、色素レーザー、半導体レーザーなど様々なレーザーを使用することができる。例えば、Nd:YAGレーザーやアレキサンドライトレーザーなどのパルスレーザーを光源として用いてもよい。また、Nd:YAGレーザー光を励起光とするTi:saレーザーやOPO(Optical Parametric Oscillators)レーザーを光源として用いてもよい。また、光源111としてフラッシュランプや発光ダイオードを用いてもよい。また、光源111としてマイクロウェーブ源を用いてもよい。
光学系112には、レンズ、ミラー、光ファイバ等の光学素子を用いることができる。乳房等を被検体100とする場合、パルス光のビーム径を広げて照射するために、光学系の光出射部は光を拡散させる拡散板等で構成されていてもよい。一方、光音響顕微鏡においては、解像度を上げるために、光学系112の光出射部はレンズ等で構成し、ビームをフォーカスして照射してもよい。
なお、光照射部110が光学系112を備えずに、光源111から直接被検体100に光を照射してもよい。
(受信部120)
受信部120は、音響波を受信することにより電気信号を出力するトランスデューサ121と、トランスデューサ121を支持する支持体122とを含む。また、トランスデューサ121は、音響波を送信する送信手段としてもよい。受信手段としてのトランスデューサと送信手段としてのトランスデューサとは、単一(共通)のトランスデューサでもよいし、別々の構成であってもよい。
トランスデューサ121を構成する部材としては、PZT(チタン酸ジルコン酸鉛)に代表される圧電セラミック材料や、PVDF(ポリフッ化ビニリデン)に代表される高分子圧電膜材料などを用いることができる。また、圧電素子以外の素子を用いてもよい。例えば、静電容量型トランスデューサ(CMUT:Capacitive Micro−machined Ultrasonic Transducers)、ファブリペロー干渉計を用いたトランスデューサなどを用いることができる。なお、音響波を受信することにより電気信号を出力できる限り、いかなるトランスデューサを採用してもよい。また、トランスデューサにより得られる信号は時間分解信号である。つまり、トランスデューサにより得られる信号の振幅は、各時刻にトランスデューサで受信される音圧に基づく値(例えば、音圧に比例した値)を表したものである。
光音響波を構成する周波数成分は、典型的には100KHzから100MHzであり、トランスデューサ121として、これらの周波数を検出することのできるものを採用することができる。
支持体122は、機械的強度が高い金属材料などから構成されていてもよい。照射光を被検体に多く入射させるために、支持体122の被検体100側の表面に鏡面もしくは光散乱させる加工が行われていてもよい。本実施形態において支持体122は半球殻形状であり、半球殻上に複数のトランスデューサ121を支持できるように構成されている。この場合、支持体122に配置されたトランスデューサ121の指向軸は半球の曲率中心付近に集まる。そして、複数のトランスデューサ121から出力された信号を用いて画像化したときに曲率中心付近の画質が高くなる。なお、支持体122はトランスデューサ121を支持できる限り、いかなる構成であってもよい。支持体122は、1Dアレイ、1.5Dアレイ、1.75Dアレイ、2Dアレイと呼ばれるような平面又は曲面内に、複数のトランスデューサを並べて配置してもよい。複数のトランスデューサ121が複数の受信手段に相当する。
また、支持体122は音響マッチング材を貯留する容器として機能してもよい。すなわち、支持体122をトランスデューサ121と被検体100との間に音響マッチング材を配置するための容器としてもよい。
また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を増幅する増幅器を備えてもよい。また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を時系列のデジタル信号に変換するA/D変換器を備えてもよい。すなわち、受信部120が後述する信号収集部140を備えてもよい。
なお、音響波を様々な角度で検出できるようにするために、理想的には被検体100を全周囲から囲むようにトランスデューサ121を配置してもよい。ただし、被検体100が大きく全周囲を囲むようにトランスデューサを配置できない場合は、半球状の支持体122上にトランスデューサを配置して全周囲を囲む状態に近づけてもよい。
なお、トランスデューサの配置や数及び支持体の形状は被検体に応じて最適化すればよく、本発明に関してはあらゆる受信部120を採用することができる。
受信部120と被検体100との間の空間は、光音響波が伝播することができる媒質で満たす。この媒質には、音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、超音波ジェルなどを採用することができる。
図4は、プローブ180の側面図を示す。本実施形態に係るプローブ180は、開口を有する半球状の支持体122に複数のトランスデューサ121が3次元に配置された受信部120を有する。また、支持体122の底部には、光学系112の光射出部が配置されている。
本実施形態においては、図4に示すように被検体100は、保持部200に接触することにより、その形状が保持される。本実施形態では、被検体100が乳房の場合に、伏臥位の被検者を支持する寝台に乳房を挿入するための開口を設けて、開口から鉛直方向に垂らされた乳房を測定する形態を想定している。
受信部120と保持部200の間の空間は、光音響波が伝播することができる媒質で満たされる。この媒質には、光音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、超音波ジェルなどを採用することができる。
保持手段としての保持部200は被検体100の形状を測定中に保持するために使用される。保持部200により被検体100を保持することによって、被検体100の動きの抑制および被検体100の位置を保持部200内に留めることができる。保持部200の材料には、ポリカーボネートやポリエチレン、ポリエチレンテレフタレート等、樹脂材料を用いることができる。
保持部200は、被検体100を保持できる硬度を有する材料であることが好ましい。保持部200は、測定に用いる光を透過する材料であってもよい。保持部200は、インピーダンスが被検体100と同程度の材料で構成されていてもよい。乳房等の曲面を有するものを被検体100とする場合、凹型に成型した保持部200であってもよい。この場合、保持部200の凹部分に被検体100を挿入することができる。
保持部200は、取り付け部201に取り付けられている。取り付け部201は、被検体の大きさに合わせて複数種類の保持部200を交換可能に構成されていてもよい。例えば、取り付け部201は、曲率半径や曲率中心などの異なる保持部に交換できるように構成されていてもよい。
(駆動部130)
駆動部130は、被検体100と受信部120との相対位置を変更する部分である。駆動部130は、駆動力を発生させるステッピングモータなどのモータと、駆動力を伝達させる駆動機構と、受信部120の位置情報を検出する位置センサとを含む。駆動機構としては、リードスクリュー機構、リンク機構、ギア機構、油圧機構、などを用いることができる。また、位置センサとしては、エンコーダー、可変抵抗器、リニアスケール、磁気センサ、赤外線センサ、超音波センサなどを用いたポテンショメータなどを用いることができる。
なお、駆動部130は被検体100と受信部120との相対位置をXY方向(二次元)に変更させるものに限らず、一次元または三次元に変更させてもよい。
なお、駆動部130は、被検体100と受信部120との相対的な位置を変更できれば、受信部120を固定し、被検体100を移動させてもよい。被検体100を移動させる場合は、被検体100を保持する保持部を動かすことで被検体100を移動させる構成などが考えられる。また、被検体100と受信部120の両方を移動させてもよい。
駆動部130は、相対位置を連続的に移動させてもよいし、ステップアンドリピートによって移動させてもよい。駆動部130は、プログラムされた軌跡で移動させる電動ステージであってもよいし、手動ステージであってもよい。
また、本実施形態では、駆動部130は光照射部110と受信部120を同時に駆動して走査を行っているが、光照射部110だけを駆動したり、受信部120だけを駆動したりしてもよい。
(信号収集部140)
信号収集部140は、トランスデューサ121から出力されたアナログ信号である電気信号を増幅するアンプと、アンプから出力されたアナログ信号をデジタル信号に変換するA/D変換器とを含む。信号収集部140は、FPGA(Field Programmable Gate Array)チップなどで構成されてもよい。信号収集部140から出力されるデジタル信号は、コンピュータ150内の記憶部152に記憶される。信号収集部140は、Data Acquisition System(DAS)とも呼ばれる。本明細書において電気信号は、アナログ信号もデジタル信号も含む概念である。なお、フォトダイオードなどの光検出センサが、光照射部110から光射出を検出し、信号収集部140がこの検出結果をトリガーに同期して上記処理を開始してもよい。また、信号収集部140は、フリーズボタンなどを用いてなされる指示をトリガーに同期して、当該処理を開始してもよい。
(コンピュータ150)
情報処理装置としてのコンピュータ150は、演算部151、記憶部152、制御部153を含む。各構成の機能については処理フローの説明の際に説明する。
演算部151としての演算機能を担うユニットは、CPUやGPU(Graphics Processing Unit)等のプロセッサ、FPGA(Field Programmable Gate Array)チップ等の演算回路で構成されることができる。これらのユニットは、単一のプロセッサや演算回路から構成されるだけでなく、複数のプロセッサや演算回路から構成されていてもよい。演算部151は、入力部170から、被検体音速や保持部の構成などの各種パラメータを受けて、受信信号を処理してもよい。
記憶部152は、ROM(Read Only Memory)、磁気ディスクやフラッシュメモリなどの非一時記憶媒体で構成することができる。また、記憶部152は、RAM(Random Access Memory)などの揮発性の媒体であってもよい。なお、プログラムが格納される記憶媒体は、非一時記憶媒体である。なお、記憶部152は、1つの記憶媒体から構成されるだけでなく、複数の記憶媒体から構成されていてもよい。
記憶部152は、後述する方法で演算部151により生成される光音響画像を示す画像データを保存することができる。
制御部153は、CPUなどの演算素子で構成される。制御部153は、光音響装置の各構成の動作を制御する。制御部153は、入力部170からの測定開始などの各種操作による指示信号を受けて、光音響装置の各構成を制御してもよい。また、制御部153は、記憶部152に格納されたプログラムコードを読み出し、光音響装置の各構成の作動を制御する。
コンピュータ150は専用に設計されたワークステーションであってもよい。また、コンピュータ150の各構成は異なるハードウェアによって構成されてもよい。また、コンピュータ150の少なくとも一部の構成は単一のハードウェアで構成されてもよい。
図5は、本実施形態に係るコンピュータ150の具体的な構成例を示す。本実施形態に係るコンピュータ150は、CPU154、GPU155、RAM156、ROM157、外部記憶装置158から構成される。また、コンピュータ150には、表示部160としての液晶ディスプレイ161、入力部170としてのマウス171、キーボード172が接続されている。
また、コンピュータ150および複数のトランスデューサ121は、共通の筺体に収められた構成で提供されてもよい。ただし、筺体に収められたコンピュータで一部の信号処理を行い、残りの信号処理を筺体の外部に設けられたコンピュータで行ってもよい。この場合、筺体の内部および外部に設けられたコンピュータを総称して、本実施形態に係るコンピュータとすることができる。すなわち、コンピュータを構成するハードウェアが一つの筺体に収められていなくてもよい。
(表示部160)
表示部160は、液晶ディスプレイや有機EL(Electro Luminescence)などのディスプレイである。コンピュータ150により得られた画像データに基づく画像や特定位置の数値等を表示する装置である。表示部160は、画像や装置を操作するためのGUIを表示してもよい。なお、被検体情報の表示にあたっては、表示部160またはコンピュータ150において画像処理を行った上で表示することもできる。
(入力部170)
入力部170としては、ユーザーが操作可能な、マウスやキーボードなどで構成される操作コンソールを採用することができる。また、表示部160をタッチパネルで構成し、表示部160を入力部170として利用してもよい。
入力部170は、画像処理を行い表示する際の所定の範囲の設定や、所定の範囲に含まれる位置の近傍位置を定める空間的な範囲を決定するパラメータを入力できるように構成されていてもよい。また、入力部170は、表示に関するパラメータを入力できるように構成されていてもよい。入力方法としては、数値を入力してもよいし、スライダーバーを操作することにより入力ができてもよい。また、入力部170を用いたユーザーの指示に応じて、表示部160の表示画像を、指示により変更された各種パラメータが適用された画像に更新してもよい。これにより、ユーザーは自身の操作によって決定されたパラメータにより生成された画像を確認しながら、適切なパラメータに設定できる。
また、ユーザーが光音響装置の遠隔に設けられた入力部170を操作し、入力部170を用いて入力された情報を、ネットワークを介して光音響装置に送信してもよい。
なお、光音響装置の各構成はそれぞれ別の装置として構成されてもよいし、一体となった1つの装置として構成されてもよい。また、光音響装置の少なくとも一部の構成が一体となった1つの装置として構成されてもよい。
また、光音響装置の各構成間で送受信される情報は、有線または無線でやりとりがなされる。
(被検体100)
被検体100は光音響装置を構成するものではないが、以下に説明する。本実施形態に係る光音響装置は、人や動物の悪性腫瘍や血管疾患などの診断や化学治療の経過観察などを目的として使用できる。よって、被検体100としては、生体、具体的には人体や動物の乳房や各臓器、血管網、頭部、頸部、腹部、手指および足指を含む四肢などの診断の対象部位が想定される。例えば、人体が測定対象であれば、オキシヘモグロビンあるいはデオキシヘモグロビンやそれらを含む多く含む血管あるいは腫瘍の近傍に形成される新生血管などを光吸収体の対象としてもよい。また、頸動脈壁のプラークなどを光吸収体の対象としてもよい。また、皮膚等に含まれるメラニン、コラーゲン、脂質などを光吸収体の対象としてもよい。また、メチレンブルー(MB)、インドシニアングリーン(ICG)などの色素、金微粒子、またはそれらを集積あるいは化学的に修飾した外部から導入した物質を光吸収体としてもよい。また、生体を模したファントムを被検体100としてもよい。
(被検体情報を取得するためのフロー)
次に、本実施形態に係る情報処理を含む被検体情報の取得方法の各工程を、図6を参照して説明する。
(S310:制御パラメータを指定する工程)
ユーザーが、被検体情報の取得のために必要な光照射部110の照射条件(繰り返し周波数や波長など)やプローブ180の位置などの制御パラメータを、入力部170を用いて指定する。コンピュータ150は、ユーザーの指示に基づいて決定された制御パラメータを設定する。
(S320:プローブを指定位置に移動させる工程)
制御部153が、ステップS301で指定された制御パラメータに基づいて、駆動部130にプローブ180を指定の位置へ移動させる。ステップS310において複数位置での撮像が指定された場合には、駆動部130は、まずプローブ180を最初の指定位置へ移動させる。なお、駆動部130は、測定の開始指示がなされたときに、あらかじめプログラムされた位置にプローブ180を移動させてもよい。なお、ハンドヘルド型の場合、ユーザーがプローブ180を把持して所望の位置まで移動させてもよい。
(S330:光を照射する工程)
光照射部110は、S310で指定された制御パラメータに基づいて、被検体100に光を照射する。
光源111から発生した光は、光学系112を介してパルス光として被検体100に照射される。そして、被検体100内部でパルス光が吸収され、光音響効果により光音響波が生じる。光照射部110はパルス光の伝送と併せて信号収集部140へ同期信号を送信する。
(S340:光音響波を受信する工程)
信号収集部140は、光照射部110から送信された同期信号を受信すると、信号収集の動作を開始する。すなわち、信号収集部140は、受信部120から出力された、音響波に由来するアナログ電気信号を、増幅・AD変換することにより、増幅されたデジタル電気信号を生成し、コンピュータ150へ出力する。コンピュータ150は、信号収集部140から送信された信号を記憶部152に保存する。ステップS301で複数の走査位置での撮像を指定した場合には、指定した走査位置において、S320−S340のステップを繰り返し実行し、パルス光の照射と音響波に由来するデジタル信号の生成を繰り返す。なお、コンピュータ150は、発光をトリガーとして、発光時の受信部120の位置情報を駆動部130の位置センサからの出力に基づいて取得し、記憶してもよい。
(S350:光音響画像データを取得する工程)
画像取得手段としてのコンピュータ150の演算部151は、記憶部152に記憶された信号データに基づいて、光音響画像データを生成し、記憶部152に保存する。このとき、コンピュータ150は、信号データに加え、プローブ180の位置などの制御パラメータに基づいて、光音響画像データを生成してもよい。
信号データを空間分布としてのボリュームデータに変換する再構成アルゴリズムとしては、タイムドメインでの逆投影法やフーリエドメインでの逆投影法などの解析的な再構成法やモデルベース法(繰り返し演算法)を採用することができる。例えば、タイムドメインでの逆投影法として、Universal back−projection(UBP)、Filtered back−projection(FBP)、または整相加算(Delay−and−Sum)などが挙げられる。
また、演算部151は、被検体100に照射された光の被検体100の内部での光フルエンス分布を計算し、初期音圧分布を光フルエンス分布で除算することにより、吸収係数分布情報を取得してもよい。この場合、吸収係数分布情報を光音響画像データとして取得してもよい。コンピュータ150は、光を吸収、散乱する媒質における光エネルギーの挙動を示す輸送方程式や拡散方程式を数値的に解く方法により、被検体100の内部における光フルエンスの空間分布を算出することができる。数値的に解く方法としては、有限要素法、差分法、モンテカルロ法等を採用することができる。例えば、コンピュータ150は、式(1)に示す光拡散方程式を解くことにより、被検体100の内部における光フルエンスの空間分布を算出してもよい。
ここで、Dは拡散係数、μaは吸収係数、Sは照射光の入射強度、φは到達する光フルエンス、rは位置、tは時間を示す。
また、複数の波長の光を用いて、S330、S340の工程を実行し、本工程で演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報を取得してもよい。そして、演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報に基づいて、分光情報として被検体100を構成する物質の濃度の空間分布情報を、光音響画像データとして取得してもよい。すなわち、演算部151は、複数の波長の光に対応する信号データを用いて、分光情報を取得してもよい。
なお、モダリティとは別の装置である情報処理装置としてのコンピュータ150が、本実施形態に係る画像処理方法を実行してもよい。この場合、コンピュータ150が、事前にモダリティで生成された画像データを、PACS(Picture Archiving and Communication System)等の記憶部から読み出すことにより取得し、この画像データに対して本実施形態に係る画像処理方法を適用する。このように、本実施形態に係る画像処理方法は、事前に生成された画像データに対しても適用することができる。
(S360:光音響画像を表示する工程)
表示制御手段としてのコンピュータ150は、S350で得られた光音響画像データに基づいて光音響画像を生成し、表示部160に表示させる。なお、コンピュータ150は、被検体情報の画像データを画像として表示させる他に、画像の特定位置の被検体情報の数値を表示させてもよい。本工程では、体毛やほくろなどによる視認性の低下が抑制された光音響画像を生成し、表示させることができる。ここで、図7に示すフローチャートを用いて本工程について詳述する。
(S361:画像値が所定の範囲に含まれる位置を決定する工程)
位置取得手段としてのコンピュータ150は、S350で生成された光音響画像データのうち、画像値が所定の範囲に含まれる位置(ピクセルまたはボクセル)を決定し、当該位置を示す位置情報を記憶部152に格納する。
所定の範囲は入力部170により、ユーザーが数値で入力してもよいし、スライダーバーを操作することで指定してもよいし、表示部160に表示された画像データ上のある位置を指定してその位置での画像値としてもよい。また、複数の数値範囲の中からユーザーが指定した数値範囲を選択することにより、所定の範囲が指定されてもよい。
また、コンピュータ150は、記憶部152に格納された所定の範囲を読み出すことにより、取得してもよい。例えば、血管を観察部位として吸収係数の空間分布を示す画像データに適用する場合、血管の典型的な吸収係数の2倍以上の値を閾値として、閾値以上の数値範囲を所定の範囲として記憶部152に格納しておいてもよい。
また、コンピュータ150が、S350で生成された光音響画像データの画像値のヒストグラムを作成し、このヒストグラムを解析することにより所定の範囲を決定してもよい。コンピュータ150は、画像値のヒストグラムの中から不要な構造に由来するピークを検出し、当該ピークを含むヒストグラム分布を構成する画像値の数値範囲を、所定の範囲とする。例えば、コンピュータ150は、画像値のヒストグラムから、背景組織・血管・体毛に由来する3つのピークをもつ分布が得られた場合に、画像値が一番高い分布を検出する。検出された分布は、体毛に由来する分布と推定される。そして、コンピュータ150は、検出された分布を構成する画像値の数値範囲を所定の範囲として決定する。
なお、本工程において、コンピュータ150は、画像値が所定の範囲に含まれる位置から画像値が連続する位置を示す情報についても位置情報として取得してもよい。このとき、コンピュータ150は、画像値が所定の範囲に含まれない位置についても、画像値が所定の範囲に含まれる位置と連続性を有する場合は、当該位置を示す情報を位置情報として取得する。例えば、まずコンピュータ150は、第1の閾値よりも高い数値範囲(第1の数値範囲)に含まれる画像値の位置を決定する。続いてコンピュータ150は、当該位置と連続し、かつ、第1の閾値よりも小さい第2の閾値よりも高い数値範囲(第2の数値範囲)の画像値を有する位置を示す情報については位置情報として取得する。ユーザーが入力部170を用いて、第1の数値範囲及び第2の数値範囲の少なくとも一方を指定してもよい。
なお、コンピュータ150が画像データの画像値を層別し、層別された画像値のグループのうち、画像値が所定のグループ(所定の範囲)に属する位置を決定してもよい。例えば、コンピュータ150が、画像データの各位置の画像値を大、中、小のグループに層別し、画像値が大に属する位置を示す位置情報を取得してもよい。
ここで、図8(a)に示す光音響画像データに本実施形態に係る画像処理方法を適用する場合を説明する。図8(b)は、図8(a)に示す光音響画像データの画像値を数値で示した空間分布を示す。数値が記入されていないピクセルの画像値はゼロである。
例えば、コンピュータ150は、図8(b)に示す光音響画像データのうち、画像値が100以上の位置を決定する。図8(c)は、光音響画像データのうち、画像値が100以上の位置(ピクセル)を太線で示した図である。
(S362:決定された位置の近傍位置を決定する工程)
近傍位置取得手段としてのコンピュータ150は、S361で決定された位置の近傍位置を決定し、当該近傍位置を示す近傍位置情報を記憶部152に格納する。本工程では、S361で決定された位置を基準に決定される空間的な範囲に含まれる位置を近傍の位置とすることができる。
コンピュータ150は、S361で決定された位置に隣接する位置(ピクセルまたはボクセル)を近傍の位置として決定してもよい。
また、コンピュータ150は、記憶部152に格納された空間的な範囲を示す範囲情報を読み出し、S361で決定された位置を基準として当該空間的な範囲に含まれる位置を近傍の位置として決定してもよい。体毛を不要な構造とする場合、S361で決定された位置から、1mm以上、3mm以下の範囲に含まれる位置を近傍の位置としてもよい。例えば、コンピュータは、S361で決定された位置から2mm以内の範囲を近傍位置として決定してもよい。
また、ユーザーが入力部170を用いて空間的な範囲を指定し、コンピュータ150がS361で決定された位置を基準にユーザーにより指定された空間的な範囲に含まれる位置を近傍の位置として決定してもよい。なお、空間的な範囲を示す情報としては、S361で決定された位置からの距離を示す情報であってもよい。例えば、ユーザーは入力部170を用いて、距離を示す数値を入力してもよいし、スライダーバーを操作することにより距離を指定してもよい。また、複数の空間的な範囲の中からユーザーが指定した空間的な範囲を選択することにより、空間的な範囲が指定されてもよい。
なお、S361で決定された位置から等方的な範囲に含まれる位置を近傍の位置としてもよいし、非等方的な範囲に含まれる位置を近傍の位置としてもよい。装置特性上、特定の方向にアーチファクトが出る場合は、S361で決定された位置からその方向については範囲を広くして近傍の位置を定義してもよい。また、XYZ方向で解像度が異なる装置である場合、近傍とする範囲を、解像度に応じて非等方的な範囲としてもよい。このように近傍とする範囲を非等方に設定することにより、より精度良く不要な構造を判別することができる。
なお、コンピュータ150は、S361で用いた所定の範囲に連動して、本工程で用いられる近傍の空間的な範囲を変更してもよい。例えば、S361で用いる画像値に対する閾値が高くなるにつれて、本工程における近傍の空間的な範囲を広くしてもよい。これは、S361で用いる画像値に対する閾値を高くすると、観察部位と不要な構造とをより峻別することができるが、不要な構造の中心部分しか特定することができない。そこで、S361で閾値を高くした場合には、本工程で近傍の空間的な範囲を大きくすることにより、不要な構造の全体を特定することができる。一方、S361で用いる画像値に対する閾値を低くするにつれて、本工程における近傍の空間的な範囲を狭くしてもよい。
例えば、コンピュータ150は、画像値が100以上の位置(ピクセル)に隣接する位置(ピクセル)を、S361で決定された位置の近傍の位置として決定した。図8(d)は、近傍の位置(ピクセル)を含む空間的な範囲を点線で示した図である。この点線で囲まれた領域が、不要な画像に相当する領域である。
(S363:位置情報、及び、近傍位置情報に基づいて光音響画像を表示する工程)
表示制御手段としてのコンピュータ150は、S350で取得した光音響画像データ、S361で取得した位置情報、及びS362で取得した近傍位置情報に基づいて、光音響画像を生成し、表示部160に表示させる。
コンピュータ150は、表示部160に表示させる光音響画像について、S361で決定された位置、及び、S362で決定された近傍位置に対応する明度を相対的に低くしてもよい。ここでは、位置情報及び近傍位置情報で定義される位置に対応する明度を、その他の位置に対応する明度と比べ相対的に低くすればよい。その結果、S361で決定された位置、及び、S362で決定された近傍位置に対応する光音響画像は、その他の位置に比べて暗く表示されることとなる。なお、S361及びS362で決定された位置に対応する明度を、その他の位置の明度と比べて相対的に低くすることができる限り、光音響画像データに基づいて、いかなる方法により画像を表示させてもよい。
例えば、S361及びS362で決定された位置に対応する明度を第1の代表値(例えば0)とし、その他の位置に対応する明度を第2の代表値(例えば1)としてもよい。また、S362で決定された近傍位置に対応する明度を第1の代表値(例えば0)とし、その他の位置に対応する明度を画像値に応じた明度としてもよい。また、S361及びS362で決定された位置に対応する明度を画像値に応じた明度とし、その他の位置に対応する明度も画像値に応じた明度としてもよい。ただし、この場合も、S361及びS362で決定された位置に対応する画像値から明度への第1の変換係数を、その他の位置に対応する画像値から明度への第2の変換係数よりも小さくする。
また、コンピュータ150は、ユーザーが指定した情報に基づいて、S361及びS362で決定された位置に対応する明度を決定してもよい。例えば、ユーザーが入力部170を用いて、複数の代表値の中から代表値を指定し、指定された代表値を明度としてもよい。
また、コンピュータ150が、S350で得られた画像データ(第1の画像データに相当)のうち、S361及びS362で決定された位置に対応する画像値を相対的に低減してもよい。その結果、画像値が変更された画像データ(第2の画像データに相当)が取得される。続いてコンピュータ150は、この第2の画像データの画像値に応じて明度を決定することにより、画像値が低減された位置については相対的に明度が低減された表示となる。
なお、上記明度の調整の代わりに透明度(opacity)の調整を行ってもよい。この場合、透明度を高くすることにより、明度を低下させたときと同様の効果を得ることができる。
また、コンピュータ150が、S361及びS362で決定された位置に画像値を割り当てたマスク画像データを生成してもよい。続いて、コンピュータ150が、光音響画像データに対してマスク画像データを用いてマスキング処理を行い、マスキング後の画像データに基づいた画像表示を行ってもよい。これにより、S361及びS362で決定された位置に対応する明度が低減された画像表示を行うことができる。
例えば、まずコンピュータ150が、S361及びS362で決定された位置に対応する画像値として0を割り当て、その他の位置に対応する画像値として1を割り当てたマスク画像データを生成する。続いてコンピュータ150が、当該マスク画像データと、S350で得られた光音響画像データとを乗算することにより、マスキング処理を行ってもよい。また、例えばコンピュータ150が、S361で決定された位置の画像値を0とし、この位置から最も遠いS362で決定された近傍位置の画像値を0.5とするガウシアン分布のマスク画像データを生成してもよい。
また、コンピュータ150は、本工程の画像処理を施した光音響画像と、本工程の画像処理を施していない光音響画像とを、並列表示、重畳表示、及び切り換え表示の少なくとも一つの表示態様で表示してもよい。また、コンピュータ150は、本実施形態に係る画像処理方法を適用した画像を表示するモードがユーザーによって選択されたときに、表示部160に表示された画像を本実施形態に係る画像処理方法を適用した画像に更新してもよい。
例えば、本工程においてコンピュータ150は、図8(d)において点線で囲まれた領域(ピクセル群)に対応する明度をゼロとし、その他の位置については画像値に応じた明度を割り当てた光音響画像を表示部160に送信した。その結果、表示部160に表示される光音響画像を図8(e)に示す。本実施形態に係る画像処理方法を適用した図8(e)によれば、不要な画像である体毛の画像が選択的に低減されていることが理解される。本実施形態に係る画像処理方法によれば、観察部位である血管の画像の視認性を向上させることができる。
なお、コンピュータ150は、S361及びS362で決定された位置に対応する明度を相対的に低くする代わりに、これらの位置とその他の位置とを区別できるように光音響画像を表示してもよい。S361及びS362で決定された位置と、その他の位置とを異なる色で表示することにより区別してもよい。また、S361及びS362で決定された位置を点滅させることにより、区別してもよい。S361及びS362で決定された位置と、その他の位置とを区別して視認することができる限り、いかなる表示態様であってもよい。
なお、本実施形態に係る画像処理方法は、被検体情報の2次元または3次元の空間分布に適用してもよいし、3次元の空間分布を2次元に投影した投影画像に適用してもよい。3次元の空間分布(3次元ボリュームデータ)に適用する場合、本実施形態に係る画像処理方法が適用された3次元ボリュームデータを任意の手法で、表示部160に表示させることができる。例えば、MIP(Maxmum Intensity Projection)、MinIP(Minimum Intensity Projection)、VR(Volume Rendering)などの手法により、本実施形態に係る画像処理方法が適用された3次元ボリュームデータを表示させることができる。
なお、画像値が所定の範囲に含まれる位置を決定する処理を適用する光音響画像データと、画像値を低減する処理を適用する光音響画像データの種類は同一の種類でもよいし、異なる種類のものでもよい。すなわち、S361における位置決定処理と、S363における低減処理とを異なる種類の光音響画像データに適用してもよい。
例えば、S361では初期音圧の空間分布を示す光音響画像データ(初期音圧分布データ)に位置決定処理を適用し、S363では生成された吸収係数の空間分布を示す光音響画像データに低減処理を適用してもよい。この場合、S363では初期音圧分布データに基づいて、吸収係数を示す光音響画像データ(吸収係数分布データ)を生成する。そして、初期音圧分布データに基づいて決定した位置とその近傍位置に対応する吸収係数分布データの画像値を低減する。また、位置決定処理を初期音圧分布データに適用し、低減処理を物質の濃度(酸素飽和度等)の空間分布を示す光音響画像データ(濃度分布データ)に適用してもよい。
このように、画像値で不要な構造の位置を決定しやすい画像データ(初期音圧分布データ等)を用いて、画像値では不要な構造の位置を決定しにくい画像データから不要な構造の画像値を低減することができる。
[実施形態2]
次に、実施形態2に係る信号処理方法を説明する。本実施形態では、光照射により発生する光音響波に由来する信号データの信号レベルが所定の範囲に含まれるサンプリングデータを決定する。そして、当該サンプリングデータ、及び、そのデータと時間的に近傍のサンプリングデータの信号レベルを相対的に低減した信号データを生成する。そして、この信号データに基づいて、画像データを生成し表示する。なお、本実施形態に係る光音響装置の構成は、実施形態1と同様であるため、詳細な説明を省略する。
(被検体情報を取得するためのフロー)
次に、本実施形態に係る情報処理を含む被検体情報の取得方法の各工程を、図9を参照して説明する。S910―S940のステップは、実施形態1のステップS310―S340と同様であるため、説明を省略する。
(S950:不要な構造に由来する信号データを低減する工程)
信号取得手段としてのコンピュータ150は、信号収集部140により収集された信号データを記憶部152から読み出すことにより取得する。そして、信号処理手段としてのコンピュータ150は、信号データに対して、信号レベルの低減処理を行う。以下、図10に示すS950の詳細なフロー図を用いて、本実施形態における信号レベルの低減対象とするサンプリングデータの決定処理及び信号レベルの低減処理について説明する。
(S951:信号レベルが所定の範囲に含まれるサンプリングデータを決定する工程)
データ決定手段としてのコンピュータ150は、記憶部152に格納された信号データのうち、信号レベルが所定の範囲に含まれるサンプリングデータを決定する。そして、当該サンプリングデータの時間的な位置(信号データの時間軸上のあるタイミング)を示す位置情報を記憶部152に格納する。
所定の範囲は入力部170により、ユーザーが数値で入力してもよいし、スライダーバーを操作することで指定してもよい。また、複数の数値範囲の中からユーザーが指定した数値範囲を選択することにより、所定の範囲が指定されてもよい。また、コンピュータ150は、記憶部152に格納された所定の範囲を読み出すことにより、取得してもよい。
また、コンピュータ150が、S940で得られた信号データの信号レベルのヒストグラムを作成し、このヒストグラムを解析することにより所定の範囲を決定してもよい。コンピュータ150は、信号レベルのヒストグラムの中から不要な構造に由来するピークを検出し、当該ピークを含むヒストグラム分布を構成する信号レベルの数値範囲を、所定の範囲とする。例えば、コンピュータ150は、信号レベルのヒストグラムから、背景組織・血管・体毛に由来する3つのピークをもつ分布が得られた場合に、信号レベルが一番高い分布を検出する。検出された分布は、体毛に由来する分布と推定される。そして、コンピュータ150は、検出された分布を構成する信号レベルの数値範囲を所定の範囲として決定する。
また、コンピュータ150が信号データの信号レベルを層別し、層別された信号レベルのグループのうち、信号レベルが所定のグループ(所定の範囲)に属する時間的な位置を決定してもよい。例えば、コンピュータ150が、信号データの各サンプリングデータの信号レベルを大、中、小のグループに層別し、信号レベルが大に属する時間的な位置を示す位置情報を取得してもよい。
(S952:時間的に近傍のサンプリングデータを決定する工程)
近傍データ決定手段としてのコンピュータ150は、S951で決定したサンプリングデータと時間的に近傍のサンプリングデータを決定し、当該サンプリングデータの時間的な位置を示す近傍位置情報を記憶部152に格納する。S951及びS952で決定された時間的な位置に対応するサンプリングデータが、後述する低減処理の対象となる。
コンピュータ150は、S951で決定された時間的な位置に隣接する時間的な位置を、時間的に近傍の位置として決定してもよい。すなわち、S951で決定されたサンプリングデータの前後のサンプリングデータを時間的に近傍のサンプリングデータとしてもよい。
また、コンピュータ150は、記憶部152に格納された時間的な範囲を示す範囲情報を読み出し、S951で決定された時間的な位置を基準として当該時間的な範囲に含まれる時間的な位置を時間的に近傍の位置として決定してもよい。
また、ユーザーが入力部170を用いて時間的な範囲を指定し、コンピュータ150がS951で決定された時間的な位置を基準に、ユーザーにより指定された時間的な範囲に含まれるデータを時間的に近傍のデータとして決定してもよい。なお、時間的な範囲を示す情報としては、S951で決定されたサンプリングデータの前後のサンプリング数やサンプリング期間を示す情報であってもよい。例えば、ユーザーは入力部170を用いて、サンプリング数またはサンプリング期間を示す数値を入力してもよいし、スライダーバーを操作することによりサンプリング数またはサンプリング期間を指定してもよい。また、複数の時間的な範囲の中からユーザーが指定した時間的な範囲を選択することにより、時間的な範囲が指定されてもよい。
なお、1次元の信号データ上で、S951で決定されたデータから時間的に等方的な範囲に含まれるデータを時間的に近傍のデータとしてもよいし、時間的に非等方的な範囲に含まれるデータを時間的に近傍のデータとしてもよい。トランスデューサの位相特性により受信信号に尾引きが生じる場合は、時間的に遅いほうの範囲を広くした非等方的な時間範囲に含まれるデータを、時間的に近傍のデータとして定義してもよい。このように時間的に近傍とする範囲を非等方に設定することにより、より精度良く不要な構造に由来するデータを決定することができる。
(S953:信号レベルを低減する工程)
信号処理手段としてのコンピュータ150は、S940で取得した信号データ、S951で取得した位置情報、及びS952で取得した近傍位置情報に基づいて、不要な構造に対応する信号データの信号レベルを低減する。すなわち、コンピュータ150は、記憶部152に格納された信号データ(第1の信号データ)に対して、S951及びS952で決定された時間的な位置に対応するサンプリングデータを相対的に低減させる。そして、低減処理の結果得られた信号データ(第2の信号データ)が記憶部152に格納される。
コンピュータ150は、S951及びS952で決定された時間的な位置に対応するサンプリングデータの信号レベルを低減し、その他の時間的な位置に対応するサンプリングデータの信号レベルを低減しなくてもよい。また、コンピュータ150は、S951及びS952で決定された時間的な位置に対応するサンプリングデータの信号レベルを変更せずに、その他の時間的な位置に対応するサンプリングデータの信号レベルを増幅させてもよい。この場合も、S951及びS952で決定された時間的な位置に対応するサンプリングデータの信号レベルが相対的に低減されたといえる。
低減に関する重み(低減の度合い)については、予め決定された値を記憶部152から読み出すことにより決定してもよいし、ユーザーが入力部170を用いて低減に関する重みを指定してもよい。ユーザーは入力部170を用いて、低減に関する重みを数値として入力したり、スライダーバーを操作したりすることにより指定してもよい。また、ユーザーの指示に基づいて変更された低減に関する重みが適用された画像を表示部160に表示させ、ユーザーが画像を確認しながら、入力部170を用いて低減に関する重みを指示してもよい。
なお、S951及びS952で決定された時間的な位置に対応するサンプリングデータの信号レベルが相対的に低減される限り、いかなる信号処理を行ってもよい。
(S960:光音響画像データを取得する工程)
コンピュータ150は、S950で得られた信号データに基づいて、S350と同様の方法で光音響画像データを生成する。なお、S950で不要な構造に対応する情報は低減されているため、本工程で取得される光音響画像データに含まれる不要な構造に関する情報についても低減されている。
(S970:光音響画像を表示する工程)
コンピュータ150は、S960で得られた光音響画像データを表示部160に送信し、光音響画像として表示部160に表示させる。なお、コンピュータ150は、被検体情報の画像データを画像として表示させる他に、画像の特定位置の被検体情報の数値を表示させてもよい。また、コンピュータ150は、本実施形態に係る信号処理を施した光音響画像と、本実施形態に係る信号処理を施していない光音響画像とを、並列表示、重畳表示、及び切り換え表示の少なくとも一つの表示態様で表示してもよい。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
150 コンピュータ
160 表示部

Claims (20)

  1. 光照射により発生する光音響波に由来する第1の画像データを取得する第1の画像取得手段と、
    前記第1の画像データの画像値が所定の範囲に含まれる位置を示す位置情報を取得する位置取得手段と、
    前記位置情報に基づいて、前記位置の近傍の位置を示す近傍位置情報を取得する近傍位置取得手段と、
    前記第1の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、画像を表示手段に表示させる表示制御手段と、
    を有することを特徴とする情報処理装置。
  2. 前記表示制御手段は、
    前記第1の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、前記位置、及び、前記位置の近傍の位置に対応する前記第1の画像データの画像値を相対的に低減することにより、第2の画像データを取得し、
    前記第2の画像データの画像値に応じた明度で前記画像を前記表示手段に表示させる
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、
    前記第1の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、前記位置、及び、前記位置の近傍の位置に対応する明度が相対的に低い前記画像を前記表示手段に表示させる
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記表示制御手段は、
    前記第1の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、前記位置、及び、前記位置の近傍の位置と、その他の位置とを区別できるように、前記画像を前記表示手段に表示させる
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記第1の画像データは、3次元ボリュームデータであり、
    前記表示制御手段は、前記第1の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、2次元の前記画像を前記表示手段に表示させる
    ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 光照射により発生する光音響波に由来する第1の画像データを取得する第1の画像取得手段と、
    前記第1の画像データの画像値が所定の範囲に含まれる位置を示す位置情報を取得する位置取得手段と、
    前記位置情報に基づいて、前記位置の近傍の位置を示す近傍位置情報を取得する近傍位置取得手段と、
    光照射により発生する光音響波に由来する、前記第1の画像データとは異なる第2の画像データを取得する第2の画像取得手段と、
    前記第2の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、画像を表示手段に表示させる表示制御手段と、
    を有することを特徴とする情報処理装置。
  7. 前記第2の画像取得手段は、前記第1の画像データに基づいて、前記第2の画像データを生成する
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記第1の画像データは、初期音圧の空間分布を示す画像データであり、
    前記第2の画像データは、吸収係数または物質の濃度の空間分布を示す画像データである
    ことを特徴とする請求項6または7に記載の情報処理装置。
  9. 前記表示制御手段は、
    前記第2の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、前記位置、及び、前記位置の近傍の位置に対応する前記第2の画像データの画像値を相対的に低減することにより、第3の画像データを取得し、
    前記第3の画像データの画像値に応じた明度で前記画像を前記表示手段に表示させる
    ことを特徴とする請求項6から8のいずれか1項に記載の情報処理装置。
  10. 前記表示制御手段は、
    前記第2の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、前記位置、及び、前記位置の近傍の位置に対応する明度が相対的に低い前記画像を前記表示手段に表示させる
    ことを特徴とする請求項6から8のいずれか1項に記載の情報処理装置。
  11. 前記表示制御手段は、
    前記第2の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、前記位置、及び、前記位置の近傍の位置と、その他の位置とを区別できるように、前記画像を前記表示手段に表示させる
    ことを特徴とする請求項6から8のいずれか1項に記載の情報処理装置。
  12. 前記第2の画像データは、3次元ボリュームデータであり、
    前記表示制御手段は、前記第2の画像データ、前記位置情報、及び前記近傍位置情報に基づいて、2次元の前記画像を前記表示手段に表示させる
    ことを特徴とする請求項6から11のいずれか1項に記載の情報処理装置。
  13. 前記近傍位置取得手段は、
    ユーザーの指示に基づいて空間的な範囲を示す範囲情報を取得し、
    前記位置情報及び前記範囲情報に基づいて、前記位置を基準に前記空間的な範囲に含まれる位置を前記近傍の位置として前記近傍位置情報を取得する
    ことを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。
  14. 前記第1の画像取得手段は、記憶部から前記第1の画像データを読み出すことにより、前記第1の画像データを取得する
    ことを特徴とする請求項1から13のいずれか1項に記載の情報処理装置。
  15. 前記第1の画像取得手段は、前記光音響波の受信信号を用いた再構成により、前記第1の画像データを取得する
    ことを特徴とする請求項1から14のいずれか1項に記載の情報処理装置。
  16. 光照射により発生する光音響波に由来する第1の信号データを取得する信号取得手段と、
    前記第1の信号データの信号レベルが所定の範囲に含まれるサンプリングデータを決定するデータ決定手段と、
    前記第1の信号データのうち、前記サンプリングデータ、及び、前記サンプリングデータと時間的に近傍のサンプリングデータの信号レベルを相対的に低減することにより、第2の信号データを取得する信号処理手段と、
    前記第2の信号データに基づいて、画像データを取得する画像取得手段と、
    前記画像データに基づいた画像を表示手段に表示させる表示制御手段と、
    を有することを特徴とする情報処理装置。
  17. 光照射により発生する光音響波に由来する第1の画像データを取得し、
    前記第1の画像データの画像値が所定の範囲に含まれる位置を決定し、
    前記位置、及び、前記位置の近傍の位置に対応する明度が相対的に低い前記第1の画像データに基づいた画像を表示する
    ことを特徴とする情報処理方法。
  18. 光照射により発生する光音響波に由来する第1の画像データを取得し、
    前記第1の画像データの画像値が所定の範囲に含まれる位置を決定し、
    光照射により発生する光音響波に由来する、前記第1の画像データとは異なる第2の画像データを取得し、
    前記位置、及び、前記位置の近傍の位置に対応する明度が相対的に低い前記第2の画像データに基づいた画像を表示する
    ことを特徴とする情報処理方法。
  19. 光照射により発生する光音響波に由来する第1の信号データを取得し、
    前記第1の信号データの信号レベルが所定の範囲に含まれるサンプリングデータを決定し、
    前記第1の信号データのうち、前記サンプリングデータ、及び、前記サンプリングデータと時間的に近傍のサンプリングデータの信号レベルを相対的に低減することにより、第2の信号データを取得し、
    前記第2の信号データに基づいて画像データを取得し、
    前記画像データに基づいた画像を表示する
    ことを特徴とする情報処理方法。
  20. 請求項17から19のいずれか1項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
JP2017022468A 2017-02-09 2017-02-09 情報処理装置、情報処理方法、およびプログラム Withdrawn JP2018126389A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017022468A JP2018126389A (ja) 2017-02-09 2017-02-09 情報処理装置、情報処理方法、およびプログラム
KR1020180010381A KR20200067254A (ko) 2017-02-09 2018-01-29 정보 처리장치, 정보 처리방법, 및 비일시적인 기억매체
US15/889,660 US10607366B2 (en) 2017-02-09 2018-02-06 Information processing apparatus, information processing method, and non-transitory storage medium
CN201810115115.3A CN108403083A (zh) 2017-02-09 2018-02-06 信息处理装置、信息处理方法和非暂时性存储介质
EP18155730.7A EP3360468A1 (en) 2017-02-09 2018-02-08 Removal of unwanted structures in photoacoustic images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022468A JP2018126389A (ja) 2017-02-09 2017-02-09 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2018126389A true JP2018126389A (ja) 2018-08-16

Family

ID=61223712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022468A Withdrawn JP2018126389A (ja) 2017-02-09 2017-02-09 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US10607366B2 (ja)
EP (1) EP3360468A1 (ja)
JP (1) JP2018126389A (ja)
KR (1) KR20200067254A (ja)
CN (1) CN108403083A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020162746A (ja) * 2019-03-28 2020-10-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018061716A (ja) * 2016-10-13 2018-04-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7593794B2 (ja) * 2020-11-26 2024-12-03 株式会社タムロン 集光対物光学系および光音響装置

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0115615D0 (en) * 2001-06-27 2001-08-15 Univ Coventry Image segmentation
JP4643153B2 (ja) * 2004-02-06 2011-03-02 株式会社東芝 非侵襲生体情報映像装置
CA2708675C (en) * 2007-12-12 2016-07-19 Jeffrey J. L. Carson Three-dimensional photoacoustic imager and methods for calibrating an imager
US20090156932A1 (en) * 2007-12-13 2009-06-18 Board Of Trustees Of The University Of Arkansas Device and method for in vivo flow cytometry using the detection of photoacoustic waves
WO2010107930A1 (en) * 2009-03-17 2010-09-23 The Uwm Research Foundation, Inc. Ultrasonic imaging device
CA2781427A1 (en) * 2009-11-19 2011-05-26 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
JP5553672B2 (ja) * 2010-04-26 2014-07-16 キヤノン株式会社 音響波測定装置および音響波測定方法
US9510974B1 (en) * 2010-10-13 2016-12-06 Gholam A. Peyman Laser coagulation of an eye structure or a body surface from a remote location
US9931171B1 (en) * 2010-10-13 2018-04-03 Gholam A. Peyman Laser treatment of an eye structure or a body surface from a remote location
US9037217B1 (en) * 2010-10-13 2015-05-19 Gholam A. Peyman Laser coagulation of an eye structure or a body surface from a remote location
JP5653882B2 (ja) 2010-10-27 2015-01-14 富士フイルム株式会社 光音響撮像装置およびその作動方法
JP5850633B2 (ja) * 2011-04-12 2016-02-03 キヤノン株式会社 被検体情報取得装置
US9442095B2 (en) * 2011-06-15 2016-09-13 Northwestern University Optical coherence photoacoustic microscopy
US20130218024A1 (en) * 2011-10-09 2013-08-22 Clear Guide Medical, Llc Interventional In-Situ Image-Guidance by Fusing Ultrasound and Video
US9220415B2 (en) * 2011-10-25 2015-12-29 Andreas Mandelis Systems and methods for frequency-domain photoacoustic phased array imaging
JP5836760B2 (ja) * 2011-11-04 2015-12-24 キヤノン株式会社 音響波取得装置および音響波取得方法
JP5936330B2 (ja) * 2011-11-04 2016-06-22 キヤノン株式会社 音響波測定装置および音響波測定装置の制御方法
JP5852597B2 (ja) 2012-02-13 2016-02-03 富士フイルム株式会社 光音響画像化方法および装置
JP5879285B2 (ja) * 2012-02-29 2016-03-08 富士フイルム株式会社 音響波検出用プローブおよび光音響計測装置
US10758209B2 (en) * 2012-03-09 2020-09-01 The Johns Hopkins University Photoacoustic tracking and registration in interventional ultrasound
JP5975739B2 (ja) * 2012-06-01 2016-08-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP2014022801A (ja) * 2012-07-13 2014-02-03 Sony Corp 情報処理装置、情報処理方法、および情報処理プログラム
JP5984547B2 (ja) * 2012-07-17 2016-09-06 キヤノン株式会社 被検体情報取得装置およびその制御方法
US9396395B2 (en) 2012-09-07 2016-07-19 Hitachi Medical Corporation Image processing apparatus and image processing method, configured to apply threshold conditions to specify target pixel
WO2014052449A1 (en) * 2012-09-25 2014-04-03 The Board Of Trustees Of The University Of Arkansas Device and method for in vivo photoacoustic diagnosis and photothermal purging of infected blood
JP6150496B2 (ja) * 2012-11-12 2017-06-21 キヤノン株式会社 被検体情報取得装置およびその制御方法
JP6192297B2 (ja) * 2013-01-16 2017-09-06 キヤノン株式会社 被検体情報取得装置、表示制御方法、およびプログラム
JP2014161484A (ja) * 2013-02-25 2014-09-08 Canon Inc 音響波取得装置およびその制御方法
JP6362301B2 (ja) 2013-04-30 2018-07-25 キヤノン株式会社 被検体情報取得装置、および、被検体情報取得装置の作動方法
JP2015000288A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 被検体情報取得装置およびその制御方法ならびに音響信号取得装置およびその制御方法
JP6207326B2 (ja) * 2013-09-30 2017-10-04 キヤノン株式会社 被検体情報取得装置
US9730589B2 (en) * 2013-10-31 2017-08-15 Canon Kabushiki Kaisha Examined-portion information acquisition apparatus
JP6223129B2 (ja) * 2013-10-31 2017-11-01 キヤノン株式会社 被検体情報取得装置、表示方法、被検体情報取得方法、及びプログラム
JP6456020B2 (ja) * 2013-11-11 2019-01-23 キヤノン株式会社 光音響測定装置
JP6452394B2 (ja) * 2014-01-29 2019-01-16 キヤノン株式会社 画像撮像装置、画像撮像方法及びプログラム
JP6289142B2 (ja) * 2014-02-07 2018-03-07 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
US10335116B2 (en) * 2014-04-17 2019-07-02 The Johns Hopkins University Robot assisted ultrasound system
JP6351349B2 (ja) * 2014-04-21 2018-07-04 キヤノン株式会社 音響波受信装置
JP6335612B2 (ja) * 2014-04-23 2018-05-30 キヤノン株式会社 光音響装置、処理装置、処理方法、及びプログラム
JP6452314B2 (ja) * 2014-05-14 2019-01-16 キヤノン株式会社 光音響装置、信号処理方法、及びプログラム
EP3143391B1 (en) * 2014-05-14 2020-07-08 Canon Kabushiki Kaisha Photoacoustic apparatus
JP6362420B2 (ja) * 2014-05-26 2018-07-25 キヤノン株式会社 被検体情報取得装置、被検体情報取得方法、および、プログラム
WO2016002258A1 (ja) * 2014-06-30 2016-01-07 富士フイルム株式会社 光音響画像生成装置、信号処理装置、及び光音響画像生成方法
US10342436B2 (en) * 2014-08-26 2019-07-09 Canon Kabushiki Kaisha Object information acquiring apparatus and processing method
JP2016053482A (ja) * 2014-09-02 2016-04-14 キヤノン株式会社 光音響波測定装置および光音響波測定方法
WO2016035343A1 (en) * 2014-09-05 2016-03-10 Canon Kabushiki Kaisha Object information acquiring apparatus
JP6664176B2 (ja) * 2014-09-30 2020-03-13 キヤノン株式会社 光音響装置、情報処理方法、およびプログラム
JP6486056B2 (ja) * 2014-10-10 2019-03-20 キヤノン株式会社 光音響装置および光音響装置の処理方法
JP2016096914A (ja) * 2014-11-19 2016-05-30 キヤノン株式会社 被検体情報取得装置
JP2016097033A (ja) * 2014-11-20 2016-05-30 キヤノン株式会社 静電容量型トランスデューサ、及び被検体情報取得装置
JP6525565B2 (ja) * 2014-11-28 2019-06-05 キヤノン株式会社 被検体情報取得装置および被検体情報取得方法
JP6512807B2 (ja) * 2014-12-09 2019-05-15 キヤノン株式会社 被検体情報取得装置
JP6422330B2 (ja) * 2014-12-22 2018-11-14 キヤノン株式会社 被検体情報取得装置および情報処理装置、処理方法
WO2016110928A1 (en) * 2015-01-07 2016-07-14 Canon Kabushiki Kaisha Photoacoustic apparatus, image display method, and program
JP6608140B2 (ja) * 2015-01-20 2019-11-20 キヤノン株式会社 被検体情報取得装置および被検体情報取得方法
JP6489844B2 (ja) * 2015-01-27 2019-03-27 キヤノン株式会社 被検体情報取得装置およびその制御方法
CN107851176A (zh) * 2015-02-06 2018-03-27 阿克伦大学 光学成像系统及其方法
JP2016195641A (ja) * 2015-04-02 2016-11-24 キヤノン株式会社 ファントム
JP6436442B2 (ja) * 2015-04-10 2018-12-12 キヤノン株式会社 光音響装置および画像処理方法
JP6590519B2 (ja) * 2015-05-13 2019-10-16 キヤノン株式会社 被検体情報取得装置
US10743770B2 (en) * 2015-05-26 2020-08-18 Canon Kabushiki Kaisha Photoacoustic device
JP6521761B2 (ja) * 2015-06-23 2019-05-29 キヤノン株式会社 情報処理装置および表示制御方法
EP3319507B1 (en) * 2015-07-09 2019-09-11 C/o Canon Kabushiki Kaisha Device for acquiring information relating to position displacement of multiple image data sets, method, and program
JP2017029277A (ja) * 2015-07-30 2017-02-09 キヤノン株式会社 光音響装置、光音響装置の制御方法、および光音響装置用の被検体保持部材
US10408934B2 (en) * 2015-08-19 2019-09-10 Canon Kabushiki Kaisha Object information acquiring apparatus
US20170055844A1 (en) * 2015-08-27 2017-03-02 Canon Kabushiki Kaisha Apparatus and method for acquiring object information
US10492694B2 (en) * 2015-08-27 2019-12-03 Canon Kabushiki Kaisha Object information acquisition apparatus
EP3344983A1 (en) * 2015-08-31 2018-07-11 C/o Canon Kabushiki Kaisha Photoacoustic object information obtaining apparatus and method
JP2017047178A (ja) * 2015-09-04 2017-03-09 キヤノン株式会社 被検体情報取得装置
US20170067994A1 (en) * 2015-09-04 2017-03-09 Canon Kabushiki Kaisha Transducer array, and acoustic wave measurement apparatus
US20170086679A1 (en) * 2015-09-24 2017-03-30 Canon Kabushiki Kaisha Photoacoustic apparatus and method for acquiring object information
JP2017070385A (ja) * 2015-10-06 2017-04-13 キヤノン株式会社 被検体情報取得装置およびその制御方法
JP6429759B2 (ja) * 2015-10-24 2018-11-28 キヤノン株式会社 静電容量型トランスデューサ及びそれを備える情報取得装置
WO2017079732A1 (en) * 2015-11-07 2017-05-11 Ji-Xin Cheng An intraoperative optoacoustic guide apparatus and method
JP6598760B2 (ja) * 2015-12-15 2019-10-30 キヤノン株式会社 音響波プローブ、及び被検体情報取得装置
CN106913314B (zh) * 2015-12-25 2020-01-21 佳能株式会社 信息获取装置和信息获取方法
KR20170077037A (ko) * 2015-12-25 2017-07-05 캐논 가부시끼가이샤 정보 취득장치, 신호 처리방법, 및 프로그램
US20170209119A1 (en) * 2016-01-27 2017-07-27 Canon Kabushiki Kaisha Photoacoustic ultrasonic imaging apparatus
JP2017148230A (ja) * 2016-02-24 2017-08-31 キヤノン株式会社 被検体情報取得装置および情報処理装置
US10709333B2 (en) * 2016-07-25 2020-07-14 PhotoSound Technologies, Inc. Instrument for acquiring co-registered orthogonal fluorescence and photoacoustic volumetric projections of tissue and methods of its use

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020162746A (ja) * 2019-03-28 2020-10-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
EP3360468A1 (en) 2018-08-15
KR20200067254A (ko) 2020-06-12
US10607366B2 (en) 2020-03-31
CN108403083A (zh) 2018-08-17
US20180225841A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP6576424B2 (ja) 表示制御装置、画像表示方法、及びプログラム
JP2018202147A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6742745B2 (ja) 情報取得装置および表示方法
EP3329843B1 (en) Display control apparatus, display control method, and program
WO2018230409A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018126389A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018061716A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6921782B2 (ja) 表示制御装置、画像表示方法、及びプログラム
JP2017529913A (ja) 光音響装置
US20200163554A1 (en) Image generating apparatus, image generating method, and non-transitory computer-readable medium
WO2019102969A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2019118686A (ja) 情報処理装置、情報処理方法、プログラム
CN110384480B (zh) 被检体信息取得装置、被检体信息处理方法和存储介质
JP6929204B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7277212B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6929048B2 (ja) 表示制御装置、表示方法、及びプログラム
JP2018143764A (ja) 画像生成装置、画像生成方法、プログラム
US20200305727A1 (en) Image processing device, image processing method, and program
JP2020110362A (ja) 情報処理装置、情報処理方法、プログラム
JP2019097804A (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200703