JP2020049231A - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP2020049231A JP2020049231A JP2019214043A JP2019214043A JP2020049231A JP 2020049231 A JP2020049231 A JP 2020049231A JP 2019214043 A JP2019214043 A JP 2019214043A JP 2019214043 A JP2019214043 A JP 2019214043A JP 2020049231 A JP2020049231 A JP 2020049231A
- Authority
- JP
- Japan
- Prior art keywords
- image
- blood vessel
- motion contrast
- display
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【課題】OCTAで得られるモーションコントラスト画像とOCT等で得られる構造情報との対応を容易にする。【解決手段】被検体の第一の所定範囲における被検体画像を取得する被検体画像取得工程と、第一の所定範囲に含まれる第二の所定の範囲において同一断面を意図して取得される複数フレーム分の干渉信号セットを、3次元断層像を形成するために異なる複数の断面について取得する信号取得工程と、取得された同一断面を構成する複数フレーム分の干渉信号セットにおいて各フレームの間で対応する画素データを用いてOCTA画像を生成するOCTA画像生成工程と、を有する画像処理方法において、被検体画像と生成されたOCTA画像とを並べて表示する表示工程と被検体画像及びOCTA画像の一方の画像の情報を選択すると、他方の画像において情報が表示される領域に選択された情報を重ねて表示する重畳表示工程と、を配する。【選択図】図8PROBLEM TO BE SOLVED: To facilitate correspondence between a motion contrast image obtained by OCTA and structural information obtained by OCT or the like. SOLUTION: A subject image acquisition step of acquiring a subject image in a first predetermined range of a subject and a second predetermined range included in the first predetermined range are intentionally acquired with the same cross section. Between each frame in the signal acquisition step of acquiring multiple frames of interference signal sets for forming a three-dimensional tomographic image for a plurality of different cross sections, and in the multiple frames of interference signal sets constituting the same acquired cross section. In an image processing method having an OCTA image generation step of generating an OCTA image using the corresponding pixel data in, a display step of displaying the subject image and the generated OCTA image side by side, and the subject image and the OCTA image. When the information of one image is selected, a superimposed display step of superimposing the selected information on the area where the information is displayed in the other image is arranged. [Selection diagram] FIG. 8
Description
本発明は、光干渉断層法を用いた画像形成方法及び装置に関する。 The present invention relates to an image forming method and apparatus using optical coherence tomography.
生体などの測定対象の断層像を非破壊、非侵襲で取得する方法として、光干渉断層撮像法(Optical Coherence Tomography、以下OCTという)が実用化されている。OCTは、特に眼科領域で被検眼の眼底における網膜の断層像が取得され、網膜の眼科診断等において広く利用されている。 Optical coherence tomography (hereinafter referred to as OCT) has been put into practical use as a method for non-destructively and non-invasively acquiring a tomographic image of a measurement target such as a living body. In OCT, a tomographic image of the retina at the fundus of the eye to be inspected is obtained, particularly in an ophthalmic region, and is widely used in ophthalmic diagnosis of the retina.
OCTは、測定対象から反射した光と参照鏡から反射した光を干渉させ、その干渉した光強度の時間依存性又は波数依存性を解析することにより断層像を得ている。このような光干渉断層像取得装置として、タイムドメインOCT、スペクトラルドメインOCT、或いは波長掃引OCTが知られている。タイムドメインOCTでは、参照鏡の位置を変えることで測定対象の深さ情報を得る。広帯域光源を使用したスペクトラルドメインOCT(SD−OCT:Spectral Domain Optical Coherence Tomography)では分光器により波長毎に干渉光を分光し、測定対象の深さ情報を得る。波長掃引光コヒーレンストモグラフィー(SS−OCT:Swept Source Optical Coherence Tomography)装置では発振波長を変えることができる波長可変光源装置を用いている。なお、SD−OCTとSS−OCTは総称して(FD−OCT:Fourier Domain Optical Coherence Tomography)と呼ばれる。 In OCT, a tomographic image is obtained by causing light reflected from a measurement target and light reflected from a reference mirror to interfere with each other and analyzing the time dependence or wave number dependence of the intensity of the interfered light. As such an optical coherence tomographic image acquisition device, a time domain OCT, a spectral domain OCT, or a wavelength sweeping OCT is known. In the time domain OCT, depth information of a measurement target is obtained by changing the position of a reference mirror. In a spectral domain optical coherence tomography (SD-OCT) using a broadband light source, interference light is separated for each wavelength by a spectroscope to obtain depth information of a measurement target. In a wavelength-swept optical coherence tomography (SS-OCT) apparatus, a variable wavelength light source apparatus capable of changing an oscillation wavelength is used. Note that SD-OCT and SS-OCT are collectively called (FD-OCT: Fourier Domain Optical Coherence Tomography).
近年、このFD−OCTを用いた擬似血管造影法が提案されており、OCTアンギオグラフィー(OCTA)と呼ばれている(非特許文献1)。現代の臨床医療で一般的な血管造影法である蛍光造影は、体内に蛍光色素(例えばフルオレセイン又はインドシアニングリーン)の注入を必要とし、蛍光色素の通り道となる血管を2次元的に表示する。一方、OCTAは非侵襲で擬似的な血管造影を可能にし、血流部位のネットワークを3次元的に表示することを可能とする。さらに、OCTAは蛍光造影法に比べて高分解能であり、眼底の微小血管又は血流を描出することができるため注目を集めている。 In recent years, a pseudo angiography using this FD-OCT has been proposed, and is called OCT angiography (OCTA) (Non-Patent Document 1). Fluorescence imaging, a common angiography method in modern clinical medicine, requires injection of a fluorescent dye (for example, fluorescein or indocyanine green) into the body, and two-dimensionally displays blood vessels through which the fluorescent dye passes. On the other hand, OCTA enables non-invasive pseudo angiography, and enables a three-dimensional display of a network of blood flow sites. Furthermore, OCTA has attracted attention because it has a higher resolution than fluorescence imaging and can render microvessels or blood flow in the fundus.
OCTAは血流検出方法の違いにより複数の方法が提案されている。例えば、被特許文献2には、OCT信号から時間変調が起こっている信号のみを抽出することで血流からのOCT信号を分離する方法が提案されている。非特許文献3には、血流による位相のバラツキを利用した方法が、非特許文献4及び特許文献1には血流による強度のバラツキを利用した方法が提案されている。 A plurality of OCTA methods have been proposed depending on the difference in the blood flow detection method. For example, Patent Document 2 proposes a method of extracting an OCT signal from a blood flow by extracting only a signal in which time modulation has occurred from the OCT signal. Non-Patent Document 3 proposes a method using variation in phase due to blood flow, and Non-Patent Document 4 and Patent Document 1 proposes a method using variation in intensity due to blood flow.
しかし、上述したOCTAでは詳細な血流部位まで得られるがために、特定の血管の繋がりや走行が検者にとって分かりにくい場合がある。また、上述したOCTAで得られる血流部位に関する画像とOCTで得られる構造情報に関する画像とは、各々独立した別個の画像として得られる。このため、実際の診断に際しては、検者がこれら両画像を交互に見比べる必要がある。しかしOCTAにより得た詳細な血流部位は詳細であるが故、OCTの強度画像や眼底写真等から得られる被検眼の構造情報との対応が分かりにくかった。 However, in the above-mentioned OCTA, since a detailed blood flow site can be obtained, the connection or travel of a specific blood vessel may be difficult for the examiner to understand. In addition, the image related to the blood flow region obtained by OCTA and the image related to the structural information obtained by OCT are obtained as independent images. Therefore, at the time of actual diagnosis, the examiner needs to alternately compare these two images. However, since the detailed blood flow site obtained by OCTA is detailed, it is difficult to understand the correspondence with the structural information of the subject's eye obtained from the OCT intensity image or the fundus photograph.
本発明は、このような状況に鑑みて為されたものであって、OCTAで得られる血流部位に関する画像とOCT等で得られる構造情報との対応を容易にすることを目的とする。 The present invention has been made in view of such a situation, and has as its object to facilitate correspondence between an image relating to a blood flow site obtained by OCTA and structural information obtained by OCT or the like.
上述した課題を解決するために、本発明に係る画像処理方法は、
被検体の第一の所定範囲における被検体画像を取得する被検体画像取得工程と、
前記第一の所定範囲に含まれる第二の所定の範囲において同一断面を意図して取得される複数フレーム分の干渉信号セットを、3次元断層像を形成するための異なる複数の断面について取得する信号取得工程と、
前記同一断面を意図して取得された複数フレーム分の干渉信号セットにおいて各フレームの間で対応する画素データを用いてモーションコントラスト画像を生成するモーションコントラスト画像生成工程と、
前記被検体画像と前記生成されたモーションコントラスト画像とを並べて表示する表示工程と、
前記被検体画像及び前記モーションコントラスト画像の一方の画像の情報を選択すると、他方の画像において前記情報が表示される領域に前記選択された情報を重ねて表示する重畳表示工程と、を有することを特徴とする。
In order to solve the above-described problem, an image processing method according to the present invention includes:
A subject image obtaining step of obtaining a subject image in a first predetermined range of the subject,
In a second predetermined range included in the first predetermined range, an interference signal set for a plurality of frames obtained with the intention of the same cross section is obtained for a plurality of different cross sections for forming a three-dimensional tomographic image. A signal acquisition step;
A motion contrast image generation step of generating a motion contrast image using pixel data corresponding to each frame in an interference signal set for a plurality of frames acquired with the intention of the same cross section,
A display step of displaying the subject image and the generated motion contrast image side by side,
When selecting information of one of the subject image and the motion contrast image, a superimposed display step of superimposing and displaying the selected information in a region where the information is displayed in the other image. Features.
本発明によれば、OCTAで得られる血流部位に関する画像とOCT等で得られる構造情報との対応を容易に得ることが可能となる。 According to the present invention, it is possible to easily obtain a correspondence between an image relating to a blood flow site obtained by OCTA and structural information obtained by OCT or the like.
以下、本発明の実施形態について図面に基づいて説明する。なお、以下の実施形態は特許請求の範囲に関わる本発明を限定するものではなく、また、以下の実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention related to the claims, and all combinations of features described in the following embodiments are essential to the solution of the present invention. Not exclusively.
また、本明細書中では、OCT信号を画像として表示したものを強度画像と呼ぶ。さらに、OCT信号から時間変調が起こっている信号を画像として表示したものをモーションコントラスト画像、またその画素値をモーションコントラスト、そのデータセットをモーションコントラストデータと呼ぶ。 Further, in this specification, an OCT signal displayed as an image is referred to as an intensity image. Furthermore, a signal in which a time-modulated signal is displayed from the OCT signal as an image is called a motion contrast image, its pixel value is called a motion contrast, and its data set is called a motion contrast data.
(第一の実施形態)
本実施形態では、撮影された3次元光干渉信号から断層画像を生成し、モーションコントラストを算出して、3次元血流部位情報を取得する例を示す。
(First embodiment)
In the present embodiment, an example will be described in which a tomographic image is generated from a captured three-dimensional optical interference signal, motion contrast is calculated, and three-dimensional blood flow site information is obtained.
[画像形成装置全体の構成]
図1は、本発明の実施形態における光干渉断層法を用いた画像形成方法及び装置の構成例を示す図である。画像形成方法及び装置は、光干渉断層信号を取得する光干渉断層取得部であるOCT装置100と制御部143とから構成される。なお、OCT装置としては、例えば上述したSD−OCTやSS−OCTが本発明に適用可能である。以下に述べる実施形態では、OCT装置がSS−OCTである場合の構成を示す。
[Configuration of entire image forming apparatus]
FIG. 1 is a diagram illustrating a configuration example of an image forming method and apparatus using optical coherence tomography according to an embodiment of the present invention. The image forming method and apparatus include an OCT apparatus 100 that is an optical coherence tomography acquisition unit that acquires an optical coherence tomography signal and a control unit 143. As the OCT apparatus, for example, the above-described SD-OCT or SS-OCT is applicable to the present invention. The embodiment described below shows a configuration in a case where the OCT apparatus is SS-OCT.
<OCT装置100の構成>
OCT装置100の構成について以下に図1を参照して説明する。
光源101は波長掃引型(Swept Source:以下SS)光源であり、例えば、掃引中心波長1050nm、掃引幅100nmで掃引しながら光を出射する。
<Configuration of OCT device 100>
The configuration of the OCT apparatus 100 will be described below with reference to FIG.
The light source 101 is a wavelength sweep type (Swept Source: SS) light source, and emits light while sweeping at a sweep center wavelength of 1050 nm and a sweep width of 100 nm, for example.
光源101から出射された光は光ファイバ102を介して、ビームスプリッタ110に導かれ、測定光(OCT測定光とも言う)と参照光(OCT測定光に対応する参照光とも言う)に分岐される。ビームスプリッタ110の分岐比は、90(参照光):10(測定光)である。分岐された測定光は、光ファイバ111を介して測定光路に出射される該測定光路には、光ファイバ111から被検眼118まで順に、コリメータレンズ112、ガルバノスキャナ114、スキャンレンズ115、及びフォーカスレンズ116が配置される。 Light emitted from the light source 101 is guided to the beam splitter 110 via the optical fiber 102, and is split into measurement light (also referred to as OCT measurement light) and reference light (also referred to as reference light corresponding to the OCT measurement light). . The splitting ratio of the beam splitter 110 is 90 (reference light): 10 (measurement light). The branched measurement light is emitted to the measurement optical path via the optical fiber 111. The measurement optical path includes a collimator lens 112, a galvano scanner 114, a scan lens 115, and a focus lens in order from the optical fiber 111 to the subject's eye 118. 116 is arranged.
測定光路に射出された測定光は、コリメータレンズ112によって平行光とされる。平行光となった測定光は、被検眼118の眼底Erにおいて測定光を走査するガルバノスキャナ114、スキャンレンズ115、及びフォーカスレンズ116を介して被検眼118に入射する。ここで、ガルバノスキャナ114は単一のミラーとして記載したが、実際は被検眼118の眼底Erをラスタースキャンするように不図示の2枚のガルバノスキャナ、例えばX軸スキャナーとY軸スキャナーとによって構成されている。 The measurement light emitted to the measurement optical path is made into parallel light by the collimator lens 112. The parallel measuring light enters the eye 118 via a galvano scanner 114, a scanning lens 115, and a focus lens 116 that scans the measuring light at the fundus Er of the eye 118. Here, the galvano scanner 114 is described as a single mirror, but is actually constituted by two galvano scanners (not shown) such as an X-axis scanner and a Y-axis scanner so as to raster-scan the fundus Er of the eye 118 to be inspected. ing.
フォーカスレンズ116はステージ117上に固定されており、該ステージ117が光軸方向に動くことで、フォーカスレンズ116によるフォーカス調整をすることができる。ガルバノスキャナ114とステージ117は後述する信号取得制御部145によって制御され、被検眼118の眼底Erの所望の範囲(断層画像の取得範囲、断層画像の取得位置、測定光の照射位置とも言う)で測定光を走査することができる。 The focus lens 116 is fixed on the stage 117, and the focus of the focus lens 116 can be adjusted by moving the stage 117 in the optical axis direction. The galvano scanner 114 and the stage 117 are controlled by a signal acquisition control unit 145, which will be described later, and within a desired range of the fundus Er of the subject's eye 118 (also referred to as a tomographic image acquisition range, tomographic image acquisition position, and measurement light irradiation position). The measuring light can be scanned.
なお、本実施形態では詳細な説明はしていないが、眼底Erの動きを検出し、ガルバノスキャナ114のミラーを眼底Erの動きに追従させて走査させるトラッキング機能が付与されていることが望ましい。トラッキング方法については一般的な技術を用いて行うことが可能であり、リアルタイムで行うことも、ポストプロセッシングで行うことも可能である。 Although not described in detail in the present embodiment, it is preferable that a tracking function for detecting the movement of the fundus Er and scanning the mirror of the galvano scanner 114 by following the movement of the fundus Er is provided. The tracking method can be performed using a general technique, and can be performed in real time or by post-processing.
眼底Erの動き検出のために眼底画像を得る方法として、例えば、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope:SLO)を用いる方法がある。この方法では、眼底Erの画像について、SLOを用いて光軸に対して垂直な面内の画像(眼底表面画像)を経時的に取得し、画像中の血管分岐などの特徴箇所を抽出する。取得する2次元画像中の特徴箇所がどのように動いたかを眼底Erの移動量として算出し、算出した移動量をガルバノスキャナ114にフィードバックすることでリアルタイムトラッキングを行うことができる。 As a method of obtaining a fundus image for detecting the movement of the fundus Er, for example, there is a method using a scanning laser ophthalmoscope (SLO). In this method, an image in the plane perpendicular to the optical axis (fundus surface image) is acquired with time using an SLO with respect to an image of the fundus Er, and characteristic portions such as blood vessel bifurcations in the image are extracted. It is possible to perform real-time tracking by calculating how the characteristic portion in the acquired two-dimensional image has moved as a movement amount of the fundus Er, and feeding back the calculated movement amount to the galvano scanner 114.
上述したように、測定光はステージ117上に乗ったフォーカスレンズ116を介して被検眼118に入射し、該フォーカスレンズ116により眼底Erにフォーカスされる。眼底Erを照射した測定光は各網膜層で反射・散乱し、上述の測定光路を経てビームスプリッタ110に戻る。ビームスプリッタ110に入射した測定光の戻り光は光ファイバ126を経由し、ビームスプリッタ128に入射する。 As described above, the measurement light is incident on the subject's eye 118 via the focus lens 116 on the stage 117, and is focused on the fundus Er by the focus lens 116. The measurement light irradiated to the fundus Er is reflected and scattered by each retinal layer, and returns to the beam splitter 110 via the above-described measurement optical path. The return light of the measurement light that has entered the beam splitter 110 enters the beam splitter 128 via the optical fiber 126.
一方、ビームスプリッタ110で分岐された参照光は、光ファイバ119a、偏光制御器150、及び光ファイバ119b、を介して参照光路に出射される該参照光路には、光ファイバ119bより順に、コリメータレンズ120、分散補償ガラス122、NDフィルタ123、コリメータレンズ124が配置される。 On the other hand, the reference light split by the beam splitter 110 is output to the reference light path via the optical fiber 119a, the polarization controller 150, and the optical fiber 119b. 120, a dispersion compensation glass 122, an ND filter 123, and a collimator lens 124 are arranged.
光ファイバ119bより射出された参照光は、コリメータレンズ120によって平行光とされる。偏光制御器150は参照光の偏光を所望の偏光状態へ変化させることができる。参照光は分散補償ガラス122、NDフィルタ123、及びコリメータレンズ124を介し、光ファイバ127に入射する。コリメータレンズ124と光ファイバ127の一端はコヒーレンスゲートステージ125の上に固定されており、被検者の眼軸長の相違等に対応してこれらコリメータレンズ124等を光軸方向に駆動するように、後述する信号取得制御部145で制御される。なお本実施形態では参照光の光路長を変更しているが、測定光の光路と参照光の光路との光路長差を変更できればよい。 The reference light emitted from the optical fiber 119b is collimated by the collimator lens 120. The polarization controller 150 can change the polarization of the reference light to a desired polarization state. The reference light enters the optical fiber 127 via the dispersion compensating glass 122, the ND filter 123, and the collimator lens 124. One end of the collimator lens 124 and one end of the optical fiber 127 are fixed on the coherence gate stage 125 so that the collimator lens 124 and the like are driven in the optical axis direction according to the difference in the axial length of the subject. , And is controlled by a signal acquisition control unit 145 described later. In the present embodiment, the optical path length of the reference light is changed. However, it is sufficient that the optical path length difference between the optical path of the measurement light and the optical path of the reference light can be changed.
光ファイバ127を通過した参照光はビームスプリッタ128に入射する。ビームスプリッタ128では上述した測定光の戻り光と参照光とが合波されて干渉光とされた上で二つに分割される。分割される干渉光は、互いに反転した位相の干渉光(以下、正の成分及び負の成分と表現する)となっている。分割された干渉光の正の成分は光ファイバ129を経由してディテクタ141の一方の入力ポートに入射する。一方、干渉光の負の成分は光ファイバ130を経由してディテクタ141の他方の入力ポートに入射する。ディテクタ141は差動検出器となっており、位相が180°反転した二つの干渉信号が入力されると、直流成分を除去し、干渉成分のみを出力する。 The reference light that has passed through the optical fiber 127 enters the beam splitter 128. In the beam splitter 128, the return light of the measurement light and the reference light described above are multiplexed to form interference light, and then split into two. The split interference light is interference light having phases inverted to each other (hereinafter, referred to as a positive component and a negative component). The positive component of the split interference light enters one input port of the detector 141 via the optical fiber 129. On the other hand, the negative component of the interference light enters the other input port of the detector 141 via the optical fiber 130. The detector 141 is a differential detector. When two interference signals having phases inverted by 180 ° are input, the detector 141 removes a DC component and outputs only an interference component.
ディテクタ141で検出された干渉信号は光の強度に応じた電気信号として出力され、断層画像生成部の一例である信号処理部144に入力する。 The interference signal detected by the detector 141 is output as an electric signal corresponding to the light intensity, and is input to a signal processing unit 144 which is an example of a tomographic image generation unit.
<制御部143の構成>
本装置全体を制御するための制御部143について説明する。
制御部143は信号処理部144、信号取得制御部145、表示部146、及び表示制御部149によって構成される。また、信号処理部144はさらに、画像生成部147とマップ生成部148を持つ構成となっている。画像生成部147は送られる電気信号から輝度画像及びモーションコントラスト画像を生成する機能を有し、マップ生成部148は輝度画像から層情報(網膜のセグメンテーション)を生成する機能を有する。
<Configuration of control unit 143>
The control unit 143 for controlling the entire apparatus will be described.
The control unit 143 includes a signal processing unit 144, a signal acquisition control unit 145, a display unit 146, and a display control unit 149. Further, the signal processing unit 144 further includes an image generation unit 147 and a map generation unit 148. The image generator 147 has a function of generating a luminance image and a motion contrast image from the transmitted electric signal, and the map generator 148 has a function of generating layer information (retinal segmentation) from the luminance image.
信号取得制御部145は、上述の通りにステージ117、コヒーレンスゲートステージ125等の各部を制御する。信号処理部144はディテクタ141から出力される信号に基づき、画像の生成、生成された画像の解析、及び解析結果の可視情報の生成を行う。 The signal acquisition control unit 145 controls each unit such as the stage 117 and the coherence gate stage 125 as described above. The signal processing unit 144 generates an image, analyzes the generated image, and generates visible information of the analysis result based on the signal output from the detector 141.
信号処理部144で生成される画像や解析結果は表示制御部149に送られ、表示制御部149は表示部146の表示画面に表示させる。ここで、表示部146は、例えば液晶等のディスプレイである。なお、信号処理部144で生成された画像データは表示制御部149に送られた後、表示部146に有線で送信されてもよいし、無線で送信されてもよい。また、本実施形態において表示部146等は制御部143に含まれているが、本発明はこれに限らず、制御部143とは別に設けられても良く、例えばユーザが持ち運び可能な装置の一例であるタブレットでもよい。この場合、表示部にタッチパネル機能を搭載させ、タッチパネル上で画像の表示位置の移動、拡大縮小、表示される画像の変更等を操作可能に構成することが好ましい。 The image and the analysis result generated by the signal processing unit 144 are sent to the display control unit 149, and the display control unit 149 causes the display screen of the display unit 146 to display the image and the analysis result. Here, the display unit 146 is a display such as a liquid crystal display, for example. Note that the image data generated by the signal processing unit 144 may be sent to the display control unit 149 and then sent to the display unit 146 by wire or wirelessly. In the present embodiment, the display unit 146 and the like are included in the control unit 143. However, the present invention is not limited to this, and may be provided separately from the control unit 143. For example, an example of a device that can be carried by a user Tablet. In this case, it is preferable that a touch panel function be mounted on the display unit so that the display position of the image can be moved, enlarged / reduced, and the displayed image can be changed on the touch panel.
[スキャンパターン]
<OCT装置における測定光の走査様式>
ここで、OCT装置において測定光を走査する様式について説明する。上述したように被検眼118の眼底上の任意の点に照射した測定光の戻り光と、対応する参照光とから干渉光を得ている。信号処理部144では、ディテクタ141で検出された干渉光の強度に応じた電気信号を処理して当該任意の点における深さ方向の画像データを得る。以上が、被検眼118のある1点における断層に関する情報の取得のプロセスの説明である。このように被検眼118の奥行き方向の断層に関する情報を取得することをA−scanと呼ぶ。
[Scan pattern]
<Scanning mode of measuring light in OCT device>
Here, a manner of scanning the measuring light in the OCT apparatus will be described. As described above, interference light is obtained from the return light of the measurement light applied to an arbitrary point on the fundus of the subject's eye 118 and the corresponding reference light. The signal processing unit 144 processes an electric signal according to the intensity of the interference light detected by the detector 141 to obtain image data in the depth direction at the arbitrary point. The above is the description of the process of acquiring information relating to a tomogram at one point of the subject's eye 118. Acquiring information about a tomographic slice in the depth direction of the subject's eye 118 in this manner is called A-scan.
また、A−scanと直交する方向で被検眼118の断層に関する情報、すなわち2次元画像を取得するための走査方向において前述した奥行き方向についての複数の断層に関する情報を取得することをB−scanと呼ぶ。さらに、A−scan及びB−scanのいずれの走査方向とも直交する走査方向において奥行き方向についての複数の断層に関する情報を取得することをC−scanと呼ぶ。3次元断層像を取得する際に眼底面内に2次元ラスター走査する場合、高速な走査方向がB−scan方向、B−scanをその直交方向に並べて走査する低速な走査方向をC−scan方向と呼ぶ。A−scan及びB−scanを行うことで2次元の断層像が得られ、A−scan、B−scan及びC−scanを行うことで、3次元の断層像を得ることができる。これらB−scan並びにC−scanは、上述したガルバノスキャナ114により行われる。 Further, acquiring information about a tomographic image of the subject's eye 118 in a direction orthogonal to A-scan, that is, acquiring information about a plurality of tomographic images in the depth direction described above in the scanning direction for acquiring a two-dimensional image is referred to as B-scan. Call. Further, acquiring information on a plurality of tomograms in the depth direction in a scanning direction orthogonal to both the A-scan and B-scan scanning directions is referred to as C-scan. When two-dimensional raster scanning is performed on the fundus oculi when acquiring a three-dimensional tomographic image, the high-speed scanning direction is the B-scan direction, and the low-speed scanning direction in which the B-scans are arranged in the orthogonal direction is the C-scan direction. Call. By performing A-scan and B-scan, a two-dimensional tomographic image can be obtained. By performing A-scan, B-scan, and C-scan, a three-dimensional tomographic image can be obtained. These B-scan and C-scan are performed by the galvano scanner 114 described above.
上述したように、ガルバノスキャナ114は不図示のX軸スキャナー及びY軸スキャナーより構成され、その各々はそれぞれ回転軸が互いに直交するよう配置された偏向ミラーで構成されている。X軸スキャナーは例えば眼底Er上で測定光のX軸方向の走査を行い、Y軸スキャナーはY軸方向の走査を行う。X軸方向、Y軸方向の各方向は、眼球の眼軸方向に対して垂直な方向で、互いに垂直な方向である。 As described above, the galvano scanner 114 is constituted by an X-axis scanner and a Y-axis scanner (not shown), each of which is constituted by a deflecting mirror whose rotation axis is orthogonal to each other. The X-axis scanner scans the measurement light in the X-axis direction on the fundus Er, for example, and the Y-axis scanner scans in the Y-axis direction. Each of the X-axis direction and the Y-axis direction is a direction perpendicular to the direction of the eye axis of the eyeball, and is a direction perpendicular to each other.
また、B−scan及びC−scanのようなライン走査方向と、X軸方向又はY軸方向とは、一致していなくてもよい。このため、B−scan、C−scanのライン走査方向は、撮像したい2次元の断層像あるいは3次元の断層像に応じて、適宜決めることができる。 Further, the line scanning direction such as B-scan and C-scan does not need to coincide with the X-axis direction or the Y-axis direction. For this reason, the B-scan and C-scan line scanning directions can be appropriately determined according to the two-dimensional tomographic image or the three-dimensional tomographic image to be captured.
<本実施形態における測定光の走査様式>
OCTAでは血流によるOCT干渉信号の時間変化を計測するため、同じ場所で複数回の計測が必要となる。本実施形態ではOCT装置は同じ場所でのBスキャン(X軸方向のスキャン)をm回繰り返しつつ、n箇所のyポジション(Y軸方向に測定光の照射位置を移動させた位置)に走査位置を移動するスキャンを行う。具体的なスキャンパターンを図2に示す。同図に示すように、本実施形態では、眼底平面上でy1〜ynのn箇所のyポジションについて、それぞれBスキャンを繰り返しm回ずつ実施する。
<Scanning mode of measurement light in the present embodiment>
In OCTA, a time change of an OCT interference signal due to a blood flow is measured, so that multiple measurements are required at the same place. In the present embodiment, the OCT apparatus repeats the B scan (scan in the X-axis direction) at the same place m times, and moves the scan position to n y positions (positions where the measurement light irradiation position is moved in the Y-axis direction). Do the scan to move. FIG. 2 shows a specific scan pattern. As shown in the figure, in this embodiment, the B scan is repeatedly performed m times for each of n positions y1 to yn on the fundus plane.
ここで、mの値が大きいと同じ場所での計測回数が増えるため、血流の検出精度が向上する。その一方でスキャン時間が長くなり、スキャン中の眼の動き(固視微動)により画像にモーションアーチファクトが発生する問題と被検者の負担が増える問題とが生じる。本実施形態では両者のバランスを考慮してm=4として実施した。なお、OCT装置のAスキャン速度、及び被検眼118の眼底表面画像の運動解析に応じて、制御部143はmを自動的に変更することとしてもよい。 Here, if the value of m is large, the number of times of measurement at the same place increases, so that the accuracy of blood flow detection is improved. On the other hand, the scan time becomes longer, and there arises a problem that motion artifacts occur in the image due to the movement of the eyes (fine fixation) during the scan and a problem that the burden on the subject increases. In this embodiment, m = 4 in consideration of the balance between the two. The control unit 143 may automatically change m in accordance with the A-scan speed of the OCT apparatus and the motion analysis of the fundus oculi surface image of the subject's eye 118.
また図2においてpは1つのBスキャンにおけるAスキャンのサンプリング数を示している。すなわち、1つのBスキャンにおいてx1〜xpの位置各々でAスキャンを行っており、p×nにより平面画像サイズが決定される。p×nの値が大きいと、同じ計測ピッチであれば広範囲がスキャンできるが、スキャン時間が長くなり、上述のモーションアーチファクト及び患者負担の問題が生じる。本実施形態では両者のバランスを考慮してn=p=300として実施した。なお、上述したn、pは適宜自由にその値の変更が可能である。 In FIG. 2, p indicates the sampling number of the A scan in one B scan. That is, in one B scan, the A scan is performed at each of the positions x1 to xp, and the plane image size is determined by p × n. If the value of p × n is large, a wide range can be scanned with the same measurement pitch, but the scan time becomes long, and the above-described problems of motion artifact and patient burden occur. In this embodiment, n = p = 300 in consideration of the balance between the two. The values of n and p described above can be freely changed as needed.
また、図2におけるΔxは隣り合うxポジションの間隔(xピッチ)であり、Δyは隣り合うyポジションの間隔(yピッチ)である。本実施形態ではxピッチ、yピッチは眼底における照射光のビームスポット径の1/2として決定し、10μmとする。xピッチ、yピッチを眼底上ビームスポット径の1/2とすることで 生成する画像を高精細に形成することができる。なお、xピッチ及びyピッチを眼底ビームスポット径の1/2より小さくしても生成する画像の精細度をそれ以上高くする効果は小さい。 Further, Δx in FIG. 2 is an interval (x pitch) between adjacent x positions, and Δy is an interval (y pitch) between adjacent y positions. In the present embodiment, the x pitch and the y pitch are determined as の of the beam spot diameter of the irradiation light on the fundus, and are set to 10 μm. By setting the x pitch and the y pitch to ビ ー ム of the beam spot diameter on the fundus, a generated image can be formed with high definition. Note that even if the x pitch and the y pitch are smaller than 1/2 of the fundus beam spot diameter, the effect of further increasing the definition of the generated image is small.
逆にxピッチ及びyピッチを眼底ビームスポット径の1/2より大きくすると精細度は悪化するが、小さなデータ容量で広い範囲の画像を取得することができる。しかし、臨床上の要求に応じてxピッチ及びyピッチを各々自由に変更してもよい。
本実施形態のスキャン範囲は、x方向がp×Δx=3mm、y方向がn×Δy=3mmである。
Conversely, when the x pitch and the y pitch are larger than 1/2 of the fundus beam spot diameter, the definition deteriorates, but a wide range of images can be acquired with a small data capacity. However, the x pitch and the y pitch may be freely changed according to clinical requirements.
The scan range of this embodiment is p × Δx = 3 mm in the x direction and n × Δy = 3 mm in the y direction.
<OCT干渉信号とOCTA信号の取得様式>
OCT干渉信号の取得と、OCTAの信号の取得とは、同一の工程であっても別々の工程であってもよい。ここでは、OCT干渉信号の取得とOCTAの信号の取得を同一の工程で取得する場合について説明する。同一の工程で取得する場合、信号取得制御部145は、測定光でのスキャンにおいて同一位置を複数回測定することで、3次元断層画像を形成する際に用いる複数フレーム分の干渉信号セットを取得する。ここで、該信号取得制御部145は、信号取得手段として機能する。なお、干渉信号セットとは、上述した一Bスキャンにより得られる干渉信号のセットであって、Bスキャンによる断層画像を一フレーム分生成可能な干渉信号のセットを意味する。また、被検眼は常に固視微動を行うため、被検眼における同一位置を複数回走査して複数フレーム分の干渉信号セット得て被検眼の同一断面の画像を構成しようとしても、実際には同一断面を正確に得ることは困難である。よって、ここで述べる複数フレーム分の干渉信号セットは、同一断面を意図して取得される複数フレーム分の干渉信号セットとして把握される。
<Acquisition style of OCT interference signal and OCTA signal>
The acquisition of the OCT interference signal and the acquisition of the OCTA signal may be the same step or separate steps. Here, a case where acquisition of an OCT interference signal and acquisition of an OCTA signal are acquired in the same step will be described. When acquiring in the same process, the signal acquisition control unit 145 acquires an interference signal set for a plurality of frames used when forming a three-dimensional tomographic image by measuring the same position a plurality of times in scanning with the measurement light. I do. Here, the signal acquisition control unit 145 functions as a signal acquisition unit. The interference signal set is a set of interference signals obtained by the above-described one B scan, and means a set of interference signals capable of generating one frame of a tomographic image by the B scan. In addition, since the eye to be examined always performs fine fixation, even if the same position in the eye to be examined is scanned a plurality of times to obtain an interference signal set for a plurality of frames to form an image of the same cross section of the eye to be examined, actually the same It is difficult to obtain an accurate cross section. Therefore, the interference signal set for a plurality of frames described here is grasped as an interference signal set for a plurality of frames acquired with the intention of the same cross section.
信号処理部144は、これら干渉信号セットを処理することでOCT干渉信号とOCTAの信号を算出する。同一工程で取得した干渉信号セットを利用することで、OCTによる強度画像とOCTAによるモーションコントラスト画像との各画素は同一の位置とする事ができる。即ち、本実施形態において、OCT強度画像の生成に用いる干渉信号セットは、OCTAによるモーションコントラスト画像を生成するために取得される複数フレーム分の干渉信号セットに含まれる。さらに2次元画像として表示されるOCT強度画像は、上述した複数フレーム分の取得した干渉信号セットの少なくとも2つ以上の干渉信号セット、即ち2つ分のフレームを使って平均化(重ね合わせ)して得ることとしてもよい。このような構成とすることで、干渉信号セットに含まれるランダムノイズが平均化され、強度画像のノイズを低減することができる。ここで、該信号処理部144は、同一断面を構成する複数フレーム分の干渉信号セットにおいて各フレーム間で対応する画素データを用いてモーションコントラスト画像を生成するモーションコントラスト画像生成手段として機能する。 The signal processing unit 144 calculates the OCT interference signal and the OCTA signal by processing these interference signal sets. By using the interference signal set acquired in the same step, each pixel of the intensity image by OCT and the motion contrast image by OCTA can be at the same position. That is, in the present embodiment, the interference signal set used for generating the OCT intensity image is included in the interference signal set for a plurality of frames acquired to generate the motion contrast image by OCTA. Further, the OCT intensity image displayed as a two-dimensional image is averaged (superimposed) using at least two or more interference signal sets of the interference signal sets acquired for a plurality of frames, that is, two frames. May be obtained. With such a configuration, random noise included in the interference signal set is averaged, and noise in the intensity image can be reduced. Here, the signal processing unit 144 functions as a motion contrast image generation unit that generates a motion contrast image using pixel data corresponding to each frame in an interference signal set for a plurality of frames forming the same cross section.
次に、OCT干渉信号の取得とOCTAの信号取得を別々の工程で取得する場合について説明する。別々の工程の場合、信号取得制御部145は、例えばOCT干渉信号の取得の後に、OCTAの信号取得を実行させる。OCT干渉信号の取得時のスキャンパターンにおいては、該スキャンパターンに対応した繰り返し回数、ピッチ等の値になる。例えば、OCT干渉信号の取得は、必ずしもBスキャンをm回ずつ繰り返す必要はない。また、スキャン範囲がOCT干渉信号の取得とOCTAの信号取得とで同一である必要もない。従って、同一のスキャン時間であれば、OCT干渉信号の取得の方が第一の所定範囲として広範囲で取得することができる。また別々の工程とした場合、OCTによる3次元断層像で広い範囲を観察しつつ、第一の所定範囲に含まれる第二の所定範囲として所定の関心領域のみ詳細にOCTAの信号取得をするといった使い方ができる。 Next, a case where acquisition of an OCT interference signal and acquisition of an OCTA signal are acquired in separate steps will be described. In the case of separate steps, the signal acquisition control unit 145 causes the OCTA signal acquisition to be executed, for example, after the acquisition of the OCT interference signal. In the scan pattern at the time of acquisition of the OCT interference signal, values such as the number of repetitions and the pitch corresponding to the scan pattern are used. For example, the acquisition of the OCT interference signal does not necessarily need to repeat the B scan m times. Further, the scan range does not need to be the same between the acquisition of the OCT interference signal and the acquisition of the OCTA signal. Therefore, if the scan time is the same, the OCT interference signal can be obtained in a wider range as the first predetermined range. In the case of separate steps, OCTA signals are acquired in detail only in a predetermined region of interest as a second predetermined range included in the first predetermined range while observing a wide range with a three-dimensional tomographic image by OCT. Can be used.
次に、図3に示すフローチャートを用いて、本実施形態の画像形成方法の具体的な処理の手順を説明する。なお、当該フローに示される各処理の詳細説明は後述する。図3では、OCT干渉信号の取得とOCTAの信号取得を別々の工程で取得する例で説明する。 Next, a specific processing procedure of the image forming method according to the present embodiment will be described with reference to a flowchart illustrated in FIG. A detailed description of each process shown in the flow will be described later. FIG. 3 illustrates an example in which acquisition of an OCT interference signal and acquisition of an OCTA signal are performed in separate steps.
第一の信号取得工程即ち2次元画像として表示される被検体画像取得工程であるステップS101において、信号取得制御部145はOCT装置100を制御し、光干渉断層信号を取得する。 In step S101, which is a first signal acquisition step, that is, an object image acquisition step displayed as a two-dimensional image, the signal acquisition control unit 145 controls the OCT apparatus 100 to acquire an optical coherence tomographic signal.
第二の信号取得工程即ち信号取得工程であるステップS102において、信号取得制御部145はOCT装置100を制御し、光干渉断層信号を複数フレーム分取得する。より詳細には、副走査方向における同一位置を複数回走査するように制御された測定光に基づく干渉信号セットを複数フレーム分取得する。更に、この操作を副走査方向に走査位置をずらせながら異なる複数の断面からの干渉信号セットを得るために複数回実行して、3次元断層像を形成できるだけの干渉信号セットの取得を行う。 In step S102, which is a second signal acquisition step, that is, a signal acquisition step, the signal acquisition control unit 145 controls the OCT apparatus 100 to acquire an optical coherence tomographic signal for a plurality of frames. More specifically, an interference signal set for a plurality of frames based on the measurement light controlled to scan the same position in the sub-scanning direction a plurality of times is acquired. Further, this operation is performed a plurality of times in order to obtain interference signal sets from a plurality of different cross sections while shifting the scanning position in the sub-scanning direction, thereby acquiring an interference signal set that can form a three-dimensional tomographic image.
強度画像生成工程であるステップS103において、制御部143は第一の信号取得工程で取得された光干渉断層信号に基づいて、被検眼118の3次元断層像データを算出し、強度画像を生成する。さらに、制御部143は第二の信号取得工程により取得された複数フレームの光干渉断層信号から3次元モーションコントラストデータを算出し、3次元モーションコントラスト画像を生成する。 In step S103, which is an intensity image generation step, the control unit 143 calculates three-dimensional tomographic image data of the subject's eye 118 based on the optical coherence tomographic signal acquired in the first signal acquisition step, and generates an intensity image. . Further, the control unit 143 calculates three-dimensional motion contrast data from the optical coherence tomographic signals of a plurality of frames acquired in the second signal acquiring step, and generates a three-dimensional motion contrast image.
表示工程であるステップS104において、制御部143は強度画像及び3次元モーションコントラスト画像から表示情報を生成し表示する。制御部143は検者の操作に応じて、表示情報を再構成し再表示する。再構成の処理の詳細説明については、後述する。
以上のステップを実施して、本実施形態の画像形成方法の処理の手順を終了する。
In step S104, which is a display step, the control unit 143 generates and displays display information from the intensity image and the three-dimensional motion contrast image. The control unit 143 reconstructs and redisplays the display information according to the operation of the examiner. The detailed description of the reconstruction process will be described later.
After performing the above steps, the processing procedure of the image forming method of the present embodiment ends.
[干渉信号取得手順]
次に、図4を用いて、上述した本実施形態の第一及び第二の信号取得ステップS101及びS102の具体的な処理の手順を説明する。
[Interference signal acquisition procedure]
Next, a specific procedure of the first and second signal acquisition steps S101 and S102 of the above-described embodiment will be described with reference to FIG.
ステップS109において、信号取得制御部145は図2のポジションyiのインデックスiを1に設定する。ステップS110において、OCT装置100はスキャン位置をyiに移動する。ステップS119において、信号取得制御部145は繰り返しBスキャンのインデックスjを1に設定する。ステップS120において、OCT装置100はBスキャンを実施する。 In step S109, the signal acquisition control unit 145 sets the index i of the position yi in FIG. In step S110, the OCT apparatus 100 moves the scan position to yi. In step S119, the signal acquisition control unit 145 sets the index j of the repetitive B scan to 1. In step S120, the OCT apparatus 100 performs a B scan.
ステップS130においてディテクタ141はAスキャン毎に干渉信号を検出し、不図示のA/D変換器を介して上述した干渉信号が信号処理部144に記憶される。信号処理部144はAスキャンの干渉信号をpサンプル取得することで、1Bスキャン分の干渉信号とする。 In step S130, the detector 141 detects an interference signal for each A scan, and the above-described interference signal is stored in the signal processing unit 144 via an A / D converter (not shown). The signal processing unit 144 obtains p samples of the interference signal of the A scan, thereby obtaining an interference signal for 1B scan.
ステップS139において、信号取得制御部145は繰り返しBスキャンのインデックスjをインクリメントする。 In step S139, the signal acquisition control unit 145 repeatedly increments the index j of the B scan.
ステップS140において信号取得制御部145はjが所定回数(m)より大きいか判断する。すなわち、ポジションyiでのBスキャンがm回繰り返されたかを判断する。繰り返されてない場合はS120に戻り、同一位置のBスキャン計測を繰り返す。所定回数繰り返された場合は、S149に進む。ステップS149において、信号取得制御部145はポジションyiのインデックスiをインクリメントする。ステップS150において信号取得制御部145はiが所定のY位置の計測回数(n)より大きいか、すなわちn箇所の全てのyポジションでBスキャンを実施したかを判断する。所定のY位置の計測回数に満たない(no)の場合はS110に戻り、次の計測ポジションで計測することを繰り返す。所定のY位置の計測回数を終了した(yes)場合は、次のステップS160へ進む。なお、ここで述べた第一の及び第二の信号取得ステップS101及びS102では、それぞれi=1、m=4とした。 In step S140, the signal acquisition control unit 145 determines whether j is larger than a predetermined number (m). That is, it is determined whether the B scan at the position yi has been repeated m times. If not, the process returns to S120 and repeats the B-scan measurement at the same position. If it has been repeated a predetermined number of times, the process proceeds to S149. In step S149, the signal acquisition control unit 145 increments the index i of the position yi. In step S150, the signal acquisition control unit 145 determines whether i is larger than the predetermined number of measurements (n) at the Y position, that is, whether the B scan has been performed at all n y positions. If the number of measurements at the predetermined Y position is less than (no), the process returns to S110, and the measurement at the next measurement position is repeated. If the number of measurements at the predetermined Y position has been completed (yes), the process proceeds to the next step S160. In the first and second signal acquisition steps S101 and S102 described above, i = 1 and m = 4, respectively.
ステップS160においてOCT装置100はバックグラウンドデータを取得する。OCT装置100は不図示のシャッターを閉じた状態で100回のAスキャンを実行し、信号取得制御部145はこの100回のAスキャンで得られた信号を平均化して記憶する。なお、バックグラウンドの測定回数はここで例示した100回に限るものではない。 In step S160, the OCT apparatus 100 acquires background data. The OCT apparatus 100 executes 100 A-scans with the shutter (not shown) closed, and the signal acquisition control unit 145 averages and stores the signals obtained in the 100 A-scans. Note that the number of background measurements is not limited to 100 as exemplified herein.
以上の各処理を実施して、本発明の干渉信号取得手順を終了することになる。 By performing each of the above processes, the interference signal obtaining procedure of the present invention is completed.
なお、OCTA干渉信号の取得では、測定回数やポジションをOCTA干渉信号の取得に対応した値にすることで、OCTの信号取得と同様の手順でOCTA干渉信号を取得することができる。 In the acquisition of the OCTA interference signal, the OCTA interference signal can be acquired in the same procedure as the OCTA signal acquisition by setting the number of measurements and the position to values corresponding to the acquisition of the OCTA interference signal.
なお、本実施形態では、OCT信号を取得し、且つ3次元断層像を形成するために該OCT信号による干渉信号セットから得たデータに基づいて2次元として表示される被検体画像を生成している。前述したようにOCT信号を取得する範囲はOCTA信号を取得する範囲と同一である必要はなく、従って前述したようにこの被検体画像は被検眼118においてOCTA信号を取得する第二の範囲を含む第一の範囲の画像として生成される。 In the present embodiment, an OCT signal is obtained, and a two-dimensional object image is generated based on data obtained from an interference signal set based on the OCT signal to form a three-dimensional tomographic image. I have. As described above, the range in which the OCT signal is obtained does not need to be the same as the range in which the OCTA signal is obtained. Therefore, as described above, this subject image includes the second range in which the OCTA signal is obtained in the subject's eye 118. Generated as a first range image.
[信号処理手順]
次に、図5を用いて、本実施形態として図3に示したステップS103のOCTの3次元画像情報及びOCTAの3次元血流部位情報からなる表示情報生成の具体的な処理を説明する。本発明では、OCTA情報から3次元血流部位情報を生成するために、OCTAのモーションコントラストを計算する。
[Signal processing procedure]
Next, a specific process of generating the display information including the three-dimensional OCT image information and the three-dimensional blood flow region information of the OCTA in step S103 illustrated in FIG. 3 will be described with reference to FIG. In the present invention, a motion contrast of OCTA is calculated in order to generate three-dimensional blood flow region information from OCTA information.
ステップS210において、信号処理部144は、ポジションyiのインデックスiを1に設定する。ステップS220において、信号処理部144は、ポジションyi(ここではi=1)における繰り返しBスキャン干渉信号(m回分)を抜き出す。ステップS230において、信号処理部144は、繰り返しBスキャンのインデックスjを1に設定する。ステップS240において、信号処理部144はj番目(ここではj=1)のBスキャンデータを抜き出す。 In step S210, the signal processing unit 144 sets the index i of the position yi to 1. In step S220, the signal processing unit 144 extracts a repeated B-scan interference signal (m times) at the position yi (here, i = 1). In step S230, the signal processing unit 144 sets the index j of the repetitive B scan to 1. In step S240, the signal processing unit 144 extracts the j-th (here, j = 1) B-scan data.
ステップS250において、信号処理部144は、ステップS240のBスキャンデータの干渉信号に対して、再構成処理を行うことで断層像の輝度画像を生成する。まず画像生成部147は、干渉信号からバックグラウンドデータからなる固定パターンノイズ除去を行う。固定パターンノイズ除去は、検出した複数のバックグラウンドデータのAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。次に、画像生成部147は、有限区間でフーリエ変換した場合にトレードオフの関係となる、深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。その後、FFT処理を行う事によって断層像の輝度画像を生成する。 In step S250, the signal processing unit 144 generates a luminance image of a tomographic image by performing a reconstruction process on the interference signal of the B scan data in step S240. First, the image generation unit 147 removes fixed pattern noise composed of background data from the interference signal. The fixed pattern noise removal is performed by averaging the plurality of detected A-scan signals of the background data to extract fixed pattern noise, and subtracting this from the input interference signal. Next, the image generation unit 147 performs a desired window function process in order to optimize the depth resolution and the dynamic range, which have a trade-off relationship when the Fourier transform is performed in a finite section. Thereafter, a luminance image of the tomographic image is generated by performing the FFT processing.
ステップS260において、信号処理部144は、繰り返しBスキャンのインデックスjをインクリメントする。ステップS270において、信号処理部144は、インクリメントされたjがmより大きいか否かを判断する。すなわち、ポジションyiでのBスキャンの輝度計算がm回繰り返されたかを判断する。noの場合はS240に戻り、同一Y位置での繰り返しBスキャンの輝度計算を繰り返す。yesの場合は、フローは次のステップへ進む。 In step S260, the signal processing unit 144 increments the index j of the repeated B scan. In step S270, the signal processing unit 144 determines whether or not the incremented j is greater than m. That is, it is determined whether the brightness calculation of the B scan at the position yi has been repeated m times. In the case of no, the process returns to S240, and the brightness calculation of the repeated B scan at the same Y position is repeated. If yes, the flow proceeds to the next step.
ステップS280において、信号処理部144は、あるyiポジションにおける繰り返しBスキャンのmフレームを位置合わせする。具体的には、まず信号処理部144は、mフレームのうち、任意の1枚をテンプレートとして選択する。テンプレートとして選択するフレームは、互いに全ての組み合わせで相関を計算し、フレーム別に相関係数の和を求め、その和が最大となるフレームを選択してもよい。次に、テンプレートでフレーム毎に照合し、各々についての位置ずれ量(δX、δY、δθ)を求める。具体的には、テンプレート画像の位置と角度を変えながら類似度を表す指標であるNormalized Cross-Correlation(NCC)を計算し、この値が最大となるときの画像位置の差を位置ずれ量として求める。 In step S280, the signal processing unit 144 positions m frames of the repeated B scan at a certain yi position. Specifically, first, the signal processing unit 144 selects an arbitrary one of the m frames as a template. For the frames to be selected as templates, the correlation may be calculated for all the combinations, the sum of the correlation coefficients may be obtained for each frame, and the frame having the maximum sum may be selected. Next, matching is performed for each frame using the template, and the amount of displacement (δX, δY, δθ) is determined for each frame. Specifically, Normalized Cross-Correlation (NCC), which is an index representing the similarity while changing the position and angle of the template image, is calculated, and the difference between the image positions when this value is the maximum is obtained as the positional deviation amount .
なお、本発明では、類似度を表す指標は、テンプレートとフレーム内の画像の特徴の類似性を表す尺度であれば種々変更が可能である。例えばSum of Abusolute Difference(SAD)、Sum of Squared Difference(SSD)、Zero-means Normalized Cross-Correlation(ZNCC)、Phase Only Correlation(POC)、Rotation Invariant Phase Only Correlation(RIPOC)等を用いてもよい。 In the present invention, the index indicating the similarity can be variously changed as long as it is a scale indicating the similarity between the features of the template and the image in the frame. For example, Sum of Abusolute Difference (SAD), Sum of Squared Difference (SSD), Zero-means Normalized Cross-Correlation (ZNCC), Phase Only Correlation (POC), and Rotation Invariant Phase Only Correlation (RIPOC) may be used.
次に、信号処理部144は、位置ずれ量(δX、δY、δθ)に応じて位置補正をテンプレート以外のm−1フレームに適用し、mフレームの位置合わせを行う。さらに、本実施形態のように、OCTの3次元画像情報、及びOCTAの3次元血流部位情報の取得を別々のステップで行う場合、3次元画像情報及と3次元血流部位情報の間でも位置合わせを行う。即ち、OCT強度画像を生成する目的で取得された干渉信号セットに基づいて算出された3次元断層像のデータと、モーションコントラスト画像を生成する目的で取得された干渉信号セットに基づいて算出された3次元断層像のデータと、の位置あわせが行われる。これらの位置合わせを行う事で、3次元画像情報と3次元血流部位情報の対応を取り易くなる。位置合わせは、フレーム間での位置合わせと同様の手法をとる事ができる。 Next, the signal processing unit 144 applies position correction to the (m-1) frames other than the template in accordance with the amount of positional deviation (δX, δY, δθ), and aligns the m frames. Further, when the three-dimensional image information of the OCT and the three-dimensional blood flow site information of the OCTA are obtained in separate steps as in the present embodiment, the three-dimensional image information and the three-dimensional blood flow site information are also obtained. Perform positioning. That is, the three-dimensional tomographic image data calculated based on the interference signal set acquired for the purpose of generating the OCT intensity image and the interference signal set acquired for the purpose of generating the motion contrast image are calculated. Alignment with the three-dimensional tomographic image data is performed. By performing these alignments, it becomes easy to make correspondence between the three-dimensional image information and the three-dimensional blood flow site information. The positioning can be performed in the same manner as the positioning between frames.
ステップS290において、信号処理部144は、ステップS280で計算した位置合わせされた輝度画像を平均化し、輝度平均化画像を生成する。 In step S290, the signal processing unit 144 averages the aligned luminance images calculated in step S280 to generate a luminance averaged image.
ステップS300において、マップ生成部148は、信号処理部144がステップS290で生成した輝度平均化画像から、網膜のセグメンテーション(部位情報取得)を実行する。なお、ここで述べる第一の実施形態ではこの工程は使用しないため本工程はスキップされる。説明は第二の実施形態で行う。 In step S300, the map generator 148 performs retinal segmentation (part information acquisition) from the luminance averaged image generated by the signal processor 144 in step S290. This step is not used in the first embodiment described here, so that this step is skipped. The description will be given in the second embodiment.
ステップS310において、画像生成部147は、モーションコントラストを計算する。本実施形態では、ステップS250にて信号処理部144が出力したmフレームの各断層像の輝度画像から、同じ位置のピクセルごとに分散値を計算し、その分散値をモーションコントラストとする。 In step S310, the image generation unit 147 calculates a motion contrast. In the present embodiment, a variance value is calculated for each pixel at the same position from a luminance image of each tomographic image of m frames output by the signal processing unit 144 in step S250, and the variance value is used as a motion contrast.
なお、モーションコントラストの求め方は種々ある。例えば、本発明においてモーションコントラストとして用いる特徴量の種類は、同一Y位置での複数Bスキャン像の各ピクセルの輝度値の変化である。従ってこの輝度値の変化を表す指標であれば、モーションコントラストを求めるために適用が可能である。また、モーションコントラストはmフレームの断層像の輝度画像から同じ位置のピクセルごとに分散値の変わりに、他の手法を用いてもよい。例えば、各フレームの同ピクセルごとの平均値で正規化した変動係数を用いることも可能である。 Note that there are various methods for obtaining the motion contrast. For example, the type of the feature amount used as the motion contrast in the present invention is a change in the luminance value of each pixel of the plurality of B scan images at the same Y position. Therefore, any index indicating the change in the luminance value can be applied to obtain the motion contrast. As the motion contrast, another method may be used instead of the variance value for each pixel at the same position from the luminance image of the m-frame tomographic image. For example, it is also possible to use a variation coefficient normalized by an average value for each pixel in each frame.
ステップS320において、信号処理部144は、信号処理部144で出力したモーションコントラストの第一の閾値処理を実行する。第一閾値の値は、信号処理部144がステップS290で出力した輝度平均化画像から求める。具体的には、この輝度平均化画像からノイズフロアでランダムノイズのみが表示されているエリアを抽出し、標準偏差σを計算し、ノイズフロアの平均輝度+2σを第一の閾値として設定する。信号処理部144は、各輝度が、該第一の閾値以下の領域に対応したモーションコントラストの値を0に設定する。 In step S320, the signal processing unit 144 performs the first threshold processing of the motion contrast output by the signal processing unit 144. The value of the first threshold value is obtained from the luminance averaged image output by the signal processing unit 144 in step S290. Specifically, an area where only random noise is displayed on the noise floor is extracted from the luminance averaged image, the standard deviation σ is calculated, and the average luminance of the noise floor + 2σ is set as the first threshold. The signal processing unit 144 sets a motion contrast value corresponding to an area where each luminance is equal to or less than the first threshold to 0.
S320の第一閾値処理により、ランダムノイズによる輝度変化に由来するモーションコントラストを除去することでノイズを軽減することができる。 By the first threshold processing in S320, noise can be reduced by removing motion contrast resulting from luminance change due to random noise.
なお、第一閾値の値は、小さいほどモーションコントラストの検出感度は上がる一方、ノイズ成分も増す。また、大きいほどノイズは減るがモーションコントラスト検出の感度は下がる。本実施形態では閾値をノイズフロアの平均輝度+2σとして設定したが、閾値はこれに限るものではない。 The smaller the value of the first threshold is, the higher the sensitivity of detecting the motion contrast is, while the noise component is also increased. The larger the noise, the lower the noise but the lower the sensitivity of motion contrast detection. In the present embodiment, the threshold is set as the average luminance of the noise floor + 2σ, but the threshold is not limited to this.
ステップS330において、信号処理部144は、ポジションyiのインデックスiをインクリメントする。 In step S330, the signal processing unit 144 increments the index i of the position yi.
ステップS340において、信号処理部144は、iがnより大きいか判断する。すなわち、n箇所の全てのyポジションで位置合わせ、輝度画像平均化計算、モーションコントラストの計算、及び閾値処理をしたかを判断する。 In step S340, the signal processing unit 144 determines whether i is greater than n. That is, it is determined whether positioning has been performed at all of the n y-positions, luminance image averaging calculation, motion contrast calculation, and threshold processing have been performed.
noの場合はS220に戻る。yesの場合は、フローは次のステップS350へ進む。 If no, the process returns to S220. If yes, the flow proceeds to the next step S350.
S340を終了した時点で、すべてのY位置でのBスキャン像(Z深さ対X方向データ)の各ピクセルのモーションコントラストの3次元データ(3次元データ)が取得されたこととなる。ステップS350において、信号処理部144は、これら3次元画像情報から、表示情報生成処理を行う。 When S340 ends, three-dimensional data (three-dimensional data) of the motion contrast of each pixel of the B scan image (Z depth vs. X direction data) at all Y positions is obtained. In step S350, the signal processing unit 144 performs a display information generation process from the three-dimensional image information.
以下に、本実施形態の表示情報生成処理について説明する。図6は、ステップS350にて実行される処理の詳細をフローチャートとして示したものである。 Hereinafter, the display information generation processing of the present embodiment will be described. FIG. 6 is a flowchart illustrating details of the process performed in step S350.
表示情報の生成に際し、ステップS351において、信号処理部144は、先にもとめたモーションコントラストの3次元データを取得する。 When generating the display information, in step S351, the signal processing unit 144 acquires the three-dimensional data of the motion contrast determined earlier.
ステップS352において、信号処理部144は、血流部位情報は残しつつノイズを除去するために、モーションコントラスト3次元データに対して平滑化処理を施す。モーションコントラストの性質によって最適な平滑化処理は異なるが、例えば以下のようなものが考えられる。 In step S352, the signal processing unit 144 performs smoothing processing on the motion contrast three-dimensional data in order to remove noise while leaving blood flow site information. Although the optimum smoothing processing differs depending on the nature of the motion contrast, for example, the following can be considered.
注目画素の近傍nx×ny×nz個のボクセルからモーションコントラストの最大値を出力する平滑化方法。 A smoothing method for outputting the maximum value of the motion contrast from nx × ny × nz voxels near a target pixel.
あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストの平均値を出力する平滑化方法。 Alternatively, a smoothing method for outputting the average value of the motion contrast of nx × ny × nz voxels in the vicinity of the target pixel.
あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストの中央値を出力する平滑化方法。 Alternatively, a smoothing method for outputting the median value of the motion contrast of nx × ny × nz voxels near the pixel of interest.
あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストに対して、距離による重みをつける平滑化方法。 Alternatively, a smoothing method that weights the motion contrast of nx × ny × nz voxels in the vicinity of the pixel of interest by a distance.
あるいは、注目画素の近傍nx×ny×nz個のボクセルのモーションコントラストに対して、距離による重みと注目画素との画素値の差に応じて重みをつける平滑化方法。 Alternatively, a smoothing method in which the motion contrast of nx × ny × nz voxels in the vicinity of the target pixel is weighted according to the difference between the weight based on the distance and the pixel value of the target pixel.
あるいは、注目画素のまわりの小領域のモーションコントラストパターンと、周辺画素のまわりの小領域のモーションコントラストのパターンの類似度に応じた重みを用いた値を出力する平滑化方法。 Alternatively, a smoothing method that outputs a value using a weight according to the similarity between the motion contrast pattern of the small area around the pixel of interest and the motion contrast pattern of the small area around the peripheral pixel.
なお、その他の血流部位情報を残しつつ平滑化をおこなう手法を用いてもよい。 A method of performing smoothing while leaving other blood flow site information may be used.
以上の平滑化処理後、ステップS353において、信号処理部144は、表示制御部149より、ステップS354にて表示する画素を決定する際に用いる閾値及び表示する深さ方向の範囲の初期値を得る。表示範囲の初期値としては通例深さ方向の1/4程度とし、ほぼ網膜表層の範囲が含まれる位置とする。ここで表示範囲の初期値として深さ方向全範囲としないのは、表層部における主要血管・毛細血管網をまずは見やすく表示したいからである。すなわち、主要血管・毛細血管網を含む表層部と血管を有さずノイズの大きいRPE層とを同時に表示すると、表層部における主要血管・毛細血管網の判別に支障をきたす。なお、表示閾値の初期値は、健常眼等で代表的な値を事前に得ておき、設定しておけばよい。あるいは、繰返し撮影を行う場合、前回の撮影データを利用してもよい。また、後述するステップで表示閾値を調整してもよい。 After the above-described smoothing processing, in step S353, the signal processing unit 144 obtains, from the display control unit 149, a threshold value used for determining a pixel to be displayed in step S354 and an initial value of a range in the depth direction to be displayed. . The initial value of the display range is usually set to about 1/4 of the depth direction, and is set to a position substantially including the range of the retinal surface layer. The reason why the initial value of the display range is not set to the entire range in the depth direction is that the main blood vessel / capillary network in the surface layer portion is desired to be displayed in an easy-to-read manner. That is, if the surface layer including the main blood vessel / capillary network and the RPE layer having no blood vessel and having a large noise are displayed at the same time, it is difficult to determine the main blood vessel / capillary network in the surface layer. Note that the initial value of the display threshold may be set in advance by obtaining a typical value for a healthy eye or the like. Alternatively, when repetitive photographing is performed, the previous photographing data may be used. Further, the display threshold may be adjusted in a step described later.
次にステップ354にて、表示閾値の初期値を用い平滑化処理された3次元データに対してこれを超える画素を表示する表示閾値処理を施す。本処理によるモーションコントラストから表示用画素値への変換例を図7に示す。図7(a)では表示閾値以下の画素値をゼロ、閾値上の画素値から最大強度までの画素に比例する表示画素値を割り振る例であり、図7(b)では表示閾値以下の画素値に対しゼロをかけ、それ以上の画素値には1をかけた表示値を割り振った例となる。いずれにしろモーションコントラストが表示閾値以下のものはモーションコントラストが無効化され、表示される連結を持つモーションコントラストを持つ領域が分離した形で表示されることになる。 Next, in step 354, display threshold processing for displaying pixels exceeding the smoothed three-dimensional data using the initial value of the display threshold is performed. FIG. 7 shows an example of conversion from the motion contrast to the display pixel value by this processing. FIG. 7A shows an example in which pixel values below the display threshold are assigned to zero, and display pixel values proportional to pixels from the pixel value above the threshold to the maximum intensity are assigned. FIG. 7B shows pixel values below the display threshold. Is an example in which display values are multiplied by zero, and pixel values higher than the multiplied values are multiplied by one. In any case, if the motion contrast is equal to or less than the display threshold, the motion contrast is invalidated, and the region having the motion contrast having the displayed connection is displayed in a separated form.
図6に示す表示制御部149において実行されるステップ355は、図7に示した表示閾値処理が施されたモーションコントラスト画像を表示する工程である。 Step 355 executed by the display control unit 149 shown in FIG. 6 is a step of displaying the motion contrast image subjected to the display threshold processing shown in FIG.
次に、ステップ356は、表示条件の変更を行う工程である。変更しうる表示条件については、後述する。表示条件の変更が行われた場合、ステップ354に戻り、表示条件を変えて更新された画像を表示する。表示条件の変更が行われない場合、表示情報生成処理を終了する。 Next, step 356 is a step of changing display conditions. Display conditions that can be changed will be described later. When the display condition is changed, the process returns to step 354, and the updated image is displayed by changing the display condition. When the display condition is not changed, the display information generation processing ends.
次に、本実施形態の表示情報生成処理により生成する画像の表示例を図8に示す。表示画面では、OCT信号を画像として表示した強度画像400及びモーションコントラスト画像401を並べて表示する。この表示例では、モーションコントラスト画像401のわきにはモーションコントラストの表示閾値を操作するスライダ402が設けられている。 Next, FIG. 8 shows a display example of an image generated by the display information generation processing of the present embodiment. On the display screen, an intensity image 400 and a motion contrast image 401 each displaying an OCT signal as an image are displayed side by side. In this display example, a slider 402 for operating a display threshold of the motion contrast is provided beside the motion contrast image 401.
また、強度画像400の脇には、強度画像400の一部における断層像403を表示する。断層像はxz断面403a、yz断面403bで表示する。また、断層像の表示位置を示す線404を強度画像400やモーションコントラスト画像401に表示してもよい。表示位置を示す線404は、画像情報から特定の条件で自動的に決定してもよいし、検者が指定してもよい。例えば、特定の条件の例としては、黄斑部を中心となるような断層像403を指定すればよい。あるいは、検者が強度画像400あるいはモーションコントラスト画像401から任意の位置と長さを指定し、対応するように断層像を表示してもよい。 A tomographic image 403 of a part of the intensity image 400 is displayed beside the intensity image 400. The tomographic image is displayed on the xz section 403a and the yz section 403b. Further, a line 404 indicating the display position of the tomographic image may be displayed on the intensity image 400 or the motion contrast image 401. The line 404 indicating the display position may be automatically determined under specific conditions from the image information, or may be designated by the examiner. For example, as an example of the specific condition, a tomographic image 403 centering on the macula may be specified. Alternatively, the examiner may specify an arbitrary position and length from the intensity image 400 or the motion contrast image 401 and display a tomographic image so as to correspond thereto.
さらに、断層像から強度画像400及び、モーションコントラスト画像401の深さ方向での表示範囲を指示するために操作されるスライダ405を設けてもよい。当該スライダ405では、深さ方向での調整可能範囲を示すバー405bにおいて強度画像400及びモーションコントラスト画像401を表示する深さ或いは深さ方向の表示範囲をスライド部405aにより指定する。また、表示位置を操作するGUI操作部406を有してもよい。なお、GUI操作部406の詳細については後述する。また、選択位置を示すカーソル407を表示してもよい。この場合、該カーソル407は、強度画像400とモーションコントラスト画像401との対応する位置を同時に指し示すように表示されることが好ましい。当該表示は表示制御部149により指示される。なお、図8の例では、2次元平面像として表示される例で示したが、3次元像や任意の断層像やその組合せであってもよい。 Further, a slider 405 operated to indicate the display range in the depth direction of the intensity image 400 and the motion contrast image 401 from the tomographic image may be provided. In the slider 405, a depth or a display range in the depth direction at which the intensity image 400 and the motion contrast image 401 are displayed is designated by a slide portion 405a in a bar 405b indicating an adjustable range in the depth direction. Further, a GUI operation unit 406 for operating the display position may be provided. The details of the GUI operation unit 406 will be described later. Further, a cursor 407 indicating the selected position may be displayed. In this case, it is preferable that the cursor 407 is displayed so as to simultaneously indicate the corresponding positions of the intensity image 400 and the motion contrast image 401. The display is instructed by the display control unit 149. Note that, in the example of FIG. 8, an example is shown in which the image is displayed as a two-dimensional plane image. However, a three-dimensional image, an arbitrary tomographic image, or a combination thereof may be used.
また、本実施形態において、図8に示す2次元平面で表示される画像は、眼底カメラ或いはレーザ走査検眼鏡を用いず、OCT強度信号より生成している。このような画像はEnface画像と呼ばれている。ここで、Enface画像の生成方法について簡単に述べる。 In the present embodiment, the image displayed on the two-dimensional plane shown in FIG. 8 is generated from an OCT intensity signal without using a fundus camera or a laser scanning ophthalmoscope. Such an image is called an Enface image. Here, a method of generating an Enface image will be briefly described.
A−scanにより得られた情報を光軸方向手前側から配列し、全く信号のない位置から、最初に強い信号を得ることができる位置が眼底表層(網膜表面)の情報となる。従って、測定光を2軸で走査した際の眼底上の各測定位置(撮影位置)でのAスキャン信号についてそれぞれ最初に強い信号の反射強度をつなぎ合わせていくことにより、眼底表層を2次元的に表現する眼底表層についてのEnface画像を取得することができる。また、当該信号から特定の順位にある強度の信号の反応強度をつなぎ合わせることで、網膜における特定の層或いは深さでのEnface画像が得られる。 The information obtained by A-scan is arranged from the near side in the optical axis direction, and from the position where there is no signal, the position where the first strong signal can be obtained is the information of the fundus surface layer (retina surface). Therefore, by connecting the reflection intensities of the strong signals first for each of the A-scan signals at each measurement position (imaging position) on the fundus when the measurement light is scanned in two axes, the fundus surface layer is two-dimensionally connected. An Enface image about the fundus oculi surface layer represented by the following equation can be obtained. In addition, by connecting the reaction intensities of the signals having the specific order from the signals, an Enface image at a specific layer or depth in the retina can be obtained.
また、Bスキャンによって取得された断層画像は、A−scanによる情報を1軸方向に連続的に取得することによって構築されるものである。よって、Enface画像の一部の画像信号と、取得された断層画像の眼底表層部分の画像信号とが照合する位置を求めることにより、該A−scanがEnface画像上のどの位置の断層画像であるかを正確に検出することができる。 Further, the tomographic image acquired by the B-scan is constructed by continuously acquiring information by A-scan in one axis direction. Therefore, by determining the position where the image signal of a part of the Enface image and the image signal of the fundus oculi surface layer part of the acquired tomographic image are collated, the A-scan is the tomographic image at any position on the Enface image. Can be accurately detected.
次に表示操作について説明する。表示操作について図9に示す。図9は図8の強度画像400とモーションコントラスト画像401を示す。なお、前述したように、本実施形態ではOCT干渉信号の取得とOCTAの信号の取得とを同一の工程で行っており、表示画像の生成に際しては同一走査線におけるこれら信号の位置合わせは終了している。従って、強度画像400とモーションコントラスト画像401とにおける各画素間における対応関係は予め把握されている。 Next, the display operation will be described. FIG. 9 shows the display operation. FIG. 9 shows the intensity image 400 and the motion contrast image 401 of FIG. As described above, in the present embodiment, the acquisition of the OCT interference signal and the acquisition of the OCTA signal are performed in the same process, and the alignment of these signals on the same scanning line is completed when a display image is generated. ing. Therefore, the correspondence between each pixel in the intensity image 400 and the motion contrast image 401 is grasped in advance.
本実施形態の表示操作では、一方の画像の一部(例えば強度画像の血管部分)を選択すると、他方の画像の対応する領域(モーションコントラスト画像の対応する血管部分)を元の画像(強度画像)に重ねて表示する。図9の例では、強度画像400の血管部分450を選択すると、モーションコントラスト画像401において対応する血管及び連結する血管450aを、強度画像400の対応する位置に重ねて重畳表示する。より詳細には、まず一方の画像において血管の選択を行う。ここで、対応する他方の画像とは位置合わせによって各々の画素、或いは血管の位置情報の対応付が既になされている。この状態で、一方の画像において選択された血管の位置情報が取得される。続いて、この取得された位置情報に基づいて、他方の画像における対応する位置情報が選択される。選択された位置情報に基づいて他方の画像における血管が対応する血管として指定される。以上の手順を経て、各々の画像における対応する血管の位置情報に基づいて他方の血管画像に対して一方の画像の血管が重畳表示される。
なお、後述する領域分割処理により、各々の画像において血管の連結状態(太い血管及び該太い血管から分岐した細い血管の一群)はあらかじめ把握されていることとする。従って、血管の選択及び重畳はこの連結状態を勘案して(血管群同士を対応付ける様式で)実行される。この重畳表示は、後述するようにカーソル407からの入力等によって選択された強度画像とモーションコントラスト画像との一方の画像の情報(血管に関する情報)を他方の画像において当該情報が表示される領域に重ねるように実行される。この重畳表示は、このように重畳された画像を表示手段である表示部146に表示させる表示制御手段たる表示制御部149により実行される。
In the display operation of the present embodiment, when a part of one image (for example, a blood vessel portion of the intensity image) is selected, a corresponding region of the other image (a corresponding blood vessel portion of the motion contrast image) is selected as the original image (the intensity image). ). In the example of FIG. 9, when the blood vessel portion 450 of the intensity image 400 is selected, the corresponding blood vessel and the connected blood vessel 450a in the motion contrast image 401 are superimposed and displayed on the corresponding position of the intensity image 400. More specifically, first, a blood vessel is selected in one image. Here, the position information of each pixel or blood vessel is already associated with the corresponding other image by positioning. In this state, the position information of the blood vessel selected in one image is obtained. Subsequently, based on the obtained position information, corresponding position information in the other image is selected. A blood vessel in the other image is designated as a corresponding blood vessel based on the selected position information. Through the above procedure, the blood vessel of one image is superimposed and displayed on the other blood vessel image based on the positional information of the corresponding blood vessel in each image.
It is assumed that the connection state of blood vessels (a group of thick blood vessels and a group of thin blood vessels branched from the thick blood vessels) in each image is grasped in advance by the region division processing described later. Therefore, the selection and superimposition of the blood vessels are executed in consideration of this connection state (in a manner of associating the blood vessel groups with each other). As described later, this superimposed display displays information (information on blood vessels) of one of the intensity image and the motion contrast image selected by an input from the cursor 407 or the like in an area where the information is displayed in the other image. It is performed to overlap. This superimposed display is executed by the display control unit 149 which is a display control unit for displaying the image thus superimposed on the display unit 146 which is a display unit.
なお、具体的な選択の仕方は、図9に示したように特定の血管を選択してもよいし、あるいは、領域を指定してもよい。指定する領域は、矩形でもよいし、カーソル407の中心から一定距離の円でもよい。また、OCTAの測定領域がOCTの測定領域よりも狭い場合、モーションコントラスト画像全体を重ねてもよい。さらに、他方の画像(モーションコントラスト画像)で重畳する元となった血管の表示色を変えて、どの血管を元の画像(強度画像)に重畳表示しているかを分かるようにしてもよい。 As a specific selection method, a specific blood vessel may be selected as shown in FIG. 9, or an area may be specified. The designated area may be a rectangle or a circle at a certain distance from the center of the cursor 407. If the OCTA measurement area is smaller than the OCT measurement area, the entire motion contrast image may be overlapped. Furthermore, the display color of the blood vessel that is the source of the superimposition in the other image (the motion contrast image) may be changed so that it is possible to know which blood vessel is superimposed and displayed on the original image (the intensity image).
強度画像にモーションコントラスト画像を重ねる例を説明したが、逆であってもよい。モーションコントラスト画像に強度画像を重ねる場合、モーションコントラスト画像401の特定の血管部分を選択すると、強度画像400においてこれに対応する血管及び連結する血管が、モーションコントラスト画像401の対応する位置に重ねて表示される。この場合、視認性を高めるために重畳して表示される血管部分に相当する部分を太線及び点線を重ねた線にて表現することが好ましい。或いは、重畳する血管の表示色を変えてもよい。一般に強度画像で判別できる血管は相対的に太い血管であり、強度画像の構造的な情報との位置的な対応が取りやすい。従って、このようにモーションコントラスト画像に強度画像を重ねることで、太い血管を目印とすることができ、血管以外の構造的な情報との比較がしやすくなる。また、強度画像400をベースとすることにより、血管に限らず、黄斑等或いは病変等、構造的な情報を合せて表示することが可能となる。 Although the example in which the motion contrast image is superimposed on the intensity image has been described, the reverse may be applied. When the intensity image is superimposed on the motion contrast image, when a specific blood vessel portion of the motion contrast image 401 is selected, the corresponding blood vessel and the connected blood vessel in the intensity image 400 are displayed on the corresponding position of the motion contrast image 401 in an overlapping manner. Is done. In this case, it is preferable to express a portion corresponding to a blood vessel portion displayed in a superimposed manner with a thick line and a dotted line in order to enhance visibility. Alternatively, the display color of the blood vessel to be superimposed may be changed. In general, blood vessels that can be distinguished from an intensity image are relatively thick blood vessels, and it is easy to establish positional correspondence with structural information of the intensity image. Therefore, by superimposing the intensity image on the motion contrast image in this manner, a thick blood vessel can be used as a mark, and comparison with structural information other than the blood vessel becomes easy. Further, by using the intensity image 400 as a base, it is possible to display not only blood vessels but also structural information such as a macula or a lesion.
以上述べたように、OCT強度画像とOCTAモーションコントラスト画像との一方の画像情報を他方に重ねて表示できる構成とすることで、強度画像とモーションコントラスト画像の対応がとり易くなる。従って、直感的に理解しやすい画像を提供することができる。 As described above, by adopting a configuration in which one image information of the OCT intensity image and the OCTA motion contrast image can be superimposed and displayed on the other, the correspondence between the intensity image and the motion contrast image becomes easy. Therefore, it is possible to provide an image that is easy to understand intuitively.
本実施形態の表示の例として、カーソル表示について説明する。図8及び9に示すように、強度画像400とモーションコントラスト画像401の両方に、カーソル407を表示してもよい。カーソル407の形状は、例えば、図のように矢印であってもよいし、丸印や四角でもよい。また、両画像で異なる形でもよい。あるいは、X方向Y方向に交差する十字線であってもよい。カーソルは両画像の対応する位置を同時に指し示す。カーソルは、画像形成装置に付随するマウス(不図示)等の操作により自由に移動できる事が望ましい。また、カーソルの移動に伴い、断層像の切断位置を変えてもよい。対応する位置を同時に表示することで、両画像を比較しやすくできる。 A cursor display will be described as an example of the display according to the present embodiment. As shown in FIGS. 8 and 9, a cursor 407 may be displayed on both the intensity image 400 and the motion contrast image 401. The shape of the cursor 407 may be, for example, an arrow as illustrated, a circle, or a square. Further, the two images may have different shapes. Alternatively, it may be a crosshair crossing in the X and Y directions. The cursor points simultaneously to the corresponding positions in both images. It is desirable that the cursor can be freely moved by operating a mouse (not shown) attached to the image forming apparatus. Further, the cutting position of the tomographic image may be changed with the movement of the cursor. By displaying the corresponding positions at the same time, the two images can be easily compared.
次に、本実施形態の表示条件の変更の例として、表示範囲や視点の変更について説明する。両画像の表示倍率や表示位置、又は視点位置の変更を同時に行ってもよい。例えば、図8の表示画面のGUI操作部406において、表示条件の変更を行う。拡大・縮小ボタン406aにより、両画像の拡大(+)、縮小(−)を同時に行う。また、画像を拡大している際には、並進移動ボタン406bにより、両画像の表示範囲の並進移動を同時に行う。同様に、回転ボタン406cにより、両画像の表示視点の回転移動を同時に行う。回転移動は、両画像が3次元的に表示されている場合に、適用できる。即ち、これら構成により、強度画像及びモーションコントラスト画像に関して、倍率、表示する位置、及び視点位置の少なくともいずれかを、両画像において同時に変更することが可能となる。 Next, as an example of the change of the display condition of the present embodiment, the change of the display range and the viewpoint will be described. The display magnification and display position of both images, or the viewpoint position may be changed at the same time. For example, the display conditions are changed on the GUI operation unit 406 on the display screen in FIG. The enlargement / reduction button 406a simultaneously enlarges (+) and reduces (-) both images. When the image is enlarged, the translation of the display range of both images is simultaneously performed by the translation button 406b. Similarly, the rotation of the display viewpoint of both images is simultaneously performed by the rotation button 406c. The rotational movement can be applied when both images are displayed three-dimensionally. That is, with these configurations, it is possible to simultaneously change at least one of the magnification, the display position, and the viewpoint position with respect to the intensity image and the motion contrast image in both images.
なお、ここではGUI操作部406が3種類のボタンの例で説明したが、ボタンの数、形状や種類は異なってもよい。あるいは他の方法であってもよい。例えば、画像形成装置に付随するマウス操作で行ってもよい。マウスのカーソルを両画像のどちらかに重ねて、マウスに付随するホイールの操作で拡大・縮小を行ったり、マウスのボタンを押しながらマウスを動かすことで、画像の移動(並進や回転)を行ったりしてもよい。マウス以外の例では、タッチパネルであれば、パネルに表示された画像を指で操作してもよい。いずれにしても、並べて表示した強度画像とモーションコントラスト画像の表示範囲や視点の変更を同時に行えるようにすればよい。本構成によれば、画像の変更が強度画像とモーションコントラスト画像の両方同時になされるので、画像の表示の仕方を変更しても、どの位置を見ているのか理解しやすくできる。 Here, the GUI operation unit 406 has been described as an example of three types of buttons, but the number, shape, and type of the buttons may be different. Alternatively, another method may be used. For example, it may be performed by operating a mouse attached to the image forming apparatus. Move the mouse cursor over one of the two images and use the wheel associated with the mouse to zoom in or out, or move the mouse while pressing the mouse button to move (translate or rotate) the image. Or you may. In an example other than a mouse, a touch panel may be used to operate an image displayed on the panel with a finger. In any case, the display range and viewpoint of the intensity image and the motion contrast image displayed side by side may be changed at the same time. According to this configuration, since the image is changed at the same time for both the intensity image and the motion contrast image, it is possible to easily understand which position the user is looking at even if the display method of the image is changed.
モーションコントラスト画素値の表示閾値について説明する。図8には、表示する画素の閾値を調整するスライダ402が設けられている。表示閾値の初期位置は予め、設定した代表的な値でよい。検者がこのスライダをマウスでドラッグすると、信号処理部144は図6のステップ356において、表示条件が変更された(YES)と判断する。信号処理部144は表示閾値を変更し、ステップS354へ処理を戻し表示する3次元モーションコントラスト画像を更新することになる。この時、閾値の調整は初期値に対する相対値で変更できるよう設定しておくと、異なる被検眼・部位等対象の異なるデータに対しても等価な効果が得られる。 The display threshold of the motion contrast pixel value will be described. FIG. 8 shows a slider 402 for adjusting the threshold value of the pixel to be displayed. The initial position of the display threshold may be a representative value set in advance. When the examiner drags this slider with the mouse, the signal processing unit 144 determines in step 356 in FIG. 6 that the display condition has been changed (YES). The signal processing unit 144 changes the display threshold, returns to step S354, and updates the three-dimensional motion contrast image to be displayed. At this time, if the adjustment of the threshold value is set so that it can be changed by a relative value with respect to the initial value, an equivalent effect can be obtained even for different data such as different eyes and parts to be examined.
次に、血管情報の表示方法の変形例について説明する。ここでは、2次元モーションコントラスト画像に対して、血管情報を取得する工程を行う。血管情報を取得する工程は、図6で説明した平滑化処理工程であるステップS352と同一タイミングで行われてもよいし、後工程として行われてもよい。具体的には、モーションコントラストデータに対して、平滑化処理を加える工程、血管に相当する領域を分割処理する工程を行う。これらの処理を行う事で、滑らかな血管領域を抽出することができる。 Next, a modified example of the display method of the blood vessel information will be described. Here, a step of acquiring blood vessel information is performed on the two-dimensional motion contrast image. The step of acquiring blood vessel information may be performed at the same timing as step S352, which is the smoothing processing step described with reference to FIG. 6, or may be performed as a subsequent step. Specifically, a step of applying a smoothing process to the motion contrast data and a step of dividing a region corresponding to a blood vessel are performed. By performing these processes, a smooth blood vessel region can be extracted.
次に、領域分割処理について説明する。領域分割処理のフローの例を図13に示す。
まず、血管候補抽出工程であるステップS601において、信号処理部144は、注目画素のモーションコントラストに対応するボリュームデータを表す画素値に対し、所定閾値以上のものを血管候補の画素として抽出する処理を実行する。
Next, the area division processing will be described. FIG. 13 shows an example of the flow of the area division processing.
First, in step S601 which is a blood vessel candidate extraction step, the signal processing unit 144 performs a process of extracting, as a blood vessel candidate pixel, a pixel value representing a volume data corresponding to the motion contrast of the pixel of interest as a pixel of a predetermined threshold or more. Execute.
次に、血管連結推定工程であるステップS602において、信号処理部144は、抽出した血管候補の画素の各々に対し、これら血管間での連結関係である血管連結関係の有無を推定する処理を実行する。血管連結推定工程では、血管候補の各画素に対して、隣接する画素が所定の閾値以上の画素値を有する場合、あるいは予め隣接画素も血管候補とされている場合であれば、これら画素は連結する血管候補と判定する。このように特定の画素が連結する血管候補とされた場合、さらに隣接する画素に評価する範囲を広げる。隣接する画素が閾値より小さい場合(あるいは血管候補でない場合)は、当該の隣接画素は血管候補から外し、他の隣接画素の評価を行う。血管連結推定の操作は、全てあるいは指定した範囲の血管候補に対して行えばよい。 Next, in step S602, which is a blood vessel connection estimation step, the signal processing unit 144 executes a process of estimating, for each of the extracted pixels of the blood vessel candidate, whether or not there is a blood vessel connection relationship that is a connection relationship between these blood vessels. I do. In the blood vessel connection estimation step, for each pixel of the blood vessel candidate, if an adjacent pixel has a pixel value equal to or greater than a predetermined threshold, or if the adjacent pixel is also a blood vessel candidate in advance, these pixels are connected. Is determined to be a blood vessel candidate. As described above, when a specific pixel is determined as a blood vessel candidate to be connected, a range to be evaluated for a further adjacent pixel is expanded. If the adjacent pixel is smaller than the threshold value (or is not a blood vessel candidate), the adjacent pixel is excluded from the blood vessel candidate, and the other adjacent pixels are evaluated. The operation of blood vessel connection estimation may be performed for all or a specified range of blood vessel candidates.
血管候補の全ての隣接画素又は全画素の評価が完了したのち、信号処理部144は、連結される血管候補の大きさを元に血管認識処理工程であるステップS603の処理を行う。血管認識処理では、所定数以上の数の画素の連結を有する血管候補を同一の比較的太いあるいは主要な血管として、識別する。 After the evaluation of all the adjacent pixels or all the pixels of the blood vessel candidate is completed, the signal processing unit 144 performs the process of step S603 which is a blood vessel recognition process based on the size of the connected blood vessel candidate. In the blood vessel recognition processing, a blood vessel candidate having a connection of a predetermined number or more of pixels is identified as the same relatively thick or main blood vessel.
最後に、血管連結関係データ生成工程であるステップS604において、信号処理部144は、第一の血管連結関係データを生成する処理を実行する。第一の血管連結関係データは、少なくとも連結する血管の3次元的な分布情報と、血管の連結情報とを有する。例えば、画素毎に血管の有無及び、各血管を区別する情報を有するボリュームデータであれば第一の血管連結関係データとしてもよい。 Finally, in step S604, which is a blood vessel connection relationship data generation step, the signal processing unit 144 executes a process of generating first blood vessel connection relationship data. The first blood vessel connection relationship data has at least three-dimensional distribution information of blood vessels to be connected and blood vessel connection information. For example, first volume connection data may be used as long as the volume data has information on the presence or absence of a blood vessel for each pixel and information for distinguishing each blood vessel.
前述の血管候補を抽出する閾値は、予め決めた値であってもよいし、変更してもよい。例えば、被検眼についてのOCTA信号を測定して、血管として領域分割する具合をみて検者が閾値を調整してもよい。また、代表的な値を閾値の初期値としてもよい。領域分割工程で、モーションコントラストデータに対し、血管領域とそれ以外に2値化処理がなされている場合は、2値化処理の結果を利用して血管候補を抽出してもよい。同様に、血管と判断する所定の連結数の閾値も予め決めた値で有ってもよいし、変更してもよい。例えば、複数の画素が連結する場合は血管、単独の画素の場合は候補から外すとしてもよい。このような処理を施すことで、モーションコントラスト画像から孤立した領域を除くことができ、連結している血管を抽出することができる。孤立した領域の例としては、スペックルノイズ等の局所的かつランダムな反射強度の変動が挙げられる。 The threshold for extracting the blood vessel candidates may be a predetermined value or may be changed. For example, the examiner may measure the OCTA signal for the subject's eye and adjust the threshold value based on how the area is divided into blood vessels. Further, a representative value may be used as the initial value of the threshold. In the region dividing step, when the motion contrast data has been subjected to the binarization processing for the blood vessel area and the other areas, blood vessel candidates may be extracted using the result of the binarization processing. Similarly, the threshold value of the predetermined number of connections determined as a blood vessel may be a predetermined value or may be changed. For example, a blood vessel may be excluded when a plurality of pixels are connected, and may be excluded from a candidate when a single pixel is connected. By performing such processing, isolated regions can be removed from the motion contrast image, and connected blood vessels can be extracted. An example of an isolated region is a local and random change in reflection intensity such as speckle noise.
また、強度画像とモーションコントラスト画像の大きさが同一の例で説明したが、前述したように、モーションコントラスト画像を取得する範囲が狭い領域であっても同様に表示できる。強度画像とモーションコントラスト画像の大きさが異なる例を、図14に示す。図14(a)は、同一縮尺に揃えてモーションコントラスト画像の大きさを変えた例を示す。図14(b)は、画像の大きさを揃えて縮尺を変えた例を示す。画角が広い方に他方の表示領域を示す枠線416を設けるとよい。また、図8に示した拡大・縮小ボタン406a等を用いて、強度画像とモーションコントラスト画像の拡大・縮小、視点の移動を行ったり、一方に他方の状態を重畳したりしてもよい。 In addition, the example in which the size of the intensity image and the size of the motion contrast image are the same has been described. However, as described above, the image can be similarly displayed even in an area where the range for acquiring the motion contrast image is narrow. FIG. 14 shows an example in which the size of the intensity image and the size of the motion contrast image are different. FIG. 14A shows an example in which the size of the motion contrast image is changed to the same scale. FIG. 14B shows an example in which the scale of the image is changed to make the size of the image uniform. It is preferable to provide a frame line 416 indicating the other display area on the side having a wider angle of view. The enlargement / reduction button 406a or the like shown in FIG. 8 may be used to enlarge / reduce the intensity image and the motion contrast image, move the viewpoint, or superimpose one state on the other.
次に、強度画像で得られる血管とモーションコントラスト画像で得られる血管とを比較する例について説明する。この場合に行われる操作について図15で示すフローチャートを用いて説明する。 Next, an example of comparing a blood vessel obtained from the intensity image with a blood vessel obtained from the motion contrast image will be described. The operation performed in this case will be described with reference to the flowchart shown in FIG.
まず、第一血管連結推定工程であるステップS651において、信号処理部144は、2次元モーションコントラスト画像から第一の血管連結関係を推定する処理を実行する。なお、このステップS651では、前述したステップS602で行った血管の連結関係を推定した際の方法と同様の手法でこの第一の血管連結関係を推定することができる。 First, in step S651, which is the first blood vessel connection estimation step, the signal processing unit 144 executes a process of estimating a first blood vessel connection relationship from a two-dimensional motion contrast image. In step S651, the first blood vessel connection relationship can be estimated by a method similar to the method used when estimating the blood vessel connection relationship performed in step S602 described above.
次に、第二血管連結推定工程であるステップS652において、信号処理部144は、3次元断層像のデータから第二の血管連結関係を推定する処理を実行する。第二の血管連結関係の推定は特定の層に対して行えばよい。例えば、3次元断層像のデータの内、網膜層に相当する深さの3次元断層像データから2次元強度画像(例えば強度画像400)を生成し、さらに第二の血管連結関係を推定すればよい。強度画像において、血管より得られる信号の強度は、血液による吸収等により周囲よりも相対的に弱くなる。この場合、網膜層を選択することで、網膜動静脈血管に相当する画素を血管として抽出することが容易になる。 Next, in step S652, which is the second blood vessel connection estimation step, the signal processing unit 144 executes a process of estimating a second blood vessel connection relationship from data of the three-dimensional tomographic image. The second blood vessel connection relationship may be estimated for a specific layer. For example, if three-dimensional tomographic image data is used to generate a two-dimensional intensity image (for example, intensity image 400) from three-dimensional tomographic image data having a depth corresponding to the retinal layer and further estimate a second blood vessel connection relationship Good. In the intensity image, the intensity of the signal obtained from the blood vessel is relatively weaker than the surroundings due to absorption by blood and the like. In this case, by selecting a retinal layer, it becomes easy to extract a pixel corresponding to a retinal arteriovenous blood vessel as a blood vessel.
血管に相当する領域の分割は、モーションコントラストデータと同様の手法で行えばよい。また、血管として画素を抽出する際の画素の閾値は、強度画像に対応した値を設定すればよい。第二の血管連結関係の推定により得られる血管は、モーションコントラストデータから得られる血管の連結関係(第一の血管連結関係)よりも抽出できる血管の分解能は劣るが、血管構造に由来する情報である。 The division of the region corresponding to the blood vessel may be performed in the same manner as the motion contrast data. Further, a threshold value of a pixel when extracting a pixel as a blood vessel may be set to a value corresponding to the intensity image. The blood vessels obtained by estimating the second blood vessel connection relationship have a lower resolution of the blood vessels that can be extracted than the blood vessel connection relationship obtained from the motion contrast data (first blood vessel connection relationship), but are obtained from information derived from the blood vessel structure. is there.
次に、血管連結状態比較工程であるステップS653において、信号処理部144は、第二の血管連結関係と第一の血管連結関係の血管の連結状態を比較する処理を実行する。血管の連結状態の比較は対応する位置での第一と第二の血管連結関係に対し、血管の有無を比較すればよい。 Next, in step S653, which is a blood vessel connection state comparison step, the signal processing unit 144 performs a process of comparing the connection state of the blood vessels in the second blood vessel connection relation and the first blood vessel connection relation. The comparison of the connection state of the blood vessels may be made by comparing the presence or absence of a blood vessel with respect to the first and second blood vessel connection relations at corresponding positions.
次に、比較結果表示工程(表示工程)であるステップS654において、制御部143は、表示部146に対して、血管の連結状態を比較した結果の少なくとも一部を強度画像及び/又はモーションコントラスト画像に重ねて表示させる。例えば、他方では血管と推定されていない部分を表示する。反対に、両方で血管と推定されている部分を表示してもよい。比較は画像全体であってもよいし、特定の領域のみであってもよい。 Next, in step S654, which is a comparison result display step (display step), the control unit 143 displays on the display unit 146 at least a part of the comparison result of the blood vessel connection state as an intensity image and / or a motion contrast image. To be superimposed. For example, on the other hand, a portion not estimated as a blood vessel is displayed. Conversely, a portion that is estimated to be a blood vessel may be displayed on both sides. The comparison may be for the entire image or only for a specific area.
強度画像にモーションコントラスト画像の血管像を重ねる場合は、強度画像では得られない毛細血管の情報を、強度画像に重畳表示することに相当する。反対に、モーションコントラスト画像に強度画像の血管像を重ねる場合は、血流が滞っている領域を表示することに相当する。血流が滞っている領域は、血流がある領域に対しモーションコントラストの画素値が小さくなる。画素値が閾値以下になると、血管が無いと判定される。血流が滞っている領域とは、例えば、血管瘤により淀みが生じている部分や、途中経路に内径が狭い部位がある部位、閉塞している領域が挙げられる。 In the case where the blood vessel image of the motion contrast image is superimposed on the intensity image, it is equivalent to superimposing and displaying capillary information that cannot be obtained from the intensity image on the intensity image. On the contrary, when the blood vessel image of the intensity image is superimposed on the motion contrast image, it corresponds to displaying the region where the blood flow is stagnant. In the area where the blood flow is stagnant, the pixel value of the motion contrast is smaller than the area where the blood flow is present. When the pixel value becomes equal to or less than the threshold value, it is determined that there is no blood vessel. Examples of the region where the blood flow is stagnant include a portion where stagnation has occurred due to a vascular aneurysm, a portion where there is a portion having a small inner diameter on an intermediate route, and a blocked region.
以上のように一方の血管の連結状態の情報を他方に重ねることで、両画像をより比較しやすくできる。 As described above, by superimposing the information on the connection state of one blood vessel on the other, both images can be more easily compared.
さらに、血管の表示においては、特定の血管を選択し強調してもよい。この場合、比較結果表示工程であるステップS654の後に、特定の血管の近傍の画素を選択する工程をさらに設けることとなる。具体的には、例えば表示画像から、任意の画素をマウス等で選択する。この選択の操作に対し、信号処理部144は選択した画素の直近の血管を選択する。ここで、選択される血管は、前述した第一及び第二の血管連結関係の情報を有している。選択した血管に対し、強度画像とモーションコントラスト画像で得られる血管とを比較した結果を表示する。比較結果の表示の仕方は、例えば表示色を変えた半透明の血管の画像を重畳表示すればよい。特定の血管を選択し、強度画像にモーションコントラストの血管画像を重畳した例は図9に示される。 Further, in displaying blood vessels, a specific blood vessel may be selected and highlighted. In this case, after step S654, which is a comparison result display step, a step of selecting a pixel near a specific blood vessel is further provided. Specifically, for example, an arbitrary pixel is selected from a display image with a mouse or the like. In response to this selection operation, the signal processing unit 144 selects a blood vessel closest to the selected pixel. Here, the selected blood vessel has the information on the first and second blood vessel connection relationships described above. The result of comparing the selected blood vessel with the blood vessel obtained from the intensity image and the motion contrast image is displayed. As a method of displaying the comparison result, for example, a translucent blood vessel image with a different display color may be displayed in a superimposed manner. FIG. 9 shows an example in which a specific blood vessel is selected and a blood vessel image of motion contrast is superimposed on the intensity image.
なお、重畳する際の血管の選択様式として、複数のモードを有する態様とすることも考えられる。この場合のモードとして、例えばカーソル407によって指定した血管について当該血管の乳頭から端部までを強度画像400に重畳する様式が考えられる。また、カーソル407によって指定した血管について、指定位置から端部までを強度画像に重畳する様式を含めてもよい。また、カーソル407によって領域指定を行い、当該領域に含まれる血管を強度画像400に重畳する様式を含めてもよい。さらに、後述する血管径の推定を実行し、重畳時に所定の血管径以下と推定される血管を重畳しない様式を含めてもよい。さらにこれら様式を組み合わせてもよい。 It should be noted that a mode having a plurality of modes may be considered as a blood vessel selection mode when superimposing. As a mode in this case, for example, a mode in which a blood vessel designated by the cursor 407 from the nipple to the end of the blood vessel is superimposed on the intensity image 400 can be considered. In addition, the blood vessel specified by the cursor 407 may include a mode of superimposing the intensity image from the specified position to the end. Alternatively, a region may be designated by the cursor 407 and a method of superimposing blood vessels included in the region on the intensity image 400 may be included. Furthermore, a method may be included in which a blood vessel diameter is estimated, which will be described later, and a blood vessel estimated to be smaller than a predetermined blood vessel diameter is not superimposed at the time of superposition. Further, these modes may be combined.
このような構成とする事で、特定の血管に着目した比較結果を得られる。例えば、網膜動静脈血管の一つを選択し、当該血管に連なる血管の状態を抽出し、表示することができる。あるいは特定の血管を選択する代わりに、視神経乳頭からの走行毎に、予め色分けしてもよい。例えば、視神経乳頭の中心から広がる方向を基準として色分けしてもよい。 With such a configuration, a comparison result focusing on a specific blood vessel can be obtained. For example, one of the retinal arteriovenous blood vessels can be selected, and the state of the blood vessels connected to the selected blood vessel can be extracted and displayed. Alternatively, instead of selecting a specific blood vessel, a color may be previously colored for each run from the optic disc. For example, the colors may be classified based on the direction spreading from the center of the optic disc.
また、モーションコントラスト画像から抽出した血管に対し、血管情報を取得する工程をさらに設けてもよい。例えば、血管領域に対し、少なくとも血管径を検出してもよい。血管径は、抽出した血管に対し、円筒と近似した時の軸方向と径方向を推定し、血管径を得る。血管径のデータは、例えば第一の血管連結関係データ(血管の3次元的な分布情報と、血管の連結情報)のボリュームデータにさらに付加してもよい。このような構成とする事で、モーションコントラスト画像から血管の形態の情報を得られる。 Further, a step of acquiring blood vessel information for a blood vessel extracted from the motion contrast image may be further provided. For example, at least a blood vessel diameter may be detected for a blood vessel region. The blood vessel diameter is obtained by estimating the axial direction and the radial direction when the extracted blood vessel is approximated to a cylinder, and obtaining the blood vessel diameter. The blood vessel diameter data may be further added to, for example, the volume data of the first blood vessel connection relationship data (the three-dimensional distribution information of blood vessels and the connection information of blood vessels). With such a configuration, information on the form of the blood vessel can be obtained from the motion contrast image.
さらに、算出された血管径に基づいて、血管を分類してもよい。はじめに所定の径よりも細い血管を抽出する。所定の径は例えば、毛細血管に相当する径とすればよい。さらにモーションコントラスト画像の所定の領域において、当該血管(例えば毛細血管)として抽出された画素と、その他の画素の存在比率を計算する。さらに存在比率を2次元のマップ化して表示する。このようなマップ化する構成とすることで、血管の粗密を定量的に可視化することができる。所定の領域は、例えば黄斑(あるいは視神経乳頭)を基準に領域を分割すればよい。図16にマップ化する例を示す。図16の例では、黄斑部を中心に複数の領域に分割したマップ408を2次元モーションコントラスト画像に重ねている。複数領域に分けることで、毛細血管の粗密の定性的な評価がしやすくなる。また、マップ化した情報は、モーションコントラスト画像だけでなく、2次元強度画像に重畳表示してもよいし、別の画面で表示してもよい。 Furthermore, blood vessels may be classified based on the calculated blood vessel diameter. First, a blood vessel smaller than a predetermined diameter is extracted. The predetermined diameter may be, for example, a diameter corresponding to a capillary. Further, in a predetermined region of the motion contrast image, the existence ratio of a pixel extracted as the blood vessel (for example, a capillary blood vessel) and other pixels is calculated. Further, the existence ratio is displayed as a two-dimensional map. With such a configuration for mapping, the density of blood vessels can be quantitatively visualized. The predetermined area may be divided based on, for example, the macula (or the optic disc). FIG. 16 shows an example of mapping. In the example of FIG. 16, a map 408 divided into a plurality of regions around the macula is superimposed on the two-dimensional motion contrast image. The division into a plurality of regions facilitates the qualitative evaluation of the density of the capillaries. Further, the mapped information may be displayed not only on the motion contrast image but also on the two-dimensional intensity image in a superimposed manner, or may be displayed on another screen.
このような構成とすることで、モーションコントラスト画像から血管の形態の情報を強度画像と対応づけて可視化することができる。 With such a configuration, it is possible to visualize the information on the form of the blood vessel from the motion contrast image in association with the intensity image.
(第二の実施形態)
次に、本発明の第二の実施形態として、深さ方向の表示範囲の変更について説明する。
図8のスライダ405を操作することで、強度画像とモーションコントラスト画像の表示する深さ方向の表示範囲を変更する。スライダ405は、前述したように表示する深さ範囲を表すスライド部405aと網膜の深さ方向における調整可能範囲を示すバー405bからなる。スライド部405aは画像として表示する深さ方向での幅及び位置を変更可能とし、深さ方向の表示範囲を選択するために用いられる。このスライド部405aの操作による表示範囲の変更に応じて、表示する強度画像400とモーションコントラスト画像401とを同時に更新する。本実施形態とすることにより、深さ方向の変更が同時になされるので、画像の表示深さの範囲を変更しても、どの位置を見ているのか理解しやすくできる。
(Second embodiment)
Next, as a second embodiment of the present invention, a change in the display range in the depth direction will be described.
By operating the slider 405 in FIG. 8, the display range in the depth direction in which the intensity image and the motion contrast image are displayed is changed. The slider 405 includes the slide portion 405a indicating the depth range to be displayed and the bar 405b indicating the adjustable range in the depth direction of the retina as described above. The slide portion 405a can change the width and position in the depth direction to be displayed as an image, and is used for selecting a display range in the depth direction. The intensity image 400 and the motion contrast image 401 to be displayed are simultaneously updated according to the change of the display range by the operation of the slide unit 405a. According to the present embodiment, since the change in the depth direction is performed at the same time, even if the range of the display depth of the image is changed, it is easy to understand which position is being viewed.
なお、ここでは深さ範囲の変更の仕方として、スライダを用いた例について説明したが、他の方法であってもよい。例えば、被検眼の層構造毎に表示することで実質的に表示する深さを変更する様式としてもよい。本実施形態では、3次元断層像のデータから被検眼の断層像の層構造を検出する工程(図5のステップ300に相当)を有する。表示深さを設定する工程は、スライダの代わりに、被検眼の層構造情報を元に選択可能とする。ヒトの眼の層構成は既知であり、例えば次の6層が挙げられる。6層の内訳は、(1)神経線維層(NFL)、(2)神経節細胞層(GCL)+内網状層(IPL)を合わせた層、(3)内顆粒層(INL)+外網状層(OPL)を合わせた層、(4)外顆粒層(ONL)+外境界膜(ELM)を合わせた層、(5)Ellipsoid Zone(EZ)+Interdigitation Zone(IZ)+網膜色素上皮(RPE)を合わせた層、及び(6)脈絡膜(Choroid)である。 Here, an example using a slider has been described as a method of changing the depth range, but other methods may be used. For example, the display depth may be changed for each layer structure of the eye to be examined, thereby substantially changing the displayed depth. The present embodiment has a step of detecting the layer structure of the tomographic image of the subject's eye from the data of the three-dimensional tomographic image (corresponding to step 300 in FIG. 5). The step of setting the display depth enables selection based on the layer structure information of the eye to be inspected, instead of the slider. The layer structure of the human eye is known and includes, for example, the following six layers. The six layers are (1) nerve fiber layer (NFL), (2) ganglion cell layer (GCL) + inner plexiform layer (IPL), (3) inner granular layer (INL) + outer plexiform (4) Outer granular layer (ONL) + outer limiting membrane (ELM) combined layer, (5) Ellipsoid Zone (EZ) + Interdigitation Zone (IZ) + retinal pigment epithelium (RPE) And (6) Choroid.
網膜におけるこれら各層のセグメンテーションについて説明する。マップ生成部148は、強度画像から抜き出した処理の対象とする断層像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、それぞれメディアン画像、Sobel画像ともいう)。次に、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では輝度勾配のプロファイルとなる。そして、Sobel画像から作成したプロファイル内のピークを検出する。検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を抽出する。抽出した境界情報を元に画素と層の対応を行う。 The segmentation of each of these layers in the retina will be described. The map generator 148 creates an image by applying a median filter and a Sobel filter to a tomographic image to be processed extracted from the intensity image, respectively (hereinafter also referred to as a median image and a Sobel image, respectively). Next, a profile is created for each A-scan from the created median image and Sobel image. The median image has a luminance value profile, and the Sobel image has a luminance gradient profile. Then, a peak in the profile created from the Sobel image is detected. The boundary of each region of the retinal layer is extracted by referring to the profile of the median image corresponding to before and after the detected peak and between the peaks. The correspondence between pixels and layers is performed based on the extracted boundary information.
図10にセグメンテーション後に表示する層の選択方法の例を示す。本例では、該断層像中における各層に対応させた選択ボタン410を設ける。選択ボタン410を選択することで、画像の表示範囲あるいは表示させる層を選択的に指示させる。選択ボタン410は同図に例示するように一層毎であってもよいし、複数層をまとめたものでもよい。例えば、網膜上部層や、網膜下部層に分けた選択ボタンであってもよい。あるいは、境界単位で選択できるようにボタンを設ける様にしてもよい。さらにはこれらを組み合わせ、図10に示すように層単位で選択するか境界単位で選択するかを切り替えるラジオボタン411を設けてもよい。また、相当の対応を分かり易くするため、断層像412をこれら選択ボタン410等と並べて表示してもよい。 FIG. 10 shows an example of a method of selecting a layer to be displayed after the segmentation. In this example, a selection button 410 corresponding to each layer in the tomographic image is provided. By selecting the selection button 410, a display range of an image or a layer to be displayed is selectively designated. The selection buttons 410 may be provided one by one as illustrated in the figure, or may be formed by combining a plurality of layers. For example, the selection buttons may be divided into an upper retina layer and a lower retina layer. Alternatively, a button may be provided so that selection can be made in boundary units. Furthermore, a radio button 411 may be provided to switch between selection in units of layers or selection in units of boundaries as shown in FIG. Further, the tomographic image 412 may be displayed side by side with the selection buttons 410 and the like in order to easily understand the considerable correspondence.
表示する層の選択処理に応じて、強度画像とモーションコントラスト画像を更新する。なお、層毎にモーションコントラスト画像の表示閾値を調整するスライダ413を設けて、画像更新時に表示閾値を再調整することとしてもよい。以上の構成とすることで、強度画像とモーションコントラスト画像とで、表示する層の変更が同時になされるので、表示する層を変更しても、どの層を見ているのか理解しやすくできる。また、層構造を元に深さ範囲を変えることで、特定の層に注目した情報を表示することができる。 The intensity image and the motion contrast image are updated according to the selection processing of the layer to be displayed. Note that a slider 413 for adjusting the display threshold of the motion contrast image may be provided for each layer, and the display threshold may be readjusted when the image is updated. With the above configuration, the displayed layers are changed simultaneously in the intensity image and the motion contrast image, so that even when the displayed layers are changed, it is easy to understand which layer is being viewed. Also, by changing the depth range based on the layer structure, information focusing on a specific layer can be displayed.
なお、被検眼の層構造に基づいて画像を表示する場合、強度画像とモーションコントラスト画像は2次元画像であってもよい。ここで、2次元画像の生成工程について説明する。2次元画像の生成工程では、指定した深さあるいは選択した層にもとづいて、3次元断層像データを対応する範囲で深さ方向に投影・積算して2次元強度画像を生成する。投影方法の例を図11により説明する。 When displaying an image based on the layer structure of the eye to be inspected, the intensity image and the motion contrast image may be two-dimensional images. Here, the process of generating a two-dimensional image will be described. In the two-dimensional image generation step, the two-dimensional intensity image is generated by projecting and integrating the three-dimensional tomographic image data in a corresponding range in the depth direction based on the designated depth or the selected layer. An example of the projection method will be described with reference to FIG.
図11(a)は断層像を表し、それぞれ深さ方向のZ1、Z2の間が選択された範囲に対応する。図11(b)は、3次元のボリュームデータ500と深さ表示バー501を表す。深さ表示バー501において深さZ1とZ2の間として指示されるボリューム領域502が選択した範囲である。当該ボリューム領域502内のボクセル(3次元断層画像のボリュームデータ)を各々深さ方向に投影・積算することにより2次元強度画像を生成することができる。3次元モーションコントラストについても同様に、同じ領域内の各ボクセルを深さ方向に投影及び積算、或いは投影又は積算して2次元モーションコントラスト画像を生成する。 FIG. 11A shows a tomographic image, which corresponds to a selected range between Z1 and Z2 in the depth direction. FIG. 11B shows three-dimensional volume data 500 and a depth display bar 501. The volume area 502 designated as between the depths Z1 and Z2 on the depth display bar 501 is the selected range. A two-dimensional intensity image can be generated by projecting and integrating voxels (volume data of a three-dimensional tomographic image) in the volume region 502 in the depth direction. Similarly, for the three-dimensional motion contrast, each voxel in the same region is projected and integrated in the depth direction, or projected or integrated to generate a two-dimensional motion contrast image.
2次元画像を生成するには対応する画素の画素値を積算する他、最大値等の代表値を抽出し投影することでも可能である。生成した2次元画像を、強度画像とモーションコントラスト画像として、表示する。また、これら表示の処理は同時ではなく、2次元画像化して表示状態を確認してからモーションコントラスト画像の表示閾値を変更するように順次行うこととしてもよい。2次元画像化して、並列表示することで、特定の層に着目した情報の全体を一度に把握しやすくできる。 In order to generate a two-dimensional image, in addition to integrating the pixel values of the corresponding pixels, it is also possible to extract and project a representative value such as a maximum value. The generated two-dimensional image is displayed as an intensity image and a motion contrast image. Further, these display processes may be performed not simultaneously, but sequentially in such a manner that a display state is confirmed by forming a two-dimensional image and then the display threshold of the motion contrast image is changed. By forming a two-dimensional image and displaying it in parallel, it is possible to easily grasp the entire information focused on a specific layer at a time.
なお、図11に示した例では、指定した一定の深さ範囲でボクセルの投影・積算を実行したが、層構造に対応した深さ範囲でこれを行ってもよい。つまり、場所ごとに選択した層に対応した深さ範囲を選択し、この範囲でのボクセルの投影・積算を行ってもよい。このようにする事で、より層構造を反映した2次元画像を生成することができる。 Note that, in the example shown in FIG. 11, voxel projection / integration is performed in a specified fixed depth range, but this may be performed in a depth range corresponding to the layer structure. That is, a depth range corresponding to the layer selected for each location may be selected, and voxel projection / integration in this range may be performed. By doing so, a two-dimensional image reflecting the layer structure can be generated.
さらに上述した2次元画像を表示する際に、図8と同様に断層像も並列して表示してもよい。この場合、断層像の切断面の位置は、2次元強度画像と2次元モーションコントラスト画像のいずれか一方で指定する。また、表示される断層像は、3次元断層像データ及び/又は3次元モーションコントラストから指定した位置又は対応した位置での断層像が選択(又は生成)される。表示する断層像の位置を指定する元画像及び表示する断層像は、適宜組合せ可能である。また、強度画像の断層像に対して、モーションコントラスト画像の断層像を重ねて表示してもよい。また、図8に示すように断層像の断面を示す表示線404を両画像に設けてもよい。強度画像とモーションコントラスト画像のいずれかの2次元画像から、断層像の位置を指定し、表示できることで、見たい位置の断層像を容易に表示することができる。 Further, when displaying the two-dimensional image described above, a tomographic image may be displayed in parallel as in FIG. In this case, the position of the cut surface of the tomographic image is designated by one of a two-dimensional intensity image and a two-dimensional motion contrast image. As the tomographic image to be displayed, a tomographic image at a designated position or a corresponding position is selected (or generated) from three-dimensional tomographic image data and / or three-dimensional motion contrast. The original image specifying the position of the tomographic image to be displayed and the tomographic image to be displayed can be appropriately combined. Further, a tomographic image of a motion contrast image may be displayed so as to be superimposed on a tomographic image of an intensity image. As shown in FIG. 8, a display line 404 indicating a cross section of a tomographic image may be provided in both images. Since the position of the tomographic image can be designated and displayed from the two-dimensional image of either the intensity image or the motion contrast image, the tomographic image at the desired position can be easily displayed.
また、上述した断層像は、さらに層構造の情報を表示してもよい。この場合、3次元断層像のデータから被検眼の断層像の層構造を検出した情報を元に、層構造を断層像に重ねて表示する。表示の仕方は、層構造を識別できるようにすればよい。例えば、層境界毎に線を表示してもよいし、層毎に着色してもよい。層毎に分けて断層像を表示する例を図12に示す。図12の例では、断層像に対して検出された層に基づいた境界線422(点線)を重ねて表示している。選択した層の境界線422aは太い点線とし、さらに選択した層領域423を灰色としている。検出した層構造の情報を重ねることで、より分かりやすい表示とすることができる。 Further, the tomographic image described above may further display information on a layer structure. In this case, the layer structure is superimposed and displayed on the tomographic image based on information obtained by detecting the layer structure of the tomographic image of the eye to be examined from the data of the three-dimensional tomographic image. The display method may be such that the layer structure can be identified. For example, a line may be displayed at each layer boundary, or each layer may be colored. FIG. 12 shows an example in which a tomographic image is displayed for each layer. In the example of FIG. 12, the boundary line 422 (dotted line) based on the layer detected for the tomographic image is displayed in an overlapping manner. The boundary line 422a of the selected layer is a thick dotted line, and the selected layer region 423 is gray. By superimposing the information on the detected layer structure, it is possible to make the display easier to understand.
(第三の実施形態)
次に、本発明の第三の実施形態について説明する。本実施形態では、OCTによるモーションコントラスト画像の取得とは、別に眼底像の取得を行う。眼底像の取得手段としては、眼底カメラ、走査型レーザ検眼鏡(SLO)、あるいは蛍光造影による血管像が挙げられる。これら構成は、第一の実施形態におけるOCTからなる強度画像を生成する構成と同様に、被検眼118の第一の所定範囲における被検体画像を取得する被検体画像取得手段を構成する。OCTによる強度画像と同様に、これらにより得られた眼底像からも第三の血管連結関係を算出する。算出した血管連結関係と、モーションコントラスト画像による第一の血管連結関係に対し、血管の特徴量を元に位置合わせを行う。位置合わせには既知の位置合わせアルゴリズムを用いることができる。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the present embodiment, a fundus image is obtained separately from obtaining a motion contrast image by OCT. Examples of a fundus image acquiring unit include a fundus camera, a scanning laser ophthalmoscope (SLO), and a blood vessel image obtained by fluorescence contrast. These configurations constitute a subject image acquisition unit that acquires a subject image in a first predetermined range of the subject's eye 118, similarly to the configuration of generating an intensity image composed of OCT in the first embodiment. Similarly to the intensity image obtained by the OCT, the third blood vessel connection relationship is calculated from the fundus image obtained by these methods. The calculated blood vessel connection relationship and the first blood vessel connection relationship based on the motion contrast image are aligned based on the feature amount of the blood vessel. A known alignment algorithm can be used for the alignment.
位置合わせを行ったのち、両画像を並べて表示する。図17に表示例を示す。図17の例では、モーションコントラスト画像(OCTA像)401と眼底像420を並べて表示する。ラジオスイッチ部421により、表示する眼底像の切り替えを行う。例えば、切り替え操作により、例えばOCTの積算による2次元強度画像、眼底カメラによる眼底像、或いはSLOによる眼底像の切り替えを行う。第一の実施形態と同様に、両画像には、対応する位置にカーソル407を設ける。 After the alignment, both images are displayed side by side. FIG. 17 shows a display example. In the example of FIG. 17, a motion contrast image (OCTA image) 401 and a fundus image 420 are displayed side by side. The fundus image to be displayed is switched by the radio switch unit 421. For example, the switching operation switches between a two-dimensional intensity image obtained by integrating OCT, a fundus image by a fundus camera, and a fundus image by SLO. As in the first embodiment, both images are provided with a cursor 407 at corresponding positions.
また、第一の実施形態(図8に示した表示例)と同様に、両画像の拡大や移動を同時に行えるようにすればよい。このような構成とする事で、他の観察装置で得た像に対しても、モーションコントラスト画像との対比が容易に行う事ができる。例えば、カラーの眼底カメラから得られる像と並べて表示することで、カラーで見た血管写真とモーションコントラスト画像を容易に対比できる。 Further, as in the first embodiment (the display example shown in FIG. 8), both images may be simultaneously enlarged or moved. With such a configuration, it is possible to easily compare an image obtained by another observation device with a motion contrast image. For example, by displaying the images obtained from the color fundus camera side by side, it is possible to easily compare the blood vessel photograph and the motion contrast image viewed in color.
(第四の実施形態)
次に、本発明の第四の実施形態について説明する。本実施形態では、測定されたモーションコントラスト画像による血管の連結関係と他のモーションコントラスト画像による血管の連結関係とを並べて表示する。他のモーションコントラスト画像は、以前に撮影した像とすればよい。第四の実施形態の表示例を図18に示す。図18の例では、過去に撮影した右側のモーションコントラスト画像430に対し、左側のモーションコントラスト画像401の比較を行っている。これら画像間では第三の実施形態同様にそれぞれの血管の連結関係に基づき、位置合わせを行う。また、両画像の拡大や移動を同時に行えるようにすればよい。なお、この場合、上述した実施形態において被検体画像を取得する工程において実行された操作は、測定時である信号取得工程時のモーションコントラスト画像とは異なる時間において他のモーションコントラスト画像を取得する工程に置き換えられる。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In the present embodiment, the blood vessel connection relationship based on the measured motion contrast image and the blood vessel connection relationship based on another motion contrast image are displayed side by side. Other motion contrast images may be previously captured images. FIG. 18 shows a display example of the fourth embodiment. In the example of FIG. 18, the left motion contrast image 401 is compared with the right motion contrast image 430 shot in the past. Position alignment is performed between these images based on the connection relationship of the blood vessels as in the third embodiment. In addition, it is sufficient that both images can be enlarged and moved at the same time. In this case, in the above-described embodiment, the operation executed in the step of acquiring the subject image is a step of acquiring another motion contrast image at a different time from the motion contrast image in the signal acquiring step which is a measurement time. Is replaced by
図18(a)の例では、モーションコントラスト画像401の破線で囲った領域431の血管の信号が無くなった場合に得られる画像を模式図として示す。表示された両画像の連結状態は比較され、比較結果の少なくとも一部がいずれかの画像に重ねて表示される。図18(b)に、領域431の比較結果(血管)を点線で重畳表示する例を示す。このような構成とする事で、血管の連結関係の経時的な変化を容易に把握することができる。 In the example of FIG. 18A, an image obtained when there is no blood vessel signal in a region 431 surrounded by a broken line of the motion contrast image 401 is schematically shown. The connected state of the two displayed images is compared, and at least a part of the comparison result is displayed so as to be superimposed on one of the images. FIG. 18B shows an example in which the comparison result (blood vessel) of the region 431 is displayed in a superimposed manner by a dotted line. With such a configuration, it is possible to easily grasp a temporal change in the connection relationship of blood vessels.
なお、ここで実行した比較の処理は、一対の画像との比較であってもよいし、複数枚の画像間での比較であってもよい。複数枚の画像に対し比較する場合、表示色を分けてもよい。あるいは、比較対象を逐次切り替えてもよい。 The comparison process executed here may be a comparison with a pair of images or a comparison between a plurality of images. When comparing a plurality of images, display colors may be divided. Alternatively, the comparison target may be sequentially switched.
以上、上述した各実施形態によれば、OCTAで得られるモーションコントラスト画像とOCTで得られる強度画像に対し、一方の画像から得られる情報を他方の画像に表示する事で、より直感的に理解しやすい画像を提供することができる。すなわち、OCTAで得られるモーションコントラスト画像とOCTで得られる強度画像との対応を容易にすることができる。また、両画像を並べて表示する際に、対応する画素を示すカーソルを表示することで、より比較しやすい画像を提供することができる。 As described above, according to each of the above-described embodiments, the information obtained from one image is displayed on the other image with respect to the motion contrast image obtained by OCTA and the intensity image obtained by OCT, so that the image can be more intuitively understood. It is possible to provide an easy-to-use image. That is, the correspondence between the motion contrast image obtained by OCTA and the intensity image obtained by OCT can be facilitated. In addition, when displaying both images side by side, displaying a cursor indicating the corresponding pixel can provide an image that is easier to compare.
さらに、両画像の倍率や表示位置、視点位置を同時に変更できる工程を設けることで、画像の表示の仕方を変更しても、どの位置を見ているのか理解しやすい画像を提供することができる。 Furthermore, by providing a process in which the magnification, display position, and viewpoint position of both images can be changed at the same time, it is possible to provide an image that makes it easy to understand which position the user is looking at even if the display method of the images is changed. .
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、画像の表示の位置関係やGUIの形状は変更可能である。また、3Dディスプレイによる立体視による表示でもよい。 As described above, the preferred embodiments of the present invention have been described in detail, but the present invention is not limited to the specific embodiments, and various modifications may be made within the scope of the present invention described in the appended claims.・ Change is possible. For example, the positional relationship of the image display and the shape of the GUI can be changed. Alternatively, the display may be a stereoscopic display using a 3D display.
(その他の実施形態)
なお、本発明は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、種々の変形、変更して実施することができる。例えば、実施形態として、被検体が眼の場合について述べているが、眼以外の皮膚や臓器等の被検体に本発明を適用することも可能である。この場合、本発明は眼科装置以外の、例えば内視鏡等の医療機器より得られるデータに基づいて画像を形成する画像形成方法あるいは装置としての態様を有する。また、上述したOCT装置は眼科装置に例示される検査装置として把握され、被検眼は被検査物の一態様として把握されることが望ましい。
(Other embodiments)
Note that the present invention is not limited to the above-described embodiment, and can be implemented with various modifications and changes without departing from the spirit of the present invention. For example, although an embodiment has been described in which the subject is an eye, the present invention can be applied to subjects other than eyes, such as skin and organs. In this case, the present invention has an aspect as an image forming method or apparatus for forming an image based on data obtained from a medical device such as an endoscope other than the ophthalmic device. In addition, it is preferable that the above-described OCT apparatus is grasped as an examination apparatus exemplified by an ophthalmologic apparatus, and that the eye to be examined is grasped as one mode of an object to be examined.
さらに、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Further, the present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus execute the program. The processing can be implemented by reading and executing. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.
100 光干渉断層取得部
143 制御部
144 信号処理部
145 信号取得制御部
146 表示部
147 画像生成部
148 マップ生成部
149 表示制御部
100 Optical coherence tomographic acquisition unit 143 Control unit 144 Signal processing unit 145 Signal acquisition control unit 146 Display unit 147 Image generation unit 148 Map generation unit 149 Display control unit
本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing device and an information processing method .
上述した課題を解決するために、本発明の一態様に係る情報処理装置は、
被検眼の3次元モーションコントラストデータを取得するデータ取得手段と、
前記取得された3次元モーションコントラストデータを用いて得た少なくとも1つの血管に関する計測情報を取得する情報取得手段と、
前記取得された計測情報を用いて前記少なくとも1つの血管を分類する分類手段と、
を備える。
In order to solve the above-described problem, an information processing device according to one embodiment of the present invention includes:
Data acquisition means for acquiring three-dimensional motion contrast data of the eye to be inspected;
Information acquisition means for acquiring measurement information on at least one blood vessel obtained using the obtained three-dimensional motion contrast data;
A classification unit that classifies the at least one blood vessel using the acquired measurement information;
Is provided .
Claims (19)
前記第一の所定範囲に含まれる第二の所定の範囲において同一断面を意図して取得される複数フレーム分の干渉信号セットを、3次元断層像を形成するために異なる複数の断面について取得する信号取得工程と、
前記同一断面を意図して取得された複数フレーム分の干渉信号セットにおいて各フレームの間で対応する画素データを用いてモーションコントラスト画像を生成するモーションコントラスト画像生成工程と、
前記被検体画像と前記生成されたモーションコントラスト画像とを並べて表示する表示工程と
前記被検体画像及び前記モーションコントラスト画像の一方の画像の情報を選択すると、他方の画像において前記情報が表示される領域に前記選択された情報を重ねて表示する重畳表示工程と、
を有する画像形成方法。 A subject image obtaining step of obtaining a subject image in a first predetermined range of the subject,
In a second predetermined range included in the first predetermined range, an interference signal set for a plurality of frames obtained with the intention of the same cross section is obtained for a plurality of different cross sections to form a three-dimensional tomographic image. A signal acquisition step;
A motion contrast image generation step of generating a motion contrast image using pixel data corresponding to each frame in an interference signal set for a plurality of frames acquired with the intention of the same cross section,
A display step of displaying the subject image and the generated motion contrast image side by side; and selecting information of one of the subject image and the motion contrast image, a region where the information is displayed in the other image. A superimposed display step of superimposing and displaying the selected information;
An image forming method comprising:
前記信号取得工程で取得された干渉信号セットに基づいて算出された前記被検体の3次元断層像のデータと、の位置あわせを行う工程をさらに有することを特徴とする請求項2乃至4のいずれか一項に記載の画像形成方法。 Data of a three-dimensional tomographic image of the subject calculated based on the interference signal set acquired in the subject image acquiring step,
5. The method according to claim 2, further comprising a step of performing positioning of the subject with data of a three-dimensional tomographic image of the subject calculated based on the interference signal set acquired in the signal acquiring step. The image forming method according to claim 1.
前記3次元断層像における深さ方向の表示範囲の変更を指示する工程をさらに有し、前記表示範囲の変更に際して前記表示するモーションコントラスト画像を更新することを特徴とする請求項5に記載の画像形成方法。 The display step includes:
The image according to claim 5, further comprising a step of instructing a change of a display range in the depth direction in the three-dimensional tomographic image, wherein the displayed motion contrast image is updated when the display range is changed. Forming method.
前記表示範囲を変更する工程では前記検出された層構造に基づいて前記表示範囲を選択的に指示することを特徴とする請求項6に記載の画像形成方法。 Further comprising a step of detecting a layer structure of the tomographic image of the subject from the data of the three-dimensional tomographic image acquired in the signal acquiring step,
7. The image forming method according to claim 6, wherein in the step of changing the display range, the display range is selectively designated based on the detected layer structure.
前記表示工程において、前記モーションコントラスト画像のボリュームデータを前記表示範囲で深さ方向に投影及び積算して生成した2次元モーションコントラスト画像と、前記被検体画像とを表示することを特徴とする請求項6又は7に記載の画像形成方法。 The object image is obtained by projecting and integrating data of the three-dimensional tomographic image of the object in the display range, and
In the display step, a two-dimensional motion contrast image generated by projecting and integrating volume data of the motion contrast image in a depth direction in the display range and the subject image are displayed. 8. The image forming method according to 6 or 7.
前記領域分割処理は、前記ボリュームデータを表す画素値が所定閾値以上のものを血管候補の画素とする工程と、
前記血管候補とされた画素に対して血管連結関係を有する画素を推定する血管連結推定工程と、
所定数以上の画素と血管連結関係を有すると推定された前記血管候補とされた画素を血管として認識する工程と、を有することを特徴とする請求項13に記載の画像形成方法。 The subject includes a blood vessel,
The region dividing process, a pixel value representing the volume data is a pixel of a blood vessel candidate or more of a predetermined threshold or more,
A blood vessel connection estimating step of estimating a pixel having a blood vessel connection relationship with respect to the pixel that is the blood vessel candidate,
14. The image forming method according to claim 13, further comprising the step of: recognizing, as a blood vessel, the pixel which is a blood vessel candidate estimated to have a blood vessel connection relationship with a predetermined number or more of pixels.
前記第二の血管連結関係と前記血管連結関係とにおいて前記血管の連結状態を比較する工程とを有し、
前記表示工程は前記血管の連結状態を比較した結果の少なくとも一部を前記被検体画像及び前記モーションコントラスト画像の少なくともいずれかに重ねて表示することを特徴とする請求項14に記載の画像形成方法。 A second blood vessel connection estimation step of estimating a second blood vessel connection relationship from the subject image,
Comparing the connection state of the blood vessels in the second blood vessel connection relationship and the blood vessel connection relationship,
15. The image forming method according to claim 14, wherein the displaying step displays at least a part of a result of comparing the connection states of the blood vessels on at least one of the subject image and the motion contrast image. .
前記選択された近傍の画素と前記血管連結関係があると推定された画素の表示を、前記選択された画素及び近傍の画素とは異なる様式にて行うことを特徴とする請求項13乃至15のいずれか一項に記載の画像形成方法。 The display step includes a step of selecting a pixel near the pixel recognized as the blood vessel,
The display of the pixel estimated to have the blood vessel connection relationship with the selected neighboring pixel is performed in a different manner from the selected pixel and the neighboring pixel. The image forming method according to claim 1.
前記モーションコントラスト画像の所定の領域において前記抽出された細い血管として認識された画素とその他の画素の存在比率をマップ化して表示する工程と、を有することを特徴とする請求項14乃至16のいずれか一項に記載の画像形成方法。 Extracting a blood vessel smaller than the predetermined diameter by comparing the blood vessel diameter calculated based on the pixel recognized as the blood vessel and a predetermined diameter,
17. The method according to claim 14, further comprising a step of mapping and displaying an abundance ratio of the pixels recognized as the extracted thin blood vessels and other pixels in a predetermined area of the motion contrast image. The image forming method according to claim 1.
前記第一の所定範囲に含まれる第二の所定の範囲において同一断面を意図して取得される複数フレーム分の干渉信号セットを、3次元断層像を形成するために異なる断面について取得する信号取得手段と、
前記同一断面を意図して取得された複数フレーム分の干渉信号セットにおいて各フレームの間で対応する画素データを用いてモーションコントラスト画像を生成するモーションコントラスト画像生成手段と、
前記被検体画像と前記生成されたモーションコントラスト画像とを並べて表示手段に表示させる表示制御手段と、
前記被検体画像及び前記モーションコントラスト画像の一方の画像の情報を選択すると、他方の画像において前記情報が表示される領域に前記選択された情報を重ねて表示する重畳表示手段と
を有する画像形成装置。 A subject image acquiring means for acquiring a subject image in a first predetermined range of the subject,
Signal acquisition for acquiring a plurality of frames of interference signal sets intended for the same cross section in a second predetermined range included in the first predetermined range for different cross sections to form a three-dimensional tomographic image Means,
Motion contrast image generating means for generating a motion contrast image using pixel data corresponding between each frame in the interference signal set for a plurality of frames obtained with the intention of the same cross section,
Display control means for displaying the subject image and the generated motion contrast image side by side on a display means,
Superimposing display means for displaying, when information of one of the subject image and the motion contrast image is selected, the selected information in a region where the information is displayed in the other image, .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019214043A JP6849776B2 (en) | 2019-11-27 | 2019-11-27 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019214043A JP6849776B2 (en) | 2019-11-27 | 2019-11-27 | Information processing device and information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016009544A Division JP6624945B2 (en) | 2016-01-21 | 2016-01-21 | Image forming method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020049231A true JP2020049231A (en) | 2020-04-02 |
JP6849776B2 JP6849776B2 (en) | 2021-03-31 |
Family
ID=69994875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019214043A Active JP6849776B2 (en) | 2019-11-27 | 2019-11-27 | Information processing device and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6849776B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023017641A1 (en) * | 2021-08-13 | 2023-02-16 | ソニーグループ株式会社 | Bioparticle sorting device, bioparticle sorting system, and information processing device |
JP2023112195A (en) * | 2020-12-11 | 2023-08-10 | キヤノン株式会社 | Ophthalmological analysis device and ophthalmological analysis program |
JP7623682B2 (en) | 2021-02-22 | 2025-01-29 | 国立大学法人山口大学 | Image processing device, image processing program, and image processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120218517A1 (en) * | 2011-02-25 | 2012-08-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing system for displaying information about ocular blood flow |
US20130301008A1 (en) * | 2012-05-10 | 2013-11-14 | Carl Zeiss Meditec, Inc. | Analysis and visualization of oct angiography data |
JP2015000131A (en) * | 2013-06-13 | 2015-01-05 | 国立大学法人 筑波大学 | Optical coherence tomography apparatus for selectively visualizing and analyzing choroid vascular plexus, and image processing program therefor |
US20150374228A1 (en) * | 2014-06-30 | 2015-12-31 | Nidek Co., Ltd. | Optical coherence tomography device, optical coherence tomography calculation method, and optical coherence tomography calculation program |
JP2017077414A (en) * | 2015-10-21 | 2017-04-27 | 株式会社ニデック | Ophthalmic analysis apparatus and ophthalmic analysis program |
-
2019
- 2019-11-27 JP JP2019214043A patent/JP6849776B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120218517A1 (en) * | 2011-02-25 | 2012-08-30 | Canon Kabushiki Kaisha | Image processing apparatus and image processing system for displaying information about ocular blood flow |
JP2012176095A (en) * | 2011-02-25 | 2012-09-13 | Canon Inc | Image processing apparatus, and image processing system |
US20130301008A1 (en) * | 2012-05-10 | 2013-11-14 | Carl Zeiss Meditec, Inc. | Analysis and visualization of oct angiography data |
JP2015515894A (en) * | 2012-05-10 | 2015-06-04 | カール ツアイス メディテック アクチエンゲゼルシャフト | Analysis and visualization of OCT angiography data |
JP2015000131A (en) * | 2013-06-13 | 2015-01-05 | 国立大学法人 筑波大学 | Optical coherence tomography apparatus for selectively visualizing and analyzing choroid vascular plexus, and image processing program therefor |
US20150374228A1 (en) * | 2014-06-30 | 2015-12-31 | Nidek Co., Ltd. | Optical coherence tomography device, optical coherence tomography calculation method, and optical coherence tomography calculation program |
JP2017077414A (en) * | 2015-10-21 | 2017-04-27 | 株式会社ニデック | Ophthalmic analysis apparatus and ophthalmic analysis program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023112195A (en) * | 2020-12-11 | 2023-08-10 | キヤノン株式会社 | Ophthalmological analysis device and ophthalmological analysis program |
JP7480398B2 (en) | 2020-12-11 | 2024-05-09 | キヤノン株式会社 | Ophthalmic analysis device, method for analyzing test eye data, and ophthalmic analysis program |
JP7623682B2 (en) | 2021-02-22 | 2025-01-29 | 国立大学法人山口大学 | Image processing device, image processing program, and image processing method |
WO2023017641A1 (en) * | 2021-08-13 | 2023-02-16 | ソニーグループ株式会社 | Bioparticle sorting device, bioparticle sorting system, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP6849776B2 (en) | 2021-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6624945B2 (en) | Image forming method and apparatus | |
JP6702764B2 (en) | Optical coherence tomographic data processing method, program for executing the method, and processing apparatus | |
JP6598502B2 (en) | Image generating apparatus, image generating method, and program | |
JP6632267B2 (en) | Ophthalmic apparatus, display control method and program | |
JP6584126B2 (en) | Image generating apparatus, image generating method, and program | |
JP6843521B2 (en) | Image processing device and image processing method | |
JP2018038611A (en) | Ophthalmology analyzer, ophthalmology analysis program | |
JP6602108B2 (en) | Ophthalmic apparatus, information processing method, and program | |
JP2012100811A (en) | Fundus image processing device and fundus observation device | |
JP2016140518A (en) | Tomographic imaging apparatus, tomographic imaging method, and program | |
JP6849776B2 (en) | Information processing device and information processing method | |
JP2022111263A (en) | Image processing device, image processing method and program | |
JP2022176282A (en) | Ophthalmologic apparatus and control method thereof | |
JP6682291B2 (en) | Image processing apparatus, image processing method and program | |
JP7607818B2 (en) | Ophthalmology information processing device | |
JP2018191761A (en) | Information processing apparatus, information processing method, and program | |
JP7204345B2 (en) | Image processing device, image processing method and program | |
JP6992030B2 (en) | Image generator, image generation method and program | |
JP6849780B2 (en) | Ophthalmic equipment, display control methods and programs | |
JP2023128334A (en) | Information processor, optical coherence tomography device, information processing method, and program | |
JP2017144047A (en) | Imaging apparatus and driving method therefor, and program | |
JP2025091989A (en) | Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program | |
JP2024099210A (en) | Optical coherence tomography device, control method thereof, and program | |
JP2025092027A (en) | Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program | |
JP2019217389A (en) | Image generation apparatus, image generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210304 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6849776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |