[go: up one dir, main page]

JP2018191761A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2018191761A
JP2018191761A JP2017096278A JP2017096278A JP2018191761A JP 2018191761 A JP2018191761 A JP 2018191761A JP 2017096278 A JP2017096278 A JP 2017096278A JP 2017096278 A JP2017096278 A JP 2017096278A JP 2018191761 A JP2018191761 A JP 2018191761A
Authority
JP
Japan
Prior art keywords
data
motion contrast
tomographic data
shadow
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017096278A
Other languages
Japanese (ja)
Inventor
和田 学
Manabu Wada
学 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017096278A priority Critical patent/JP2018191761A/en
Publication of JP2018191761A publication Critical patent/JP2018191761A/en
Pending legal-status Critical Current

Links

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】モーションコントラスト画像中の陰影によるアーチファクトの存在を検出する情報処理装置、方法、プログラムを提供する。【解決手段】被検体の同一位置を走査するように制御された測定光に基づいて得られた複数の断層データを取得する取得手段と、複数の断層データから被検体のモーションコントラストデータを算出する算出手段と、複数の断層データの少なくとも1つの断層データに基づいて、モーションコントラストデータをマスク処理するマスク手段と、マスク処理後のモーションコントラストデータに基づいて、モーションコントラスト画像を生成する生成手段と、複数の断層データの少なくとも1つの断層データに基づいて、被検体の陰影部を特定する特定手段と、特定手段の特定結果及びマスク手段によってモーションコントラストデータがマスクされた位置に基づいて、モーションコントラスト画像におけるアーチファクトを検出する検出手段とを備える。【選択図】図9An information processing apparatus, method, and program for detecting the presence of artifacts due to shadows in a motion contrast image are provided. An acquisition means for acquiring a plurality of tomographic data obtained based on measurement light controlled to scan the same position of a subject, and motion contrast data of the subject is calculated from the plurality of tomographic data. A calculation means; a mask means for masking motion contrast data based on at least one tomographic data of the plurality of tomographic data; a generation means for generating a motion contrast image based on the motion contrast data after the mask processing; Based on at least one tomographic data of the plurality of tomographic data, a specifying means for specifying a shadow portion of the subject, a specifying result of the specifying means, and a position where the motion contrast data is masked by the masking means, a motion contrast image Means for detecting artifacts in Equipped with a. [Selection] Figure 9

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

生体などの測定対象の断層像を非破壊及び非侵襲で取得する方法として、光干渉断層撮像法(OCT:Optical Coherence Tomography)を用いた光干渉断層撮像装置(OCT装置)が実用化されている。OCT装置は、特に眼科診断において広く利用されている。   An optical coherence tomography (OCT) using optical coherence tomography (OCT) has been put into practical use as a method for non-destructively and non-invasively acquiring a tomographic image of a measurement target such as a living body. . The OCT apparatus is widely used especially in ophthalmic diagnosis.

OCTでは、測定対象から反射した光と参照鏡から反射した光を干渉させ、その干渉光強度を解析することにより測定対象の断層画像を得ることができる。このようなOCTとして、タイムドメインOCT(TD−OCT:Time Domain OCT)、及びフーリエドメインOCT(FD−OCT:Fourier Domain OCT)が知られている。タイムドメインOCTでは、参照鏡の位置を変えることで測定対象の深さ情報を得る。フーリエドメインOCTでは、被検体の深さ情報を周波数情報に置き換えて取得する。また、フーリエドメインOCTには、スペクトラルドメインOCT(SD−OCT:Spectral Domain OCT)、及び波長掃引型OCT(SS−OCT:Swept Source OCT)が含まれる。スペクトラルドメインOCTでは、干渉光を分光し、深さ情報を周波数情報に置き換えて取得する。これに対し、波長掃引型OCTでは、先に波長を分光して出力し、深さ情報を周波数情報に置き換えて取得する。   In OCT, a tomographic image of a measurement object can be obtained by causing the light reflected from the measurement object to interfere with the light reflected from the reference mirror and analyzing the intensity of the interference light. As such OCT, time domain OCT (TD-OCT: Time Domain OCT) and Fourier domain OCT (FD-OCT: Fourier Domain OCT) are known. In the time domain OCT, the depth information of the measurement object is obtained by changing the position of the reference mirror. In the Fourier domain OCT, the depth information of the subject is replaced with frequency information and acquired. The Fourier domain OCT includes a spectral domain OCT (SD-OCT: Spectral Domain OCT) and a wavelength sweep type OCT (SS-OCT: Swept Source OCT). In the spectral domain OCT, interference light is dispersed and depth information is replaced with frequency information. On the other hand, in the wavelength sweep type OCT, the wavelength is first dispersed and output, and the depth information is obtained by replacing it with the frequency information.

近年、これらのOCTを用いて造影剤を用いない血管造影法が提案されている。この血管造影方法はOCTアンギオグラフィー(OCTA)と呼ばれ、得られるOCTA画像はモーションコントラストデータを画像化したモーションコントラスト画像の一種である。ここでモーションコントラストデータとは被検体の同一断面を繰り返し撮影し、その撮影間における被検体の時間的な変化を検出したデータである。モーションコントラストデータは、例えば複素OCT信号の位相差やベクトル差分、或いは強度の時間的な変化を計算することによって得られる(特許文献1参照)。   In recent years, angiographic methods using these OCTs without using contrast agents have been proposed. This angiography method is called OCT angiography (OCTA), and the obtained OCTA image is a kind of motion contrast image obtained by imaging motion contrast data. Here, the motion contrast data is data obtained by repeatedly photographing the same cross section of the subject and detecting a temporal change of the subject during the photographing. The motion contrast data is obtained, for example, by calculating the phase difference or vector difference of the complex OCT signal or temporal change in intensity (see Patent Document 1).

更にOCTA画像のノイズを低減させる方法として閾値処理がある。この閾値処理は複素OCT信号の強度と閾値を比較し、複素OCT信号の強度が閾値を下回った場合に、当該信号に対応するモーションコントラストデータを0にする(マスクする)ものである。特許文献2は、このような閾値処理を開示しており、特許文献2ではノイズフロアの平均値から10dB高い値を閾値としている。   Further, there is a threshold process as a method for reducing noise in the OCTA image. In this threshold processing, the intensity of the complex OCT signal is compared with the threshold, and when the intensity of the complex OCT signal falls below the threshold, the motion contrast data corresponding to the signal is set to 0 (masked). Patent Document 2 discloses such threshold processing. In Patent Document 2, a value 10 dB higher than the average value of the noise floor is used as the threshold value.

一方、OCT装置の被検体として被検眼に着目すると、被検眼には測定光の網膜への入射を遮る遮蔽物(網膜血管や硝子体混濁、網膜出血、硬性白斑など)が存在している場合がある。これらの遮蔽物が存在すると、測定光が遮蔽物に遮られ、遮蔽物から後方へ測定光が届きづらくなる。この場合には、得られるOCT画像において、測定光の入射方向の遮蔽物から後方において陰影(シャドー)が生じ、陰影が生じている部分(陰影部)ではOCT画像の画像輝度が低くなる。例えば、網膜血管は神経節細胞層から内顆粒層と外網状層の境界部付近までに存在するので、網膜血管が遮蔽物となる場合には、OCT画像において、上記境界部の後方である外網状層から網膜色素上皮、脈絡膜までにおいて陰影が生じる。また、硝子体混濁が遮蔽物となる場合には、OCT画像において、内境界膜から網膜色素上皮、脈絡膜までの全ての層で陰影が生じる。   On the other hand, when focusing on the subject's eye as the subject of the OCT apparatus, the subject's eye has a shield (such as retinal blood vessels, vitreous turbidity, retinal hemorrhage, or hard vitiligo) that blocks the measurement light from entering the retina. There is. When these shielding objects exist, the measurement light is blocked by the shielding object, and the measurement light is difficult to reach backward from the shielding object. In this case, in the obtained OCT image, a shadow is generated behind the shielding object in the incident direction of the measurement light, and the image luminance of the OCT image is lowered in a portion where the shadow is generated (shadow portion). For example, since the retinal blood vessel exists from the ganglion cell layer to the vicinity of the boundary between the inner granule layer and the outer reticulated layer, when the retinal blood vessel becomes a shielding object, in the OCT image, the outer portion that is behind the boundary portion. Shading occurs from the reticular layer to the retinal pigment epithelium and choroid. In addition, when vitreous opacity becomes a shield, shadows occur in all layers from the inner boundary membrane to the retinal pigment epithelium and choroid in the OCT image.

このようなOCT画像の画像輝度が低くなる陰影部に対し、特許文献2に記載されるノイズ低減処理を施してOCTA画像を生成すると、陰影部の多くの部分のモーションコントラストデータは0に(マスク)される。そのため、得られるOCTA画像は遮蔽物が存在しない部位は画像化されるものの、遮蔽物が存在する部位は画像化されず、アーチファクトとして表示される。   When the OCTA image is generated by performing the noise reduction processing described in Patent Document 2 on the shadow portion where the image luminance of the OCT image is low, the motion contrast data in many portions of the shadow portion is set to 0 (mask ) For this reason, in the obtained OCTA image, a part where the shielding object is not present is imaged, but a part where the shielding object is present is not imaged and is displayed as an artifact.

特開2015−131107号公報JP, 2015-131107, A 米国特許出願公開第2014/221827号明細書US Patent Application Publication No. 2014/221825

OCTA画像の画像輝度が低い領域に着目すると、疾病等の影響で被検体の時間的な変化がなくモーションコントラストデータの値が低い場合と、陰影によりモーションコントラストデータがマスクされてアーチファクトとして表示されている場合とが存在する。OCTA画像の画像輝度が低い領域において両者の判別は困難であるため、医師の診断精度の低下を招くおそれがある。   Focusing on the area where the image brightness of the OCTA image is low, when there is no temporal change of the subject due to the influence of disease or the like and the value of the motion contrast data is low, the motion contrast data is masked by the shadow and displayed as an artifact. There is a case. Since it is difficult to discriminate both in the region where the image brightness of the OCTA image is low, there is a possibility that the diagnosis accuracy of the doctor is lowered.

そこで、本発明では、モーションコントラスト画像中の陰影によるアーチファクトの存在を検出することができる情報処理装置、情報処理方法及びプログラムを提供する。   Therefore, the present invention provides an information processing apparatus, information processing method, and program capable of detecting the presence of artifacts due to shadows in a motion contrast image.

本発明の一実施態様による情報処理装置は、被検体の同一位置を走査するように制御された測定光に基づいて得られた複数の断層データを取得する取得手段と、前記複数の断層データから前記被検体のモーションコントラストデータを算出する算出手段と、前記複数の断層データの少なくとも1つの断層データに基づいて、前記モーションコントラストデータをマスク処理するマスク手段と、前記マスク処理後のモーションコントラストデータに基づいて、モーションコントラスト画像を生成する生成手段と、前記複数の断層データの少なくとも1つの断層データに基づいて、前記被検体の陰影部を特定する特定手段と、前記特定手段の特定結果及び前記マスク手段によって前記モーションコントラストデータがマスクされた位置に基づいて、前記モーションコントラスト画像におけるアーチファクトを検出する検出手段とを備える。   An information processing apparatus according to an embodiment of the present invention includes an acquisition unit that acquires a plurality of tomographic data obtained based on measurement light controlled to scan the same position of a subject, and the plurality of tomographic data. Calculation means for calculating motion contrast data of the subject; mask means for masking the motion contrast data based on at least one tomographic data of the plurality of tomographic data; and motion contrast data after the mask processing. A generating unit that generates a motion contrast image, a specifying unit that specifies a shadow portion of the subject based on at least one tomographic data of the plurality of tomographic data, a specifying result of the specifying unit, and the mask Based on the position where the motion contrast data is masked by means And detection means for detecting an artifact in the motion contrast image.

本発明の他の実施態様による情報処理方法は、被検体の同一位置を走査するように制御された測定光に基づいて得られた複数の断層データを取得する工程と、前記複数の断層データからモーションコントラストデータを算出する工程と、前記複数の断層データの少なくとも1つの断層データに基づいて、前記モーションコントラストデータをマスク処理する工程と、前記マスク処理後のモーションコントラストデータに基づいて、モーションコントラスト画像を生成する工程と、前記複数の断層データの少なくとも1つの断層データに基づいて、前記被検体の陰影部を特定する工程と、前記陰影部を特定する工程の特定結果及び前記マスク処理する工程において前記モーションコントラストデータがマスクされた位置に基づいて、前記モーションコントラスト画像におけるアーチファクトを検出する工程とを含む。   An information processing method according to another embodiment of the present invention includes a step of acquiring a plurality of tomographic data obtained based on measurement light controlled to scan the same position of a subject, and the plurality of tomographic data. A step of calculating motion contrast data; a step of masking the motion contrast data based on at least one tomographic data of the plurality of tomographic data; and a motion contrast image based on the motion contrast data after the mask processing A step of specifying a shadow portion of the subject based on at least one tomographic data of the plurality of tomographic data, a specifying result of the step of specifying the shadow portion, and a step of performing the mask processing Based on the position where the motion contrast data is masked, the motion And detecting artifacts in emission contrast image.

本発明によれば、モーションコントラスト画像中の陰影によるアーチファクトの存在を検出することができる。   According to the present invention, it is possible to detect the presence of an artifact due to a shadow in a motion contrast image.

本発明の実施例1によるOCT装置の概略的な構成を示す。1 shows a schematic configuration of an OCT apparatus according to Embodiment 1 of the present invention. 撮像光学系の概略的な構成を示す。1 shows a schematic configuration of an imaging optical system. 信号処理部及び表示部の概略的な構成を示す。The schematic structure of a signal processing part and a display part is shown. 観察時に表示部に表示される前眼部画像とSLO画像の一例を示す。An example of an anterior segment image and an SLO image displayed on the display unit during observation is shown. 或るY方向位置における網膜のBスキャン画像の一例を示す。An example of a B-scan image of the retina at a certain position in the Y direction is shown. 実施例1に係る信号処理部による一連の処理のフローチャートである。3 is a flowchart of a series of processes performed by a signal processing unit according to the first embodiment. 実施例1に係るモーションコントラストデータの生成処理のフローチャートである。6 is a flowchart of motion contrast data generation processing according to the first embodiment. 実施例1に係るモーションコントラストデータの閾値処理のフローチャートである。6 is a flowchart of motion contrast data threshold processing according to the first embodiment. 実施例1に係るアーチファクトの検出と検出結果の表示処理のフローチャートである。6 is a flowchart of artifact detection and detection result display processing according to the first embodiment. 実施例1に係るアーチファクト位置の検出処理のフローチャートである。6 is a flowchart of artifact position detection processing according to the first embodiment. OCTA画像とアーチファクトの検出結果の表示の一例を示す。An example of a display of an OCTA image and the detection result of an artifact is shown. 実施例2に係るアーチファクトの検出と検出結果の表示処理のフローチャートである。10 is a flowchart of artifact detection and detection result display processing according to the second embodiment.

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。   Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, dimensions, materials, shapes, and relative positions of components described in the following embodiments are arbitrary and can be changed according to the configuration of the apparatus to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate the same or functionally similar elements.

[実施例1]
以下、図1乃至11を参照して、本発明の実施例1によるOCT装置について説明する。図1は本実施例によるOCT装置50の概略的な構成を示す。なお、以下において、被検体として人眼(被検眼)を扱うものとして説明する。
[Example 1]
Hereinafter, an OCT apparatus according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a schematic configuration of an OCT apparatus 50 according to this embodiment. In the following description, it is assumed that a human eye (examined eye) is handled as a subject.

OCT装置50には、撮像光学系100と、信号処理部300(情報処理装置)と、表示部400(表示手段)が設けられている。撮像光学系100は、測定光を被検眼上で走査し、測定光の戻り光と参照光とによる干渉光を検出することにより、断層の情報を取得する。信号処理部300は、撮像光学系100で取得された断層の情報から被検眼の断層画像やOCTA画像等を生成する。表示部400は、信号処理部300で生成された被検眼の断層画像やOCTA画像、及び信号処理部300より受け取った被検者の情報等を表示する。   The OCT apparatus 50 is provided with an imaging optical system 100, a signal processing unit 300 (information processing device), and a display unit 400 (display means). The imaging optical system 100 obtains tomographic information by scanning the measurement light on the eye to be examined and detecting interference light caused by the return light of the measurement light and the reference light. The signal processing unit 300 generates a tomographic image, an OCTA image, and the like of the eye to be examined from the tomographic information acquired by the imaging optical system 100. The display unit 400 displays the tomographic image and OCTA image of the eye to be examined generated by the signal processing unit 300, the subject information received from the signal processing unit 300, and the like.

ここで、信号処理部300は、汎用のコンピュータを用いて構成してもよいし、OCT装置50に専用のコンピュータによって構成してもよい。また、表示部400は、任意のモニターを用いて構成されてよい。なお、本実施例では、撮像光学系100、信号処理部300及び表示部400は、それぞれ別個に構成されているが、これらの一部又は全部を一体的に構成してもよい。   Here, the signal processing unit 300 may be configured by using a general-purpose computer, or may be configured by a computer dedicated to the OCT apparatus 50. The display unit 400 may be configured using an arbitrary monitor. In the present embodiment, the imaging optical system 100, the signal processing unit 300, and the display unit 400 are separately configured, but a part or all of them may be integrally configured.

次に、図2を参照して撮像光学系100の構成について説明する。図2は、撮像光学系100の概略的な構成を示す。   Next, the configuration of the imaging optical system 100 will be described with reference to FIG. FIG. 2 shows a schematic configuration of the imaging optical system 100.

撮像光学系100では、被検眼Eに対向して対物レンズ1が配置され、その光軸上に第1ダイクロイックミラー2及び第2ダイクロイックミラー3が配置されている。第1及び第2ダイクロイックミラー2,3によって、対物レンズ1からの光路は、OCT光学系の光路L1、被検眼Eの観察を行うためのSLO光学系と固視灯用の光路L2、及び前眼部観察用の光路L3に、波長帯域ごとに分岐される。   In the imaging optical system 100, the objective lens 1 is disposed facing the eye E, and the first dichroic mirror 2 and the second dichroic mirror 3 are disposed on the optical axis thereof. By the first and second dichroic mirrors 2 and 3, the optical path from the objective lens 1 is the optical path L1 of the OCT optical system, the SLO optical system for observing the eye E, the optical path L2 for the fixation lamp, and the front Branches into the optical path L3 for eye part observation for each wavelength band.

SLO光学系と固視灯用の光路L2には、SLO走査手段4、レンズ5,6、ミラー7、第3ダイクロイックミラー8、フォトダイオード9、SLO光源10、及び固視灯11が設けられている。   The SLO optical system and the optical path L2 for the fixation lamp are provided with SLO scanning means 4, lenses 5, 6, mirror 7, third dichroic mirror 8, photodiode 9, SLO light source 10, and fixation lamp 11. Yes.

SLO走査手段4は、SLO光源10と固視灯11から発せられた光を被検眼E上で走査するための走査手段であり、これら光をX方向に走査するXスキャナ、及びY方向に走査するYスキャナから構成されている。本実施例では、Xスキャナは高速走査を行うポリゴンミラーによって、Yスキャナはガルバノミラーによって構成されている。なお、走査手段を構成するスキャナはこれに限られず、所望の構成に応じて任意の偏向手段を用いることができる。   The SLO scanning means 4 is a scanning means for scanning the light emitted from the SLO light source 10 and the fixation lamp 11 on the eye E, and scans the light in the X direction and the X scanner. Y scanner. In this embodiment, the X scanner is constituted by a polygon mirror that performs high-speed scanning, and the Y scanner is constituted by a galvanometer mirror. The scanner constituting the scanning unit is not limited to this, and any deflecting unit can be used according to a desired configuration.

レンズ5は、SLO光学系及び固視灯の焦点合わせのために、信号処理部300によって制御される不図示のモータ等によって、図中矢印で示される光軸方向に駆動されることができる。ミラー7は、穴あきミラーや中空のミラーが蒸着されたプリズムであり、SLO光源10による照明光と、被検眼Eからの照明光の戻り光とを分離する。第3ダイクロイックミラー8は、光路L2をSLO光源10への光路と固視灯11への光路とに波長帯域ごとに分岐する。   The lens 5 can be driven in the optical axis direction indicated by an arrow in the drawing by a motor (not shown) controlled by the signal processing unit 300 for focusing the SLO optical system and the fixation lamp. The mirror 7 is a prism on which a perforated mirror or a hollow mirror is deposited, and separates illumination light from the SLO light source 10 and return light of illumination light from the eye E to be examined. The third dichroic mirror 8 branches the optical path L2 into an optical path to the SLO light source 10 and an optical path to the fixation lamp 11 for each wavelength band.

フォトダイオード9は、被検眼Eからの照明光の戻り光を検出する。SLO光源10は、780nm付近の波長の光を発生する。固視灯11は、可視光を発し、被検者の固視を促すために用いられる。   The photodiode 9 detects the return light of the illumination light from the eye E. The SLO light source 10 generates light having a wavelength near 780 nm. The fixation lamp 11 emits visible light and is used to promote fixation of the subject.

SLO光源10から発せられた光は、第3ダイクロイックミラー8で反射され、ミラー7を通過し、レンズ6,5を通り、SLO走査手段4によって被検眼E上で走査される。被検眼Eからの照明光の戻り光は、照明光と同じ経路を戻った後、ミラー7によって反射され、フォトダイオード9へと導かれる。フォトダイオード9は、被検眼Eからの照明光の戻り光を検出し、検出した戻り光に基づく出力信号を信号処理部300に送る。信号処理部300は、受け取った信号に基づいて被検眼Eの眼底画像を生成することができる。   The light emitted from the SLO light source 10 is reflected by the third dichroic mirror 8, passes through the mirror 7, passes through the lenses 6 and 5, and is scanned on the eye E by the SLO scanning unit 4. The return light of the illumination light from the eye E is reflected by the mirror 7 after being returned through the same path as the illumination light, and is guided to the photodiode 9. The photodiode 9 detects the return light of the illumination light from the eye E and sends an output signal based on the detected return light to the signal processing unit 300. The signal processing unit 300 can generate a fundus image of the eye E based on the received signal.

固視灯11は、第3ダイクロイックミラー8及びミラー7を通過し、レンズ6,5を通り、SLO走査手段4によって被検眼E上で走査される。このとき、信号処理部300により、SLO走査手段4の動きに合わせて固視灯11を点滅するように制御することによって、被検眼E上の任意の位置に任意の形状をつくり、被検者の固視を促すことができる。   The fixation lamp 11 passes through the third dichroic mirror 8 and the mirror 7, passes through the lenses 6 and 5, and is scanned on the eye E by the SLO scanning unit 4. At this time, the signal processing unit 300 controls the fixation lamp 11 to blink in accordance with the movement of the SLO scanning unit 4, thereby creating an arbitrary shape at an arbitrary position on the eye E to be examined. Can be fixed.

前眼部観察用の光路L3には、レンズ12、スプリットプリズム13、レンズ14、及び前眼部観察用のCCD15が配置されている。スプリットプリズム13は、被検眼Eの瞳孔と共役な位置に配置されており、信号処理部300は、被検眼Eと撮像光学系100のZ方向(前後方向)の距離を、前眼部のスプリット像を用いて検出することができる。   A lens 12, a split prism 13, a lens 14, and a CCD 15 for observing the anterior segment are disposed in the optical path L3 for observing the anterior segment. The split prism 13 is disposed at a position conjugate with the pupil of the eye E, and the signal processing unit 300 determines the distance between the eye E and the imaging optical system 100 in the Z direction (front-rear direction) and splits the anterior eye. It can be detected using an image.

CCD15は、不図示の前眼部観察用光源の波長、具体的には970nm付近に感度を持つ。CCD15は、前眼部観察用光源から発せられ、被検眼Eで反射・散乱された戻り光を検出し、検出した戻り光に基づいて出力信号を信号処理部300に送る。信号処理部300は、受け取ったCCD15からの出力信号に基づいて被検眼Eの前眼部画像を生成することができる。   The CCD 15 has sensitivity at a wavelength of a light source for anterior ocular segment observation (not shown), specifically around 970 nm. The CCD 15 detects return light emitted from the anterior eye portion observation light source, reflected and scattered by the eye E, and sends an output signal to the signal processing unit 300 based on the detected return light. The signal processing unit 300 can generate an anterior segment image of the eye E based on the received output signal from the CCD 15.

次に、OCT光学系の光路L1について説明する。被検眼Eの断層像を撮像するためのOCT光学系の光路L1には、XYスキャナ16、及びレンズ17,18が配置されている。   Next, the optical path L1 of the OCT optical system will be described. An XY scanner 16 and lenses 17 and 18 are arranged in the optical path L1 of the OCT optical system for capturing a tomographic image of the eye E.

XYスキャナ16は、OCT光源20からの光を被検眼E上で走査するためのOCT走査手段である。本実施例において、XYスキャナ16は、1枚のミラーとして図示してあるが、XY2軸方向の走査を行うガルバノミラーから構成されている。なお、XYスキャナ16の構成はこれに限られず、所望の構成に応じて任意の偏向手段を用いることができる。   The XY scanner 16 is an OCT scanning unit for scanning light from the OCT light source 20 on the eye E. In this embodiment, the XY scanner 16 is illustrated as a single mirror, but is composed of a galvanometer mirror that performs scanning in the XY biaxial directions. The configuration of the XY scanner 16 is not limited to this, and any deflecting means can be used according to a desired configuration.

レンズ17は、光ファイバー21から出射する測定光を被検眼Eに焦点合わせするために、信号処理部300によって制御される不図示のモータ等によって、図中矢印で示される光軸方向に駆動されることができる。この焦点合わせによって、被検眼Eからの測定光の戻り光は同時に光ファイバー21の先端に、スポット状に結像されて入射されることとなる。なお、光ファイバー21、光路L1に配置される各光学部材、第1及び第2ダイクロイックミラー2,3、並びに対物レンズ1等は、OCT光学系において測定光が伝播するOCT測定光学系を構成する。   The lens 17 is driven in the optical axis direction indicated by an arrow in the figure by a motor (not shown) controlled by the signal processing unit 300 in order to focus the measurement light emitted from the optical fiber 21 on the eye E. be able to. By this focusing, the return light of the measurement light from the eye E is simultaneously incident on the tip of the optical fiber 21 in the form of a spot. The optical fiber 21, the optical members disposed in the optical path L1, the first and second dichroic mirrors 2 and 3, the objective lens 1 and the like constitute an OCT measurement optical system through which measurement light propagates in the OCT optical system.

レンズ18から先には、更に光カプラー19、OCT光源20、光カプラー19に接続され一体化している光ファイバー21〜24、レンズ25、分散補償用ガラス26、参照ミラー27、及び分光器28が配置されている。   In front of the lens 18, an optical coupler 19, an OCT light source 20, optical fibers 21 to 24 connected to and integrated with the optical coupler 19, a lens 25, a dispersion compensation glass 26, a reference mirror 27, and a spectrometer 28 are arranged. Has been.

OCT光源20は、光(低コヒーレンス光)を発生させるための光源である。本実施例では、OCT光源20として、SLD(Super Luminescent Diode)光源を用いる。なお、OCT光源20はSLDに限られず、所望の構成に応じて任意の光源を用いてよい。   The OCT light source 20 is a light source for generating light (low coherence light). In the present embodiment, an SLD (Super Luminescent Diode) light source is used as the OCT light source 20. The OCT light source 20 is not limited to the SLD, and an arbitrary light source may be used according to a desired configuration.

OCT光源20から出射された光は、光ファイバー22を介して光カプラー19に導かれる。光カプラー19は、OCT光源20からの光を測定光と参照光に分割する。測定光は、光ファイバー21からOCT光学系の光路L1上の対物レンズ1までを通じて、被検眼Eに向けて出射される。被検眼Eに向けて出射された測定光は、被検眼Eにて反射・散乱され、同じ光路を通じて光カプラー19に達する。   The light emitted from the OCT light source 20 is guided to the optical coupler 19 through the optical fiber 22. The optical coupler 19 splits the light from the OCT light source 20 into measurement light and reference light. The measurement light is emitted from the optical fiber 21 toward the eye E through the objective lens 1 on the optical path L1 of the OCT optical system. The measurement light emitted toward the eye E is reflected and scattered by the eye E and reaches the optical coupler 19 through the same optical path.

一方、参照光は、光ファイバー23から、レンズ25及び分散補償用ガラス26を通じて参照ミラー27に向けて出射される。参照ミラー27から反射した参照光は同じ光路を通じて光カプラー19に達する。分散補償用ガラス26は、参照光の分散を調整し、測定光と参照光の分散を合わせることができる。ここで、光ファイバー23、レンズ25、分散補償用ガラス26、及び参照ミラー27はOCT参照光学系を構成する。   On the other hand, the reference light is emitted from the optical fiber 23 toward the reference mirror 27 through the lens 25 and the dispersion compensation glass 26. The reference light reflected from the reference mirror 27 reaches the optical coupler 19 through the same optical path. The dispersion compensation glass 26 can adjust the dispersion of the reference light to match the dispersion of the measurement light and the reference light. Here, the optical fiber 23, the lens 25, the dispersion compensation glass 26, and the reference mirror 27 constitute an OCT reference optical system.

このようにして光カプラー19に達した測定光と参照光は、光カプラー19内で合波され干渉光となる。ここで、測定光と参照光は、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉を生じる。参照ミラー27は、信号処理部300によって制御される不図示のモータ及び駆動機構等によって、図中矢印で示される光軸方向に調整可能に保持され、被検眼Eによって変わる測定光の光路長に参照光の光路長を合わせることが可能である。干渉光は光ファイバー24を介して分光器28に導かれる。   The measurement light and the reference light that have reached the optical coupler 19 in this way are combined in the optical coupler 19 and become interference light. Here, the measurement light and the reference light cause interference when the optical path length of the measurement light and the optical path length of the reference light are substantially the same. The reference mirror 27 is held by an unillustrated motor and drive mechanism controlled by the signal processing unit 300 so as to be adjustable in the optical axis direction indicated by an arrow in the figure, and has an optical path length of measurement light that varies depending on the eye E to be examined. It is possible to match the optical path length of the reference light. The interference light is guided to the spectroscope 28 via the optical fiber 24.

分光器28には、レンズ29,31、回折格子30、ラインセンサ32が設けられていれる。光ファイバー24から出射された干渉光は、レンズ29を介して平行光となった後、回折格子30で分光され、レンズ31によってラインセンサ32に結像される。ラインセンサ32は、検出した干渉光に基づいて干渉信号を信号処理部300に送る。信号処理部300は、受け取ったラインセンサ32からの干渉信号に基づいて、被検眼Eの断層画像やOCTA画像を生成することができる。   The spectroscope 28 is provided with lenses 29 and 31, a diffraction grating 30, and a line sensor 32. The interference light emitted from the optical fiber 24 becomes parallel light through the lens 29, and then is split by the diffraction grating 30 and imaged on the line sensor 32 by the lens 31. The line sensor 32 sends an interference signal to the signal processing unit 300 based on the detected interference light. The signal processing unit 300 can generate a tomographic image and an OCTA image of the eye E based on the received interference signal from the line sensor 32.

次に、図3を参照して信号処理部300及び表示部400の構成について説明する。図3は、信号処理部300及び表示部400の概略的な構成を示す。信号処理部300には、取得部310(取得手段)、駆動制御部320、画像生成部330、陰影特定部340(特定手段)、アーチファクト検出部350(検出手段)、記憶部360、及び表示制御部370(表示制御手段)が設けられている。   Next, the configuration of the signal processing unit 300 and the display unit 400 will be described with reference to FIG. FIG. 3 shows a schematic configuration of the signal processing unit 300 and the display unit 400. The signal processing unit 300 includes an acquisition unit 310 (acquisition unit), a drive control unit 320, an image generation unit 330, a shadow identification unit 340 (identification unit), an artifact detection unit 350 (detection unit), a storage unit 360, and display control. A unit 370 (display control means) is provided.

取得部310は、撮像光学系100のフォトダイオード9、CCD15、及びラインセンサ32から各種信号を取得する。また、取得部310は、画像生成部330から、干渉信号に基づいて生成されたフーリエ変換後の信号やこれに何らかの信号処理を施した信号等を取得することもできる。駆動制御部320は、OCT光源20及びXYスキャナ16等の、撮像光学系100の各構成要素の駆動を制御する。   The acquisition unit 310 acquires various signals from the photodiode 9, the CCD 15, and the line sensor 32 of the imaging optical system 100. The acquisition unit 310 can also acquire, from the image generation unit 330, a signal after Fourier transform generated based on the interference signal, a signal obtained by performing some signal processing on the signal, and the like. The drive control unit 320 controls driving of each component of the imaging optical system 100 such as the OCT light source 20 and the XY scanner 16.

画像生成部330は、取得部310で取得した、SLO走査手段4を用いて被検眼EをX方向及びY方向に走査した際のフォトダイオード9からの出力信号に基づく複数のデータから、被検眼Eの眼底画像であるSLO画像を生成する。また、画像生成部330は、取得部310で取得したCCD15からの出力信号に基づいて被検眼Eの前眼部画像を生成する。   The image generation unit 330 obtains the eye to be examined from a plurality of data based on the output signal from the photodiode 9 when the eye E is scanned in the X direction and the Y direction using the SLO scanning unit 4 acquired by the acquisition unit 310. An SLO image that is a fundus image of E is generated. Further, the image generation unit 330 generates an anterior ocular segment image of the eye E based on the output signal from the CCD 15 acquired by the acquisition unit 310.

さらに、画像生成部330は、取得部310によって取得されたラインセンサ32からの干渉信号に基づいて、断層画像を生成する。より具体的には、画像生成部330は、上述の一連の処理によりラインセンサ32から得られる干渉信号をフーリエ変換し、フーリエ変換後の信号を輝度或いは濃度情報に変換する。これにより、画像生成部330は被検眼Eの眼底のある一点における深さ方向(Z方向)の断層画像を取得する。このようなスキャン方式をAスキャンと呼び、得られる断層画像をAスキャン画像と呼ぶ。   Furthermore, the image generation unit 330 generates a tomographic image based on the interference signal from the line sensor 32 acquired by the acquisition unit 310. More specifically, the image generation unit 330 performs Fourier transform on the interference signal obtained from the line sensor 32 by the series of processes described above, and converts the signal after Fourier transform into luminance or density information. Thereby, the image generation unit 330 acquires a tomographic image in the depth direction (Z direction) at one point of the fundus of the eye E to be examined. Such a scanning method is called A scan, and the obtained tomographic image is called A scan image.

XYスキャナ16によって測定光を眼底の所定の横断方向に走査しながら、このようなAスキャンを繰り返し行うことにより、複数のAスキャン画像を取得することができる。例えば、測定光をX方向に走査すればXZ面における断層画像が得られ、Y方向に走査すればYZ面における断層画像が得られる。このように被検眼Eの眼底を所定の横断方向に走査する方式をBスキャンと呼び、得られる断層画像をBスキャン画像と呼ぶ。更にBスキャンのXZ面又はYZ面に対し、それに直行する方向に走査する方式をCスキャンと呼び、得られるXYZの3次元断層画像をCスキャン画像と呼ぶ。   A plurality of A-scan images can be acquired by repeatedly performing such A-scan while scanning the measurement light in a predetermined transverse direction of the fundus by the XY scanner 16. For example, if the measurement light is scanned in the X direction, a tomographic image on the XZ plane is obtained, and if the measuring light is scanned in the Y direction, a tomographic image on the YZ plane is obtained. A method of scanning the fundus of the eye E in this way in a predetermined transverse direction is called a B scan, and the obtained tomographic image is called a B scan image. Further, a method of scanning the XZ plane or YZ plane of the B scan in a direction perpendicular to the XZ plane is called a C scan, and the obtained three-dimensional tomographic image of XYZ is called a C scan image.

また、画像生成部330には、OCTA画像生成部331(生成手段)が設けられている。OCTA画像生成部331は、干渉信号に基づく断層データを用いてモーションコントラストデータを算出し、OCTA画像を生成する。ここで、断層データは、被検眼Eの干渉信号、干渉信号をフーリエ変換した後の信号、当該フーリエ変換後の信号に画像生成のための任意の信号処理を施した信号、及びこれらに基づく輝度値等の信号を含む。なお、画像生成部330は、1回のBスキャンで取得した1組の断層データから1枚のBスキャン画像を生成する。   The image generation unit 330 is provided with an OCTA image generation unit 331 (generation unit). The OCTA image generation unit 331 calculates motion contrast data using tomographic data based on the interference signal, and generates an OCTA image. Here, the tomographic data includes an interference signal of the eye E to be examined, a signal after the Fourier transform of the interference signal, a signal obtained by subjecting the signal after the Fourier transform to arbitrary signal processing for image generation, and luminance based on these signals Includes signals such as values. Note that the image generation unit 330 generates one B-scan image from a set of tomographic data acquired in one B-scan.

OCTA画像生成部331には、演算部332(算出手段)及びマスク処理部333(マスク手段)が設けられている。演算部332は、断層データに基づいてモーションコントラストデータを生成する。より具体的には、演算部332は、m枚のBスキャン画像に対応するm回のBスキャンで取得したm組の断層データからモーションコントラストデータを生成する。また、演算部332は、断層データに関して任意のセグメンテーション処理を行うことで、断層データにおける各層の境界位置の特定を行うこともできる。マスク処理部333は、断層データの値と閾値を比較し、断層データの値が閾値以下の場合、断層データが対応する画素位置のモーションコントラストデータをマスクする。   The OCTA image generation unit 331 includes a calculation unit 332 (calculation unit) and a mask processing unit 333 (mask unit). The calculation unit 332 generates motion contrast data based on the tomographic data. More specifically, the calculation unit 332 generates motion contrast data from m sets of tomographic data acquired by m B scans corresponding to m B scan images. The calculation unit 332 can also specify the boundary position of each layer in the tomographic data by performing arbitrary segmentation processing on the tomographic data. The mask processing unit 333 compares the value of the tomographic data with the threshold value, and when the value of the tomographic data is equal to or smaller than the threshold value, masks the motion contrast data at the pixel position corresponding to the tomographic data.

陰影特定部340は、断層データ又はモーションコントラストデータに基づいて、断層画像において陰影が生じている部分(陰影部)を特定する。アーチファクト検出部350は、マスク処理部333によってモーションコントラストデータがマスクされた画素の位置、及び陰影特定部340による特定結果に基づいて、陰影の発生に起因するアーチファクトを検出する。   The shadow specifying unit 340 specifies a portion (shadow part) where a shadow is generated in the tomographic image based on the tomographic data or the motion contrast data. The artifact detection unit 350 detects an artifact caused by the occurrence of a shadow based on the position of the pixel whose motion contrast data is masked by the mask processing unit 333 and the identification result by the shadow identification unit 340.

記憶部360は、画像生成部330によって生成された、SLO画像、断層データ、OCTA画像、検出されたアーチファクトの位置等の各種データや入力された被検者の情報、信号処理部300を構成するプログラム等を記憶する。表示制御部370は、表示部400を制御し、記憶部360に記憶された各種画像や被検者の情報等を表示部400に表示させる。また、表示制御部370は、アーチファクト検出部350で検出されたアーチファクトの領域を、表示部400に強調して表示させることもできる。   The storage unit 360 forms various data such as SLO images, tomographic data, OCTA images, and detected artifact positions generated by the image generation unit 330, information on the input subject, and the signal processing unit 300. Stores programs and the like. The display control unit 370 controls the display unit 400 and causes the display unit 400 to display various images stored in the storage unit 360, information on the subject, and the like. The display control unit 370 can also highlight and display the artifact region detected by the artifact detection unit 350 on the display unit 400.

なお、信号処理部300の各構成要素は、信号処理部300のCPUやMPUで実行されるモジュールにて構成することができる。また、信号処理部300の各構成要素は、ASICなどの特定の機能を実現する回路等により構成されてもよい。記憶部360は、メモリや光学ディスク等の任意の記憶装置・記憶媒体を用いて構成することができる。   Each component of the signal processing unit 300 can be configured by a module executed by the CPU or MPU of the signal processing unit 300. In addition, each component of the signal processing unit 300 may be configured by a circuit that realizes a specific function such as an ASIC. The storage unit 360 can be configured using an arbitrary storage device / storage medium such as a memory or an optical disk.

次に、撮像光学系100、信号処理部300、及び表示部400を含むOCT装置50における、被検眼Eの観察から撮影までを説明する。まず、観察について図4を参照して説明する。図4は、被検眼Eの観察時に表示部400に表示される前眼部画像410とSLO画像420を示す。   Next, from the observation to the imaging of the eye E in the OCT apparatus 50 including the imaging optical system 100, the signal processing unit 300, and the display unit 400 will be described. First, observation will be described with reference to FIG. FIG. 4 shows an anterior segment image 410 and an SLO image 420 that are displayed on the display unit 400 when the eye E is observed.

まず、対物レンズ1の正面に被検眼Eを位置させた後、検者は、撮像光学系100を移動させるためのジョイスティック等の入力手段(不図示)を用いて、前眼部画像410を見ながら被検眼Eと撮像光学系100とのXYZ方向の位置合わせを行う。検者は、前眼部画像410の瞳孔中心が前眼部画像410の表示画面の中心に位置するように撮像光学系100のXY方向の位置合わせを行う。また、撮像光学系100のZ方向の位置合わせが適切でない場合には破線411に沿って前眼部画像410がスプリットされるので、検者は、前眼部画像410がスプリットされないようにZ方向の位置合わせを行う。   First, after the eye E is positioned in front of the objective lens 1, the examiner views the anterior eye image 410 using input means (not shown) such as a joystick for moving the imaging optical system 100. While aligning the eye E and the imaging optical system 100 in the XYZ directions. The examiner aligns the imaging optical system 100 in the X and Y directions so that the pupil center of the anterior segment image 410 is positioned at the center of the display screen of the anterior segment image 410. In addition, when the alignment of the imaging optical system 100 in the Z direction is not appropriate, the anterior segment image 410 is split along the broken line 411, so that the examiner does not split the anterior segment image 410 in the Z direction. Perform position alignment.

被検眼Eと撮像光学系100とのXYZ方向の位置合わせが完了すると、SLO走査手段4による照明光のXY方向の走査に基づいて生成されるSLO画像420が表示される。前眼部画像410とSLO画像420は随時更新され、検者は被検眼Eをディレイなく観察できる。   When the alignment of the eye E and the imaging optical system 100 in the XYZ directions is completed, the SLO image 420 generated based on the scanning of the illumination light in the XY directions by the SLO scanning unit 4 is displayed. The anterior eye portion image 410 and the SLO image 420 are updated as needed, and the examiner can observe the eye E without delay.

SLO画像420中のスキャンエリア421は、OCTA画像の生成に用いられる断層データの取得時に走査されるエリアを示したものであり、SLO画像420に重畳されている。検者はこのスキャンエリア421をマウスやタッチパネル等の不図示の走査位置変更手段を操作し、所望の走査位置を設定する。これらの操作にて観察が終了する。   A scan area 421 in the SLO image 420 indicates an area to be scanned when acquiring tomographic data used for generating an OCTA image, and is superimposed on the SLO image 420. The examiner operates a scanning position changing means (not shown) such as a mouse or a touch panel in the scanning area 421 to set a desired scanning position. Observation is completed by these operations.

なお、本実施例では、検者が被検眼Eと撮像光学系100のXYZ方向の位置合わせ及びスキャンエリアの設定を行う構成とした。しかしながら、例えば、信号処理部300が前眼部画像410、SLO画像420、及び撮像部位の情報等に基づいてこれらの処理を自動的に行う構成としてもよい。   In this embodiment, the examiner performs the alignment of the eye E and the imaging optical system 100 in the XYZ directions and sets the scan area. However, for example, the signal processing unit 300 may be configured to automatically perform these processes based on the anterior segment image 410, the SLO image 420, information on the imaging region, and the like.

次に被検眼Eの撮影(OCTA撮影)について説明する。検者が不図示の撮影開始ボタンを操作すると、撮像光学系100は、XYスキャナ16を用いて測定光によりスキャンエリア421を走査する。OCTA撮影では、同一断面つまり同一位置のBスキャンを繰り返し行い、その走査間における被検体の時間的な変化を検出する。このため、本実施例では、被検眼Eの同一位置のBスキャンをm回繰り返す。なお、Bスキャンの繰り返し数mは、所望の構成に応じて2以上の任意の数に設定されてよい。本実施例では、スキャンエリア421を走査する際に、Y方向位置Y1からYnまでのY方向の各スキャン位置においてBスキャンを繰り返しm回ずつ行う。   Next, imaging of the eye E (OCTA imaging) will be described. When the examiner operates an imaging start button (not shown), the imaging optical system 100 scans the scan area 421 with measurement light using the XY scanner 16. In OCTA imaging, B scans of the same cross section, that is, the same position are repeatedly performed, and a temporal change of the subject between the scans is detected. For this reason, in this embodiment, the B scan at the same position of the eye E is repeated m times. Note that the number of repetitions m of the B scan may be set to an arbitrary number of 2 or more according to a desired configuration. In this embodiment, when scanning the scan area 421, the B scan is repeated m times at each of the Y-direction scan positions Y1 to Yn.

なお、本実施例において、各BスキャンはX方向にp個のサンプル位置のAスキャンのデータから構成され、1つのAスキャンはZ方向にq個のデータから構成されるものとする。このため、スキャンエリア421を走査することにより、XYZ平面でn×mのBスキャンのデータ(Aスキャンのデータ数としてはn×m×p、総データ数としてはn×m×p×q)が得られる。なお、n、p及びqは所望の構成に応じて任意の数に設定されてよい。   In this embodiment, each B scan is composed of A scan data at p sample positions in the X direction, and one A scan is composed of q data in the Z direction. Therefore, by scanning the scan area 421, n × m B scan data on the XYZ plane (the number of A scan data is n × m × p, and the total number of data is n × m × p × q). Is obtained. Note that n, p, and q may be set to any number according to a desired configuration.

撮像光学系100によってスキャンエリア421内のデータ取得が完了すると、画像生成部330は、取得部310によって撮像光学系100から取得されたデータに基づいて、被検眼Eの断層画像であるBスキャン画像を生成する。具体的には、画像生成部330は、各Bスキャンで得られた干渉信号に対してノイズ低減のためのバックグランド減算及びフーリエ変換を行う。フーリエ変換により実部及び虚部からなる複素OCT信号が得られるので、画像生成部330は、複素OCT信号の絶対値を計算することによってBスキャン画像を生成することができる。なお、断層画像の生成方法はこれに限られず、断層画像は、既知の任意の方法によって干渉信号に基づいて生成されてよい。   When the acquisition of data in the scan area 421 is completed by the imaging optical system 100, the image generation unit 330 is a B-scan image that is a tomographic image of the eye E based on the data acquired from the imaging optical system 100 by the acquisition unit 310. Is generated. Specifically, the image generation unit 330 performs background subtraction and Fourier transform for noise reduction on the interference signal obtained in each B scan. Since a complex OCT signal including a real part and an imaginary part is obtained by Fourier transform, the image generation unit 330 can generate a B-scan image by calculating the absolute value of the complex OCT signal. Note that the tomographic image generation method is not limited to this, and the tomographic image may be generated based on the interference signal by any known method.

画像生成部330がBスキャン画像を生成すると、記憶部360が生成されたBスキャン画像を記憶すると共に、OCTA画像生成部331が生成されたBスキャン画像を用いてOCTA画像を生成する。OCTA画像の具体的な生成処理については後述する。OCTA画像生成部331がOCTA画像を生成すると、記憶部360が生成されたOCTA画像を記憶すると共に、表示制御部370が表示部400にOCTA画像を表示させる。   When the image generation unit 330 generates a B scan image, the storage unit 360 stores the generated B scan image, and the OCTA image generation unit 331 generates an OCTA image using the generated B scan image. Specific generation processing of the OCTA image will be described later. When the OCTA image generation unit 331 generates the OCTA image, the storage unit 360 stores the generated OCTA image, and the display control unit 370 causes the display unit 400 to display the OCTA image.

また、アーチファクト検出部350が、OCTA画像における陰影に起因するアーチファクトの検出を行う。その後、表示制御部370が、アーチファクト検出部350による検出結果に基づいて、表示部400に、陰影に起因するアーチファクトを強調して表示させる。   Further, the artifact detection unit 350 detects an artifact caused by a shadow in the OCTA image. Thereafter, the display control unit 370 causes the display unit 400 to highlight and display artifacts due to shadows based on the detection result by the artifact detection unit 350.

次に、図5を参照して、被検眼E内に存在し、且つOCT光源20からの測定光の網膜への入射を遮る遮蔽物によって起こる陰影(シャドー)について説明する。図5はスキャンエリア421の或るY方向位置の網膜部のBスキャン画像の一例を示す。図5中で図示上方は硝子体となっており、OCT光源20の測定光は図示上方より入射される。図中には、測定光の入射方向500が矢印で示されている。   Next, with reference to FIG. 5, a description will be given of shadows caused by a shield that exists in the eye E and that blocks measurement light from the OCT light source 20 from entering the retina. FIG. 5 shows an example of a B-scan image of the retina at a certain position in the Y direction in the scan area 421. In FIG. 5, the upper part of the figure is a vitreous body, and the measurement light from the OCT light source 20 is incident from the upper part of the figure. In the figure, the incident direction 500 of the measurement light is indicated by an arrow.

図5中において、X70は測定光の入射方向に不図示の硝子体混濁がある場合の断層画像のX方向位置を示す。また、X150は測定光の入射方向に網膜血管がある場合の断層画像のX方向位置を示す。さらに、X170は測定光の入射方向に硝子体混濁及び網膜血管がない場合の断層画像のX方向位置を示す。なお、陰影部に関しては、当該領域から得られる干渉信号の強度が低くなることに起因して、断層画像上において低輝度にて示される。   In FIG. 5, X70 indicates the position of the tomographic image in the X direction when there is vitreous turbidity (not shown) in the incident direction of the measurement light. X150 indicates the position of the tomographic image in the X direction when there is a retinal blood vessel in the measurement light incident direction. Further, X170 indicates the position in the X direction of the tomographic image when there is no vitreous opacification and retinal blood vessels in the incident direction of the measurement light. The shaded portion is shown with low luminance on the tomographic image due to the lower intensity of the interference signal obtained from the region.

X方向位置X70の断層画像では、内境界膜から脈絡膜までの断層E1に陰影が生じていることが分かる。これは、測定光の入射方向において不図示の硝子体混濁が存在し、測定光が硝子体混濁に遮られることに起因する。この場合には、測定光の入射方向に見て硝子体混濁の後方位置に存在する内境界膜から脈絡膜までの断層E1に測定光が届きづらくなり、硝子体混濁の後方位置における断層E1に陰影が生じることとなる。   In the tomographic image at the X-direction position X70, it can be seen that a shadow is generated in the tomography E1 from the inner boundary membrane to the choroid. This is because there is a vitreous turbidity (not shown) in the incident direction of the measurement light, and the measurement light is blocked by the vitreous turbidity. In this case, it is difficult for the measurement light to reach the fault E1 from the inner boundary membrane to the choroid existing behind the vitreous turbidity in the incident direction of the measurement light, and the shadow is reflected on the fault E1 at the rearward position of the vitreous turbidity. Will occur.

X方向位置X150の断層画像では、網膜血管E2を観察することができる。網膜血管E2は、一般に細長の高反射体として観察され、神経節細胞層から内顆粒層と外網状層の境界部付近にかけて存在する。網膜血管E2が存在すると、測定光は網膜血管E2に遮られるため、その結果網膜血管E2の後方へ測定光が届きづらくなり、陰影が網膜血管E2の後方の断層E3に生じることとなる。   In the tomographic image at the X-direction position X150, the retinal blood vessel E2 can be observed. The retinal blood vessel E2 is generally observed as an elongated high reflector, and exists from the ganglion cell layer to the vicinity of the boundary between the inner granular layer and the outer reticulated layer. When the retinal blood vessel E2 exists, the measurement light is blocked by the retinal blood vessel E2, and as a result, the measurement light does not easily reach the back of the retinal blood vessel E2, and a shadow is generated in the tomography E3 behind the retinal blood vessel E2.

X方向位置X170の断層画像では、内境界膜から脈絡膜までの断層E4を陰影無しに観察することができる。これは測定光の入射方向において網膜への測定光の入射を遮る遮蔽物がX方向位置X170に存在していないためである。   In the tomographic image at the X-direction position X170, the tomography E4 from the inner boundary membrane to the choroid can be observed without shadow. This is because there is no shield at the X direction position X170 that blocks the measurement light from entering the retina in the measurement light incident direction.

このように、被検眼E内に遮蔽物が存在する場合には、被検眼Eの深さ方向(Z方向)において、測定光の入射方向500から見て遮蔽物の後方に存在する断層に陰影が生じる。そのため、遮蔽物が被検眼EのZ方向のどの位置に存在するかによって、陰影が生じるZ方向の位置が変わる。   As described above, when there is a shielding object in the eye E, the shadow is shadowed in the depth direction (Z direction) of the eye E as viewed from the incident direction 500 of the measurement light behind the shielding object. Occurs. Therefore, the position in the Z direction where the shadow is generated varies depending on the position in the Z direction of the eye E to be examined.

本実施例では、陰影が生じる例としてX方向位置X70(硝子体混濁がある場合)及びX方向位置X150(網膜血管E2がある場合)について示したが、この他にも水晶体の混濁や網膜出血、硬性白斑等が存在する場合にも陰影が生じる。水晶体混濁が存在する場合には、X方向位置X70の断層画像に示したように内境界膜から脈絡膜までの断層に陰影が生じる。網膜出血や硬性白斑等が存在する場合には、この網膜出血や硬性白斑が、Z方向において、神経線維層から脈絡膜までの断層におけるどの位置に発生するかによって陰影が生じるZ方向の位置が変わることとなる。   In this embodiment, the X-direction position X70 (when there is vitreous opacity) and the X-direction position X150 (when there is retinal blood vessel E2) are shown as examples of occurrence of shadows. Shadows also occur when hard vitiligo or the like is present. When the lens opacity exists, a shadow is generated in the tomogram from the inner boundary membrane to the choroid as shown in the tomographic image at the X-direction position X70. When retinal hemorrhage, hard vitiligo, etc. are present, the position in the Z direction where a shadow is generated changes depending on where the retinal hemorrhage or hard vitiligo occurs in the tomography from the nerve fiber layer to the choroid in the Z direction. It will be.

陰影が生じている場合には、上述のように、OCTA画像において、陰影に起因してモーションコントラストデータがマスクされてアーチファクトとして表示される場合がある。この場合には、陰影に起因するアーチファクトが表れている領域と、疾病等の影響で被検体の時間的な変化がなくモーションコントラストデータが低い領域との判別が困難であるため、医師の診断精度の低下を招くおそれがある。そこで、本実施例では、医師の診断精度の低下を防ぐために、信号処理部300において陰影に起因するアーチファクトを検出する。   When a shadow is generated, as described above, motion contrast data may be masked and displayed as an artifact in the OCTA image due to the shadow. In this case, it is difficult to discriminate between the area where artifacts due to shadows appear and the area where there is no temporal change of the subject due to the influence of disease or the like and the motion contrast data is low. There is a risk of lowering. Therefore, in this embodiment, in order to prevent a decrease in the diagnosis accuracy of the doctor, the signal processing unit 300 detects an artifact caused by the shadow.

以下、図6乃至10を参照して、本実施例に係る信号処理部300による処理について詳細に説明する。図6は、信号処理部300による一連の処理の流れを示したフローチャートである。   Hereinafter, with reference to FIGS. 6 to 10, the processing by the signal processing unit 300 according to the present embodiment will be described in detail. FIG. 6 is a flowchart showing a flow of a series of processes by the signal processing unit 300.

なお、以下の説明は、撮像光学系100によって、スキャンエリア421のデータ取得が完了し、さらに、取得されたデータから画像生成部330によってBスキャン画像が生成された後の処理の説明となる。スキャンエリア421のデータ取得に関しては、上述のように、撮像光学系100がY方向位置Y1からYnまでのY方向の各スキャン位置においてBスキャンをm回繰り返すことで行われるものとする。信号処理部300では、取得部310によって撮像光学系100から取得した干渉信号に基づいて、画像生成部330がBスキャン画像を生成する。なお、生成されたBスキャン画像は記憶部360によって記憶される。   Note that the following description is a description of processing after data acquisition of the scan area 421 is completed by the imaging optical system 100 and a B scan image is generated by the image generation unit 330 from the acquired data. As described above, the data acquisition of the scan area 421 is performed by the imaging optical system 100 repeating the B scan m times at the Y-direction scan positions from the Y-direction positions Y1 to Yn. In the signal processing unit 300, the image generation unit 330 generates a B scan image based on the interference signal acquired from the imaging optical system 100 by the acquisition unit 310. The generated B scan image is stored in the storage unit 360.

まず、ステップS601において、OCTA画像生成部331の演算部332がモーションコントラストデータを生成する。図7は、モーションコントラストデータの生成処理のフローチャートである。   First, in step S601, the calculation unit 332 of the OCTA image generation unit 331 generates motion contrast data. FIG. 7 is a flowchart of motion contrast data generation processing.

ステップS701において、演算部332は、Y方向位置Yiにおけるインデックスiを定義し、インデックスiが1からnまでの間、ステップS702からステップS707の処理を繰り返す。これにより、Y方向位置Y1からYnまでのY方向の各位置におけるデータに対し、ステップS702からステップS707までの処理が繰り返される。   In step S701, the calculation unit 332 defines an index i at the Y-direction position Yi, and repeats the processing from step S702 to step S707 while the index i is from 1 to n. Thereby, the process from step S702 to step S707 is repeated for the data at each position in the Y direction from the Y position Y1 to Yn.

ステップS702では、演算部332が、Y方向位置Yiに対応するm枚分のBスキャン画像を記憶部360から読み出す。ステップS703では、演算部332が、ステップS702で読み出したm枚分のBスキャン画像の位置ずれを補正する。位置ずれ補正を行う理由は、モーションコントラストデータの生成には、時間が異なる同じ位置のBスキャン画像を比較する必要があるためである。位置ずれ補正は、演算部332により、Bスキャン画像同士の位置をずらしながら、例えばBスキャン画像間の相関が最大になるように行われる。なお、被検体が被検眼Eのように動くものではない場合やトラッキング(追尾)の性能が高い場合には、位置ずれ補正を行わなくてもよい。また、位置ずれ補正は、既知の任意方法によって行われてよい。   In step S <b> 702, the calculation unit 332 reads m B scan images corresponding to the Y-direction position Yi from the storage unit 360. In step S703, the calculation unit 332 corrects the misalignment of the m B scan images read in step S702. The reason for performing the positional deviation correction is that it is necessary to compare B-scan images at the same position at different times in order to generate motion contrast data. The position shift correction is performed by the calculation unit 332 so that the correlation between the B scan images is maximized, for example, while shifting the positions of the B scan images. Note that when the subject does not move like the eye E or when the tracking (tracking) performance is high, the positional deviation correction may not be performed. Further, the positional deviation correction may be performed by a known arbitrary method.

次にステップS704では、演算部332が位置ずれ補正されたm枚のBスキャン画像について画素毎に加算平均処理を行う。これにより、m枚のBスキャン画像から加算平均処理された1枚のBスキャン画像(平均Bスキャン画像)が得られる。ステップS705では、演算部332が、平均Bスキャン画像を記憶部360に記憶する。   In step S <b> 704, the arithmetic unit 332 performs an averaging process for each pixel on the m B scan images that have been subjected to the positional deviation correction. As a result, one B-scan image (average B-scan image) obtained by performing the averaging process from the m B-scan images is obtained. In step S <b> 705, the calculation unit 332 stores the average B scan image in the storage unit 360.

ステップS706では、演算部332が、ステップS703で位置ずれ補正されたm枚分のBスキャン画像を用いてモーションコントラストデータを算出する。モーションコントラストデータは、ステップS703で位置ずれ補正されたm枚分のBスキャン画像の画素毎の分散値を計算することによって得られる。なお、モーションコントラストデータの算出方法は、本実施例の方法に限られない。モーションコントラストデータを、例えば、画像生成部330で行われるフーリエ変換後且つ絶対値の計算前の複素OCT信号を用いて、取得時間が時間的に連続する複素OCT信号間の強度差や位相差、ベクトル差を計算することによっても得ることができる。この場合、演算部332は、最終的なモーションコントラストデータを、各強度差等の平均値や最大値として求めることができる。演算部332は、フーリエ変換後の複素OCT信号の強度情報(輝度情報)、位相情報、輝度と位相の両方の情報、又は実部や虚部の情報を用いて、モーションコントラストデータを計算する既知の方法を採用してよい。   In step S706, the calculation unit 332 calculates motion contrast data using the m B-scan images for which the positional deviation has been corrected in step S703. The motion contrast data is obtained by calculating a dispersion value for each pixel of the m B-scan images for which the positional deviation has been corrected in step S703. Note that the method for calculating motion contrast data is not limited to the method of this embodiment. For example, using the complex OCT signal after the Fourier transform performed by the image generation unit 330 and before the calculation of the absolute value, the motion contrast data is compared with the intensity difference or phase difference between the complex OCT signals with continuous acquisition times. It can also be obtained by calculating the vector difference. In this case, the calculation unit 332 can obtain final motion contrast data as an average value or a maximum value of each intensity difference or the like. The calculation unit 332 calculates the motion contrast data using intensity information (luminance information), phase information, both luminance and phase information, or real part and imaginary part information of the complex OCT signal after Fourier transform. The method may be adopted.

次にステップS707では、演算部332がステップS706で算出したモーションコントラストデータを記憶部360に記憶する。ステップS708では、Y方向位置Y1からYnまでのY方向の各位置においてステップS702からS707までの処理が繰り返されたら、演算部332が、モーションコントラストデータの生成処理を終了する。   In step S707, the calculation unit 332 stores the motion contrast data calculated in step S706 in the storage unit 360. In step S708, when the processes from step S702 to S707 are repeated at each position in the Y direction from the Y position Y1 to Yn, the calculation unit 332 ends the motion contrast data generation process.

このようなモーションコントラストデータの生成処理(ステップS601)により、OCTA画像生成部331は、Y方向位置Y1からYnまでのY方向の各位置のモーションコントラストデータを得ることができる。   Through such motion contrast data generation processing (step S601), the OCTA image generation unit 331 can obtain motion contrast data at each position in the Y direction from the Y position Y1 to Yn.

次に、OCTA画像生成部331の演算部332は、ステップS602にて、平均Bスキャン画像についてセグメンテーション処理を実行する。   Next, in step S602, the calculation unit 332 of the OCTA image generation unit 331 performs a segmentation process on the average B scan image.

具体的には、まず演算部332が記憶部360から平均Bスキャン画像を読み出す。平均Bスキャン画像は、Y方向位置Y1からYnまでの各位置に関連付けて各々記憶されており、演算部332は、全てのY方向位置の平均Bスキャン画像を読み出す。次に、演算部332は、各平均Bスキャン画像に対して、神経線維層、神経節細胞層、及び網膜色素上皮等の断層の境界位置を計算する。断層の境界位置は、平均Bスキャン画像に対してZ方向にエッジ抽出処理を行い、抽出されたエッジプロファイルの解析を行うことにより得られる。なお、セグメンテーション処理の方法はこれに限られず、演算部332は既知の任意の方法により断層の境界位置を特定してよい。演算部332は、各平均Bスキャン画像に対し各断層の境界位置が得られたら、境界位置データを各平均Bスキャン画像と関連付けて記憶部360に記憶させる。   Specifically, first, the calculation unit 332 reads an average B scan image from the storage unit 360. The average B-scan image is stored in association with each position from the Y-direction positions Y1 to Yn, and the calculation unit 332 reads the average B-scan image at all the Y-direction positions. Next, the calculation unit 332 calculates the boundary position of a tomographic layer such as a nerve fiber layer, a ganglion cell layer, and a retinal pigment epithelium for each average B-scan image. The boundary position of the tomography is obtained by performing edge extraction processing in the Z direction on the average B-scan image and analyzing the extracted edge profile. Note that the segmentation processing method is not limited to this, and the calculation unit 332 may specify the boundary position of the fault by any known method. When the boundary position of each slice is obtained for each average B-scan image, the calculation unit 332 stores the boundary position data in the storage unit 360 in association with each average B-scan image.

次に、ステップS603において、OCTA画像生成部331のマスク処理部333が、モーションコントラストデータの閾値処理(マスク処理)を行う。図8は、モーションコントラストデータの閾値処理のフローチャートである。   Next, in step S603, the mask processing unit 333 of the OCTA image generation unit 331 performs motion contrast data threshold processing (mask processing). FIG. 8 is a flowchart of motion contrast data threshold processing.

まずステップS801において、マスク処理部333が、Y方向位置Yiにおけるインデックスiを定義し、インデックスiが1からnまでの間、ステップS802からステップS806の処理を繰り返す。これにより、Y1からYnまでのY方向の各位置におけるデータに対し、ステップS802からステップS806までの処理が繰り返される。   First, in step S801, the mask processing unit 333 defines an index i at the Y-direction position Yi, and repeats the processing from step S802 to step S806 while the index i is from 1 to n. Thereby, the processing from step S802 to step S806 is repeated for the data at each position in the Y direction from Y1 to Yn.

ステップS802では、マスク処理部333が、閾値処理用の閾値を設定する。設定された閾値は、ステップS804で行われるモーションコントラストデータの閾値処理で用いられる。本実施例では、閾値の設定値は、例えばY方向位置Yiにおける任意のBスキャン画像又は平均Bスキャン画像の中の断層像以外が表示されている部分、つまりランダムノイズのみが表示されている部分の平均値+2σとする。ここでσは標準偏差を示す。なお、閾値の設定値はノイズ低減のための所望の構成に応じて任意に設定されてよい。また、本実施例では、閾値はY方向位置Yi毎に設定されているが、全Y方向位置又は複数のY方向位置をまとめた領域について一つの閾値を設定してもよい。   In step S802, the mask processing unit 333 sets a threshold for threshold processing. The set threshold value is used in the threshold processing of motion contrast data performed in step S804. In this embodiment, the threshold setting value is, for example, a portion where an arbitrary B-scan image or an average B-scan image other than a tomographic image at the Y-direction position Yi is displayed, that is, a portion where only random noise is displayed. The average value of + 2σ. Here, σ represents a standard deviation. Note that the threshold setting value may be arbitrarily set according to a desired configuration for noise reduction. In this embodiment, the threshold value is set for each Y-direction position Yi. However, one threshold value may be set for an area where all Y-direction positions or a plurality of Y-direction positions are combined.

次にステップS803において、マスク処理部333が、ステップS707で記憶されたY方向位置Yiに対応するモーションコントラストデータとステップS705で記憶されたY方向位置Yiに対応する平均Bスキャン画像を記憶部360から読み出す。   In step S803, the mask processing unit 333 stores the motion contrast data corresponding to the Y-direction position Yi stored in step S707 and the average B-scan image corresponding to the Y-direction position Yi stored in step S705. Read from.

ステップS804では、マスク処理部333が、モーションコントラストデータに対して閾値処理を行う。具体的には、マスク処理部333は、平均Bスキャン画像の画素値とステップS802で設定した閾値とを画素毎に比較し、平均Bスキャン画像の画素値が閾値以下であれば、その画素に対応するモーションコントラストデータを0に(マスク)する。一方で、マスク処理部333は、平均Bスキャン画像の画素値が閾値より大きければ、その画素に対応するモーションコントラストデータの値を維持する。   In step S804, the mask processing unit 333 performs threshold processing on the motion contrast data. Specifically, the mask processing unit 333 compares the pixel value of the average B scan image with the threshold set in step S802 for each pixel, and if the pixel value of the average B scan image is equal to or less than the threshold, Corresponding motion contrast data is set to 0 (mask). On the other hand, if the pixel value of the average B-scan image is larger than the threshold value, the mask processing unit 333 maintains the value of motion contrast data corresponding to the pixel.

次にステップS805において、マスク処理部333は閾値処理されたモーションコントラストデータを記憶部360に記憶させる。さらに、ステップS806において、マスク処理部333は、ステップS804の閾値処理でモーションコントラストデータの値がマスクされた画素の位置(具体的にはX、Y、Z方向位置)を記憶部360に記憶させる。ステップS807では、Y方向位置Y1からYnまでのY方向の各位置においてS802からS806までの処理が繰り返されたら、マスク処理部333がモーションコントラストデータの閾値処理を終了する。   In step S805, the mask processing unit 333 stores the threshold value-processed motion contrast data in the storage unit 360. Further, in step S806, the mask processing unit 333 causes the storage unit 360 to store the position (specifically, the position in the X, Y, and Z directions) of the pixel in which the value of the motion contrast data is masked by the threshold processing in step S804. . In step S807, when the processes from S802 to S806 are repeated at each position in the Y direction from the Y position Y1 to Yn, the mask processing unit 333 ends the threshold processing of the motion contrast data.

これら処理により、OCTA画像生成部331は、ノイズ低減のための閾値処理が行われたモーションコントラストデータを得ることができる。   Through these processes, the OCTA image generation unit 331 can obtain motion contrast data that has been subjected to threshold processing for noise reduction.

次にステップS604において、OCTA画像生成部331は、閾値処理が行われたモーションコントラストデータに基づいてOCTA画像を生成する。具体的には、OCTA画像生成部331が、ステップS602で得られた各層の境界位置を記憶部360から読み出す。次に、OCTA画像生成部331は、読み出した各層の境界位置を用いて、ステップS603で閾値処理されたモーションコントラストデータから、検者が指定する任意の層に対応するモーションコントラストデータを抽出する。   In step S604, the OCTA image generation unit 331 generates an OCTA image based on the motion contrast data on which threshold processing has been performed. Specifically, the OCTA image generation unit 331 reads out the boundary position of each layer obtained in step S602 from the storage unit 360. Next, the OCTA image generation unit 331 extracts motion contrast data corresponding to an arbitrary layer designated by the examiner from the motion contrast data subjected to threshold processing in step S603, using the read boundary position of each layer.

OCTA画像生成部331は、抽出された所望の層のモーションコントラストデータに対して各Aスキャン位置のZ方向の代表値を決定する。この代表値は、各Aスキャン位置に対応する所望の層のモーションコントラストデータの平均値、最大値、又は中央値等とすることができる。OCTA画像生成部331は、代表値をXY方向の2次元における各Aスキャン位置について生成することにより2次元のOCTA画像を生成する。OCTA画像生成部331は、生成したOCTA画像を記憶部360に記憶させる。表示制御部370は、記憶されたOCTA画像を表示部400に表示させる。   The OCTA image generation unit 331 determines a representative value in the Z direction of each A scan position for the extracted motion contrast data of the desired layer. The representative value can be an average value, a maximum value, a median value, or the like of motion contrast data of a desired layer corresponding to each A scan position. The OCTA image generation unit 331 generates a two-dimensional OCTA image by generating a representative value for each A scan position in two dimensions in the XY directions. The OCTA image generation unit 331 stores the generated OCTA image in the storage unit 360. The display control unit 370 causes the display unit 400 to display the stored OCTA image.

なお、本実施例では、層ごとのOCTA画像を生成する方法について述べているが、OCTA画像に用いられるモーションコントラストデータの指定方法はこれに限られない。OCTA画像の生成に用いられるモーションコントラストデータは、所望のZ方向範囲について指定されることができる。例えば、OCTA画像の生成に用いられるモーションコントラストデータの範囲について、複数の層を含む範囲としてもよいし、層の境界から離れた位置を範囲の上限又は下限としてもよい。また、当該範囲は、検査部位などの指定により、信号処理部300によって自動的に設定されてもよい。   In this embodiment, a method for generating an OCTA image for each layer is described. However, the method for specifying motion contrast data used for an OCTA image is not limited to this. Motion contrast data used to generate an OCTA image can be specified for a desired Z-direction range. For example, the range of motion contrast data used for generating the OCTA image may be a range including a plurality of layers, or a position away from the boundary of the layers may be an upper limit or a lower limit of the range. Further, the range may be automatically set by the signal processing unit 300 by designating an examination site or the like.

次に、図9及び10を参照して、陰影に起因するアーチファクトを検出するための処理を含むステップS605について説明を行う。ステップS605においては、アーチファクト検出部350が、ステップS804で生成されたOCTA画像に陰影に起因するアーチファクトが表示されているか否かを検出し、表示制御部370がその検出結果を表示部400に表示させる。図9は、本実施例に係るアーチファクトの検出と検出結果の表示処理のフローチャートである。   Next, with reference to FIG. 9 and FIG. 10, step S605 including the process for detecting the artifact resulting from a shadow is demonstrated. In step S605, the artifact detection unit 350 detects whether or not artifacts due to shadows are displayed in the OCTA image generated in step S804, and the display control unit 370 displays the detection result on the display unit 400. Let FIG. 9 is a flowchart of artifact detection and detection result display processing according to the present embodiment.

まずステップS901において、陰影特定部340が、Y方向位置Yiにおけるインデックスiを定義し、インデックスiが1からnまでの間、ステップS902からステップS905までの処理を繰り返す。これにより、Y1からYnまでのY方向の各位置においてステップS902からステップS905までの処理が繰り返される。   First, in step S901, the shadow specifying unit 340 defines an index i at the Y-direction position Yi, and repeats the processing from step S902 to step S905 while the index i is from 1 to n. Thereby, the processing from step S902 to step S905 is repeated at each position in the Y direction from Y1 to Yn.

ステップS902では、陰影特定部340がY方向位置Yiに対応する平均Bスキャン画像を記憶部360から読み出す。   In step S902, the shadow specifying unit 340 reads an average B-scan image corresponding to the Y-direction position Yi from the storage unit 360.

ステップS903では、陰影特定部340が、読み出した平均Bスキャン画像から陰影(シャドー)部の位置を特定する。前述で説明したように、陰影は測定光の入射方向から見て遮蔽物の後方位置に存在する断層に生じるため、陰影の生じるZ方向位置は遮蔽物が被検眼EのZ方向においてどの位置に存在するかによって変わる。そのため、ステップS903では、陰影特定部340が、平均Bスキャン画像を用いて、陰影がX方向のどの位置に生じているか、及び陰影がZ方向のどの位置から後方で生じているかを特定する。以下、陰影部の特定手法について2つの例を説明する。本実施例では、陰影特定部340が2例のうちいずれかの手法により陰影が生じているX方向位置及びZ方向位置を特定する。   In step S903, the shadow specifying unit 340 specifies the position of the shadow part from the read average B-scan image. As described above, since the shadow is generated in a tomogram existing behind the shield as viewed from the incident direction of the measurement light, the Z-direction position where the shadow is generated is the position of the shield in the Z direction of the eye E to be examined. It depends on whether it exists. Therefore, in step S903, the shadow specifying unit 340 uses the average B scan image to specify at which position in the X direction the shadow is generated and from which position in the Z direction the shadow is generated behind. Hereinafter, two examples of the method for identifying the shadow portion will be described. In the present embodiment, the shadow specifying unit 340 specifies the X direction position and the Z direction position where the shadow is generated by any one of the two examples.

1例目は、平均Bスキャン画像の輝度値から陰影部を特定する方法である。この方法では、まず陰影特定部340が、陰影がX方向のどの位置に生じているかを特定する。陰影特定部340は、平均Bスキャン画像をAスキャン単位に分割し、分割したAスキャン単位毎に全画素値(輝度値)の総和を計算する。陰影が生じている部分(陰影部)は、陰影の生じていない部位に比べ低い輝度値を有する。そこで、陰影特定部340は、Aスキャンに対応する画素値の総和が所定の閾値以下であるX方向位置を特定することにより、陰影部のX方向位置を特定することができる。   The first example is a method of identifying a shadow portion from the luminance value of the average B-scan image. In this method, first, the shadow specifying unit 340 specifies at which position in the X direction the shadow is generated. The shadow specifying unit 340 divides the average B scan image into A scan units, and calculates the sum of all pixel values (luminance values) for each divided A scan unit. The portion where the shadow is generated (shadow portion) has a lower luminance value than the portion where the shadow is not generated. Therefore, the shadow specifying unit 340 can specify the X direction position of the shadow part by specifying the X direction position where the sum of the pixel values corresponding to the A scan is equal to or less than a predetermined threshold.

次に陰影特定部340は、陰影がZ方向のどの位置から後方で生じているかを特定する。具体的には、陰影特定部340は、特定された陰影部のX方向位置のAスキャンに対応する画素値と、その付近に在る陰影部が検出されていないX方向位置のAスキャン対応する画素値とを、測定光の入射方向から同じZ方向位置の画素毎に比較する。ここで、X方向は測定光の主走査方向に対応する。また、陰影部が検出されていないX方向位置としては、特定された陰影部のX方向位置の周辺のX方向位置であって、特定された陰影部のX方向位置に現れている断層像と同じような断層像が現れている位置であればよい。陰影特定部340は、測定光の入射方向から同じZ方向位置の画素毎に、特定された陰影部のX方向位置の画素値と比較対象の画素値を比較し、比較対象の画素値よりも所定の閾値以上小さい値を有する画素のZ方向位置を特定する。これにより、陰影特定部340は、陰影がZ方向のどの位置から後方で生じているかを検出することができる。   Next, the shadow specifying unit 340 specifies from which position in the Z direction the shadow is generated backward. Specifically, the shadow specifying unit 340 corresponds to the pixel value corresponding to the A scan at the X-direction position of the specified shadow portion and the A-scan at the X-direction position where the shadow portion in the vicinity thereof is not detected. The pixel value is compared for each pixel at the same Z direction position from the incident direction of the measurement light. Here, the X direction corresponds to the main scanning direction of the measurement light. Further, the X-direction position where the shadow portion is not detected is the X-direction position around the X-direction position of the specified shadow portion, and the tomographic image appearing at the X-direction position of the specified shadow portion Any position where a similar tomographic image appears may be used. The shadow specifying unit 340 compares the pixel value at the X direction position of the specified shadow part with the pixel value to be compared for each pixel at the same Z direction position from the incident direction of the measurement light, and compares the pixel value with the comparison target pixel value. A Z direction position of a pixel having a value smaller than a predetermined threshold is specified. Accordingly, the shadow specifying unit 340 can detect from which position in the Z direction the shadow is generated rearward.

なお、陰影部のX方向位置を特定する際の閾値を適切に設定することにより、病変などにより輝度値が低くなっている箇所と、陰影部とを識別することができる。一方で、陰影部のZ方向位置を特定する際に、画素値の比較により特定されたZ方向位置よりも後のZ方向位置の画素値に関しても同様に比較を行うことで、陰影部と病変等による低輝度領域との識別精度を向上させることができる。この場合には、特定されたZ方向位置よりも後ろの全位置について比較を行ってもよいし、そのうちのいくつかの位置について比較を行ってもよい。   It should be noted that by appropriately setting the threshold value for specifying the X-direction position of the shadow portion, it is possible to identify a portion where the luminance value is low due to a lesion or the like and the shadow portion. On the other hand, when specifying the Z direction position of the shadow portion, the shadow portion and the lesion are also compared by similarly comparing the pixel values at the Z direction position after the Z direction position specified by the comparison of the pixel values. Thus, the discrimination accuracy from the low luminance region can be improved. In this case, comparison may be performed for all positions after the specified Z direction position, or comparison may be performed for some of the positions.

2例目は、平均Bスキャン画像とステップS602で得られたセグメンテーション処理の結果とを用いて陰影部を特定する方法である。この方法では、まず陰影特定部340が、セグメンテーション処理の結果を用いて平均Bスキャン画像を各層に分割する。次に測定光の入射方向から順番に、言い換えると神経線維層、神経節細胞層、内網状層といった順番に、硝子体側から各層のデータを抽出する。さらに、陰影特定部340は、抽出した各層のデータをAスキャン単位に分割する。陰影特定部340は、分割したAスキャン単位毎に各層における全画素値の総和を計算する。陰影特定部340は、1例目と同様に、各層のデータにおけるAスキャンに対応する画素値の総和の結果が、層ごとに設定された所定の閾値以下であるX方向位置を特定する。陰影特定部340は、この処理を各層で繰り返すことにより、陰影がX方向のどの位置に生じているか、及びZ方向のどの層から後方で生じているかを特定することができる。   The second example is a method of specifying a shadow portion using the average B-scan image and the segmentation processing result obtained in step S602. In this method, the shadow specifying unit 340 first divides the average B-scan image into each layer using the segmentation processing result. Next, the data of each layer is extracted from the vitreous side in order from the incident direction of the measurement light, in other words, the nerve fiber layer, the ganglion cell layer, and the inner plexiform layer. Further, the shadow specifying unit 340 divides the extracted data of each layer into A scan units. The shadow specifying unit 340 calculates the sum of all pixel values in each layer for each divided A-scan unit. As in the first example, the shadow specifying unit 340 specifies an X-direction position where the result of the sum of pixel values corresponding to the A scan in the data of each layer is equal to or less than a predetermined threshold set for each layer. The shadow specifying unit 340 can specify in which position in the X direction the shadow is generated and from which layer in the Z direction is generated backward by repeating this process for each layer.

ここで、神経線維層から脈絡膜までの全層において低輝度が検出される場合には、陰影特定部340は、硝子体混濁又は水晶体混濁による陰影部を特定・検出することができる。また、測定光の入射方向から神経節細胞層から内顆粒層と外網状層の境界に在るいずれかの層からその後方にかけて低輝度が検出される場合には、陰影特定部340は、網膜の測定光の入射側の層に存在する血管による陰影部を特定・検出することができる。このため、測定光の入射方向から見て低輝度が検出された層からその後方にある層にかけて低輝度が検出される場合には陰影部として特定できる。なお、この際、低輝度が検出された層からZ方向においてその後方にある層についても画素値と閾値の比較を行うことで、陰影部と病変等の領域との識別精度を向上させることができる。   Here, when low luminance is detected in all layers from the nerve fiber layer to the choroid, the shadow specifying unit 340 can specify and detect a shaded part due to vitreous turbidity or lens turbidity. When low luminance is detected from the ganglion cell layer to any one of the boundaries between the inner granule layer and the outer reticulated layer from the incident direction of the measurement light, the shadow specifying unit 340 includes the retina. It is possible to identify and detect a shadow portion due to blood vessels existing in the layer on the incident side of the measurement light. For this reason, when low luminance is detected from a layer where low luminance is detected as viewed from the incident direction of the measurement light to a layer behind it, it can be specified as a shadow portion. At this time, by comparing the pixel value with the threshold value for the layer behind the layer in which the low luminance is detected in the Z direction, it is possible to improve the discrimination accuracy between the shadow portion and the region such as the lesion. it can.

このような処理により、陰影特定部340は、Y方向位置Yiの断層画像において、陰影部のX方向位置及びZ方向位置を特定・検出することができる。ステップS904では、陰影特定部340が、陰影部の位置(X、Y、Z方向位置)を記憶部360に記憶させる。   By such processing, the shadow specifying unit 340 can specify and detect the X-direction position and the Z-direction position of the shadow portion in the tomographic image at the Y-direction position Yi. In step S904, the shadow specifying unit 340 stores the position (X, Y, Z direction position) of the shadow part in the storage unit 360.

次にステップS905において、アーチファクト検出部350がOCTA画像における陰影に起因するアーチファクトの位置の検出を行う。図10は、アーチファクト位置の検出処理を示すフローチャートである。   In step S905, the artifact detection unit 350 detects the position of the artifact caused by the shadow in the OCTA image. FIG. 10 is a flowchart showing an artifact position detection process.

まずステップS1001において、アーチファクト検出部350が、ステップS904にて記憶された陰影部の位置(X、Y、Z方向位置)を記憶部360から読み出す。ステップS1002では、アーチファクト検出部350が、ステップS806にて記憶された閾値処理でマスクされた位置(X、Y、Z方向位置)を記憶部360から読み出す。   First, in step S <b> 1001, the artifact detection unit 350 reads out the position (X, Y, Z direction position) of the shadow portion stored in step S <b> 904 from the storage unit 360. In step S1002, the artifact detection unit 350 reads the position (X, Y, Z direction position) masked by the threshold processing stored in step S806 from the storage unit 360.

次にステップS1003において、アーチファクト検出部350が、X方向位置Xkにおけるインデックスkを定義し、インデックスkが1からpまでの間、ステップS1004からステップS1007までの処理を繰り返す。また、ステップS1004において、アーチファクト検出部350が、Z方向位置Zrにおけるインデックスrを定義し、インデックスrが1からqまでの間、ステップS1005からステップS1006までの処理を繰り返す。   Next, in step S1003, the artifact detection unit 350 defines an index k at the X direction position Xk, and repeats the processing from step S1004 to step S1007 while the index k is from 1 to p. In step S1004, the artifact detection unit 350 defines an index r at the Z-direction position Zr, and repeats the processing from step S1005 to step S1006 while the index r is from 1 to q.

ステップS1005では、アーチファクト検出部350は、ステップS1003及びステップS1004で指定された画素の位置(Xk、Zr)が、陰影部に含まれ、且つ閾値処理でマスクされた位置に該当するか否かを判定する。より具体的には、アーチファクト検出部350は、指定された位置(Xk、Zr)が、記憶部360から読み出された陰影部の位置に該当するか否か、及び記憶部360から読み出されたマスクされた位置に該当するか否かを判定する。   In step S1005, the artifact detection unit 350 determines whether or not the pixel position (Xk, Zr) designated in steps S1003 and S1004 corresponds to the position included in the shadow portion and masked by the threshold processing. judge. More specifically, the artifact detection unit 350 reads from the storage unit 360 whether or not the designated position (Xk, Zr) corresponds to the position of the shaded part read from the storage unit 360. It is determined whether it corresponds to the masked position.

OCTA画像における陰影に起因するアーチファクトは、遮蔽物によって起こる陰影の影響でBスキャン画像の輝度値が低輝度となり、更に閾値処理により当該輝度値に対応するモーションコントラストデータがマスクされることによって発生する。そのため、アーチファクト検出部350は、ステップS1005での判定により、陰影部に該当し且つ閾値処理でマスクされた画素の位置を検出する。これにより、アーチファクト検出部350は、陰影に起因するアーチファクトが発生しているOCTA画像の画素の位置(Xk、Yi、Zr)を検出できる。   Artifacts due to shadows in the OCTA image are generated when the brightness value of the B-scan image becomes low due to the influence of the shadow caused by the shielding object, and further, the motion contrast data corresponding to the brightness value is masked by threshold processing. . Therefore, the artifact detection unit 350 detects the position of the pixel corresponding to the shadow part and masked by the threshold processing by the determination in step S1005. Thereby, the artifact detection unit 350 can detect the pixel position (Xk, Yi, Zr) of the OCTA image in which the artifact due to the shadow is generated.

なお、陰影部に該当する画素であっても、当該画素の輝度値によっては、ステップS804の閾値処理によってモーションコントラストデータがマスクされない場合もある。このため、本実施例では、陰影に起因するアーチファクトを特定する条件として、陰影部に該当し、且つ閾値処理によりモーションコントラストデータがマスクされた位置の画素であることを必要とする。   Note that even for a pixel corresponding to a shadow portion, depending on the luminance value of the pixel, the motion contrast data may not be masked by the threshold processing in step S804. For this reason, in the present embodiment, as a condition for specifying an artifact caused by the shadow, it is necessary that the pixel corresponds to the shadow portion and is located at a position where the motion contrast data is masked by the threshold processing.

ステップS1005において、アーチファクト検出部350は、指定された画素が、陰影部に該当し、且つ閾値処理によりモーションコントラストデータがマスクされた位置の画素であると判定したら、処理をステップS1006に進める。ステップS1006では、アーチファクト検出部350は、指定された画素の位置を、陰影に起因するアーチファクトの位置(Xk、Yi、Zr)として記憶部360に記憶させる。ステップS1005において、アーチファクト検出部350が、指定された画素は、陰影部で、且つ閾値処理でマスクされた位置の画素に該当しないと判定したら、処理をステップS1007に進める。   In step S1005, if the artifact detection unit 350 determines that the designated pixel corresponds to the shadow portion and is a pixel at the position where the motion contrast data is masked by the threshold processing, the process proceeds to step S1006. In step S1006, the artifact detection unit 350 causes the storage unit 360 to store the designated pixel position as an artifact position (Xk, Yi, Zr) caused by the shadow. If the artifact detection unit 350 determines in step S1005 that the designated pixel is not a shaded part and does not correspond to a pixel at a position masked by threshold processing, the process proceeds to step S1007.

ステップS1007では、アーチファクト検出部350は、Z方向位置Z1からZqまでにおいてステップS1005及びS1006の処理が繰り返されたら、当該処理を終了する。また、ステップS1008では、アーチファクト検出部350は、X方向位置X1からXpまでにおいてステップS1004からステップS1006の処理が繰り返されたら、アーチファクト位置の検出処理を終了する。   In step S1007, the artifact detection unit 350 ends the process when the processes of steps S1005 and S1006 are repeated from the Z-direction position Z1 to Zq. In step S1008, the artifact detection unit 350 ends the artifact position detection process when the processes in steps S1004 to S1006 are repeated from the X-direction position X1 to Xp.

上記処理により、アーチファクト検出部350は、Y方向位置YiのBスキャン画像中のアーチファクト位置を検出することができる。次に、ステップS906にて、アーチファクト検出部350は、Y方向位置Y1からYnまでのY方向の各位置においてS902からS905までの処理が繰り返されたら、処理をステップS907に進める。これら処理の結果として、アーチファクト検出部350は、3次元のモーションコントラストデータのX、Y、Z方向の全ての画素位置において、陰影に起因するアーチファクトの生じている位置を検出することができる。   Through the above processing, the artifact detection unit 350 can detect the artifact position in the B-scan image at the Y-direction position Yi. Next, in step S906, the artifact detection unit 350 advances the process to step S907 when the process from S902 to S905 is repeated at each position in the Y direction from the Y direction position Y1 to Yn. As a result of these processes, the artifact detection unit 350 can detect the positions where artifacts due to the shadow are generated at all pixel positions in the X, Y, and Z directions of the three-dimensional motion contrast data.

次にステップS907において、表示制御部370は、陰影に起因するアーチファクトの検出結果を表示部400に表示させる。なお、この時、表示部400には既にステップS604により検者が指定した任意の層のOCTA画像が表示されている。   Next, in step S907, the display control unit 370 causes the display unit 400 to display an artifact detection result caused by the shadow. At this time, an OCTA image of an arbitrary layer designated by the examiner in step S604 is already displayed on the display unit 400.

具体的には、まずアーチファクト検出部350は、ステップS905で得られたアーチファクト位置のデータから、OCTA画像の生成のために検者が指定した層に対応するデータを、セグメンテーション処理で特定した各層の境界位置を用いて抽出する。その後、アーチファクト検出部350は、抽出したデータを用いて、表示されているOCTA画像に、陰影に起因するアーチファクトが含まれているか否かを判定する。そして、表示制御部370は、アーチファクト検出部350の判定に基づいて、表示部400に陰影に起因するアーチファクトの検出結果を表示させる。   Specifically, first, the artifact detection unit 350 obtains data corresponding to the layer designated by the examiner for generating the OCTA image from the artifact position data obtained in step S905, for each layer identified by the segmentation process. Extract using boundary position. Thereafter, the artifact detection unit 350 determines whether or not the displayed OCTA image includes an artifact due to a shadow, using the extracted data. Then, the display control unit 370 causes the display unit 400 to display the detection result of the artifact caused by the shadow based on the determination of the artifact detection unit 350.

検出結果の表示の例としては、陰影に起因するアーチファクトが検出されたのか、検出されていないのかの表示をしてもよい。また、陰影に起因するアーチファクトが検出された場合に、OCTA画像中にアーチファクトが検出された領域を示すなどしてもよい。   As an example of the display of the detection result, it may be displayed whether an artifact caused by the shadow is detected or not detected. Further, when an artifact caused by a shadow is detected, an area in which the artifact is detected may be indicated in the OCTA image.

検出結果の具体例として、図11(a)及び(b)を参照して、OCTA画像中にアーチファクトが検出された領域を示す例について説明する。図11(a)及び(b)は、表示部400に表示されるOCTA画像の一例である。図11(a)は、神経節細胞層のOCTA画像を示し、画像中において網膜血管の存在を確認することができる。一方、図11(b)は脈絡毛細管板(Choriocapillaris)のOCTA画像を示す。また、図11(b)には、陰影に起因するアーチファクトが検出された領域1101及び1102が示されている。   As a specific example of the detection result, an example in which an artifact is detected in an OCTA image will be described with reference to FIGS. 11 (a) and 11 (b). FIGS. 11A and 11B are examples of OCTA images displayed on the display unit 400. FIG. FIG. 11A shows an OCTA image of the ganglion cell layer, and the presence of retinal blood vessels can be confirmed in the image. On the other hand, FIG. 11B shows an OCTA image of a choriocapillaris plate. FIG. 11B shows regions 1101 and 1102 in which artifacts due to shadows are detected.

脈絡毛細管板のOCTA画像である図11(b)に着目すると、領域1101や領域1102において、陰影に起因するアーチファクトが生じていることが分かる。このアーチファクトは、図11(a)に示される網膜血管に一致している。これは前述したように網膜血管が遮蔽物となって生じる陰影が脈絡毛細管板の層に存在していることに起因する。   When attention is paid to FIG. 11B which is an OCTA image of the choriocapillaris plate, it can be seen that artifacts due to shadows are generated in the region 1101 and the region 1102. This artifact coincides with the retinal blood vessel shown in FIG. As described above, this is due to the fact that the shadow produced by the retinal blood vessels as a shield exists in the layer of the choriocapillary plate.

ステップS907では、まずアーチファクト検出部350が、ステップS905で得られたアーチファクト位置のデータから検者が指定した脈絡毛細管板の層に該当するデータを抽出する。次にアーチファクト検出部350は、抽出したデータ内に陰影に起因するアーチファクトが含まれているか否かを判定する。これにより、アーチファクト検出部350は陰影に起因するアーチファクトが検出された領域、図11(b)に示す例においては領域1101と領域1102を特定することができる。表示制御部370は、アーチファクトの検出されていない領域に対して特定された領域1101,1102の色を変える、又は領域1101,1102を点滅表示などして、強調して表示部400に表示させる。   In step S907, the artifact detection unit 350 first extracts data corresponding to the choriocapillary plate layer designated by the examiner from the artifact position data obtained in step S905. Next, the artifact detection unit 350 determines whether the extracted data includes an artifact due to a shadow. Thereby, the artifact detection unit 350 can specify the area where the artifact due to the shadow is detected, that is, the area 1101 and the area 1102 in the example shown in FIG. The display control unit 370 changes the colors of the regions 1101 and 1102 specified with respect to the region where no artifact is detected, or causes the regions 1101 and 1102 to be displayed in a blinking manner, and causes the display unit 400 to display the highlighted regions.

以上の処理により、アーチファクト検出部350が、OCTA画像にアーチファクトが表示されているか否かを検出し、表示制御部370がその検出結果を表示部400に表示させ、ステップS605の処理が完了する。これにより、信号処理部300による一連の処理が終了する。   Through the above processing, the artifact detection unit 350 detects whether or not the artifact is displayed in the OCTA image, the display control unit 370 displays the detection result on the display unit 400, and the process of step S605 is completed. Thereby, a series of processes by the signal processing unit 300 ends.

このように本実施例によれば、陰影に起因するアーチファクトが、OCTA画像に表示されているか否かを検出することができる。そのため、OCTA画像の輝度の低い領域が疾病等の影響で被検体の時間的な変化がなくモーションコントラストデータの値が低いのか、陰影によりモーションコントラストデータがマスクされてアーチファクトとして表示されているのかを容易に判別できる。これにより、陰影に起因するアーチファクトの存在に基づく医師の診断精度の低下を防ぐことができる。   As described above, according to the present embodiment, it is possible to detect whether or not artifacts caused by shadows are displayed in the OCTA image. Therefore, whether the low-luminance region of the OCTA image has no temporal change of the subject due to the influence of a disease or the like and the value of motion contrast data is low, or whether the motion contrast data is masked by a shadow and displayed as an artifact. Easy to distinguish. As a result, it is possible to prevent a decrease in the diagnostic accuracy of the doctor based on the presence of artifacts caused by the shadow.

上記のように、本実施例による信号処理部300は、被検眼Eの同一位置を走査するように制御された測定光に基づいて得られた複数の断層データを取得する取得部310を備える。また、信号処理部300は、複数の断層データから被検眼Eのモーションコントラストデータを算出する演算部332と、複数の断層データの少なくとも1つの断層データに基づいて、モーションコントラストデータをマスク処理するマスク処理部333を備える。さらに、信号処理部300は、マスク処理後のモーションコントラストデータに基づいて、OCTA画像を生成するOCTA画像生成部331を備える。また、信号処理部300は、複数の断層データの少なくとも1つの断層データに基づいて、被検眼Eの陰影部を特定する陰影特定部340を備える。さらに、信号処理部300は、陰影特定部340の特定結果及びマスク処理部333によってモーションコントラストデータがマスクされた位置に基づいて、OCTA画像におけるアーチファクトを検出するアーチファクト検出部350を備える。   As described above, the signal processing unit 300 according to the present embodiment includes the acquisition unit 310 that acquires a plurality of tomographic data obtained based on the measurement light controlled to scan the same position of the eye E. The signal processing unit 300 calculates a motion contrast data of the eye E from a plurality of tomographic data, and a mask for masking the motion contrast data based on at least one tomographic data of the plurality of tomographic data. A processing unit 333 is provided. Furthermore, the signal processing unit 300 includes an OCTA image generation unit 331 that generates an OCTA image based on the motion contrast data after the mask processing. Further, the signal processing unit 300 includes a shadow specifying unit 340 that specifies a shadow portion of the eye E based on at least one piece of tomographic data. Furthermore, the signal processing unit 300 includes an artifact detection unit 350 that detects an artifact in the OCTA image based on the identification result of the shadow identification unit 340 and the position where the motion contrast data is masked by the mask processing unit 333.

陰影特定部340は、具体的には、複数の断層データの少なくとも1つの断層データを閾値と比較し、比較結果に基づいて陰影部を特定する。より具体的には、陰影特定部340は、複数の断層データのうち、測定光による被検眼Eの深さ方向の走査(Aスキャン)に対応する断層データを閾値と比較し、比較結果に基づいて陰影部の主走査方向の位置を特定する。さらに陰影特定部340は、複数の断層データの少なくとも1つの断層データと、測定光による主走査方向における周辺の断層データとを比較し、比較結果に基づいて陰影部の被検眼Eの深さ方向(Z方向)における位置を特定する。また、陰影特定部340は、複数の断層データのうち、被検体の層ごとの断層データを閾値と比較し、比較結果に基づいて陰影部を特定してもよい。   Specifically, the shadow specifying unit 340 compares at least one tomographic data of the plurality of tomographic data with a threshold value, and specifies a shadow part based on the comparison result. More specifically, the shadow specifying unit 340 compares tomographic data corresponding to scanning (A scan) in the depth direction of the eye E with the measurement light among the plurality of tomographic data, and based on the comparison result. The position of the shadow portion in the main scanning direction is specified. Further, the shadow specifying unit 340 compares at least one tomographic data of the plurality of tomographic data with the peripheral tomographic data in the main scanning direction by the measurement light, and based on the comparison result, the depth direction of the eye E to be examined The position in (Z direction) is specified. In addition, the shadow specifying unit 340 may compare the tomographic data for each layer of the subject among the plurality of tomographic data with a threshold value and specify the shadow part based on the comparison result.

本実施例による信号処理部300によれば、OCTA画像における陰影に起因するアーチファクトを検出することができる。このため、OCTA画像において、疾病等の影響で輝度値が低い領域と、陰影によりモーションコントラストデータがマスクされてアーチファクトとして表示されている領域とを容易に判別できる。これにより、陰影に起因するアーチファクトの存在に基づく医師の診断精度の低下を防ぐことができる。   According to the signal processing unit 300 according to the present embodiment, it is possible to detect an artifact caused by a shadow in the OCTA image. For this reason, in the OCTA image, it is possible to easily discriminate between an area where the luminance value is low due to the influence of a disease or the like and an area where motion contrast data is masked by a shadow and displayed as an artifact. As a result, it is possible to prevent a decrease in the diagnostic accuracy of the doctor based on the presence of artifacts caused by the shadow.

本実施例では、モーションコントラストデータの生成処理やマスク処理、陰影の特定処理についてBスキャン画像に基づいて行う構成としている。しかしながら、これらの処理は、取得部310で取得された被検眼Eの断層データを用いて行われればよい。上述のように、断層データには、被検眼Eの干渉信号、干渉信号をフーリエ変換した後の信号、当該フーリエ変換後の信号に画像生成のための任意の信号処理を施した信号、及びこれらに基づく輝度値等の信号が含まれる。   In this embodiment, motion contrast data generation processing, mask processing, and shadow specification processing are performed based on the B-scan image. However, these processes may be performed using the tomographic data of the eye E acquired by the acquisition unit 310. As described above, the tomographic data includes the interference signal of the eye E, the signal after the Fourier transform of the interference signal, the signal obtained by subjecting the signal after the Fourier transform to arbitrary signal processing for image generation, and these A signal such as a luminance value based on is included.

なお、本実施例において、陰影に起因するアーチファクトの検出結果の表示の例をいくつか示したが、表示の例はこれに限られず、検出結果が示されれば別の方法によって実現されてもよい。例えば、陰影に起因するアーチファクトの検出結果は、文字や音声によって検者に通知されてもよいし、グラフィックによる表示と文字や音声による通知などが組み合わされてもよい。また、本実施例では、陰影に起因するアーチファクトの検出結果を表示部400に表示することとしているが、当該検出結果は表示されなくてもよい。例えば、陰影に起因するアーチファクトの検出結果を他の任意の処理に用いてもよい。   In this embodiment, several examples of display of artifact detection results due to shadows have been shown. However, display examples are not limited to this, and may be realized by other methods as long as the detection results are shown. Good. For example, the detection result of the artifact caused by the shadow may be notified to the examiner by text or voice, or a graphic display and a text or voice notification may be combined. In the present embodiment, the detection result of the artifact caused by the shadow is displayed on the display unit 400. However, the detection result may not be displayed. For example, the detection result of the artifact caused by the shadow may be used for other arbitrary processing.

本実施例では、陰影特定部340が、ステップS901からステップS903の処理においてY方向位置Yiに対応する平均Bスキャン画像から陰影部を特定した。しかしながら、陰影特定部340は、Y方向位置Y1からYnまでの各平均Bスキャン画像と、ステップS602で得られた層の境界位置のデータとを用いてEnface画像を生成し、そのEnface画像から陰影部を特定してもよい。ここで、Enface画像は、セグメンテーション処理で抽出された任意の層のデータから各Aスキャンのデータの代表値を決定し、決定した代表値を各画素の画素値として生成した、XY方向の2次元の正面画像である。   In the present embodiment, the shadow specifying unit 340 specifies a shadow part from the average B-scan image corresponding to the Y-direction position Yi in the processing from step S901 to step S903. However, the shadow specifying unit 340 generates an Enface image using each average B-scan image from the Y-direction positions Y1 to Yn and the layer boundary position data obtained in step S602, and the shadow is generated from the Enface image. The part may be specified. Here, the Enface image is a two-dimensional XY direction in which a representative value of each A-scan data is determined from data of an arbitrary layer extracted by the segmentation process, and the determined representative value is generated as a pixel value of each pixel. It is a front image.

この場合には、陰影特定部340は、Enface画像の画素値が所定の閾値以下の数値を示す位置を陰影部として特定する。さらに陰影特定部340は、当該特定された陰影部において、各層について測定光の入射方向から順に陰影部の特定を行っていくことにより、陰影が生じているZ方向の位置を特定する。これにより、陰影特定部340は、陰影がXY方向のどの位置に生じているか、及び測定光の入射方向から見てZ方向のどの位置から後方で生じているかを特定することができる。なお、Enface画像の生成に用いるBスキャン画像は各Y方向位置におけるm枚のうちの任意のBスキャン画像であってもよい。   In this case, the shadow specifying unit 340 specifies a position where the pixel value of the Enface image indicates a numerical value equal to or less than a predetermined threshold as the shadow part. Furthermore, the shadow specifying unit 340 specifies the position in the Z direction where the shadow is generated by specifying the shadow part in order from the incident direction of the measurement light for each layer in the specified shadow part. Thereby, the shadow specifying unit 340 can specify at which position in the XY direction the shadow is generated and from which position in the Z direction when viewed from the incident direction of the measurement light. Note that the B scan image used for generating the Enface image may be an arbitrary B scan image out of m sheets at each Y-direction position.

本実施例では、陰影部の特定方法の例を3つ挙げたが、陰影部の特定方法はこれに限られず、陰影部が検出できるような他の方法を用いてもよい。また、陰影部のZ方向位置を特定する際に、各層ごとの画素の値同士を比較してもよい。この場合、陰影特定部340は、複数の断層データの少なくとも1つの断層データと、該断層データが示す被検眼Eの層と同じ層を示す、測定光による主走査方向における周辺の断層データとを比較する。そして、陰影特定部340は、比較結果に基づいて陰影部の被検眼Eの深さ方向における位置を特定する。   In this embodiment, three examples of the method for specifying the shadow portion are given. However, the method for specifying the shadow portion is not limited to this, and another method that can detect the shadow portion may be used. Moreover, when specifying the Z direction position of a shadow part, you may compare the value of the pixel for every layer. In this case, the shadow specifying unit 340 obtains at least one tomographic data of the plurality of tomographic data and peripheral tomographic data in the main scanning direction by the measurement light, which indicates the same layer as the layer of the eye E to be examined indicated by the tomographic data. Compare. And the shadow specific | specification part 340 specifies the position in the depth direction of the eye E to be examined based on a comparison result.

より具体的には、陰影特定部340が、特定された陰影部のX方向位置での各層における画素値を、測定光の入射方向から見て順番に、当該X方向位置の付近の陰影部が検出されていないX方向位置の対応する層の対応する深さ位置の画素値と比較する。例えば、陰影特定部340は、特定された陰影部のX方向位置における神経節細胞層のZ方向における一番上の画素値と、付近の陰影部が検出されていないX方向位置における神経節細胞層の一番上の画素値とを比較する。この場合には、比較対象が同じ層の対応する部分を示す画素同士となるため、比較の精度が向上し、陰影部のZ方向位置の特定精度が向上する。   More specifically, the shadow specifying unit 340 obtains the pixel values in each layer at the X-direction position of the specified shadow portion in order of the shadow portions near the X-direction position as viewed from the incident direction of the measurement light. The pixel value of the corresponding depth position of the corresponding layer of the X direction position that has not been detected is compared. For example, the shadow specifying unit 340 includes the top pixel value in the Z direction of the ganglion cell layer in the X direction position of the specified shadow part, and the ganglion cell in the X direction position in which no nearby shadow part is detected. Compare the pixel value at the top of the layer. In this case, since the comparison target is pixels indicating corresponding portions of the same layer, the accuracy of comparison is improved, and the accuracy of specifying the position of the shadow portion in the Z direction is improved.

なお、この場合、画素値を比較するZ方向位置は、各層の一番上から測定光の入射方向の順の位置に限られず、例えば、各層の中央の位置の画素値から比較してもよい。この場合には、陰影部のZ方向における発生位置を特定するために、比較した画素値が、付近の比較対象の画素値よりも閾値以上低ければ測定光の入射方向とは逆順に、閾値以上に低くなければ測定光の入射方向の順に比較を続けることができる。なお、各層の中央の画素位置については、セグメンテーション処理により特定した層の境界位置のZ方向における位置の中間位置とすることができる。   In this case, the position in the Z direction for comparing the pixel values is not limited to the position in the order of the incident direction of the measurement light from the top of each layer. For example, the comparison may be made from the pixel value at the center position of each layer. . In this case, in order to specify the generation position in the Z direction of the shadow portion, if the compared pixel value is lower than the threshold value by a threshold value or more than the neighboring comparison target pixel value, the measurement light is incident in the reverse order to the incident direction. If not, the comparison can be continued in the order of the incident direction of the measurement light. Note that the pixel position at the center of each layer can be set to an intermediate position in the Z direction of the boundary position of the layer specified by the segmentation process.

また、陰影特定部340は、上記1つ目の例にて、陰影部のX方向の位置を特定する際に、Aスキャンに対応する画素値の総和を所定の閾値と比較する構成に限られず、例えば、画素値の平均値、最大値、又は中央値等の任意の統計値を閾値と比較してもよい。同様に陰影特定部340は、上記2つ目の例において、各層におけるZ方向の画素値の総和を所定の閾値と比較する構成に限られず、例えば、画素値の平均値、最大値、又は中央値等の任意の統計値を閾値と比較してもよい。   Further, in the first example, the shadow specifying unit 340 is not limited to the configuration that compares the sum of pixel values corresponding to the A scan with a predetermined threshold when specifying the position of the shadow part in the X direction. For example, an arbitrary statistical value such as an average value, a maximum value, or a median value of pixel values may be compared with a threshold value. Similarly, in the second example, the shadow specifying unit 340 is not limited to the configuration in which the sum of the pixel values in the Z direction in each layer is compared with a predetermined threshold. For example, the average value, the maximum value, or the center of the pixel values Any statistical value such as a value may be compared with a threshold.

なお、本実施例では、OCTA画像における陰影に起因するアーチファクトの検出について述べた。しかしながら、陰影に起因するアーチファクトは、OCTA画像以外のモーションコントラストデータに基づくモーションコントラスト画像にも生じる。OCTA画像以外のモーションコントラスト画像としては、例えば3次元のモーションコントラストデータに基づく3次元のモーションコントラスト画像や断層画像に対応する2次元のモーションコントラスト画像等が含まれる。本実施例に係る陰影に起因するアーチファクトの検出処理は、これらOCTA画像以外のモーションコントラスト画像に対しても適用することができる。本実施例に係る陰影に起因するアーチファクトの検出処理によれば、これらの画像における陰影に起因するアーチファクトも適切に検出することができる。   In the present embodiment, detection of artifacts caused by shadows in the OCTA image has been described. However, artifacts due to shadows also occur in motion contrast images based on motion contrast data other than OCTA images. Examples of the motion contrast image other than the OCTA image include a three-dimensional motion contrast image based on three-dimensional motion contrast data, a two-dimensional motion contrast image corresponding to a tomographic image, and the like. The processing for detecting artifacts due to shadows according to the present embodiment can be applied to motion contrast images other than these OCTA images. According to the artifact detection process caused by the shadow according to the present embodiment, it is possible to appropriately detect the artifact caused by the shadow in these images.

また、本実施例では、陰影特定部340は、平均Bスキャン画像から陰影部の位置を特定したが、平均Bスキャン画像に代えて、m枚のうちの任意のBスキャン画像、すなわち平均処理されていないBスキャン画像を用いてもよい。平均処理されていないBスキャン画像としては、例えば、既知の手法を用いて画質評価を行い、m枚のBスキャン画像のうち最も画質の良いBスキャン画像を選択することができる。平均Bスキャン画像は、平均処理されていないBスキャン画像に比べ画像上のランダムノイズの影響が低減しているので、平均Bスキャン画像を用いる場合には、陰影部の位置を特定する際により高精度に特定を行うことができる。   In the present embodiment, the shadow specifying unit 340 specifies the position of the shadow part from the average B scan image, but instead of the average B scan image, an arbitrary B scan image of m sheets, that is, an average process is performed. A B-scan image that is not used may be used. As the B-scan image that has not been averaged, for example, image quality evaluation can be performed using a known method, and the B-scan image with the best image quality can be selected from the m B-scan images. The average B-scan image is less affected by random noise on the image than the B-scan image that has not been averaged. Therefore, when the average B-scan image is used, the average B-scan image is higher when specifying the position of the shadow portion. The accuracy can be specified.

[実施例2]
実施例1では、陰影特定部340が、平均Bスキャン画像の輝度値から陰影部の位置を特定した。これに対し、実施例2では、陰影特定部340は、OCTA画像生成部331の演算部332が生成したモーションコントラストデータから陰影部の位置を特定する。
[Example 2]
In the first embodiment, the shadow specifying unit 340 specifies the position of the shadow part from the luminance value of the average B scan image. On the other hand, in Example 2, the shadow specifying unit 340 specifies the position of the shadow part from the motion contrast data generated by the calculation unit 332 of the OCTA image generation unit 331.

以下、図12を参照して本実施例によるアーチファクトの検出と検出結果の表示処理について説明する。なお、本実施例によるOCT装置の構成は、実施例1によるOCT装置50の構成と同様であるため、同じ参照符号を付して説明を省略する。また、実施例2に係る各処理は、アーチファクトの検出と検出結果の表示処理以外は、実施例1と同様であるため、説明を省略する。以下、本実施例によるアーチファクトの検出と検出結果の表示処理について、実施例1との相違点を中心に説明する。   The artifact detection and detection result display processing according to this embodiment will be described below with reference to FIG. Note that the configuration of the OCT apparatus according to the present embodiment is the same as that of the OCT apparatus 50 according to the first embodiment, and therefore the same reference numerals are assigned and description thereof is omitted. Each process according to the second embodiment is the same as that according to the first embodiment except for artifact detection and detection result display processing. Hereinafter, detection of artifacts and display processing of detection results according to the present embodiment will be described focusing on differences from the first embodiment.

図12は、本実施例に係るアーチファクトの検出と検出結果の表示処理のフローチャートである。図12において、ステップS1202及びS1203以外の処理は、実施例1に係る処理と同様であるため説明を省略する。   FIG. 12 is a flowchart of artifact detection and detection result display processing according to the present embodiment. In FIG. 12, processes other than steps S1202 and S1203 are the same as the processes according to the first embodiment, and thus description thereof is omitted.

ステップS901において、Y方向位置のインデックスiを定義したら、処理はステップS1202に進む。ステップS1202では、陰影特定部340が、ステップS707で記憶されたY方向位置Yiに対応するモーションコントラストデータを記憶部360から読み出す。   If the index i of the Y direction position is defined in step S901, the process proceeds to step S1202. In step S1202, the shadow specifying unit 340 reads out the motion contrast data corresponding to the Y-direction position Yi stored in step S707 from the storage unit 360.

次にステップS1203では、陰影特定部340は、ステップS1202で読み出されたモーションコントラストデータを用いて、陰影がX方向のどの位置に生じているか、測定光の入射方向から見て陰影がZ方向のどの位置から後方で生じているかを特定する。   In step S1203, the shadow specifying unit 340 uses the motion contrast data read in step S1202 to determine in which position in the X direction the shadow is generated, and the shadow is in the Z direction as viewed from the incident direction of the measurement light. Specify from which position in the rear the camera originates.

以下、本実施例に係る陰影特定部340による陰影特定処理について具体的に説明する。実施例1で示したようにステップS601で得られるモーションコントラストデータは血管部の位置を示している。また、陰影は血管部の後方位置に生じる。このため、陰影特定部340は、モーションコントラストデータが所定の閾値以上の数値を有する画素を、測定光の入射方向から見てZ方向にそれぞれ探索及び特定することにより血管部を特定する。そして、陰影特定部340は、特定した血管部の位置より後方に位置する画素を陰影の生じる位置として特定する。陰影特定部340は、当該処理をAスキャン毎に行うことで陰影がX方向のどの位置に生じているか、及び測定光の入射方向から見て陰影がZ方向のどの位置から後方で生じているかを検出することができる。   Hereinafter, the shadow specifying process by the shadow specifying unit 340 according to the present embodiment will be specifically described. As shown in the first embodiment, the motion contrast data obtained in step S601 indicates the position of the blood vessel portion. Further, the shadow is generated at the rear position of the blood vessel portion. For this reason, the shadow specifying unit 340 specifies a blood vessel part by searching and specifying pixels in which the motion contrast data has a numerical value equal to or greater than a predetermined threshold value in the Z direction when viewed from the incident direction of the measurement light. And the shadow specific | specification part 340 specifies the pixel located behind the position of the specified blood-vessel part as a position where a shadow arises. The shadow specifying unit 340 performs the process for each A scan to determine in which position in the X direction the shadow is generated, and from which position in the Z direction the shadow is generated in the backward direction when viewed from the incident direction of the measurement light. Can be detected.

なお、陰影特定部340は、モーションコントラストデータが所定の閾値以上の数値を有する画素であって、且つそれと同じ位置における平均Bスキャン画像の画素の輝度値がステップS802で設定された閾値以上である箇所を血管部の位置としてもよい。同座標の位置における平均Bスキャン画像の画素の輝度値が閾値以上であるという条件を付加することによってノイズ成分を除去でき、精度よく血管部を特定できる。なお、平均Bスキャン画像に代えて、m枚のうちの任意のBスキャン画像を用いてもよい。   The shadow specifying unit 340 is a pixel whose motion contrast data has a numerical value equal to or greater than a predetermined threshold, and the luminance value of the pixel of the average B-scan image at the same position is equal to or greater than the threshold set in step S802. The location may be the position of the blood vessel portion. By adding the condition that the luminance value of the pixel of the average B-scan image at the same coordinate position is equal to or greater than the threshold value, the noise component can be removed, and the blood vessel portion can be specified with high accuracy. Instead of the average B scan image, an arbitrary B scan image out of m sheets may be used.

上記のように、本実施例では、陰影特定部340が、複数の断層データに基づいて算出されたモーションコントラストデータを閾値と比較し、比較結果に基づいて陰影部を特定する。本実施例に係る陰影部の特定方法を用いても、アーチファクト検出部350は、特定された陰影部の位置及び閾値処理によりマスクされた位置に基づいて、陰影に起因するアーチファクトを検出することができる。そのため、モーションコントラストデータを用いて陰影部を特定する本実施例によっても、実施例1と同様の効果を奏することができる。   As described above, in this embodiment, the shadow specifying unit 340 compares the motion contrast data calculated based on a plurality of tomographic data with a threshold value, and specifies a shadow portion based on the comparison result. Even if the method for identifying a shadow part according to the present embodiment is used, the artifact detection unit 350 can detect an artifact due to the shadow based on the position of the specified shadow part and the position masked by the threshold processing. it can. For this reason, the same effect as that of the first embodiment can be obtained by the present embodiment in which the shadow portion is specified using the motion contrast data.

上記実施例では、取得部310は、撮像光学系100で取得された干渉信号や画像生成部330で生成されたフーリエ変換後のデータ等を取得した。しかしながら、取得部310がこれらの信号を取得する構成はこれに限られない。例えば、取得部310は、信号処理部300とLAN、WAN、又はインターネット等を介して接続されるサーバや撮像装置からこれらの信号を取得してもよい。   In the above embodiment, the acquisition unit 310 acquires the interference signal acquired by the imaging optical system 100, the data after Fourier transform generated by the image generation unit 330, and the like. However, the configuration in which the acquisition unit 310 acquires these signals is not limited to this. For example, the acquisition unit 310 may acquire these signals from a server or an imaging device connected to the signal processing unit 300 via a LAN, WAN, or the Internet.

上記実施例では、OCT装置として、SLDを光源として用いたスペクトラルドメインOCT(SD−OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、タイムドメインOCT装置や波長掃引型OCT装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、眼底像を撮像するための光学系として、SLO光学系を用いたが、例えば眼底カメラ等の他の光学系を用いて眼底像を撮像してもよい。   In the above embodiment, a spectral domain OCT (SD-OCT) apparatus using an SLD as a light source has been described as the OCT apparatus, but the configuration of the OCT apparatus according to the present invention is not limited to this. For example, the present invention can be applied to other arbitrary types of OCT apparatuses such as a time domain OCT apparatus and a wavelength sweep type OCT apparatus. In addition, although the SLO optical system is used as the optical system for capturing the fundus image, the fundus image may be captured using another optical system such as a fundus camera.

なお、上記実施例では、分割手段として光カプラーを使用したファイバー光学系を用いているが、コリメータとビームスプリッタを使用した空間光学系を用いてもよい。また、撮像光学系100の構成は、上記の構成に限られず、撮像光学系100に含まれる構成の一部を撮像光学系100と別体の構成としてもよい。   In the above embodiment, a fiber optical system using an optical coupler is used as the dividing means, but a spatial optical system using a collimator and a beam splitter may be used. In addition, the configuration of the imaging optical system 100 is not limited to the above configuration, and a part of the configuration included in the imaging optical system 100 may be configured separately from the imaging optical system 100.

さらに、干渉系としてマイケルソン干渉系を用いたが、マッハツェンダー干渉系を用いてもよい。例えば、測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉系を、光量差が比較的小さい場合にはマイケルソン干渉系を用いることができる。   Furthermore, although the Michelson interference system is used as the interference system, a Mach-Zehnder interference system may be used. For example, a Mach-Zehnder interference system can be used when the light quantity difference is large, and a Michelson interference system can be used when the light quantity difference is relatively small according to the light quantity difference between the measurement light and the reference light.

また、上記実施例では、被検体として被検眼について述べた。しかしながら、被検体は被検眼に限られず、例えば、皮膚や臓器等であってもよい。このとき、本発明は、眼科装置以外に、内視鏡等の医療機器に適用することができる。この場合、セグメンテーション処理は、被検体の構造に応じて行われることができる。   In the above embodiment, the eye to be examined is described as the subject. However, the subject is not limited to the subject eye, and may be, for example, skin or an organ. At this time, the present invention can be applied to medical equipment such as an endoscope in addition to the ophthalmologic apparatus. In this case, the segmentation process can be performed according to the structure of the subject.

(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、実施例を参照して本発明について説明したが、本発明は上記実施例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。   While the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Inventions modified within the scope not departing from the spirit of the present invention and inventions equivalent to the present invention are also included in the present invention. Moreover, each above-mentioned Example and modification can be combined suitably in the range which is not contrary to the meaning of this invention.

300:信号処理部(情報処理装置)、310:取得部(取得手段)、331:OCTA画像生成部(生成手段)、332:演算部(算出手段)、333:マスク処理部(マスク手段)、340:陰影特定部(特定手段)、350:アーチファクト検出部(検出手段)、E:被検眼(被検体) 300: signal processing unit (information processing apparatus), 310: acquisition unit (acquisition unit), 331: OCTA image generation unit (generation unit), 332: calculation unit (calculation unit), 333: mask processing unit (mask unit), 340: Shadow identification unit (identification unit), 350: Artifact detection unit (detection unit), E: Eye to be examined (subject)

Claims (16)

被検体の同一位置を走査するように制御された測定光に基づいて得られた複数の断層データを取得する取得手段と、
前記複数の断層データから前記被検体のモーションコントラストデータを算出する算出手段と、
前記複数の断層データの少なくとも1つの断層データに基づいて、前記モーションコントラストデータをマスク処理するマスク手段と、
前記マスク処理後のモーションコントラストデータに基づいて、モーションコントラスト画像を生成する生成手段と、
前記複数の断層データの少なくとも1つの断層データに基づいて、前記被検体の陰影部を特定する特定手段と、
前記特定手段の特定結果及び前記マスク手段によって前記モーションコントラストデータがマスクされた位置に基づいて、前記モーションコントラスト画像におけるアーチファクトを検出する検出手段と、
を備える、情報処理装置。
Acquisition means for acquiring a plurality of tomographic data obtained based on measurement light controlled to scan the same position of the subject;
Calculating means for calculating motion contrast data of the subject from the plurality of tomographic data;
Mask means for masking the motion contrast data based on at least one tomographic data of the plurality of tomographic data;
Generating means for generating a motion contrast image based on the motion contrast data after the mask processing;
Identifying means for identifying a shadow portion of the subject based on at least one tomographic data of the plurality of tomographic data;
Detecting means for detecting artifacts in the motion contrast image based on the identification result of the identifying means and the position where the motion contrast data is masked by the masking means;
An information processing apparatus comprising:
前記特定手段は、前記複数の断層データの少なくとも1つの断層データを閾値と比較し、比較結果に基づいて前記陰影部を特定する、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the specifying unit compares at least one tomographic data of the plurality of tomographic data with a threshold, and specifies the shadow portion based on a comparison result. 前記特定手段は、前記複数の断層データのうち、前記測定光による前記被検体の深さ方向の走査に対応する断層データを前記閾値と比較し、比較結果に基づいて前記陰影部を特定する、請求項2に記載の情報処理装置。   The specifying means compares the tomographic data corresponding to scanning of the subject in the depth direction by the measurement light among the plurality of tomographic data with the threshold value, and specifies the shadow portion based on a comparison result. The information processing apparatus according to claim 2. 前記特定手段は、前記複数の断層データのうち、前記被検体の層ごとの断層データを前記閾値と比較し、比較結果に基づいて前記陰影部を特定する、請求項2又は3に記載の情報処理装置。   The information according to claim 2 or 3, wherein the specifying unit compares the tomographic data for each layer of the subject with the threshold value among the plurality of tomographic data, and specifies the shadow portion based on a comparison result. Processing equipment. 前記特定手段は、前記複数の断層データに基づいて算出された前記モーションコントラストデータを前記閾値と比較し、比較結果に基づいて前記陰影部を特定する、請求項2乃至4のいずれか一項に記載の情報処理装置。   5. The method according to claim 2, wherein the specifying unit compares the motion contrast data calculated based on the plurality of tomographic data with the threshold value, and specifies the shadow portion based on a comparison result. The information processing apparatus described. 前記特定手段は、前記複数の断層データのうちの少なくとも1つの断層データに基づくEnface画像の画素値を前記閾値と比較し、比較結果に基づいて前記陰影部を特定する、請求項2乃至4のいずれか一項に記載の情報処理装置。   5. The device according to claim 2, wherein the specifying unit compares a pixel value of an Enface image based on at least one of the plurality of tomographic data with the threshold value, and specifies the shadow portion based on a comparison result. The information processing apparatus according to any one of claims. 前記特定手段は、前記複数の断層データの少なくとも1つの断層データと、前記測定光による主走査方向における周辺の断層データとを比較し、比較結果に基づいて前記陰影部の前記被検体の深さ方向における位置を特定する、請求項1乃至6のいずれか一項に記載の情報処理装置。   The specifying unit compares at least one tomographic data of the plurality of tomographic data with peripheral tomographic data in the main scanning direction by the measurement light, and based on the comparison result, the depth of the subject in the shadow portion The information processing apparatus according to claim 1, wherein a position in a direction is specified. 前記特定手段は、前記複数の断層データの少なくとも1つの断層データと、該断層データが示す前記被検体の層と同じ層を示す、前記測定光による主走査方向における周辺の断層データとを比較し、比較結果に基づいて前記陰影部の前記被検体の深さ方向における位置を特定する、請求項7に記載の情報処理装置。   The specifying unit compares at least one tomographic data of the plurality of tomographic data with tomographic data in the main scanning direction by the measurement light, which indicates the same layer as the layer of the subject indicated by the tomographic data. The information processing apparatus according to claim 7, wherein a position of the shadow portion in the depth direction of the subject is specified based on a comparison result. 前記モーションコントラスト画像を表示手段に表示させる表示制御手段を更に備え、
前記表示制御手段は、前記表示手段に、前記検出手段から出力されるアーチファクトの検出結果を表示させる、請求項1乃至8のいずれか一項に記載の情報処理装置。
Further comprising display control means for displaying the motion contrast image on a display means;
The information processing apparatus according to claim 1, wherein the display control unit causes the display unit to display an artifact detection result output from the detection unit.
前記表示制御手段は、前記表示手段に、前記アーチファクトの検出結果として前記アーチファクトが検出された領域を強調して表示させる、請求項9に記載の情報処理装置。   The information processing apparatus according to claim 9, wherein the display control unit causes the display unit to highlight and display a region where the artifact is detected as a detection result of the artifact. 前記マスク手段は、前記複数の断層データのうちの少なくとも1つの断層データと所定の閾値とを比較し、該少なくとも1つの断層データが該所定の閾値以下の場合、該少なくとも1つの断層データに対応するモーションコントラストデータをマスクする、請求項1乃至10のいずれか一項に記載の情報処理装置。   The mask means compares at least one tomographic data of the plurality of tomographic data with a predetermined threshold value, and corresponds to the at least one tomographic data when the at least one tomographic data is less than or equal to the predetermined threshold value. The information processing apparatus according to claim 1, wherein motion contrast data to be masked is masked. 前記被検体は被検眼である、請求項1乃至11のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 11, wherein the subject is an eye to be examined. 前記アーチファクトは、前記モーションコントラスト画像における陰影によるアーチファクトである請求項1乃至12のいずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the artifact is an artifact caused by a shadow in the motion contrast image. 前記アーチファクトは、前記測定光の入射側の層に存在する血管の陰影によるアーチファクトである請求項1乃至13のいずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the artifact is an artifact caused by a shadow of a blood vessel existing in a layer on the incident side of the measurement light. 被検体の同一位置を走査するように制御された測定光に基づいて得られた複数の断層データを取得する工程と、
前記複数の断層データからモーションコントラストデータを算出する工程と、
前記複数の断層データの少なくとも1つの断層データに基づいて、前記モーションコントラストデータをマスク処理する工程と、
前記マスク処理後のモーションコントラストデータに基づいて、モーションコントラスト画像を生成する工程と、
前記複数の断層データの少なくとも1つの断層データに基づいて、前記被検体の陰影部を特定する工程と、
前記陰影部を特定する工程の特定結果及び前記マスク処理する工程において前記モーションコントラストデータがマスクされた位置に基づいて、前記モーションコントラスト画像におけるアーチファクトを検出する工程と、
含む、情報処理方法。
Obtaining a plurality of tomographic data obtained based on measurement light controlled to scan the same position of the subject; and
Calculating motion contrast data from the plurality of tomographic data;
Masking the motion contrast data based on at least one tomographic data of the plurality of tomographic data;
Generating a motion contrast image based on the motion contrast data after the masking;
Identifying a shadow portion of the subject based on at least one tomographic data of the plurality of tomographic data;
Detecting artifacts in the motion contrast image based on a result of specifying the shadow portion and a position where the motion contrast data is masked in the mask processing step;
Including an information processing method.
コンピュータによって実行されると、該コンピュータに請求項15に記載の情報処理方法の各工程を実行させる、プログラム。   A program that, when executed by a computer, causes the computer to execute each step of the information processing method according to claim 15.
JP2017096278A 2017-05-15 2017-05-15 Information processing apparatus, information processing method, and program Pending JP2018191761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017096278A JP2018191761A (en) 2017-05-15 2017-05-15 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017096278A JP2018191761A (en) 2017-05-15 2017-05-15 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2018191761A true JP2018191761A (en) 2018-12-06

Family

ID=64568839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017096278A Pending JP2018191761A (en) 2017-05-15 2017-05-15 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2018191761A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020146135A (en) * 2019-03-11 2020-09-17 キヤノン株式会社 Image processing device and image processing method
JP2021063797A (en) * 2019-09-18 2021-04-22 株式会社トプコン 3d shadow reduction signal processing method for optical coherence tomography (oct) images

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020146135A (en) * 2019-03-11 2020-09-17 キヤノン株式会社 Image processing device and image processing method
JP7327954B2 (en) 2019-03-11 2023-08-16 キヤノン株式会社 Image processing device and image processing method
JP2021063797A (en) * 2019-09-18 2021-04-22 株式会社トプコン 3d shadow reduction signal processing method for optical coherence tomography (oct) images
JP7116763B2 (en) 2019-09-18 2022-08-10 株式会社トプコン A signal processing method for reducing three-dimensional shadows in optical coherence tomography (OCT) images

Similar Documents

Publication Publication Date Title
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
US10022047B2 (en) Ophthalmic apparatus
US8857988B2 (en) Data acquisition methods for reduced motion artifacts and applications in OCT angiography
US10672127B2 (en) Information processing apparatus, information processing method, and program
JP6843521B2 (en) Image processing device and image processing method
JP6702764B2 (en) Optical coherence tomographic data processing method, program for executing the method, and processing apparatus
JP2018038611A (en) Ophthalmologic analyzer and ophthalmologic analysis program
JP7195745B2 (en) Image processing device, image processing method and program
JP7387812B2 (en) Image processing device, image processing method and program
WO2020050308A1 (en) Image processing device, image processing method and program
JP2018019771A (en) Optical coherence tomography apparatus and optical coherence tomography control program
JP7106304B2 (en) Image processing device, image processing method and program
JP2022176282A (en) Ophthalmologic apparatus and control method thereof
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP6849776B2 (en) Information processing device and information processing method
JP2017158867A (en) Ophthalmic imaging equipment
JP2020054812A (en) Image processing device, image processing method and program
JP2018191761A (en) Information processing apparatus, information processing method, and program
JP7246862B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP7297952B2 (en) Information processing device, information processing method and program
JP7204345B2 (en) Image processing device, image processing method and program
US20210049742A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2019042203A (en) Image processing apparatus, optical coherence tomography apparatus, image processing method, and program
JP2018000373A (en) Ophthalmologic imaging apparatus, control method thereof, and program
JP2021087817A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126