[go: up one dir, main page]

JP2016198279A - Oct信号処理装置、およびoct信号処理プログラム - Google Patents

Oct信号処理装置、およびoct信号処理プログラム Download PDF

Info

Publication number
JP2016198279A
JP2016198279A JP2015080467A JP2015080467A JP2016198279A JP 2016198279 A JP2016198279 A JP 2016198279A JP 2015080467 A JP2015080467 A JP 2015080467A JP 2015080467 A JP2015080467 A JP 2015080467A JP 2016198279 A JP2016198279 A JP 2016198279A
Authority
JP
Japan
Prior art keywords
oct
image
data
front image
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015080467A
Other languages
English (en)
Other versions
JP2016198279A5 (ja
JP6471593B2 (ja
Inventor
直樹 竹野
Naoki Takeno
直樹 竹野
康寛 古内
Yasuhiro Furuuchi
康寛 古内
倫全 佐竹
Norimasa Satake
倫全 佐竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2015080467A priority Critical patent/JP6471593B2/ja
Publication of JP2016198279A publication Critical patent/JP2016198279A/ja
Publication of JP2016198279A5 publication Critical patent/JP2016198279A5/ja
Application granted granted Critical
Publication of JP6471593B2 publication Critical patent/JP6471593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】 より信頼性の高い画像合成を行える。【解決手段】 第1OCTデータと、第1OCTデータとは取得領域が異なる第2OCTデータを取得するOCTデータ取得手段と、第1OCTデータと第2OCTデータに関して、第1の処理を行うことによって、第1OCT正面画像と第2OCT正面画像とを生成し、第1OCTデータと第2OCTデータに関して、第2の処理を行うことによって、第3OCT正面画像と第4OCT正面画像とを生成する画像生成手段と、第1OCT正面画像と第2OCT正面画像との位置情報である第1画像位置情報と、第3OCT正面画像と第4OCT正面画像との位置情報である第2画像位置情報と、を画像解析によって取得し、第1画像位置情報と第2画像位置情報とに基づいて、第1OCTデータと第2OCTデータとの位置情報であるデータ位置情報を演算する演算制御手段と、を備える。【選択図】 図6

Description

本開示は、光コヒーレンストモグラフィデバイスによって取得されたOCT信号を処理するためのOCT信号処理装置、およびOCT信号処理プログラムに関する。
光源からの光を測定光と参照光に分割し、被検物に照射された測定光と参照光の干渉信号を取得し、取得された干渉信号を処理して被検物の断層画像を取得するOCT信号処理装置が知られている。また、上記のようなOCT信号処理装置において、取得した断層画像の断面方向に交差する方向(正面方向)から見た被検物の正面画像を取得する装置が知られている。
H. C. Hendargo, R. Estrada, S. J. Chiu, C. Tomasi, S. Farsiu, and J. a. Izatt, "Automated non-rigid registration and mosaicing for robust imaging of distinct retinal capillary beds using speckle variance optical coherence tomography," Biomed. Opt. Express, vol. 4, no. 6, p. 803, May 2013.
従来のOCT信号処理装置において、正面画像を繋ぎ合わせることによって合成正面画像を得ようとした場合、画像の位置合わせが上手くいかない場合があった。
本開示は、上記の問題点に鑑み、より信頼性の高い画像合成を行えるOCT信号処理装置、およびOCT信号処理プログラムを提供することを技術課題とする。
上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。
(1)第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを取得するOCTデータ取得手段と、前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成手段と、前記第1OCT正面画像と第2OCT正面画像との相対的な位置情報である第1画像位置情報と、第3OCT正面画像と第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御手段と、を備えることを特徴とする。
(2) OCT信号処理装置において実行されるOCT信号処理プログラムであって、前記OCT信号処理装置のプロセッサに実行されることによって、第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを取得するOCTデータ取得ステップと、前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、前記第2OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成ステップと、前記第1OCT正面画像と第2OCT正面画像との相対的な位置情報である第1画像位置情報と、第3OCT正面画像と第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御ステップと、を前記OCT信号処理装置に実行させることを特徴とする。
OCT信号処理装置1の構成を示す概略図である。 OCTデバイス10の光学系を示す概略図である。 OCT信号処理装置1の制御動作を示すフローチャートである。 OCT信号の取得について説明する図である。 データ位置情報の求め方について説明する図である。 データ位置情報に基づく合成画像の生成方法を説明する図である。 解析結果の利用について説明する図である。 取得領域に重なりが無い場合の画像の合成について説明する図である。 正面画像に撮影された像の歪みを修正したときの例を示す図である。 機能OCT信号の取得について説明する図である。 モーションコントラストの取得について説明するための図である。
以下、本開示に係る実施形態を図1〜11を用いて簡単に説明する。本実施形態のOCT信号処理装置(例えば、図1のOCT信号処理装置1)は、例えば、OCT信号は、光コヒーレンストモグラフィデバイス(以下、OCTデバイスと略す。例えば、図1のOCTデバイス10)によって取得されたOCT信号を処理する。
OCT信号処理装置は、例えば、OCTデータ取得部(例えば、図1の制御部70)と、画像生成部(例えば、制御部70)と、演算制御部(例えば、制御部70)と、を備えてもよい。
OCTデータ取得部は、例えば、第1OCTデータと第2OCTデータを少なくとも取得する。第2OCTデータは、例えば、第1OCTデータとは取得領域の少なくとも一部が異なってもよい。なお、第1OCTデータおよび第2OCTデータは、例えば、3次元のOCTデータであってもよい。
なお、OCTデータ取得部は、例えば、OCTデバイスと電気的に接続され、OCTデバイスから直接OCTデータを取得してもよいし、他の媒体(例えば、コンピュータ、記憶媒体など)から間接的にOCTデータを取得してもよい。
画像生成部は、例えば、第1OCTデータと第2OCTデータに関して、第1の処理を行うことによって、第1OCTデータに基づく第1OCT画像と、第2OCTデータに基づく第2OCT正面画像とを生成してもよい。さらに、画像生成部は、例えば、第1OCTデータと第2OCTデータに関して、第2の処理を行うことによって、第1OCTデータに基づく第3OCT正面画像と、第2OCTデータに基づく第4OCT正面画像を取得してもよい。なお、第2の処理は、第1の処理とは異なる処理であって、第1の処理によって得られる正面画像とは種類の異なる正面画像が生成される。
演算制御部は、例えば、第1画像位置情報と、第2画像位置情報に基づいてデータ位置情報を演算してもよい。なお、第1画像位置情報は、例えば、第1OCT正面画像と第2OCT正面画像との相対的な位置情報であってもよい。また、第2画像位置情報は、例えば、第3OCT正面画像と第4OCT正面画像との相対的な位置情報であってもよい。また、データ位置情報は、例えば、第1OCTデータと第2OCTデータとの相対的な位置情報であってもよい。
なお、画像生成部は、データ位置情報に基づいて、複数のOCTデータ間の位置合わせを行い、合成正面画像を生成してもよい。例えば、画像生成部は、演算制御部によって演算されたデータ位置情報に基づいて、第1OCTデータを処理して生成されたOCT正面画像と、第2OCTデータを処理して生成されたOCT正面画像とを位置合わせすることによって、合成正面画像を生成してもよい。
なお、第1の処理とは、例えば、第1の深さ領域における第1OCTデータおよび第2OCTデータに基づいて、第1OCT正面画像および第2OCT正面画像を生成する処理であってもよい。この場合、第2の処理は、第1の深さ領域とは深さの異なる第2の深さ領域における第1OCTデータおよび第2OCTデータに基づいて、第3OCT正面画像および第4OCT正面画像を生成する処理であってもよい。
なお、画像生成部は、第1OCTデータおよび第2OCTデータに関してそれぞれセグメンテーション処理を行ってもよい。そして、画像生成部は、セグメンテーション処理によって抽出された層毎にOCT正面画像を生成してもよい。これによって、画像生成部は、第1の層に関する第1OCT正面画像と第2OCT正面画像を生成すると共に、第1の層とは深さ方向に関して異なる第2の層に関する第3OCT正面画像と第4OCT正面画像を生成してもよい。もちろん、画像生成部は、OCTデータ全体に関してOCT正面画像を生成してもよい。
第1OCTデータおよび第2OCTデータの少なくともいずれかは、モーションコントラストデータであってもよい。モーションコントラストデータは、例えば、同一位置において取得された時間的に異なる複数のOCT信号を処理して取得される。モーションコントラストデータを取得する方法としては、例えば、Doppler, Speckle Variance, Correlation Mapping等の方法が用いられてもよい。モーションコントラストデータによって、例えば、被検体の血流情報等を取得できる。
画像生成部は、第1OCTデータおよび第2OCTデータの少なくともいずれかに基づいて、信号強度を画像化した強度正面画像を生成してもよい。この場合、画像生成部は、第1OCT正面画像および第2OCT正面画像として強度正面画像を生成してもよいし、第3OCT正面画像および第2OCT正面画像として強度正面画像を生成してもよい。
なお、OCTデバイスは、偏光感受型OCTデバイスであってもよい。この場合、第1OCTデータおよび第2OCTデータの少なくともいずれかは、偏光感受型OCTデバイスによって取得された偏光OCTデータであってもよい。例えば、偏光感受型OCTデバイスは、被検物によって反射された測定光の偏光特性を検出してもよい。
なお、演算制御部は、取得位置情報と、第1画像位置情報と、第2画像位置情報と、に基づいてデータ位置情報を演算してもよい。ここで、取得位置情報は、例えば、第1OCTデータおよび第2OCTデータが取得された位置を示す取得位置情報であってもよい。例えば、演算制御部は、第1OCTデータと第2OCTデータの取得位置情報をそれぞれ取得してもよい。
なお、演算制御部は、第1OCT正面画像を画像解析することによって第1解析情報を取得してもよい。さらに演算制御部は、第2OCT正面画像を画像解析することによって第2解析情報を取得してもよい。この場合、演算制御部は、第1解析情報と第2解析情報に基づいて第1画像位置情報を取得してもよい。なお、解析情報としては、例えば、病変部の検出情報等が挙げられる。例えば、演算制御部は、第1OCT正面画像と第2OCT正面画像のそれぞれにおいて検出された病変部の位置情報に基づいて、第1画像位置情報を取得してもよい。
なお、演算制御部は、1OCT正面画像および第3OCT正面画像の少なくともいずれかを画像解析することによって第1解析情報を取得してもよい。さらに、演算制御部は、第2OCT正面画像および第4OCT正面画像の少なくともいずれかを画像解析することによって第2解析情報を取得してもよい。この場合、演算制御部は、画像生成部によって生成された合成正面画像に、第1解析情報および第2解析情報の少なくともいずれかを重畳させてもよい。例えば、演算制御部は、第1解析情報と第2解析情報の少なくともいずれかが重畳された合成正面画像を表示部等に表示してもよい。なお、第1解析情報と第2解析情報の少なくともいずれかを重畳させる合成正面画像は、どのように合成された画像であってもよく、特定の手法によって合成された画像に限定されない。
なお、OCTデータ取得部は、第1OCTデータとは取得領域の一部が重複した第2OCTデータを取得してもよい。この場合、演算制御部は、第1OCT正面画像と第2OCT正面画像との画像が重複した第1重複領域における画像の位置ずれ検出によって第1画像位置情報を取得してもよい。さらに、演算制御部は、第3OCT正面画像と第4OCT正面画像との画像が重複した第2重複領域における画像の位置ずれ検出によって第2画像位置情報を取得してもよい。
この場合、演算制御部は、例えば、第1重複領域における第1OCT正面画像と第2OCT正面画像の位置ずれを検出することによって、第1画像位置情報を取得してもよい。さらに、演算制御部は、例えば、第2重複領域における第3OCT正面画像と第4OCT正面画像の位置ずれを検出することによって、第2画像位置情報を取得してもよい。
なお、OCTデータ取得部は、第1OCTデータとは取得領域の全部が異なる第2OCTデータを少なくとも取得してもよい。この場合、演算制御部は、第1OCT正面画像の端部と第2OCT正面画像の端部の連続性に基づいて第1画像位置情報を取得してもよい。さらに、演算制御部は、第3OCT正面画像の端部と第4OCT正面画像の端部の連続性に基づいて前記第2画像位置情報を取得してもよい。
なお、演算制御部は、第1画像歪み情報と第2画像歪み情報の少なくともいずれかを取得してもよい。ここで、第1画像歪み情報は、例えば、第1OCT正面画像と第2OCT正面画像の間の画像の歪みを示す情報であってもよい。また、第2画像歪み情報は、例えば、第3OCT正面画像と第4OCT正面画像の間の画像の歪みを示す情報であってもよい。
なお、演算制御部は、第1画像位置情報と第2画像位置情報とを用いた統計処理によってデータ位置情報を演算してもよい。例えば、第1画像位置情報と第2画像位置情報を用いた統計処理によって演算された代表値をデータ位置情報として取得してもよい。代表値は、例えば、平均値、中央値、最頻値等であってもよい。もちろん、画像生成部によって3種類以上のOCT正面画像が生成され、3つ以上の画像位置情報が取得された場合も同様である。例えば、演算制御部は、3つ以上の画像位置情報を用いた統計処理によって演算された代表値をデータ位置情報として取得してもよい。
なお、演算制御部は、例えば、プロセッサ(例えば、CPU71)と、記憶部(例えば、ROM72)等を備えてもよい。この場合、演算制御部は記憶部に記憶されたOCT信号処理プログラムをプロセッサによって実行してもよい。例えば、OCT信号処理プログラムは、OCTデータ取得ステップと、画像生成ステップと、演算制御ステップとを含んでもよい。
例えば、OCTデータ取得ステップは、第1OCTデータと、第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを少なくとも取得するステップであってもよい。
例えば、画像生成ステップは、第1OCTデータと第2OCTデータに関して、第1の処理を行うことによって、第1OCT正面画像と第2OCT正面画像とを生成し、第2OCTデータと第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、第3OCT正面画像と第4OCT正面画像とを生成するステップであってもよい。
例えば、演算制御ステップは、第1画像位置情報と第2画像位置情報とを画像解析によって取得し、第1画像位置情報と第2画像位置情報とに基づいて、データ位置情報を演算するステップであってもよい。
<実施例>
以下、本実施例のOCT信号処理装置1について図面を用いて説明する。図1に示すOCT信号処理装置1は、例えば、OCTデバイス10によって取得されたOCT信号を処理する。
例えば、OCT信号処理装置1は、制御部70を備える。例えば、制御部70は、一般的なCPU(Central Processing Unit)71、ROM72、RAM73、等で実現される。制御部70のROM72には、OCT信号を処理するためのOCT信号処理プログラム、OCT信号処理装置1と接続されたデバイス(例えば、OCTデバイス10など)の動作を制御するための各種プログラム、初期値等が記憶されている。RAM73は、各種情報を一時的に記憶する。なお、制御部70は、複数の制御部(つまり、複数のプロセッサ)によって構成されてもよい。
制御部70には、図1に示すように、例えば、記憶部(例えば、不揮発性メモリ)74、操作部76、および表示部75等が電気的に接続されている。記憶部74は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、着脱可能なUSBメモリ等を記憶部74として使用することができる。
操作部76には、検者による各種操作指示が入力される。操作部76は、入力された操作指示に応じた信号をCPU71に出力する。操作部76には、例えば、マウス、ジョイスティック、キーボード、タッチパネル等の少なくともいずれかのユーザーインターフェイスを用いればよい。
表示部75は、装置本体に搭載されたディスプレイであってもよいし、本体に接続されたディスプレイであってもよい。パーソナルコンピュータ(以下、「PC」という。)のディスプレイを用いてもよい。複数のディスプレイが併用されてもよい。また、表示部75は、タッチパネルであってもよい。表示部75がタッチパネルである場合、表示部75が操作部76として機能する。表示部75は、例えば、OCTデバイス10によって取得されたOCT信号を処理した画像データ等を表示する。
<OCTデバイス>
以下、OCTデバイス10の概略を説明する。本実施例では、例えば、被検眼Eに測定光を照射し、その反射光と測定光とによって取得されたOCT信号を取得するOCTデバイス10を一例として説明する。例えば、OCTデバイス10は、OCT信号を取得することによって、被検眼Eの断層像を撮影する。OCTデバイス10は、例えば、OCT光学系100と、正面観察光学系200と、固視標投影ユニット300と、を主に備える。なお、本実施例においては、OCTデバイスは制御部70に接続されており、CPU71によって制御される。もちろん、OCTデバイスはCPU71とは別のCPU(不図示)を備え、OCT信号を取得するための各種制御を行ってもよい。
OCT光学系100は、被検眼Eに測定光を照射する。OCT光学系100は、被検眼Eから反射された測定光と,参照光との干渉状態を検出器120によって検出する。OCT光学系100は、例えば、走査部(例えば、光スキャナ)108を備える。走査部108は、例えば、被検眼上の撮像位置を変更するため、被検眼上における測定光の走査位置を変更する。CPU71は、設定された走査位置情報に基づいて走査部108の動作を制御し、検出器120からの受光信号に基づいてOCT信号を取得する。
<OCT光学系>
OCT光学系100は、いわゆる光断層干渉計(OCT:Optical coherence tomography)の光学系である。OCT光学系100は、測定光源102から出射された光をカップラー(光分割器)104によって測定光(試料光)と参照光に分割する。そして、OCT光学系100は、測定光学系106によって測定光を眼Eの眼底Efに導き,また、参照光を参照光学系110に導く。その後、被検眼Eによって反射された測定光と,参照光との合成による干渉光を検出器120に受光させる。
検出器120は、測定光と参照光との干渉状態を検出する。フーリエドメインOCTの場合では、干渉光のスペクトル強度が検出器120によって検出され、スペクトル強度データに対するフーリエ変換によって所定範囲における深さプロファイル(Aスキャン信号)が取得される。例えば、Spectral-domain OCT(SD−OCT)、Swept-source OCT(SS−OCT)が挙げられる。また、Time-domain OCT(TD−OCT)であってもよい。
SD−OCTの場合、光源102として低コヒーレント光源(広帯域光源)が用いられ、検出器120には、干渉光を各周波数成分(各波長成分)に分光する分光光学系(スペクトルメータ)が設けられる。スペクトルメータは、例えば、回折格子とラインセンサからなる。
SS−OCTの場合、光源102として出射波長を時間的に高速で変化させる波長走査型光源(波長可変光源)が用いられ、検出器120として、例えば、単一の受光素子が設けられる。光源102は、例えば、光源、ファイバーリング共振器、及び波長選択フィルタによって構成される。そして、波長選択フィルタとして、例えば、回折格子とポリゴンミラーの組み合わせ、ファブリー・ペローエタロンを用いたものが挙げられる。
光源102から出射された光は、カップラー104によって測定光束と参照光束に分割される。そして、測定光束は、光ファイバーを通過した後、空気中へ出射される。その光束は、走査部108、及び測定光学系106の他の光学部材を介して眼底Efに集光される。そして、眼底Efで反射された光は、同様の光路を経て光ファイバーに戻される。
走査部108は、眼底上でXY方向(横断方向)に測定光を走査させる。走査部108は、瞳孔と略共役な位置に配置される。例えば、走査部108は、2つのガルバノミラー51,52を有し、その反射角度が駆動機構50によって任意に調整される。
これによって、光源102から出射された光束はその反射(進行)方向が変化され、眼底上で任意の方向に走査される。つまり、眼底Ef上における「Bスキャン」が行われる。なお、走査部108としては、光を偏向させる構成であればよい。例えば、反射ミラー(ガルバノミラー、ポリゴンミラー、レゾナントスキャナ)の他、光の進行(偏向)方向を変化させる音響光学素子(AOM)等が用いられる。
参照光学系110は、眼底Efでの測定光の反射によって取得される反射光と合成される参照光を生成する。参照光学系110は、マイケルソンタイプであってもよいし、マッハツェンダタイプであっても良い。参照光学系110は、例えば、反射光学系(例えば、参照ミラー)によって形成され、カップラー104からの光を反射光学系により反射することにより再度カップラー104に戻し、検出器120に導く。他の例としては、参照光学系110は、透過光学系(例えば、光ファイバー)によって形成され、カップラー104からの光を戻さず透過させることにより検出器120へと導く。
参照光学系110は、参照光路中の光学部材を移動させることにより、測定光と参照光との光路長差を変更する構成を有する。例えば、参照ミラーが光軸方向に移動される。光路長差を変更するための構成は、測定光学系106の測定光路中に配置されてもよい。
<正面観察光学系>
正面観察光学系200は、眼底Efの正面画像を得るために設けられている。観察光学系200は、例えば、光源から発せられた測定光(例えば、赤外光)を眼底上で二次元的に走査させる光スキャナと、眼底と略共役位置に配置された共焦点開口を介して眼底反射光を受光する第2の受光素子と、を備え、いわゆる眼科用走査型レーザ検眼鏡(SLO)の装置構成を持つ。
なお、観察光学系200の構成としては、いわゆる眼底カメラタイプの構成であってもよい。また、OCT光学系100は、観察光学系200を兼用してもよい。すなわち、正面画像は、二次元的に得られた断層画像を形成するデータを用いて取得されるようにしてもよい(例えば、三次元断層画像の深さ方向への積算画像、XY各位置でのスペクトルデータの積算値等)。
<固視標投影ユニット>
固視標投影ユニット300は、眼Eの視線方向を誘導するための光学系を有する。投影ユニット300は、眼Eに呈示する固視標を有し、複数の方向に眼Eを誘導できる。
例えば、固視標投影ユニット300は、可視光を発する可視光源を有し、視標の呈示位置を二次元的に変更させる。これにより、視線方向が変更され、結果的に撮像部位が変更される。例えば、撮影光軸と同方向から固視標が呈示されると、眼底の中心部が撮像部位として設定される。また、撮影光軸に対して固視標が上方に呈示されると、眼底の上部が撮像部位として設定される。すなわち、撮影光軸に対する視標の位置に応じて撮影部位が変更される。
固視標投影ユニット300としては、例えば、マトリクス状に配列されたLEDの点灯位置により固視位置を調整する構成、光源からの光を光スキャナを用いて走査させ、光源の点灯制御により固視位置を調整する構成等、種々の構成が考えられる。また、投影ユニット300は、内部固視灯タイプであってもよいし、外部固視灯タイプであってもよい。
<制御動作>
以上のようなOCT信号処理装置において、OCTデバイス10によって取得されたOCT信号を処理するときの制御動作を図3のフローチャートに基づいて説明する。本実施例のOCT信号処理装置1は、少なくとも2つの連続した異なる領域において取得されたOCT信号を処理する。以下の説明では、OCTデバイス10によって被検眼Eを測定し、取得されたOCT信号を処理する場合について説明する。なお、OCTデバイス10によって被検眼Eに限らず、生体の他の部位であってもよいし、物質であってもよい。
<OCT信号の取得>
まず、OCTデバイス10によってOCT信号が検出される。例えば、CPU71は、固視標投影ユニット300を制御して被検者に固視標を投影する。そして、CPU71は、図示無き前眼部観察用カメラで撮影される前眼部観察像に基づいて、被検眼Eの瞳孔中心に測定光軸がくるように図示無き駆動部を制御して自動でアライメントを行う。
アライメント完了すると、CPU71はOCTデバイス10を制御し、被検眼Eの測定を行う。CPU71は、走査部108によって被検眼上に測定光を走査させ、眼底EfのOCT信号を取得する。例えば、CPU71は、眼底Ef上の少なくとも2つの連続した領域において測定光を走査させ、領域ごとにOCT信号を取得する。例えば、図4(a)に示すように、OCTデバイス10は、眼底Efの一つの部位である領域A1と、領域A1とは異なる部位である領域A2においてOCT信号を取得してもよい。なお、領域A1と領域A2は、一部が重なった領域であってもよいし、重ならずに連続した領域であってもよい。また、OCTデバイス10は、2つの領域に限らず、さらに複数の領域においてOCT信号を取得してもよい。
(ステップS1)
まず、CPU71はOCTデバイス10を制御し、領域A1において測定光を走査し、領域A1のOCT信号を取得する。例えば、CPU71は、走査部108の駆動を制御し、領域A1で測定光を走査させる。このとき、例えば、図4(b)に示す走査ラインSL1,SL2,・・・,SLnに沿ってx方向に測定光を走査させる。なお、測定光の光軸方向に交差する方向(例えば、x方向)に測定光を走査させることを「Bスキャン」と呼ぶ。そして、1回のBスキャンによって得られたOCT信号を1フレームのOCT信号として説明する。CPU71は、測定光を走査する間、検出器120によって検出されたOCT信号を取得する。CPU71は、領域A1において取得されたOCT信号の情報をOCTデータD1として取得し、記憶部74に記憶させる。
(ステップS2)
領域A1におけるOCT信号の取得が完了すると、CPU71は、領域A2におけるOCT信号の取得を開始する。例えば、CPU71は、領域A1と同様に、領域A2において測定光を走査し、領域A2のOCT信号を取得する(図4(b)参照)。そして、CPU71は、領域A2において取得されたOCT信号の情報をOCTデータD2として取得し、記憶部74に記憶させる。
なお、CPU71は、OCTデータとして取得するOCT信号には、機能OCT信号が含まれてもよい。機能OCT信号は、例えば、血流、物体の動き、または変化などを捉えたモーションコントラストを取得するためのOCT信号である。例えば、機能OCT信号は、被検眼上の同一位置に関して時間的に異なる少なくとも2つのOCT信号であってもよい。以下の説明では、眼底Efの領域A1および領域A2において機能OCT信号を取得した場合について説明する。なお、機能OCT信号およびモーションコントラストの取得についての詳細は後述する。
(ステップ3)
次いで、CPU71は、領域A1,A2によって取得されたOCTデータD1,D2について、複数種類の正面画像をそれぞれ生成する。ここで、正面画像とは、生体組織の少なくとも一部を測定光の光軸方向(例えば、z方向)から見たときの画像(いわゆる、En face画像)であってもよく、被検眼Eの断面方向とは垂直な方向の画像であってもよい。
図5の例では、z方向において異なる領域で生成された2種類の正面画像がそれぞれ生成される。つまり、OCTデータD1に基づいて、第1の深さ領域における正面画像Pn1と、第2の深さ領域における正面画像Pn2が2種類の正面画像として生成される。そして、OCTデータD2に基づいて、第1の深さ領域における正面画像Pn3と、第2の深さ領域における正面画像Pn4が2種類の正面画像として生成される。もちろん、CPU71は、3種類以上の正面画像を生成してもよい。
なお、OCTデータから正面画像を生成する方法としては、例えば、深さ方向の少なくとも一部の領域に関してOCTデータを取り出す方法などが挙げられる。この場合、例えば、少なくとも一部の深さ領域に関して取り出されたOCTデータの輝度値を用いて正面画像が生成されてもよい。
ここで、前述の第1の深さ領域、第2の深さ領域のように、眼底Efの領域を深さ方向に分離する方法としては、例えば、OCT信号に基づく断層画像から被検眼Eの網膜層の境界を検出する方法が挙げられる。例えば、CPU71は、OCT信号の強度に応じて輝度値が決定された強度画像のエッジ検出によって被検眼Eの網膜層の境界を検出してもよい。例えば、CPU71は、被検眼Eの強度画像に基づいて神経線維層(nerve fiber layer: NFL)、神経節細胞層(ganglion cell layer: GCL)、網膜色素上皮(retinal pigment epithelium: RPE)等に被検眼Eの網膜層を分離してもよい。
また、CPU71は、網膜の血管が網膜層の境界に多く存在することから、網膜層の境界の検出結果に基づいて血管が多く分布する領域を分離してもよい。もちろん、CPU71は、モーションコントラスト画像から検出された血管の分布に基づいて血管の分布領域を分離してもよい。例えば、CPU71は、血管の分布に基づいて、表層、中間層、深層等に網膜の領域を分離してもよい。
CPU71は、分離された少なくともいずれかの深さ領域において正面画像を生成してもよい。もちろん、複数の深さ領域についてまとめて演算を行うことで正面画像を生成してもよい。この場合、複数の深さ領域は隣り合う領域でなくともよく、離れた位置にある領域であってもよい。
(ステップS4)
次に、CPU71は、同種の正面画像ごとに相対的な画像の位置を示す画像位置情報を検出する。上記の例において、CPU71は、第1の深さ領域において生成された正面画像Pn1と正面画像Pn3の画像位置情報J1と、第2の深さ領域において生成された正面画像Pn2と正面画像Pn4の画像位置情報J2を検出する。
なお、画像位置情報は、各画像の位置合わせを行うことによって検出してもよい。例えば、正面画像Pn1を基準画像、正面画像Pn3を参照画像として画像の位置合わせを行い、基準画像に対する参照画像のx方向およびy方向へのピクセルのずれ量を画像位置情報として検出してもよい。
<画像の位置合わせ方法>
なお、画像の位置合わせ方法は、例えば、位相限定相関法、各種相関関数を用いる方法、フーリエ変換を利用する方法、特徴点のマッチングに基づく方法、アフィン変換、歪み補正を含む位置合わせ方法(例えば、非剛性レジストレーションなど)など種々の画像処理手法が用いられてもよい。
例えば、CPU71は、基準画像と参照画像を1画素ずつ位置ずれさせ、両画像が最も一致する(相関が最も高くなる)ように画像の位置合わせを行ってもよい。そして、CPU71は、両画像間の位置ずれ方向及び位置ずれ量を検出してもよい。また、所定の基準画像及び参照画像から共通する特徴点を抽出し、抽出された特徴点の位置ずれ方向及び位置ずれ量を検出してもよい。
なお、アフィン変換、非剛性レジストレーション等の画像変換を行った場合、CPU71は画像変換に関する数値、または行列式などを画像位置情報として取得してもよい。
なお、正面画像の位置合わせにおいて、各OCTデータD1,D2の取得領域A1,A2の位置情報が用いられてもよい。例えば、取得領域A1,A2の位置情報に基づいて、各正面画像の位置をある程度特定した状態で画像処理することによって位置合わせを行ってもよい。この場合、CPU71は、各OCTデータD1,D2を取得した際の測定光の走査位置、および被検眼Eに呈示する固視標の固視位置等の情報に基づいて取得領域A1,A2の位置情報を求めてもよい。このように、各OCTデータD1,D2の取得領域A1,A2の位置情報を用いることによって、画像の位置合わせの処理速度を速くしてもよい。
(ステップS5)
画像の種類ごとに画像位置情報が取得されると、CPU71は、取得された画像位置情報J1,J2に基づいて、OCTデータD1,D2の相対的な位置情報を示すデータ位置情報J0を取得する。例えば、画像位置情報J1,J2を用いた演算によってデータ位置情報J0を取得してもよい。
例えば、CPU71は、画像位置情報J1,J2を用いた統計処理によって、データ位置情報J0を取得してもよい。統計処理としては、例えば、平均値の算出、中央値の算出などが挙げられる。例えば、画像のx方向のずれ量とy方向のずれ量を(x,y)で示すとする。例えば、画像位置情報J1が(6,3)、画像位置情報J2が(2,1)であった場合、各画像位置情報J1,J2の平均値を算出すると、データ位置情報J0は(4,2)となる。
なお、CPU71は、各OCTデータD1,D2から取得した3種類以上の正面画像から3つ以上の画像値情報を取得した場合は、それらの中央値をデータ位置情報J0として求めてもよい。例えば、画像位置情報を数値の大きさの順番に並べたときに中央に位置する値をデータ位置情報J0として取得してもよい。このように、中央値を用いることによって、複数の画像位置情報の中に外れ値(他の値から大きく外れた値)が存在する場合であっても、適正なデータ位置情報J0を取得できる。
このように、CPU71は、各画像位置情報J1,J2を用いた統計処理を行うことによって、外れ値を除去してもよい。これによって、CPU71は、より確からしいデータ位置情報J0を取得してもよい。
なお、3種類以上の正面画像を生成した場合も同様に、各種の画像から取得された3つ以上の画像位置情報を用いて演算を行い、データ位置情報J0を取得してもよい。
(ステップS6)
CPU71は、ステップS5において取得したデータ位置情報J0を用いて、OCTデータD1,D2の位置合わせを行う。この場合、OCTデータの全体の位置合わせを行ってもよい。ただしこれに限定されず、例えば、第1の深さ領域において、OCTデータD1,D2のそれぞれに基づいて生成された正面画像を、データ位置情報J0にしたがって位置合わせしてもよい。さらに、第2の深さ領域において、OCTデータD1,D2のそれぞれに基づいて生成された正面画像を、データ位置情報J0に従って位置合わせしてもよい。もちろん、CPU71は、第1および第2の深さ領域以外の深さ領域において生成された正面画像の位置合わせにデータ位置情報J0を用いてもよい(図6参照)。
以上のように、2種類以上の正面画像から得られた複数の画像位置情報に基づいて、OCTデータ間の相対的な位置を示すデータ位置情報を取得することによって、正面画像の位置合わせをより正確に行うことができる。
例えば、第1の深さ領域において生成された正面画像Pn1と正面画像Pn3において、一方の画像の第1の深さ領域が上手く分離されなかった場合、正面画像Pn1と正面画像Pn3の画像処理による位置合わせに影響が出る可能性があった。しかしながら、複数種類の正面画像を位置合わせして得られた画像位置情報から、OCTデータ間のデータ位置情報を取得することによって、ある深さ領域の分離が上手くいかなかった場合でも、良好な合成画像を取得できる。
さらに、データ位置情報J0の取得には用いなかった種類の正面画像を位置合わせする場合(例えば、図6の合成画像Pw3)、データ位置情報J0を用いれば、わざわざ画像の位置合わせ処理をすることがないため、画像を合成するときの処理速度を速くすることができる。
なお、CPU71は、OCTデバイス10によって取得されたOCTデータD1,D2のそれぞれに基づいて生成された画像について、画像解析を行ってもよい。例えば、CPU71は、OCTデータD1に基づく画像Pn2を解析処理することによって、被検眼Eの病変部B1,B2を検出してもよい(図7参照)。同様に、CPU71は、OCTデータD2に基づく画像Pn4を解析処理することによって、被検眼Eの病変部B3を検出してもよい。病変部の検出方法としては、例えば、画像の輝度が低い領域を検出することによって、血流の滞った箇所または存在しない箇所等を検出してもよい。
そして、CPU71は、検出した病変部を合成後の合成画像に反映させてもよい。例えば、正面画像Pn2において検出された病変部B1を、合成後の合成画像Pw2に反映させてもよい。これによって、検者は、合成画像Pw2における病変部B1の位置を把握しやすい。
さらに、CPU71は、OCTデータD1,D2においてそれぞれ検出された同一の病変部を、正面画像の合成時の位置合わせに用いてもよい。例えば、図7において、CPU71は、OCTデータD1に基づく正面画像Pn2から検出した病変部B2と、OCTデータD2に基づく正面画像Pn4から検出した病変部B3とが重なるように、正面画像Pn2と正面画像Pn4の画像位置情報J2を取得してもよい。このように、各種類の正面画像の画像位置情報を取得するときに、画像の解析情報を用いてもよい。これによって、CPU71は、各種類の正面画像の位置合わせをより正確に行える。
なお、図8(a)に示すように、OCT信号を取得する領域A3,A4に重なりがない場合は、各領域において取得されたOCTデータの正面画像Pn5,Pn6の連続性が尤もらしくなるように、正面画像の画像位置情報を取得してもよい。例えば、図8(b)に示すように、正面画像Pn5および正面画像Pn6に写った特徴領域(例えば、血管部など)を検出し、正面画像間で特徴領域の連続性が保たれるように、画像位置情報を取得してもよい。
なお、CPU71は、例えば、正面画像の歪みを補正してもよい。例えば、図9に示すように、OCTデータD1に基づく正面画像Pn7と、OCTデータD2に基づく正面画像Pn8の少なくとも一方の画像が歪んでいる場合を示す。この場合、正面画像Pn7と正面画像Pn8に写った特徴領域(例えば、血管部など)が合わず、位置合わせが困難である。このような場合、CPU71は、正面画像Pn7および正面画像Pn8を非剛性レジストレーションによって合成してもよい。そして、CPU71は、非剛性レジストレーションの結果を画像位置情報として取得してもよい。これによって、複数のOCTデータの少なくとも一部に歪みが生じている場合でも、OCTデータ間の位置合わせを好適に行える。
<モーションコントラストについて>
以下、モーションコントラストの取得について説明する。例えば、本実施例のOCT信号処理装置1は、機能OCT信号に基づいてモーションコントラストを取得する。例えば、CPU71は、各走査ラインにおいて時間間隔を空けて複数回のBスキャンを行い、時間の異なる複数のOCT信号を機能OCT信号として取得してもよい。例えば図10に示すように、CPU71は、ある時間において1回目のBスキャンを行った後、所定時間経過してから1回目と同じ走査ラインで2回目のBスキャンを行う。CPU71は、このときに検出器120によって検出されたOCT信号を取得することによって、時間の異なる複数のOCT信号を取得してもよい。
例えば、図10は、走査ラインSL1,SL2,・・・,SLnにおいて時間の異なる複数回のBスキャンを行った場合を示している。例えば、図10は、走査ラインSL1を時間T11,T12,・・・,T1Nで走査し、走査ラインSL2を時間T21,T22,・・・,T2Nで走査し、走査ラインSLnを時間Tn1,Tn2,・・・,TnNで走査した場合を示している。なお、図10において、z軸の方向は、測定光の光軸の方向とする。x軸の方向は、z軸に垂直であって被検者の左右方向とする。y軸の方向は、z軸に垂直であって被検者の上下方向とする。
例えば、CPU71は、走査ラインSL1と同様に各走査ラインにおいて時間の異なる複数回のBスキャンを行うことによって、時間の異なる複数のOCT信号を取得してもよい。なお、CPU71は、同じ位置での走査をN(2以上の自然数)回繰り返し、時間の異なるNフレームのOCT信号を取得してもよい。このようにして、CPU71は、時間の異なる2フレーム以上のOCT信号を取得してもよい。
<モーションコントラストの演算>
次に、機能OCT信号に基づいてモーションコントラストを取得するための処理について説明する。CPU71は、上記のようにしてOCTデバイス10から取得された複数のOCT信号を、記憶部74に記憶する。そしてCPU71は、記憶部74に記憶された複数のOCT信号を処理し、複素OCT信号を取得する。例えば、CPU71はOCT信号をフーリエ変換する。例えば、Nフレーム中n枚目の(x,z)の位置の信号をAn(x,z)で表すと、CPU71は、フーリエ変換によって複素OCT信号An(x,z)を得る。複素OCT信号An(x,z)は、実数成分と虚数成分とを含む。
そして、CPU71は、取得された複素OCT信号を処理し、モーションコントラストを取得してもよい。複素OCT信号を処理する方法としては、例えば、複素OCT信号の強度差を算出する方法、複素OCT信号の位相差を算出する方法、複素OCT信号のベクトル差分を算出する方法、複素OCT信号の位相差及びベクトル差分を掛け合わせる方法、信号の相関を用いる方法(コリレーションマッピング)を用いる方法などが考えられる。本実施例では、位相差を算出する方法を例に説明する。
まず、CPU71は、同じ位置の少なくとも2つの異なる時間に取得された複素OCT信号A(x,z)に対して位相差を算出する。CPU71は、例えば、下記の式(1)を用いて、位相の変化を算出する。本実施例では、例えば、N回にわたって異なる時間の測定を行った場合、T1とT2,T2とT3,・・・,T(N−1)とTNの計(N−1)回の計算が行われ、(N−1)個のデータが算出される(例えば、図3参照)。もちろん、時間の組み合わせは上記に限らず、異なる時間であれば組み合わせを変更してもよい。なお、数式中のAnは時間TNに取得された信号を示し、*は複素共役を示している。
Figure 2016198279
以上のように、CPU71は複素OCT信号の位相差に関する深さ方向(Aスキャン方向)の位相差プロファイルを取得する。CPU71は、例えば、この位相差プロファイルの大きさに応じて輝度の大きさが決定された輝度プロファイルを取得し、これをBスキャン方向に並べたモーションコントラスト画像を取得してもよい。この場合、CPU71は、時間の異なる同一位置の複数の複素OCT信号の位相差に基づいて取得されたモーションコントラスト画像データを記憶部74に記憶させる。
なお、以上の実施例において、OCT信号処理装置1は、機能OCT信号をOCTデータとして取得し、被検眼のモーションコントラストに基づく正面画像を生成する場合について説明したが、これに限らない。例えば、OCT信号処理装置1は、各走査ラインにおいて1回のBスキャンによって取得された単独のOCT信号の強度に基づく正面画像を生成してもよい。この場合、画像位置情報を取得するための正面画像の種類として、強度に基づく正面画像を含んでもよい。すなわち、CPU71は、OCTデータD1に基づく強度の正面画像と、OCTデータD2に基づく強度の正面画像との画像位置情報を取得してよい。
10 OCTデバイス
70 制御部
71 CPU
72 ROM
73 RAM
74 メモリ
75 モニタ
76 操作部
100 OCT光学系
108 走査部
200 正面観察光学系
300 固視標投影ユニット

Claims (15)

  1. 第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータとを取得するOCTデータ取得手段と、
    前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、
    前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成手段と、
    前記第1OCT正面画像と第2OCT正面画像との相対的な位置情報である第1画像位置情報と、第3OCT正面画像と第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御手段と、を備えることを特徴とするOCT信号処理装置。
  2. 前記画像生成手段は、前記演算制御手段によって演算された前記データ位置情報に基づいて、前記第1OCTデータを処理して生成されたOCT正面画像と、前記第2OCTデータを処理して生成されたOCT正面画像とを位置合わせすることによって、複数のOCT正面画像を合成した合成正面画像を生成することを特徴とする請求項1のOCT信号処理装置。
  3. 前記第1の処理は、第1の深さ領域における前記第1OCTデータおよび前記第2OCTデータに基づいて、前記第1OCT正面画像および前記第2OCT正面画像を生成する処理であり、
    前記第2の処理は、前記第1の深さ領域とは異なる第2の深さ領域における前記第1OCTデータおよび前記第2OCTデータに基づいて、前記第3OCT正面画像および前記第4OCT正面画像を生成する処理であることを特徴とする請求項1または2のOCT信号処理装置。
  4. 前記画像生成手段は、前記第1OCTデータおよび前記第2OCTデータに関してそれぞれセグメンテーション処理を行い、前記セグメンテーション処理によって抽出された層毎にOCT正面画像を生成することによって、第1の層に関する第1OCT正面画像と第2OCT正面画像を生成すると共に、前記第1の層とは深さ方向に関して異なる第2の層に関する第3OCT正面画像と第4OCT正面画像を生成することを特徴とする請求項1〜3のいずれかのOCT信号処理装置。
  5. 前記第1OCTデータおよび前記第2OCTデータの少なくともいずれかは、同一位置において取得された時間的に異なる複数のOCT信号を処理して得られたモーションコントラストデータであることを特徴とする請求項1〜4のいずれかのOCT信号処理装置。
  6. 前記画像生成手段は、前記第1OCTデータおよび前記第2OCTデータの少なくともいずれかに基づいて、信号強度を画像化した強度正面画像を生成することによって、(1)前記第1OCT正面画像および前記第2OCT正面画像、ないしは、(2)前記第3OCT正面画像および前記第4OCT正面画像、の少なくともいずれかを生成することを特徴とする請求項1〜5のいずれかのOCT信号処理装置。
  7. 前記第1OCTデータおよび前記第2OCTデータの少なくともいずれかは、偏光感受型OCTデバイスによって取得された偏光OCTデータであることを特徴とする請求項1〜6のいずれかのOCT信号処理装置。
  8. 前記演算制御手段は、前記第1OCTデータおよび前記第2OCTデータが取得された位置を示す取得位置情報と、前記第1画像位置情報と、前記第2画像位置情報と、に基づいて前記データ位置情報を演算することを特徴とする請求項1〜7のいずれかのOCT信号処理装置。
  9. 前記演算制御手段は、前記第1OCT正面画像を画像解析することによって取得された第1解析情報と、
    前記第2OCT正面画像を画像解析することによって取得された第2解析情報と、に基づいて前記第1画像位置情報を取得することを特徴とする請求項1〜8のいずれかのOCT信号処理装置。
  10. 前記演算制御手段は、前記1OCT正面画像および前記第3OCT正面画像の少なくともいずれかを画像解析することによって取得された第1解析情報と、
    前記第2OCT正面画像および前記第4OCT正面画像の少なくともいずれかを画像解析することによって取得された第2解析情報と、の少なくともいずれかを、前記画像生成手段によって生成された前記合成正面画像に重畳させることを特徴とする請求項2のOCT信号処理装置。
  11. 前記OCTデータ取得手段は、前記第1OCTデータとは前記取得領域の一部が重複した第2OCTデータを取得し、
    前記演算制御手段は、前記第1OCT正面画像と第2OCT正面画像との画像が重複した第1重複領域における画像の位置ずれ検出によって前記第1画像位置情報を取得し、第3OCT正面画像と第4OCT正面画像との画像が重複した第2重複領域における画像の位置ずれ検出によって前記第2画像位置情報を取得することを特徴とする請求項1〜10のいずれかのOCT信号処理装置。
  12. 前記OCTデータ取得手段は、前記第1OCTデータとは前記取得領域の全部が異なる第2OCTデータを少なくとも取得し、
    前記演算制御手段は、前記第1OCT正面画像の端部と第2OCT正面画像の端部の連続性に基づいて前記第1画像位置情報を取得し、第3OCT正面画像の端部と第4OCT正面画像の端部の連続性に基づいて前記第2画像位置情報とを取得することを特徴とする請求項1〜10のいずれかのOCT信号処理装置。
  13. 前記演算制御手段は、前記第1OCT正面画像と第2OCT正面画像との間の画像の歪み情報である第1画像歪み情報と、前記第3OCT正面画像と第4OCT正面画像との間の画像の歪み情報である第2画像歪み情報と、の少なくともいずれかを取得することを特徴とする請求項1〜12のいずれかのOCT信号処理装置。
  14. 前記演算制御手段は、前記第1画像位置情報と前記第2画像位置情報とを用いた統計処理によって前記データ位置情報を演算することを特徴とする請求項1〜13のいずれかのOCT信号処理装置。
  15. OCT信号処理装置において実行されるOCT信号処理プログラムであって、前記OCT信号処理装置のプロセッサに実行されることによって、
    第1OCTデータと、前記第1OCTデータとは取得領域の一部が少なくとも異なる第2OCTデータを取得するOCTデータ取得ステップと、
    前記第1OCTデータと前記第2OCTデータに関して、第1の処理を行うことによって、前記第1OCTデータに基づく第1OCT正面画像と、前記第2OCTデータに基づく第2OCT正面画像とを生成し、
    前記第1OCTデータと前記第2OCTデータに関して、第1の処理とは異なる第2の処理を行うことによって、前記第1OCTデータに基づく第3OCT正面画像と、前記第2OCTデータに基づく第4OCT正面画像とを生成する画像生成ステップと、
    前記第1OCT正面画像と第2OCT正面画像との相対的な位置情報である第1画像位置情報と、第3OCT正面画像と第4OCT正面画像との相対的な位置情報である第2画像位置情報と、を画像解析によって取得し、取得された前記第1画像位置情報と前記第2画像位置情報とに基づいて、前記第1OCTデータと前記第2OCTデータとの相対的な位置情報であるデータ位置情報を演算する演算制御ステップと、を前記OCT信号処理装置に実行させることを特徴とするOCT信号処理プログラム。
JP2015080467A 2015-04-09 2015-04-09 Oct信号処理装置、およびoct信号処理プログラム Active JP6471593B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015080467A JP6471593B2 (ja) 2015-04-09 2015-04-09 Oct信号処理装置、およびoct信号処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015080467A JP6471593B2 (ja) 2015-04-09 2015-04-09 Oct信号処理装置、およびoct信号処理プログラム

Publications (3)

Publication Number Publication Date
JP2016198279A true JP2016198279A (ja) 2016-12-01
JP2016198279A5 JP2016198279A5 (ja) 2018-05-24
JP6471593B2 JP6471593B2 (ja) 2019-02-20

Family

ID=57422037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015080467A Active JP6471593B2 (ja) 2015-04-09 2015-04-09 Oct信号処理装置、およびoct信号処理プログラム

Country Status (1)

Country Link
JP (1) JP6471593B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018114068A (ja) * 2017-01-17 2018-07-26 キヤノン株式会社 画像処理装置、光干渉断層撮像装置、画像処理方法、及びプログラム
JP2019030573A (ja) * 2017-08-09 2019-02-28 キヤノン株式会社 眼科装置、情報処理装置、情報処理方法及びプログラム
CN110312464A (zh) * 2017-01-28 2019-10-08 赛莱特私人有限公司 具有改进记录的光学相干计量及断层成像
JP2019180693A (ja) * 2018-04-06 2019-10-24 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2020513983A (ja) * 2017-03-23 2020-05-21 ドヘニー アイ インスティテュート 光干渉断層撮影の多重en−face血管造影平均化システム、方法および装置
JP2021079042A (ja) * 2019-11-22 2021-05-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183332A (ja) * 2008-02-04 2009-08-20 Topcon Corp 眼底観察装置、眼底画像処理装置及びプログラム
JP2012115578A (ja) * 2010-12-02 2012-06-21 Nidek Co Ltd 眼科撮影装置
JP2014226514A (ja) * 2013-05-27 2014-12-08 キヤノン株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183332A (ja) * 2008-02-04 2009-08-20 Topcon Corp 眼底観察装置、眼底画像処理装置及びプログラム
JP2012115578A (ja) * 2010-12-02 2012-06-21 Nidek Co Ltd 眼科撮影装置
JP2014226514A (ja) * 2013-05-27 2014-12-08 キヤノン株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018114068A (ja) * 2017-01-17 2018-07-26 キヤノン株式会社 画像処理装置、光干渉断層撮像装置、画像処理方法、及びプログラム
CN110312464A (zh) * 2017-01-28 2019-10-08 赛莱特私人有限公司 具有改进记录的光学相干计量及断层成像
CN110312464B (zh) * 2017-01-28 2022-12-13 赛莱特私人有限公司 用于进行跨眼睛的扩展区的光学相干计量的方法和装置
JP2020513983A (ja) * 2017-03-23 2020-05-21 ドヘニー アイ インスティテュート 光干渉断層撮影の多重en−face血管造影平均化システム、方法および装置
US11452443B2 (en) 2017-03-23 2022-09-27 Doheny Eye Institute Systems, methods, and devices for optical coherence tomography multiple enface angiography averaging
JP2019030573A (ja) * 2017-08-09 2019-02-28 キヤノン株式会社 眼科装置、情報処理装置、情報処理方法及びプログラム
JP2019180693A (ja) * 2018-04-06 2019-10-24 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7123606B2 (ja) 2018-04-06 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2021079042A (ja) * 2019-11-22 2021-05-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7254682B2 (ja) 2019-11-22 2023-04-10 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP6471593B2 (ja) 2019-02-20

Similar Documents

Publication Publication Date Title
JP6507615B2 (ja) 光コヒーレンストモグラフィ装置、及びプログラム
JP6402901B2 (ja) 光コヒーレンストモグラフィ装置、光コヒーレンストモグラフィ演算方法及び光コヒーレンストモグラフィ演算プログラム
US11071452B2 (en) Optical coherence tomography device, optical coherence tomography calculation method, and optical coherence tomography calculation program
JP6402902B2 (ja) 光コヒーレンストモグラフィ装置及び光コヒーレンストモグラフィ演算プログラム
US8857988B2 (en) Data acquisition methods for reduced motion artifacts and applications in OCT angiography
JP6217185B2 (ja) 眼科撮影装置及び眼科画像処理プログラム
CN1947652B (zh) 光图像计测装置及眼底观察装置
JP6535985B2 (ja) 光コヒーレンストモグラフィ装置、光コヒーレンストモグラフィ演算方法及び光コヒーレンストモグラフィ演算プログラム
JP5790002B2 (ja) 眼科撮影装置
JP6572615B2 (ja) 眼底画像処理装置、および眼底画像処理プログラム
US10582850B2 (en) OCT motion contrast acquisition method and optical coherence tomography device
US9687147B2 (en) Optical coherence tomography device and control program
JP2012115578A (ja) 眼科撮影装置
JP6471593B2 (ja) Oct信号処理装置、およびoct信号処理プログラム
JP2016106652A (ja) 光コヒーレンストモグラフィ装置、及びそれに用いる制御プログラム
JP2018068578A (ja) Oct装置、およびoct制御プログラム
JP2017046976A (ja) 眼科撮影装置及び眼科撮影プログラム
JP2018019771A (ja) 光コヒーレンストモグラフィ装置、および光コヒーレンストモグラフィ制御プログラム
JP6606846B2 (ja) Oct信号処理装置、およびoct信号処理プログラム
JP6375760B2 (ja) 光コヒーレンストモグラフィー装置、および眼底画像処理プログラム
JP6503665B2 (ja) 光コヒーレンストモグラフィー装置及びプログラム
JP6402879B2 (ja) 眼科撮影装置
EP3106083B1 (en) Optical coherence tomography device and method of controlling an optical coherence tomography device
JP6402921B2 (ja) 光コヒーレンストモグラフィ装置、および速度測定用プログラム
WO2025182923A1 (ja) 眼科装置、その制御方法、プログラム、及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190107

R150 Certificate of patent or registration of utility model

Ref document number: 6471593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250