[go: up one dir, main page]

JP2014097191A - Imaging apparatus, imaging method and program - Google Patents

Imaging apparatus, imaging method and program Download PDF

Info

Publication number
JP2014097191A
JP2014097191A JP2012250584A JP2012250584A JP2014097191A JP 2014097191 A JP2014097191 A JP 2014097191A JP 2012250584 A JP2012250584 A JP 2012250584A JP 2012250584 A JP2012250584 A JP 2012250584A JP 2014097191 A JP2014097191 A JP 2014097191A
Authority
JP
Japan
Prior art keywords
imaging
eye
examined
imaging range
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012250584A
Other languages
Japanese (ja)
Inventor
Hiroshi Kusumoto
博 楠本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012250584A priority Critical patent/JP2014097191A/en
Publication of JP2014097191A publication Critical patent/JP2014097191A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】被検眼を複数の部分領域ごとに撮像する際に、被検眼の特性を示す情報(例えば、視度)の影響を考慮して、複数の部分領域の最適な大きさと位置とを決定すること。
【解決手段】撮像装置は、被検眼の撮像範囲を指定する指定部と、被検眼の特性に応じた撮像範囲を示す情報を用いて、指定された撮像範囲における被検眼を撮像するための複数の部分領域の大きさと複数の部分領域の位置とを決定する決定部と、を備える。
【選択図】 図3A
[PROBLEMS] To determine the optimum size and position of a plurality of partial areas in consideration of the influence of information (for example, diopter) indicating the characteristics of the eye to be examined when imaging a plurality of partial areas. To do.
An imaging apparatus uses a designation unit that designates an imaging range of an eye to be examined and information indicating an imaging range according to characteristics of the eye to be examined, and a plurality of images for imaging an eye to be examined in the designated imaging range. A determining unit that determines the size of each of the partial areas and the positions of the plurality of partial areas.
[Selection] Figure 3A

Description

本発明は、撮像装置、撮像方法およびプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program.

現在、眼科装置、或いは眼科用機器として、様々な光学機器が使用されている。中でも、眼を観察する光学機器として、例えば、前眼部撮影機、眼底カメラ、共焦点レーザー走査検眼鏡(Scanning Laser Ophthalmoscope:SLO)が使用されている。あるいは、眼を観察する光学機器として、低コヒーレント光による光干渉を利用した光断層画像撮像装置である光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT装置)が使用されている。   At present, various optical devices are used as ophthalmic apparatuses or ophthalmic devices. Among them, for example, an anterior ocular segment photographing machine, a fundus camera, and a confocal laser scanning ophthalmoscope (Scanning Laser Ophthalmoscope: SLO) are used as optical instruments for observing the eyes. Alternatively, optical coherence tomography (OCT apparatus), which is an optical tomographic imaging apparatus using optical interference by low-coherent light, is used as an optical instrument for observing the eye.

近年SLO、OCT等の走査光学系を持つ撮像装置に関し、補償光学系を用いて視細胞の観察をすることが可能な高分解能の撮像装置が提案されている。   In recent years, regarding an imaging apparatus having a scanning optical system such as SLO and OCT, a high-resolution imaging apparatus capable of observing photoreceptor cells using an adaptive optical system has been proposed.

特許文献1には眼底から反射されてくる波面を検出し、波面補正デバイスを用いて波面収差を補正する補償光学系を用いて高横分解能な眼底画像が撮像可能なSLOが開示されている。   Patent Document 1 discloses an SLO that can capture a fundus image with high lateral resolution by using a compensation optical system that detects a wavefront reflected from the fundus and corrects wavefront aberration using a wavefront correction device.

特開2007−14569号公報JP 2007-14569 A

ここで、従来のSLO、OCT等の走査光学系を持つ眼底撮像装置により被検眼の撮像を行う場合、操作者によって指定された撮像範囲と実際の撮像範囲とは異なる。これは、実際の撮像範囲は、指定された撮像範囲に対して、被検眼の特性(例えば、被検眼の視度)の影響を受けた撮像範囲(以下、「特性に応じた撮像範囲」と言う)となる。ここで、被検眼の特性として被検眼の視度を考慮する場合、被検眼の視度の影響を受けた撮像範囲を「視度に応じた撮像範囲」とも言う。このとき、例えば、被検眼が遠視の場合、指定された撮像範囲の大きさは、視度に応じた撮像範囲より小さくなるため、指定された撮像範囲の一部を撮像することができない場合が考えられる。この場合には、被検眼における指定された撮像範囲の画像を取得するために、被検眼を複数の部分領域ごとに撮像することが考えられる。   Here, when imaging the eye to be examined by a fundus imaging apparatus having a conventional scanning optical system such as SLO or OCT, the imaging range specified by the operator is different from the actual imaging range. This is because the actual imaging range is the imaging range affected by the characteristics of the eye to be examined (for example, the diopter of the eye to be examined) relative to the designated imaging range (hereinafter referred to as “imaging range according to the characteristics”). Say). Here, when the diopter of the eye to be examined is considered as the characteristic of the eye to be examined, the imaging range affected by the diopter of the eye to be examined is also referred to as “imaging range corresponding to the diopter”. At this time, for example, when the eye to be examined is farsighted, the size of the designated imaging range is smaller than the imaging range corresponding to the diopter, and therefore it may not be possible to image a part of the designated imaging range. Conceivable. In this case, in order to acquire the image of the designated imaging range in the eye to be examined, it is conceivable to image the eye to be examined for each of a plurality of partial areas.

本発明は、被検眼を複数の部分領域ごとに撮像する際に、被検眼の視度の影響を考慮して、複数の部分領域の最適な大きさと位置とを決定することを目的とする。   An object of the present invention is to determine the optimum size and position of a plurality of partial areas in consideration of the effect of the diopter of the subject eye when imaging the eye to be examined for each of a plurality of partial areas.

上記の目的を達成する本発明の一つの側面に係る撮像装置は、
被検眼の撮像範囲を指定する指定手段と、
前記被検眼の特性に応じた撮像範囲を示す情報を用いて、前記指定された撮像範囲における前記被検眼を撮像するための複数の部分領域の大きさと前記複数の部分領域の位置とを決定する決定手段と、を備えることを特徴とする。
An imaging apparatus according to one aspect of the present invention that achieves the above object is as follows:
A designation means for designating an imaging range of the eye to be examined;
Using information indicating the imaging range corresponding to the characteristics of the eye to be examined, the size of the plurality of partial areas and the position of the plurality of partial areas for imaging the eye to be examined in the designated imaging range are determined. And a determining means.

本発明によれば、被検眼を複数の部分領域ごとに撮像する際に、被検眼の特性(例えば、被検眼の視度)の影響を考慮して、複数の部分領域の最適な大きさと位置とを決定することが可能になる。   According to the present invention, when the subject eye is imaged for each of the plurality of partial regions, the optimum size and position of the plurality of partial regions are taken into consideration in consideration of the influence of the characteristics of the subject eye (for example, the diopter of the subject eye). It becomes possible to determine.

本発明の実施形態に係る撮像装置の構成例を示す図。1 is a diagram illustrating a configuration example of an imaging apparatus according to an embodiment of the present invention. 指定された撮像範囲内で被検眼を撮像するための部分領域を例示する図。The figure which illustrates the partial area | region for imaging a to-be-examined eye within the designated imaging range. 実施形態に係る撮像装置の機能構成を示す図。1 is a diagram illustrating a functional configuration of an imaging apparatus according to an embodiment. 実施形態に係る撮像装置による撮像方法のフローチャート。6 is a flowchart of an imaging method by the imaging apparatus according to the embodiment. 視度と視度に応じた撮像範囲を記憶する記憶部を例示する図。The figure which illustrates the memory | storage part which memorize | stores the imaging range according to diopter and diopter. 撮像範囲を指定する指定画面を例示する図。The figure which illustrates the designation | designated screen which designates an imaging range. 指定された撮像範囲における部分領域を例示する図。The figure which illustrates the partial area | region in the designated imaging range. 各部分領域の撮像中心位置を例示する図。The figure which illustrates the imaging center position of each partial area. 指定された撮像範囲における部分領域を例示する図。The figure which illustrates the partial area | region in the designated imaging range. 指定された撮像範囲における部分領域を例示する図。The figure which illustrates the partial area | region in the designated imaging range.

以下、図面を参照して、本発明の実施形態を例示的に詳しく説明する。ただし、実施形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in the embodiments are merely examples, and the technical scope of the present invention is determined by the claims, and is not limited by the following individual embodiments. .

(撮像装置の構成)
図1は、実施形態に係る撮像装置の構成例を示す図であり、補償光学系(補償光学部)を用いたSLOの構成を例示している。図1に例示するSLOは補償光学機能付きの走査型レーザー検眼鏡(Scanning Laser Opthalmoscope/SLO)の一例である。光干渉断層装置(Optical Coherent Tomography/OCT)においても接眼部分の構成は同様である。
(Configuration of imaging device)
FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to the embodiment, and illustrates a configuration of an SLO using an adaptive optical system (compensating optical unit). The SLO illustrated in FIG. 1 is an example of a scanning laser opthalmoscope / SLO having an adaptive optical function. The configuration of the eyepiece portion is the same in the optical coherence tomography (OCT).

図1において、光源101は、例えば、波長840nmのSLD光源である。光源101の波長は特に制限されるものではないが、特に眼底撮影用としては被験者の眩しさの軽減と分解能維持のために、波長としては、800〜1500nm程度が好適に用いられる。光源101から照射された光は、単一モード光ファイバー102を通って、コリメータ103により、平行光線として照射される。   In FIG. 1, a light source 101 is, for example, an SLD light source having a wavelength of 840 nm. The wavelength of the light source 101 is not particularly limited, but a wavelength of about 800 to 1500 nm is suitably used particularly for fundus photography in order to reduce glare and maintain resolution of the subject. The light emitted from the light source 101 passes through the single mode optical fiber 102 and is irradiated as a parallel light by the collimator 103.

照射された測定光105は光分割部104を透過し、補償光学系に導光される。補償光学系は、光分割部106、波面収差測定部の一例である波面センサー115、波面収差補正部の一例である波面補正デバイス108および、それらに導光するための反射ミラー107−1〜4を有する。ここで、反射ミラー107−1〜4は、少なくとも被検眼の瞳と波面センサー115、波面補正デバイス108とが光学的に共役関係になるように設置されている。   The irradiated measurement light 105 is transmitted through the light splitting unit 104 and guided to the compensation optical system. The compensation optical system includes a light splitting unit 106, a wavefront sensor 115 that is an example of a wavefront aberration measuring unit, a wavefront correction device 108 that is an example of a wavefront aberration correcting unit, and reflection mirrors 107-1 to 107-4 for guiding them. Have Here, the reflection mirrors 107-1 to 107-4 are installed so that at least the pupil of the eye to be examined, the wavefront sensor 115, and the wavefront correction device 108 are optically conjugate.

波面補正デバイス108には、例えば、可変反射ミラーを用いているが、この例に限定されず、例えば、液晶空間光変調器や、LCOS(Liquid Crystal On Silicon)等を用いることも可能である。そして、波面補正デバイス108は、補償光学系の光路中に配置され、入射光の波面を制御して被検眼の波面収差を補償する。ここで、波面補正デバイス108は、被検眼の低次の波面収差(視度:例えば、球面度数)を補正するための低次収差補正部と、被検眼の高次の波面収差を補正するための高次収差補正部と、を有することが好ましい。これにより、低次収差補正部は、被検眼の収差のうち収差量の大きな低次収差を補正する際、被検眼の視度を補正することができる。後に説明する取得部302は、測定された低次収差に含まれる視度の情報を用いて、被検眼の視度に応じた撮像範囲(被検眼の視度の影響を受けた撮像範囲)を示す情報を取得することができる。   For example, a variable reflection mirror is used as the wavefront correction device 108. However, the present invention is not limited to this example. For example, a liquid crystal spatial light modulator, LCOS (Liquid Crystal On Silicon), or the like can be used. The wavefront correction device 108 is disposed in the optical path of the compensation optical system, and controls the wavefront of the incident light to compensate for the wavefront aberration of the eye to be examined. Here, the wavefront correction device 108 corrects low-order wavefront aberration (diopter: for example, spherical power) of the eye to be examined and a high-order wavefront aberration of the eye to be examined. And a high-order aberration correction unit. As a result, the low-order aberration correction unit can correct the diopter of the eye to be examined when correcting low-order aberrations having a large aberration amount among the aberrations of the eye to be examined. The acquisition unit 302 described later uses the diopter information included in the measured low-order aberrations to obtain an imaging range corresponding to the diopter of the eye to be examined (an imaging range affected by the diopter of the eye to be examined). The information shown can be acquired.

ここで、レフラクトメータ(眼屈折力測定装置)等により、被検眼の眼底のリング像を用いて測定した結果を外部から取得することにより、被検眼の視度として取得しても良い。また、広域のSLO画像等により撮像された被検眼の眼底画像のコントラストが指摘なコントラストになるようにフォーカスレンズを移動した位置を、被検眼の視度として取得しても良い。なお、実際の撮像範囲(例えば、走査手段により実際に測定光を走査する走査角度)を求める際に、被検眼の特性として被検眼の視度以外にも被検眼の眼軸長等を考慮することにより、精度良く求めることができる。   Here, the diopter of the eye to be examined may be obtained by obtaining the result of measurement using a ring image of the fundus of the eye to be examined with a refractometer (eye refractive power measuring device) or the like. Further, the position where the focus lens is moved so that the contrast of the fundus image of the eye to be inspected captured by a wide-area SLO image or the like becomes a pointed contrast may be acquired as the diopter of the eye to be inspected. Note that when obtaining an actual imaging range (for example, a scanning angle at which the measurement light is actually scanned by the scanning unit), in addition to the diopter of the eye to be examined, the axial length of the eye to be examined is considered as a characteristic of the eye to be examined. Thus, it can be obtained with high accuracy.

補償光学系を通過した光は、走査光学系109−1、接眼レンズ110−1、110−2、走査光学系109に導かれ、走査光学系109、109−1によって、1次元もしくは2次元に撮像される。本例では走査光学系109−1は、主走査用として走査画角は狭いが高速に走査可能な共振スキャナー(共振ミラー)を用いている。   The light that has passed through the compensation optical system is guided to the scanning optical system 109-1, the eyepieces 110-1 and 110-2, and the scanning optical system 109, and is one-dimensionally or two-dimensionally by the scanning optical systems 109 and 109-1. Imaged. In this example, the scanning optical system 109-1 uses a resonance scanner (resonance mirror) that can scan at high speed but has a narrow scanning angle of view for main scanning.

走査光学系109は、副走査用としてガルバノスキャナー(ガルバノミラー)を用いている。走査光学系109のガルバノスキャナーは走査光学系109−1の主走査用の共振ミラーでは角度が不足して撮像できない領域を補完する。走査光学系109のガルバノスキャナーを用いることにより、走査光学系109−1だけでは撮像できない眼底の領域を撮像できる。   The scanning optical system 109 uses a galvano scanner (galvano mirror) for sub-scanning. The galvano scanner of the scanning optical system 109 supplements an area in which the main scanning resonance mirror of the scanning optical system 109-1 has an insufficient angle and cannot be imaged. By using the galvano scanner of the scanning optical system 109, it is possible to image a fundus region that cannot be captured by the scanning optical system 109-1.

走査光学系109で撮像された測定光は、接眼レンズ110−3および110−4、ダイクロイックミラー130を通して被検眼111を照射する。被検眼111に照射された測定光は眼底(網膜)で反射もしくは散乱される。接眼レンズ110−3および110−4の位置を調整することによって、被検眼111の視度にあわせたフォーカス調整を行い最適な照射を行うことが可能となる。   The measurement light imaged by the scanning optical system 109 irradiates the eye 111 through the eyepieces 110-3 and 110-4 and the dichroic mirror 130. The measurement light applied to the eye 111 is reflected or scattered by the fundus (retina). By adjusting the positions of the eyepieces 110-3 and 110-4, it is possible to perform optimal irradiation by adjusting the focus in accordance with the diopter of the eye 111 to be examined.

被検眼111の眼底(網膜)からの反射散乱光は、補償光学系から光が入射した時と同様の光路を逆向きに進行し、光路中の光分割部106によって一部が反射され、波面センサー115(波面測定部)に導かれる。波面センサー115(波面測定部)は導かれた光線の波面を測定する。   Reflected and scattered light from the fundus (retina) of the eye 111 to be examined travels in the opposite direction on the same optical path as when light enters from the adaptive optics, and is partially reflected by the light dividing unit 106 in the optical path. It is guided to the sensor 115 (wavefront measuring unit). The wavefront sensor 115 (wavefront measuring unit) measures the wavefront of the guided light beam.

光分割部106を透過した反射散乱光は光分割部104によって一部が反射され、コリメータ112、および光ファイバー113を通して光強度センサー114に導かれる。光強度センサー114は導かれた光を電気信号に変換し、画像処理部305は光強度センサー114により変換された電気信号に基づいて眼底画像を生成する。画像処理部305は、複数の部分領域について撮像された画像から指定された撮像範囲の全体の眼底画像を生成することができる。   A part of the reflected and scattered light transmitted through the light splitting unit 106 is reflected by the light splitting unit 104 and guided to the light intensity sensor 114 through the collimator 112 and the optical fiber 113. The light intensity sensor 114 converts the guided light into an electrical signal, and the image processing unit 305 generates a fundus image based on the electrical signal converted by the light intensity sensor 114. The image processing unit 305 can generate an entire fundus image of the designated imaging range from images captured for a plurality of partial areas.

波面センサー115は補償光学制御部118に接続され、受光した光線の波面を補償光学制御部118に入力する。波面補正デバイス108も補償光学制御部118に接続されており、波面補正デバイス108は補償光学制御部118からの指示に応じて反射面の形状を補正する。   The wavefront sensor 115 is connected to the adaptive optics controller 118 and inputs the wavefront of the received light beam to the adaptive optics controller 118. The wavefront correction device 108 is also connected to the adaptive optics control unit 118, and the wavefront correction device 108 corrects the shape of the reflection surface in accordance with an instruction from the adaptive optics control unit 118.

補償光学制御部118は波面センサー115から取得した波面を基に波面収差を算出して波面収差のない波面へと補正するような波面形状を計算により求め、波面補正デバイス108に波面形状の変形を指示する。補償光学制御部118は、波面センサー115による波面の測定結果に応じて波面補正デバイス108への指示を繰り返し、波面補正デバイス108における反射面が波面収差のない最適な波面形状となるようにフィードバック制御が行われる。   The adaptive optics control unit 118 calculates the wavefront aberration based on the wavefront acquired from the wavefront sensor 115 to obtain a wavefront shape that can be corrected to a wavefront free of wavefront aberration, and causes the wavefront correction device 108 to deform the wavefront shape. Instruct. The adaptive optics control unit 118 repeats the instruction to the wavefront correction device 108 according to the measurement result of the wavefront by the wavefront sensor 115, and performs feedback control so that the reflection surface of the wavefront correction device 108 has an optimal wavefront shape without wavefront aberration. Is done.

制御コンピュータ148は、補償光学制御部118、画像処理部305および光走査系、対物レンズ等のアクチュエーターを制御する。制御コンピュータ148のユーサーインターフェースは、操作者からの指示を受け付ける入力部(図3Aの306)と、撮像範囲を指定するための指定画面(例えば、図4)を表示する表示部(図3Aの307)とを有する。例えば、操作者は表示部307に表示された指定画面から撮影範囲を指定したり、入力部306から撮影範囲を数値データで入力したり、被検眼の特性を示す情報(例えば、視度)を指定することが可能である。   The control computer 148 controls the adaptive optics control unit 118, the image processing unit 305, and an actuator such as an optical scanning system and an objective lens. The user interface of the control computer 148 includes an input unit (306 in FIG. 3A) that receives an instruction from the operator, and a display unit (307 in FIG. 3A) that displays a designation screen (for example, FIG. 4) for designating an imaging range. ). For example, the operator designates an imaging range from a designation screen displayed on the display unit 307, inputs an imaging range as numerical data from the input unit 306, and information (for example, diopter) indicating characteristics of the eye to be examined. It is possible to specify.

波長920nmのレーザー光源131、光ファイバー132、コリメータ133、光分割部134、走査光学系139、接眼レンズ140−1、140−2、コリメータ142、光強度センサー144を有する光学系はワイドフィールド系のSLOである。ワイドフィールド系の光学系(光学部)からの光はダイクロイックミラー130で反射されて被検眼111を照射する。被検眼111の眼底で反射された光はダイクロイックミラー130にて再度反射され、ワイドフィールド系の光学系の光路を、入射時とは逆向きに進行し、光分割部134によって一部が反射され、コリメータ142を通して光強度センサー144に導かれる。光強度センサー144は導かれた光を電気信号に変換し、画像処理部305は、光強度センサー144により変換された電気信号に基づいて眼底画像を生成する。ワイドフィールド系の光学系(光学部)は補償光学系(補償光学部)で撮像する撮像対象範囲を確認するために用いることができる。   An optical system including a laser light source 131 having a wavelength of 920 nm, an optical fiber 132, a collimator 133, a light splitting unit 134, a scanning optical system 139, eyepieces 140-1 and 140-2, a collimator 142, and a light intensity sensor 144 is a wide-field SLO. It is. Light from the wide-field optical system (optical unit) is reflected by the dichroic mirror 130 and irradiates the eye 111 to be examined. The light reflected from the fundus of the subject's eye 111 is reflected again by the dichroic mirror 130, travels in the optical path of the wide-field optical system in the direction opposite to the direction of incidence, and is partially reflected by the light dividing unit 134. , And is guided to the light intensity sensor 144 through the collimator 142. The light intensity sensor 144 converts the guided light into an electrical signal, and the image processing unit 305 generates a fundus image based on the electrical signal converted by the light intensity sensor 144. The wide-field optical system (optical unit) can be used to confirm the imaging target range to be imaged by the compensating optical system (compensating optical unit).

補償光学系を有する撮像装置は、補償光学系を用いて被検眼の収差を検出し、補正することで、高い分解能の画像を取得することができる。しかし、補償光学系により波面を補正した状態で撮像できる範囲は狭く、撮像可能な範囲は、例えば、視細胞を観察するための分解能を確保しようとすると、ビーム径にもよるが眼底上で約350μm角の撮像領域に限定された部分の撮像が可能になる。なお、撮像領域は、予め定められていても良いし、走査光学系の走査角度によって変更することができても良いし、操作者が走査角度を手動で指定できる構成でも良い。   An imaging apparatus having an adaptive optical system can acquire an image with high resolution by detecting and correcting the aberration of the eye to be examined using the adaptive optical system. However, the range that can be imaged with the wavefront corrected by the compensation optical system is narrow, and the range that can be imaged is about, for example, on the fundus, depending on the beam diameter, when trying to ensure resolution for observing photoreceptor cells. It is possible to image a portion limited to an imaging area of 350 μm square. The imaging area may be determined in advance, may be changed according to the scanning angle of the scanning optical system, or may be configured such that the operator can manually specify the scanning angle.

(指定された撮像範囲内における部分領域)
図2は、指定された撮像範囲内で被検眼を撮像するための部分領域を例示する図である。図2において、指定された撮像範囲は900μm角の範囲であり、視度に応じた撮像範囲は350μm角の範囲である。本実施形態では、指定された撮像範囲内で被検眼を撮像するための部分領域を決定する。部分領域の決定については後に詳細に説明する。
(Partial area within the specified imaging range)
FIG. 2 is a diagram illustrating a partial region for imaging the eye to be examined within the designated imaging range. In FIG. 2, the designated imaging range is a 900 μm square range, and the imaging range corresponding to the diopter is a 350 μm square range. In the present embodiment, a partial region for imaging the eye to be examined is determined within the designated imaging range. The determination of the partial area will be described in detail later.

図2の1〜9は、決定された部分領域の番号を示す。例えば、図2の部分領域1、2、3・・・のように部分領域ごとに撮像を行い、部分領域ごとに撮像された画像から全体領域の眼底画像を生成する。図2の例では、複数の部分領域の例として、隣り合う部分領域が重なる重複領域(ハッチングを付した領域)が含まれる構成を示している。本発明の趣旨は、この例に限定されるものではなく、画像処理部305は重複領域が含まれない領域についても部分領域ごとの画像と部分領域の位置とを用いて被検眼の撮像範囲の全体画像を生成することも可能である。   1 to 9 in FIG. 2 indicate the numbers of the determined partial areas. For example, imaging is performed for each partial area such as the partial areas 1, 2, 3,... In FIG. 2, and a fundus image of the entire area is generated from the image captured for each partial area. In the example of FIG. 2, as an example of a plurality of partial areas, a configuration including an overlapping area (a hatched area) where adjacent partial areas overlap is shown. The gist of the present invention is not limited to this example, and the image processing unit 305 uses the image for each partial area and the position of the partial area for the area not including the overlapping area. It is also possible to generate an entire image.

隣り合う部分領域が重なる領域である繋ぎ合わせ領域(重複領域)として、図2の例では、25μmの領域が部分領域に含まれている。繋ぎ合わせ領域のサイズは、例えば、入力部306から指定することが可能である。例えば、繋ぎ合わせ領域のサイズとして25μmを指定した場合、各部分領域に対して、水平方向(横方向)について、25μm×2=50μm、垂直方向(縦方向)について、25μm×2=50μmが繋ぎ合わせ領域(重複領域)として設定される。   As a joining region (overlapping region) in which adjacent partial regions overlap, in the example of FIG. 2, a region of 25 μm is included in the partial region. The size of the joining area can be designated from the input unit 306, for example. For example, when 25 μm is specified as the size of the joining region, 25 μm × 2 = 50 μm in the horizontal direction (lateral direction) and 25 μm × 2 = 50 μm in the vertical direction (vertical direction) are connected to each partial region. It is set as a matching area (overlapping area).

部分領域のサイズが350μm角の場合に、繋ぎ合わせ領域(50μm)を差し引いた差分の領域(350μm角−50μm=300μm角)が、部分領域間で重なりが生じない撮像データの領域(有効領域)となる。有効領域(300μm角)の中心を撮像中心位置とする。撮像中心位置を基準として被検眼を撮像するための光学系の撮像位置を合わせて、部分領域ごとの画像を取得する。   When the size of the partial area is 350 μm square, the difference area (350 μm square−50 μm = 300 μm square) obtained by subtracting the joining area (50 μm square) does not overlap between the partial areas (effective area). It becomes. The center of the effective area (300 μm square) is set as the imaging center position. An image for each partial region is acquired by combining the imaging positions of the optical system for imaging the eye to be examined with the imaging center position as a reference.

撮像手順としては、まず、図2の部分領域1を撮像する時は、分割した部分領域1の撮像中心位置に、主走査方向用の走査光学系109−1の共振スキャナー(ガルバノミラー)の撮像位置を合わせる。導かれた光線の波面を波面センサー115により測定する。補償光学制御部118は波面センサー115から取得した波面を基に波面収差を算出し、波面収差のない波面へと補正するための波面形状を算出し、形状変形の指示を波面補正デバイス108に出力する。波面補正デバイス108は補償光学制御部118からの指示に応じて反射面の形状を補正する。   As an imaging procedure, first, when imaging the partial area 1 of FIG. 2, imaging of the resonance scanner (galvanomirror) of the scanning optical system 109-1 for the main scanning direction at the imaging center position of the divided partial area 1 is performed. Adjust the position. The wavefront of the guided light beam is measured by the wavefront sensor 115. The adaptive optics control unit 118 calculates a wavefront aberration based on the wavefront acquired from the wavefront sensor 115, calculates a wavefront shape for correcting the wavefront without the wavefront aberration, and outputs a shape deformation instruction to the wavefront correction device 108. To do. The wavefront correction device 108 corrects the shape of the reflection surface in accordance with an instruction from the adaptive optics control unit 118.

波面補正デバイス108により反射面の形状が補正されたのち、制御コンピュータ148は、副走査方向用の走査光学系109のガルバノスキャナーの撮像位置を部分領域1の撮像中心位置に合わせる。そして、制御コンピュータ148は、走査光学系109の共振スキャナーによる撮像と、走査光学系109のガルバノスキャナーによる撮像とを同期させる。この同期した撮像の結果、被検眼111の眼底から反射散乱した光は、補償光学系の光路を進行して、光分割部104、コリメータ112を介して光強度センサー114に導かれる。光強度センサー114は導かれた光を電気信号に変換し、画像処理部305は光強度センサー114により変換された電気信号に基づいて部分領域の眼底画像を生成する。そして、画像処理部305は、各部分領域の画像と、指定された撮像範囲内における部分領域の位置とを用いて被検眼の撮像範囲の全体画像を生成する。   After the shape of the reflecting surface is corrected by the wavefront correction device 108, the control computer 148 aligns the imaging position of the galvano scanner of the scanning optical system 109 for the sub-scanning direction with the imaging center position of the partial region 1. Then, the control computer 148 synchronizes the imaging by the resonance scanner of the scanning optical system 109 and the imaging by the galvano scanner of the scanning optical system 109. As a result of this synchronized imaging, the light reflected and scattered from the fundus of the eye 111 to be inspected travels along the optical path of the compensation optical system and is guided to the light intensity sensor 114 via the light splitting unit 104 and the collimator 112. The light intensity sensor 114 converts the guided light into an electrical signal, and the image processing unit 305 generates a fundus image of the partial region based on the electrical signal converted by the light intensity sensor 114. Then, the image processing unit 305 generates an entire image of the imaging range of the eye to be examined using the image of each partial region and the position of the partial region within the designated imaging range.

尚、本例では補償光学系用いたSLOを例示的に説明しているが、SLOに限定されるものではなく、OCTにおいても同様に適用可能である。   In this example, the SLO using the adaptive optics system is exemplarily described. However, the present invention is not limited to the SLO, and can be similarly applied to the OCT.

(第1実施形態:部分領域ごとの画像の取得、繋ぎ合わせ)
図3Aは本発明の実施形態に係る撮像装置300の機能構成を示す図である。指定部301は、制御コンピュータ148のユーサーインターフェースとして機能する。指定部301は、操作者からの指示を受け付ける入力部306と、撮像範囲を確認し、指定するための指定画面(例えば、図4の被検眼のワイドフィールド系の電子画像)を表示する表示部307と、を有する。
(First embodiment: acquisition and connection of images for each partial region)
FIG. 3A is a diagram illustrating a functional configuration of the imaging apparatus 300 according to the embodiment of the present invention. The designation unit 301 functions as a user interface for the control computer 148. The designation unit 301 receives an instruction from the operator, and a display unit that displays a designation screen for confirming and designating the imaging range (for example, a wide-field electronic image of the eye to be examined in FIG. 4). 307.

例えば、操作者は、指定部301の入力部306から撮影範囲を数値で入力することや、被検眼の特性を示す情報(例えば、視度の値)を指定することが可能である。ここで、被検眼の特性は、例えば、被検眼の視度のことである。   For example, the operator can input an imaging range numerically from the input unit 306 of the specifying unit 301, or can specify information (for example, diopter value) indicating the characteristics of the eye to be examined. Here, the characteristic of the eye to be examined is, for example, the diopter of the eye to be examined.

なお、実際の撮像範囲を求める際に、被検眼の視度を考慮する必要があるのは、例えば、図1のように、フォーカスレンズがガルバノミラーと被検眼との間に配置される場合である。この場合、被検眼の視度を補正するためにフォーカスレンズを移動させると、ガルバノミラーにより走査された測定光の走査範囲が変更される。このため、実際の撮像範囲は、指定した撮像範囲と異なる範囲になってしまう。すなわち、指定した撮像範囲と実際の撮像範囲とは、被検眼の視度の影響により、一致しないし、被検眼の視度を補正するためにフォーカスレンズを移動させても、やはり一致しない。このため、指定した撮像範囲と実際の撮像範囲とを一致させるには、被検眼の視度によって、例えば、ガルバノミラーの走査角度を調整する必要がある。   Note that when determining the actual imaging range, the diopter of the eye to be examined must be taken into account, for example, when the focus lens is disposed between the galvanometer mirror and the eye to be examined as shown in FIG. is there. In this case, when the focus lens is moved to correct the diopter of the eye to be examined, the scanning range of the measurement light scanned by the galvanometer mirror is changed. For this reason, the actual imaging range is different from the designated imaging range. That is, the designated imaging range and the actual imaging range do not match due to the effect of the diopter of the eye to be examined, and even if the focus lens is moved to correct the diopter of the eye to be examined, it does not match. For this reason, in order to make the designated imaging range coincide with the actual imaging range, for example, it is necessary to adjust the scanning angle of the galvanometer mirror according to the diopter of the eye to be examined.

また、フォーカスレンズの配置位置として、ガルバノミラーと光源との間に配置される場合も考えられる。この場合には、被検眼の視度を補正するためにフォーカスレンズを移動させても、ガルバノミラーにより走査された測定光の走査範囲は変更されない。すなわち、指定した撮像範囲と実際の撮像範囲とは、被検眼の視度を補正するためにフォーカスレンズを移動させても、一致する。このため、ガルバノミラーにより測定光を指定された走査角度で走査すれば、指定した撮像範囲により撮像することができる。被検眼の眼軸長が装置に設定された設定値(例えば、平均的な眼軸長である23mm)と一致しない場合、実際の撮像範囲(例えば、走査部により実際に測定光を走査する走査角度)を求める際に、被検眼の特性として被検眼の眼軸長も考慮する必要がある。なお、一般的に、測定光の光束径が大きい場合、フォーカスレンズがガルバノミラーと光源との間に配置された装置は、フォーカスレンズがガルバノミラーと被検眼との間に配置される装置に比べて、大きくなる。   In addition, the focus lens may be disposed between the galvanometer mirror and the light source. In this case, even if the focus lens is moved to correct the diopter of the eye to be examined, the scanning range of the measurement light scanned by the galvanometer mirror is not changed. That is, the designated imaging range and the actual imaging range match even if the focus lens is moved to correct the diopter of the eye to be examined. For this reason, if the measurement light is scanned at the designated scanning angle by the galvanometer mirror, it is possible to take an image within the designated imaging range. When the axial length of the eye to be examined does not match the set value (for example, the average axial length of 23 mm) set in the apparatus, the actual imaging range (for example, scanning in which the measurement light is actually scanned by the scanning unit) When obtaining (angle), it is necessary to consider the axial length of the eye to be examined as a characteristic of the eye to be examined. In general, when the beam diameter of the measurement light is large, the device in which the focus lens is arranged between the galvanometer mirror and the light source is compared with the device in which the focus lens is arranged between the galvanometer mirror and the eye to be examined. And get bigger.

また、被検眼の特性は、被検眼の眼軸長のことであっても良い。例えば、被検眼が強度近視である場合、被検眼の眼軸長が長いため、ガルバノミラーにより測定光が走査される走査範囲が指定された走査範囲よりも大きくなる。このため、指定された撮像範囲よりも実際の撮像範囲が大きくなる。このため、実際の撮像範囲を求める際には、眼軸長を考慮することが好ましい。また、外部の装置から眼軸長を示す情報を取得し、取得した眼軸長を示す情報に基づいて、後述する視度に応じた撮像範囲の大きさが決定されても良い。   The characteristic of the eye to be examined may be the axial length of the eye to be examined. For example, when the eye to be examined is intense myopia, since the eye axis length of the eye to be examined is long, the scanning range in which the measurement light is scanned by the galvanometer mirror is larger than the designated scanning range. For this reason, the actual imaging range becomes larger than the designated imaging range. For this reason, it is preferable to consider the axial length when determining the actual imaging range. Further, the information indicating the axial length may be acquired from an external device, and the size of the imaging range corresponding to the diopter to be described later may be determined based on the acquired information indicating the axial length.

また、被検眼の特性は、被検眼の眼軸長以外にも、被検眼の角膜の屈折率や被検眼の前房深度等であっても良い。例えば、指定される撮像範囲毎に、これらのパラメータの各値とガルバノミラーの走査角度とを対応付けたテーブルとして記憶部に記憶させておくことが好ましい。この場合、例えば、指定された撮像範囲と眼軸長とが与えられれば、ガルバノミラーの走査角度が決まる。もちろん、これらのパラメータを組み合わせたものを被検眼の特性としても良く、この場合、例えば、これらのパラメータを用いてガルバノミラーの走査角度を求める変換式を記憶部に記憶させておくことが考えられる。   In addition to the axial length of the eye to be examined, the characteristics of the eye to be examined may be the refractive index of the cornea of the eye to be examined, the depth of the anterior chamber of the eye to be examined, or the like. For example, it is preferable to store the values of these parameters and the scanning angle of the galvano mirror in the storage unit for each designated imaging range in association with each other. In this case, for example, if the designated imaging range and the axial length are given, the scanning angle of the galvanometer mirror is determined. Of course, a combination of these parameters may be used as the characteristics of the eye to be inspected. In this case, for example, it is conceivable to store a conversion equation for obtaining the scanning angle of the galvanometer mirror using these parameters in the storage unit. .

また、操作者は、指定部301の入力部306から部分領域が重なる領域である繋ぎ合わせ領域(重複領域)のサイズを指定することができる。   Further, the operator can specify the size of the joining area (overlapping area), which is an area where the partial areas overlap, from the input unit 306 of the specifying unit 301.

移動部308は被検眼に対する光学系のフォーカスを合わせるために、光学系を構成する光学素子(接眼レンズ110−4)を移動する。記憶部310は視度と視度に対応した撮像範囲を記憶するデータベースとして機能する。   The moving unit 308 moves the optical element (the eyepiece lens 110-4) constituting the optical system in order to adjust the focus of the optical system with respect to the eye to be examined. The storage unit 310 functions as a database that stores diopter and an imaging range corresponding to the diopter.

取得部302は、被検眼の視度に応じた撮像範囲を示す情報を取得する。取得部302は、例えば、移動部308により移動した光学素子の位置と、光学系の撮像倍率とを用いた演算処理により、視度に応じた撮像範囲を取得することができる。また、演算処理によらず、予め記憶部310に記憶されている情報を参照して撮像範囲を示す情報を取得することも可能である。例えば、取得部302は、指定された視度をキー情報として記憶部310のテーブルを参照し、指定された視度に対応する撮像範囲を示す情報を検索する。指定された視度に対応する範囲情報(撮像範囲情報)がテーブルに保存されている場合、取得部302は、記憶部310のテーブルからの読み出しにより視度に応じた撮像範囲を示す情報を取得することができる。   The acquisition unit 302 acquires information indicating an imaging range corresponding to the diopter of the eye to be examined. For example, the acquisition unit 302 can acquire an imaging range corresponding to the diopter by a calculation process using the position of the optical element moved by the moving unit 308 and the imaging magnification of the optical system. In addition, information indicating the imaging range can be acquired with reference to information stored in the storage unit 310 in advance, regardless of the arithmetic processing. For example, the acquisition unit 302 refers to the table of the storage unit 310 using the specified diopter as key information, and searches for information indicating an imaging range corresponding to the specified diopter. When range information (imaging range information) corresponding to the designated diopter is stored in the table, the acquisition unit 302 acquires information indicating the imaging range according to the diopter by reading from the table of the storage unit 310. can do.

また、取得部302は、ネットワーク380を介して外部装置350(外部のサーバ、テーブルを含む)と接続することが可能である。取得部302は外部装置350で実行された演算処理により、視度に応じた撮像範囲を示す情報を、ネットワーク380を介して取得することができる。また、取得部302は、ネットワーク380を介して外部装置350のテーブルから視度に応じた撮像範囲を示す情報を取得することができる。   The acquisition unit 302 can be connected to an external device 350 (including an external server and a table) via the network 380. The acquisition unit 302 can acquire information indicating the imaging range corresponding to the diopter via the network 380 by the arithmetic processing executed by the external device 350. In addition, the acquisition unit 302 can acquire information indicating an imaging range corresponding to the diopter from the table of the external device 350 via the network 380.

決定部303は、被検眼の視度に応じた撮像範囲を示す情報を用いて、指定された撮像範囲における被検眼を撮像するための複数の部分領域の大きさと複数の部分領域の位置とを決定する。また、決定部303は、被検眼の視度に応じた撮像範囲を示す情報と所定の部分領域の大きさとを用いて複数の部分領域の大きさを決定し、指定された撮像範囲と決定された大きさとを用いて複数の部分領域の位置を決定する。また、決定部303は、指定された撮像範囲を決定された大きさで除算して、複数の部分領域の位置を決定する。決定部303は、視度に応じた撮像範囲が、被検眼の撮像の際に撮像装置の操作者によって指定された撮像範囲内に収まるか否かを判定する。決定部303が指定された撮像範囲内に収まると判定した場合、画像取得部304は指定された撮像範囲の画像を取得し、画像処理部305は画像取得部304により取得された画像を撮像範囲の全体的な画像として出力する。   The determination unit 303 uses the information indicating the imaging range corresponding to the diopter of the eye to be examined to determine the sizes of the plurality of partial areas and the positions of the plurality of partial areas for imaging the eye to be examined in the designated imaging range. decide. The determination unit 303 determines the size of the plurality of partial areas using information indicating the imaging range corresponding to the diopter of the eye to be examined and the size of the predetermined partial area, and determines the specified imaging range. The position of a plurality of partial areas is determined using the determined size. Further, the determination unit 303 divides the designated imaging range by the determined size to determine the positions of the plurality of partial areas. The determination unit 303 determines whether or not the imaging range corresponding to the diopter is within the imaging range designated by the operator of the imaging apparatus when imaging the eye to be examined. When the determination unit 303 determines that the image is within the specified imaging range, the image acquisition unit 304 acquires an image of the specified imaging range, and the image processing unit 305 acquires the image acquired by the image acquisition unit 304. Output as an overall image.

決定部303は指定された撮像範囲と取得部302により取得された撮像範囲を示す情報とを比較する。決定部303は指定された撮像範囲が視度に応じた撮像範囲を超えると判定した場合、被検眼の撮像範囲内で被検眼を撮像するための複数の部分領域を決定する。決定部303は、被検眼の撮像範囲の情報と視度に応じた撮像範囲を示す情報とを用いて、被検眼の撮像範囲内で被検眼を撮像するための複数の部分領域のサイズと撮像範囲内における部分領域の位置を決定する。この位置が部分領域ごとに撮像を行うための基準位置となる(撮像中心位置)。   The determination unit 303 compares the designated imaging range with information indicating the imaging range acquired by the acquisition unit 302. When determining that the designated imaging range exceeds the imaging range corresponding to the diopter, the determining unit 303 determines a plurality of partial areas for imaging the eye to be examined within the imaging range of the eye to be examined. The determination unit 303 uses the information on the imaging range of the eye to be examined and the information indicating the imaging range according to the diopter, and the size and the imaging of the plurality of partial areas for imaging the eye to be examined within the imaging range of the eye to be examined. The position of the partial area within the range is determined. This position becomes a reference position for imaging for each partial area (imaging center position).

部分領域ごとの画像を取得するために、画像取得部304は、移動部308を制御して光学系(補償光学系、走査光学系109、109−1)のフォーカスをあわせる。画像取得部304は、フォーカスを合わせた接眼レンズ110−3、4の位置情報を用いて視度を求めることも可能である。取得部302は、画像取得部304から視度を取得して、上述の演算処理または記憶部310の参照により、被検眼の視度に応じた撮像範囲を示す情報を取得することも可能である。   In order to acquire an image for each partial region, the image acquisition unit 304 controls the moving unit 308 to focus the optical system (compensation optical system, scanning optical system 109, 109-1). The image acquisition unit 304 can also obtain the diopter by using position information of the eyepieces 110-3 and 4 that are focused. The acquisition unit 302 can acquire diopter from the image acquisition unit 304 and acquire information indicating an imaging range according to the diopter of the eye to be examined by referring to the arithmetic processing described above or the storage unit 310. .

フォーカスを合わせた後、画像取得部304は、部分領域ごとの位置(撮像中心位置)に、被検眼を撮像するための光学系の撮像位置を合わせて部分領域ごとの画像を取得する。尚、走査光学系109、109−1による光の走査は、「撮像」と同義である。   After focusing, the image acquisition unit 304 acquires an image for each partial region by aligning the imaging position of the optical system for imaging the eye to be examined with the position (imaging center position) for each partial region. Note that scanning of light by the scanning optical systems 109 and 109-1 is synonymous with “imaging”.

表示制御部320は画像取得部304で取得された部分領域ごとの画像を表示部307に表示する。判定部330は、表示制御部320の制御の下に表示部307に表示された部分領域の画像を被検眼の撮像範囲の全体画像を生成するために使用するか否かを判定する。操作者は表示部307に表示された画像を観察し、判定部330は入力部306を介して操作者の判定結果を受付ける。画像の判定としては、操作者の観察による判定結果を入力部306を介して入力する場合に限らず、部分領域の画像の画質の特徴量(例えば、部分領域における被写体の輝度、明度など)の基準値を閾値として判定することも可能である。例えば、取得された部分領域の画質の特徴量が基準となる閾値以上となる場合に、判定部330は、当該画像を被検眼の撮像範囲の全体画像を生成するために使用すると判定する。一方、取得された部分領域の画質の特徴量が基準となる閾値未満となる場合に、判定部330は、当該画像を被検眼の撮像範囲の全体画像を生成するために使用しないと判定する。   The display control unit 320 displays the image for each partial area acquired by the image acquisition unit 304 on the display unit 307. The determination unit 330 determines whether or not to use the partial area image displayed on the display unit 307 under the control of the display control unit 320 to generate the entire image of the imaging range of the eye to be examined. The operator observes the image displayed on the display unit 307, and the determination unit 330 receives the operator's determination result via the input unit 306. The determination of the image is not limited to the case where the determination result obtained by the operator's observation is input via the input unit 306, but the feature amount of the image quality of the partial area (for example, the luminance and brightness of the subject in the partial area). It is also possible to determine the reference value as a threshold value. For example, when the feature amount of the image quality of the acquired partial area is equal to or larger than a reference threshold value, the determination unit 330 determines to use the image to generate the entire image of the imaging range of the eye to be examined. On the other hand, when the acquired feature amount of the image quality of the partial area is less than a reference threshold value, the determination unit 330 determines that the image is not used to generate the entire image of the imaging range of the eye to be examined.

画像処理部305は、部分領域ごとの画像と部分領域の位置とを用いて被検眼の撮像範囲の全体画像を生成する。繋ぎ合わせ領域(重複領域)が指定されている場合、画像処理部305は重複領域で隣り合う部分領域の画像を繋ぎ合わせて、被検眼の撮像範囲の全体画像を生成する。表示制御部320は画像処理部305により生成された全体画像を表示部307に表示する。   The image processing unit 305 generates an entire image of the imaging range of the eye to be examined using the image for each partial area and the position of the partial area. When the joining area (overlapping area) is designated, the image processing unit 305 joins the images of the partial areas adjacent to each other in the overlapping area, and generates an entire image of the imaging range of the eye to be examined. The display control unit 320 displays the entire image generated by the image processing unit 305 on the display unit 307.

次に、本実施形態に係る撮像装置による撮像方法を図3Bのフローチャートを用いて説明する。撮像装置は図1で説明した補償光学系を持つSLOの構成を有するものとして説明するが、上述のようにOCTでも同様の撮像方法を適用することが可能である。   Next, an imaging method by the imaging apparatus according to the present embodiment will be described using the flowchart of FIG. 3B. The image pickup apparatus will be described as having the SLO configuration having the adaptive optical system described with reference to FIG. 1, but the same image pickup method can be applied to OCT as described above.

ステップS101において、指定部301は操作者からの入力に応じて撮像範囲を指定する。撮像範囲は縦横の長さを数値で指定してもよいし、図4のような被検眼の撮像範囲を指定するための指定画面の画像(ワイドフィールド系の電子画像)からグラフィカルに撮像範囲を設定することも可能である。なお、操作者が手動で入力する以外にも、何かしらの信号をトリガーにして予め定められた撮像範囲が自動的に指定されても良い。   In step S101, the designation unit 301 designates an imaging range in accordance with an input from the operator. The imaging range may be designated by numerical values for the length and width, and the imaging range is graphically determined from the image (wide field electronic image) of the designation screen for designating the imaging range of the eye to be examined as shown in FIG. It is also possible to set. In addition to the manual input by the operator, a predetermined imaging range may be automatically designated by using some signal as a trigger.

ステップS102において、画像取得部304は、波面センサー115への入力に応じて波面補正デバイス108を駆動して波面収差を補正して、接眼レンズ110−3、4を駆動してフォーカスをあわせる。波面センサー115の計測により求まるゼルニケ(Zernike)係数により波面を近似してフォーカスをあわせるとより精度良くフォーカスを合わせることができる。   In step S102, the image acquisition unit 304 drives the wavefront correction device 108 according to the input to the wavefront sensor 115 to correct the wavefront aberration, and drives the eyepieces 110-3 and 4 to adjust the focus. If the wavefront is approximated by the Zernike coefficient obtained by measurement of the wavefront sensor 115 and the focus is adjusted, the focus can be adjusted with higher accuracy.

ステップS103において、指定部301は被検眼の特性を示す情報として視度を取得する。ステップS104において、決定部303はステップS101で指定された撮像範囲とステップS103で取得された視度とを用いて、撮像範囲内で被検眼を撮像するための複数の部分領域のサイズと指定された撮像範囲内における部分領域の位置を決定する。ステップS101において、図4のワイドフィールド系の電子画像から撮像範囲が指定される場合、指定部301は、ワイドフィールド系の光学系の視度に対応した撮像倍率から、撮像範囲を縦横の長さに変換して撮像範囲を数値範囲によって指定する。決定部303は指定された撮像範囲の幅と視度に応じた撮像範囲の幅とを用いた除算結果から複数の部分領域のサイズ(大きさ)と複数の部分領域の位置とを決定する。   In step S103, the designation unit 301 acquires diopter as information indicating the characteristics of the eye to be examined. In step S104, the determination unit 303 is specified as the sizes of a plurality of partial areas for imaging the eye to be examined within the imaging range, using the imaging range specified in step S101 and the diopter acquired in step S103. The position of the partial area in the imaging range is determined. When the imaging range is designated from the wide-field electronic image in FIG. 4 in step S101, the designation unit 301 sets the imaging range to the vertical and horizontal lengths based on the imaging magnification corresponding to the diopter of the wide-field optical system. And the imaging range is designated by a numerical range. The determination unit 303 determines the sizes (sizes) of the plurality of partial areas and the positions of the plurality of partial areas from the division result using the width of the specified imaging range and the width of the imaging range corresponding to the diopter.

図5は、視度マイナス10Dの被検眼の場合に、ステップS101で指定された撮像範囲(全体領域)が縦1200μm、横1600μmのときの部分領域を例示する図である。視度マイナス10D(−10D)の場合、部分領域は397μm角となる(図5)。視度0Dとした場合、部分領域は350μm角となる。   FIG. 5 is a diagram illustrating a partial region when the imaging range (entire region) specified in step S101 is 1200 μm in length and 1600 μm in width in the case of an eye to be examined having a diopter minus 10D. When the diopter is minus 10D (−10D), the partial region is 397 μm square (FIG. 5). When the diopter is 0D, the partial area is 350 μm square.

取得部302は、視度に応じた撮像範囲を、被検眼を撮像するための光学系(補償光学系、走査光学系、接眼レンズ)の撮像倍率から取得(算出)することが可能である。あるいは、取得部302は、視度と視度に応じた撮像範囲を記憶する記憶部310を参照して、視度に対応する撮像範囲を取得することも可能である。図3Cは、記憶部310に記憶されているデータを例示する図である。記憶部310には視度に対応する撮像範囲を記憶するテーブルが記憶されている。被検眼の視度が指定された場合、取得部302は対応する撮像範囲を記憶部310のテーブルの参照により取得することができる。   The acquisition unit 302 can acquire (calculate) the imaging range corresponding to the diopter from the imaging magnification of an optical system (compensation optical system, scanning optical system, eyepiece) for imaging the eye to be examined. Or the acquisition part 302 can also acquire the imaging range corresponding to a diopter with reference to the memory | storage part 310 which memorize | stores the imaging range according to a diopter and a diopter. FIG. 3C is a diagram illustrating data stored in the storage unit 310. The storage unit 310 stores a table for storing an imaging range corresponding to the diopter. When the diopter of the eye to be examined is designated, the acquisition unit 302 can acquire the corresponding imaging range by referring to the table in the storage unit 310.

繋ぎ合わせ領域(重複領域)を25μmとすると、決定部303は視度マイナス10Dの場合の撮像範囲(397μm角)から両端の繋ぎ合わせ領域(50μm=25μm×2)を引いた領域を、部分領域間で重複しない有効領域(347μm角)と決定する。尚、繋ぎ合わせ領域(重複領域)を指定しない場合、視度マイナス10Dの場合、有効領域は397μm角となる。   Assuming that the joining area (overlapping area) is 25 μm, the determination unit 303 subtracts the area obtained by subtracting the joining area (50 μm = 25 μm × 2) at both ends from the imaging range (397 μm square) in the case of diopter minus 10D. It is determined as an effective area (347 μm square) that does not overlap between them. When the joining area (overlapping area) is not specified and the diopter is minus 10D, the effective area is 397 μm square.

決定部303は、縦幅1200μmを有効領域長347μmで除算した除算結果(約3.46)から、撮影範囲の縦幅1200μmの方向の撮像範囲をカバーするための4つの部分領域を決定する。また、決定部303は、横幅1600μmを有効領域長347μmで除算した除算結果(約4.61)から、撮影範囲の横幅1600μmの方向の撮像範囲をカバーするための5つの部分領域を決定する。   The determination unit 303 determines four partial areas for covering the imaging range in the direction of the vertical width of 1200 μm of the imaging range from the division result (about 3.46) obtained by dividing the vertical width of 1200 μm by the effective area length of 347 μm. Further, the determination unit 303 determines five partial areas for covering the imaging range in the direction of the horizontal width of 1600 μm of the imaging range from the division result (about 4.61) obtained by dividing the horizontal width of 1600 μm by the effective area length of 347 μm.

尚、視度0Dの場合、有効領域は300μm(=350μm−50μm)となる。決定部303は、撮影範囲の縦幅1200μmを有効領域長300μmで除算した除算結果(4.00)から、撮影範囲の縦幅1200μmの方向の撮像範囲をカバーするための4つの部分領域を決定する。更に、決定部303は横幅1600μmを有効領域長300μmで除算した除算結果(約5.33)から、撮影範囲の横幅1600μmの方向の撮像範囲をカバーするための6つの部分領域を決定する。   When the diopter is 0D, the effective area is 300 μm (= 350 μm−50 μm). The determination unit 303 determines four partial areas for covering the imaging range in the direction of the vertical width of 1200 μm of the shooting range from the division result (4.00) obtained by dividing the vertical width of the shooting range by 1200 μm by the effective area length of 300 μm. To do. Further, the determination unit 303 determines six partial areas for covering the imaging range in the direction of the horizontal width of 1600 μm of the imaging range from the division result (about 5.33) obtained by dividing the horizontal width of 1600 μm by the effective area length of 300 μm.

ステップS105において、決定部303は各撮像領域のサイズと、部分領域ごとに撮像を行うための基準位置となる撮像中心位置を決定する。各撮像領域の撮像中心位置を求めるために、まず、決定部303は各撮像領域のサイズを決定する。ステップS101で指定された撮像範囲の縦の長さをly=1200μm 、横の長さをlx=1600μm とする。上述の決定部303の演算結果より、縦の長さ方向に配置される部分領域の数は(Dy)=4、横の方向に配置される部分領域の数は(Dx)=5である。決定部303は各部分領域の横方向の幅X、縦方向の幅Yを(1)、(2)式により決定する。   In step S <b> 105, the determination unit 303 determines the size of each imaging region and the imaging center position that is a reference position for imaging for each partial region. In order to obtain the imaging center position of each imaging area, first, the determination unit 303 determines the size of each imaging area. It is assumed that the vertical length of the imaging range specified in step S101 is ly = 1200 μm and the horizontal length is lx = 1600 μm. From the calculation result of the determination unit 303 described above, the number of partial areas arranged in the vertical length direction is (Dy) = 4, and the number of partial areas arranged in the horizontal direction is (Dx) = 5. The determination unit 303 determines the width X in the horizontal direction and the width Y in the vertical direction of each partial region using the expressions (1) and (2).

横方向の幅X=lx÷Dx ・・・(1)
=1600μm÷5=320μm
縦方向の幅Y=ly÷Dy ・・・(2)
=1200μm÷4=300μm
決定部は、(1)、(2)式により求めた横方向の幅X、縦方向の幅Yの部分領域を、指定された撮像範囲に配置し、各部分領域の中心位置を各部分領域の撮像中心位置として決定する。図6は、各部分領域の撮像中心位置を例示する図である。(Sx1、Sy1)、・・・(SxDx、Sy1)、(Sx1、Sy2)、・・・・(Sx1、SyDy)、・・・・(SxDx、SyDy)は、各部分領域における撮像中心位置であり、この位置が部分領域ごとに撮像を行うための基準位置となる。
Horizontal width X = lx ÷ Dx (1)
= 1600μm ÷ 5 = 320μm
Vertical width Y = ly ÷ Dy (2)
= 1200μm ÷ 4 = 300μm
The determination unit arranges the partial areas having the horizontal width X and the vertical width Y obtained by the expressions (1) and (2) in the designated imaging range, and sets the center position of each partial area to each partial area. Is determined as the imaging center position. FIG. 6 is a diagram illustrating the imaging center position of each partial region. (Sx1, Sy1),... (SxDx, Sy1), (Sx1, Sy2),... (Sx1, SyDy),... (SxDx, SyDy) are imaging center positions in the respective partial areas. Yes, this position is a reference position for imaging for each partial area.

指定された撮像範囲の中心位置を(0、0)とした場合、決定部303は、各部分領域における撮像中心位置(Sxi、Syj)を(3)、(4)式により決定する。撮像中心位置(Sxi、Syj)は、指定された撮像範囲内における各部分領域の位置を特定することができる。   When the center position of the designated imaging range is set to (0, 0), the determination unit 303 determines the imaging center position (Sxi, Syj) in each partial area using the expressions (3) and (4). The imaging center position (Sxi, Syj) can specify the position of each partial area within the designated imaging range.

Sxi= −(lx÷2)+(lx×((2×i)−1))÷(2×Dx)) ・・・(3)
Syj= −(ly÷2)+(ly×((2×j)−1))÷(2×Dy)) ・・・(4)
(i=1、2、・・・・Dx 、 j=1、2、・・・・Dy )
ステップS106において、画像取得部304は部分領域ごとの撮像中心位置に、被検眼を撮像するための光学系の撮像位置を合わせて部分領域ごとの画像を取得する。被検眼の視度によって撮像範囲が異なるのと同様に、視度によって光学系の撮像倍率も異なる。視度0Dの場合の部分領域のサイズは350μm角であり、視度マイナス10Dの場合の部分領域のサイズは397μm角であるので、視度0Dに対し視度マイナス10Dの撮像倍率(M)は、M=350÷397=0.8816となる。
Sxi = − (lx ÷ 2) + (lx × ((2 × i) −1)) ÷ (2 × Dx)) (3)
Syj = − (ly ÷ 2) + (ly × ((2 × j) −1)) ÷ (2 × Dy)) (4)
(I = 1, 2,... Dx, j = 1, 2,... Dy)
In step S <b> 106, the image acquisition unit 304 acquires an image for each partial region by matching the imaging center position of each partial region with the imaging position of the optical system for imaging the eye to be examined. Just as the imaging range varies depending on the diopter of the eye to be examined, the imaging magnification of the optical system varies depending on the diopter. When the diopter is 0D, the size of the partial area is 350 μm square, and when the diopter is minus 10D, the size of the partial area is 397 μm square, so that the imaging magnification (M) of the diopter minus 10D with respect to the diopter 0D is M = 350 ÷ 397 = 0.8816.

視度0Dの場合に (Sxi、Syj)の位置で駆動する走査光学系の走査角に撮像倍率(M)をかけることにより、部分領域の撮像中心位置を基準に部分領域をカバーした撮像が可能になる。画像取得部304は、部分領域の撮像中心位置に対し、主走査方向用の走査光学系109−1と、これと同期する副走査方向用の走査光学系109を所定の走査画角で撮像することにより各部分領域の画像を取得することができる。   When the diopter is 0D, it is possible to capture the partial area with reference to the imaging center position of the partial area by applying the imaging magnification (M) to the scanning angle of the scanning optical system driven at the position of (Sxi, Syj) become. The image acquisition unit 304 captures the scanning optical system 109-1 for the main scanning direction and the scanning optical system 109 for the sub-scanning direction synchronized therewith at a predetermined scanning field angle with respect to the imaging center position of the partial region. Thus, an image of each partial area can be acquired.

画像取得部304は、走査光学系の走査角を、以下の(5)〜(8)によって算出することが可能である。画像取得部304は、ステップS105で求めた距離X,Y(撮像中心位置間の距離)に、繋ぎ合わせ領域加算した値を、(5)、(6)式により求めることができる。   The image acquisition unit 304 can calculate the scanning angle of the scanning optical system by the following (5) to (8). The image acquisition unit 304 can obtain the value obtained by adding the joining region to the distances X and Y (distance between the imaging center positions) obtained in step S105, using the equations (5) and (6).

x方向:X+(2×繋ぎ合わせ量)・・・(5)
y方向:Y+(2×繋ぎ合わせ量)・・・(6)
主走査方向用の走査光学系109−1とこれに同期する副走査方向用の走査光学系109が視度0Dの場合に撮像する時の走査角をΘとする。撮像倍率Mとした場合、画像取得部304は、視度0Dで350μm角を撮像する主走査方向の走査角Θx、副走査方向の走査角Θyを、(5)、(6)式の値を用いて(7)、(8)式により求めることができる。
x direction: X + (2 × joining amount) (5)
y direction: Y + (2 × joining amount) (6)
A scanning angle when imaging is performed when the scanning optical system 109-1 for the main scanning direction and the scanning optical system 109 for the sub-scanning direction synchronized therewith have a diopter of 0D is Θ. When the imaging magnification is M, the image acquisition unit 304 sets the scanning angle Θx in the main scanning direction and the scanning angle Θy in the sub-scanning direction for imaging a 350 μm square at a diopter 0D to the values of the expressions (5) and (6). And can be obtained by equations (7) and (8).

Θx=Θ×(X+(2×つなぎ合わせ量))÷350μm×M ・・・(7)
Θy=Θ×(Y+(2×つなぎ合わせ量))÷350μm×M ・・・(8)
ステップS107において、表示制御部320はステップS106で取得された部分領域の画像を表示部307に表示する。
Θx = Θ × (X + (2 × joining amount)) ÷ 350 μm × M (7)
Θy = Θ × (Y + (2 × joining amount)) ÷ 350 μm × M (8)
In step S <b> 107, the display control unit 320 displays the partial area image acquired in step S <b> 106 on the display unit 307.

ステップS108において、ステップS107で表示された画像の適否を判定する。判定部330は、ステップS107で表示制御部320の制御の下に表示部307に表示された部分領域の画像を被検眼の撮像範囲の全体画像を生成するために使用するか否かを判定する。操作者の判定結果、あるいは画質が特徴量の基準となる閾値を満たさない場合、判定部330は、部分領域の画像を全体画像を生成するために使用しないと判定し(S108−No)、処理はステップS101に戻される。ステップS101では、撮像範囲を再度指定して、以下同様の処理を繰り返す。例えば、表示された画像が適切でないと操作者により判定された場合は、撮像範囲を修正し、撮像範囲を再設定することができる。   In step S108, the suitability of the image displayed in step S107 is determined. The determination unit 330 determines whether or not to use the partial region image displayed on the display unit 307 under the control of the display control unit 320 in step S107 to generate the entire image of the imaging range of the eye to be examined. . If the determination result of the operator or the image quality does not satisfy the threshold value that is the criterion of the feature amount, the determination unit 330 determines that the partial region image is not used to generate the entire image (S108-No), and the processing Is returned to step S101. In step S101, the imaging range is designated again, and the same processing is repeated thereafter. For example, when the operator determines that the displayed image is not appropriate, the imaging range can be corrected and the imaging range can be reset.

一方、ステップS108の判定で、操作者の判定結果、あるいは画質が特徴量の基準となる閾値以上となる場合、判定部330は、部分領域の画像を全体画像を生成するために使用すると判定し(S108−Yes)、処理をステップS109に進める。本ステップでは、全体画像の生成に適切でないと判定された部分領域の画像を除き、全体画像の生成に適切と判断された部分領域の画像のみを用いて被検眼の撮像範囲の全体画像の生成が可能になる。   On the other hand, if it is determined in step S108 that the operator's determination result or the image quality is equal to or higher than a threshold value that is a criterion for the feature amount, the determination unit 330 determines that the partial region image is used to generate the entire image. (S108-Yes), the process proceeds to step S109. In this step, the entire image of the imaging range of the eye to be examined is generated using only the partial region image determined to be appropriate for the generation of the entire image, except for the partial region image determined not to be appropriate for the generation of the entire image. Is possible.

ステップS109において、画像取得部304は、全ての部分領域の撮像が終了したか否かを判定し、終了していなければ(S109−No)、処理をステップS106に戻して未撮像の部分領域を撮像する。全ての撮像が終了した場合(S109−Yes)、処理をステップS110に進める。   In step S109, the image acquisition unit 304 determines whether or not imaging of all the partial areas has been completed. If not completed (No in S109), the process returns to step S106, and the unimaged partial areas are selected. Take an image. If all imaging has been completed (S109-Yes), the process proceeds to step S110.

ステップS110において、画像処理部305は、部分領域ごとの画像と部分領域の位置とを用いて被検眼の撮像範囲の全体画像を生成する。繋ぎ合わせ領域(重複領域)が指定されている場合、画像処理部305は重複領域で隣り合う部分領域の画像を繋ぎ合わせて、被検眼の撮像範囲の全体画像を生成する。   In step S110, the image processing unit 305 generates an entire image of the imaging range of the eye to be inspected using the image for each partial area and the position of the partial area. When the joining area (overlapping area) is designated, the image processing unit 305 joins the images of the partial areas adjacent to each other in the overlapping area, and generates an entire image of the imaging range of the eye to be examined.

画像処理部305は、例えば、部分領域の位置(撮像中心位置)から、各部分領域が撮像範囲内において、どの位置の領域であるかを特定し、特定された領域に対応する部分領域の画像を配置していくことにより、全体画像を生成することができる。あるいは、画像処理部305は撮像中心位置(Sxi、Syj)と部分領域の数(縦の長さ方向の部分領域の数(Dy)、横の方向の部分領域の数(Dx))とを用いて、図6のような各部分領域の画像を撮像範囲内に配置することにより、全体画像を生成できる。   For example, the image processing unit 305 identifies the position of each partial area in the imaging range from the position of the partial area (imaging center position), and an image of the partial area corresponding to the identified area. By arranging these, it is possible to generate an entire image. Alternatively, the image processing unit 305 uses the imaging center position (Sxi, Syj) and the number of partial areas (the number of partial areas in the vertical length direction (Dy) and the number of partial areas in the horizontal direction (Dx)). Thus, by arranging the images of the partial areas as shown in FIG. 6 within the imaging range, an entire image can be generated.

ステップS110において、表示制御部320は、ステップS110で生成された全体画像を表示部307に表示する。   In step S110, the display control unit 320 displays the entire image generated in step S110 on the display unit 307.

(第2実施形態:撮像範囲の指定の例示)
第1実施形態では、撮像範囲として矩形範囲を指定して(図3のS101)、撮像範囲内における複数の部分領域を決定、それぞれの部分領域で撮像された画像から全体画像を生成する構成を説明した。本発明の趣旨は、撮像範囲の指定として矩形により指定する場合に限定されるものではない。例えば、図3のステップS101の範囲の指定として、図7に示すように、1600μm角のうち、指定した領域が交差する、例えば、十字形の範囲のように撮像範囲を指定することも可能である。図7の撮像範囲では、視度マイナス10D(−10D)の場合、397μm角の部分領域に分割される。
(Second Embodiment: Illustrative Specification of Imaging Range)
In the first embodiment, a rectangular range is designated as the imaging range (S101 in FIG. 3), a plurality of partial areas in the imaging range are determined, and an entire image is generated from images captured in each partial area. explained. The gist of the present invention is not limited to the case where the imaging range is designated by a rectangle. For example, as the range designation in step S101 in FIG. 3, as shown in FIG. 7, it is also possible to designate an imaging range such as a cruciform range where the designated areas intersect within a 1600 μm square. is there. In the imaging range of FIG. 7, when the diopter is minus 10D (−10D), it is divided into partial areas of 397 μm square.

図8は斜め方向に領域が交差する撮像範囲の指定を例示する図である。1600μm角のうち、斜め方向に領域が交差する、例えば、X字形の範囲のように撮像範囲を指定することも可能である。図8の撮像範囲では、視度マイナス10D(−10D)の場合、397μm角の部分領域に分割される。   FIG. 8 is a diagram exemplifying designation of an imaging range where regions intersect in an oblique direction. It is also possible to specify an imaging range such as an X-shaped range in which the regions intersect in an oblique direction within a 1600 μm square. In the imaging range of FIG. 8, when the diopter is minus 10D (−10D), it is divided into partial areas of 397 μm square.

図7、図8のように撮像範囲を指定した場合、撮像範囲の指定後の処理として、図3BのステップS102〜ステップS110までの処理は第1実施形態と同様である。ただし、交差している部分領域では、部分領域の全体が重複することになるため、いずれか一方の方向で部分領域の撮像を行えばよい。図7、図8に示すように撮像範囲を指定した場合、1600μm角の領域のうち、指定された撮像範囲のみを撮像すればよく、図3BのステップS102〜ステップS110までの処理の負荷を軽減することが可能になる。   When the imaging range is designated as shown in FIGS. 7 and 8, the processing from step S <b> 102 to step S <b> 110 in FIG. 3B is the same as that in the first embodiment as processing after designation of the imaging range. However, since the entire partial area overlaps in the intersecting partial areas, the partial areas may be imaged in either direction. When the imaging range is designated as shown in FIGS. 7 and 8, only the designated imaging range needs to be imaged in the 1600 μm square area, and the processing load from step S102 to step S110 in FIG. 3B is reduced. It becomes possible to do.

上記の各実施形態によれば、指定された撮像範囲が視度に応じた撮像範囲を超える場合、指定された撮像範囲内で被検眼を撮像するための部分領域を決定し、部分領域の画像を取得することが可能になる。あるいは、必要以上な範囲を撮像し不要な負担を被検者に負わせることを防止することが可能になる。   According to each of the above embodiments, when the designated imaging range exceeds the imaging range according to the diopter, the partial area for imaging the eye to be examined is determined within the designated imaging range, and the image of the partial area is determined. It becomes possible to get. Alternatively, it is possible to prevent an unnecessary burden from being imposed on the subject by imaging an unnecessarily large range.

また、上記の各実施形態に係る撮像装置は、内視鏡装置に適用することも可能である。例えば、内視鏡装置は、光源を含む照射部と、体腔内に挿入可能な外筒に設けられ、照射部の光源からの光により体腔内を撮像する撮像装置を備える。   The imaging device according to each of the above embodiments can also be applied to an endoscope device. For example, the endoscope apparatus includes an irradiation unit including a light source and an imaging device that is provided in an outer cylinder that can be inserted into a body cavity and images the inside of the body cavity with light from the light source of the irradiation unit.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (18)

被検眼の撮像範囲を指定する指定手段と、
前記被検眼の特性に応じた撮像範囲を示す情報を用いて、前記指定された撮像範囲における前記被検眼を撮像するための複数の部分領域の大きさと前記複数の部分領域の位置とを決定する決定手段と、
を備えることを特徴とする撮像装置。
A designation means for designating an imaging range of the eye to be examined;
Using information indicating the imaging range corresponding to the characteristics of the eye to be examined, the size of the plurality of partial areas and the position of the plurality of partial areas for imaging the eye to be examined in the designated imaging range are determined. A determination means;
An imaging apparatus comprising:
前記決定手段が、前記被検眼の特性に応じた撮像範囲を示す情報と所定の部分領域の大きさとを用いて前記複数の部分領域の大きさを決定し、前記指定された撮像範囲と前記決定された大きさとを用いて前記複数の部分領域の位置を決定することを特徴とする請求項1に記載の撮像装置。   The determining means determines the size of the plurality of partial areas using information indicating the imaging range according to the characteristics of the eye to be examined and the size of a predetermined partial area, and the specified imaging range and the determination The imaging apparatus according to claim 1, wherein positions of the plurality of partial areas are determined using the measured size. 前記決定手段は、前記指定された撮像範囲を前記決定された大きさで除算して、前記複数の部分領域の位置を決定することを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the determination unit determines the positions of the plurality of partial regions by dividing the designated imaging range by the determined size. 前記複数の部分領域ごとの位置に、前記被検眼を撮像するための光学部の撮像位置を合わせて当該部分領域ごとの画像を取得する画像取得手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The image acquisition means for acquiring an image for each partial area by aligning an imaging position of an optical unit for imaging the eye to be examined with a position for each of the partial areas. 4. The imaging device according to any one of 3. 前記決定手段は、前記複数の部分領域の大きさ及び位置を用いて、前記被検眼を撮像するための光学部で撮像を行うための前記複数の部分領域ごとの基準位置を決定し、
前記画像取得手段は、前記基準位置に前記光学部の撮像位置を合わせて前記複数の部分領域ごとの画像を取得することを特徴とする請求項4に記載の撮像装置。
The determining means determines a reference position for each of the plurality of partial areas for imaging with an optical unit for imaging the eye to be examined, using the size and position of the plurality of partial areas.
The imaging apparatus according to claim 4, wherein the image acquisition unit acquires an image for each of the plurality of partial areas by aligning an imaging position of the optical unit with the reference position.
前記複数の部分領域ごとの画像と前記複数の部分領域の位置とを用いて、前記被検眼の撮像範囲の全体画像を生成する画像処理手段を更に備えることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   6. The image processing device according to claim 1, further comprising image processing means for generating an entire image of the imaging range of the eye to be examined using the images for each of the plurality of partial areas and the positions of the plurality of partial areas. The imaging device according to any one of the above. 前記画像処理手段は、隣り合う部分領域が重なる重複領域で前記隣り合う部分領域の画像を繋ぎ合わせて、前記被検眼の撮像範囲の全体画像を生成することを特徴とする請求項6に記載の撮像装置。   The said image processing means produces | generates the whole image of the imaging range of the said to-be-tested eye by connecting the image of the said adjacent partial area | region in the overlapping area | region where an adjacent partial area | region overlaps. Imaging device. 前記複数の部分領域ごとの画像を表示部に表示させる表示制御手段と、
前記表示された画像ごとに、前記被検眼の撮像範囲の全体画像の生成に使用するか否かを判定する判定手段と、
前記使用すると判定された画像と、前記複数の部分領域の位置とを用いて、前記被検眼の撮像範囲の全体画像を生成する画像処理手段と、
を更に備えることを特徴する請求項1乃至7のいずれか1項に記載の撮像装置。
Display control means for displaying an image for each of the plurality of partial areas on a display unit;
Determining means for determining whether to use for generating the entire image of the imaging range of the eye to be examined for each of the displayed images;
Image processing means for generating an entire image of the imaging range of the eye to be examined using the image determined to be used and the positions of the plurality of partial areas;
The imaging apparatus according to claim 1, further comprising:
前記被検眼に対する前記被検眼を撮像するための光学部のフォーカスを合わせるために、当該光学部を構成する光学素子を移動する移動手段と、
前記移動手段により移動した前記光学素子の位置と、前記光学部の撮像倍率とを用いた演算処理により、前記特性に応じた撮像範囲を示す情報を取得する取得手段と、
を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
Moving means for moving an optical element constituting the optical unit in order to adjust the focus of the optical unit for imaging the eye to be examined with respect to the eye to be examined;
An acquisition unit that acquires information indicating an imaging range according to the characteristics by a calculation process using the position of the optical element moved by the moving unit and the imaging magnification of the optical unit;
The imaging apparatus according to claim 1, further comprising:
前記被検眼の視度と該視度に対応した撮像範囲を記憶する記憶手段と、
前記被検眼の視度に応じた撮像範囲を示す情報を前記特性に応じた撮像範囲を示す情報として前記記憶手段から取得する取得手段と、
を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
Storage means for storing a diopter of the eye to be examined and an imaging range corresponding to the diopter;
An acquisition unit that acquires information indicating an imaging range corresponding to the diopter of the eye to be examined from the storage unit as information indicating an imaging range corresponding to the characteristic;
The imaging apparatus according to claim 1, further comprising:
ネットワークを介して外部装置と接続し、前記特性に応じた撮像範囲を示す情報を前記外部装置から取得する取得手段を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   9. The information processing apparatus according to claim 1, further comprising an acquisition unit that is connected to an external device via a network and acquires information indicating an imaging range corresponding to the characteristic from the external device. Imaging device. 前記被検眼の波面収差を測定する波面収差測定手段と、
前記測定された波面を用いて、前記被検眼の視度に応じた撮像範囲を示す情報を前記特性に応じた撮像範囲を示す情報として取得する取得手段を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
Wavefront aberration measuring means for measuring the wavefront aberration of the eye to be examined;
The acquisition means which acquires the information which shows the imaging range according to the diopter of the eye to be examined as the information which shows the imaging range according to the characteristic using the measured wavefront. The imaging device according to any one of 1 to 8.
前記被検眼の特性を示す情報に基づいて、前記特性に応じた撮像範囲を示す情報を取得する取得手段を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an acquisition unit configured to acquire information indicating an imaging range corresponding to the characteristic based on information indicating the characteristic of the eye to be examined. . 前記被検眼の眼軸長を示す情報に基づいて、前記特性に応じた撮像範囲を示す情報を取得する取得手段を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   9. The apparatus according to claim 1, further comprising an acquisition unit configured to acquire information indicating an imaging range corresponding to the characteristic based on information indicating an axial length of the eye to be examined. Imaging device. 前記複数の部分領域には、隣り合う部分領域が重なる重複領域が含まれることを特徴とする請求項1乃至14のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the plurality of partial areas include an overlapping area in which adjacent partial areas overlap each other. 前記被検眼を撮像するための光学部は、波面収差を補正するための補償光学部を含むことを特徴とする請求項1乃至15のいずれか1項に記載の撮像装置。   16. The imaging apparatus according to claim 1, wherein the optical unit for imaging the eye to be inspected includes a compensation optical unit for correcting wavefront aberration. コンピュータを、請求項1乃至16のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of any one of Claims 1 thru | or 16. 撮像装置の撮像方法であって、
前記撮像装置の指定手段が、被検眼の撮像範囲を指定する指定工程と、
前記撮像装置の決定手段が、被検眼の特性に応じた撮像範囲を示す情報を用いて、前記指定された撮像範囲における前記被検眼を撮像するための複数の部分領域の大きさと前記複数の部分領域の位置とを決定する決定工程と、
を有することを特徴とする撮像方法。
An imaging method for an imaging apparatus,
A designation step in which the designation unit of the imaging device designates an imaging range of the eye to be examined; and
The determination unit of the imaging apparatus uses the information indicating the imaging range corresponding to the characteristics of the eye to be examined, and uses the information indicating the imaging range to capture the eye to be examined in the designated imaging range and the plurality of parts. A determining step for determining the position of the region;
An imaging method characterized by comprising:
JP2012250584A 2012-11-14 2012-11-14 Imaging apparatus, imaging method and program Pending JP2014097191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012250584A JP2014097191A (en) 2012-11-14 2012-11-14 Imaging apparatus, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012250584A JP2014097191A (en) 2012-11-14 2012-11-14 Imaging apparatus, imaging method and program

Publications (1)

Publication Number Publication Date
JP2014097191A true JP2014097191A (en) 2014-05-29

Family

ID=50939776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012250584A Pending JP2014097191A (en) 2012-11-14 2012-11-14 Imaging apparatus, imaging method and program

Country Status (1)

Country Link
JP (1) JP2014097191A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016016234A (en) * 2014-07-10 2016-02-01 キヤノン株式会社 Fundus imaging apparatus, aberration correction method, and program
JP2016016103A (en) * 2014-07-08 2016-02-01 キヤノン株式会社 Ophthalmologic apparatus and control method thereof
JP2016150090A (en) * 2015-02-17 2016-08-22 キヤノン株式会社 Imaging apparatus and control method of the same
JP2016158708A (en) * 2015-02-27 2016-09-05 株式会社トプコン Ophthalmologic apparatus
JP2016209571A (en) * 2015-04-29 2016-12-15 中国科学院光電技術研究所 Adaptive optical retinal imaging apparatus and method
JP2017047113A (en) * 2015-09-04 2017-03-09 株式会社ニデック Ophthalmic imaging apparatus and ophthalmic imaging program
JP2017522143A (en) * 2014-07-31 2017-08-10 ウニベルジテート ポリテクニカ デ カタル−ニア Method, system and computer program for measuring light diffusion in the eyeball or visual region
JP2018068759A (en) * 2016-10-31 2018-05-10 キヤノン株式会社 Ophthalmic imaging apparatus and control method thereof
JP2018068630A (en) * 2016-10-28 2018-05-10 キヤノン株式会社 Tomographic image acquisition apparatus and method
WO2018084268A1 (en) * 2016-11-02 2018-05-11 株式会社ニコン Fluorescence observation device
WO2018084271A1 (en) * 2016-11-02 2018-05-11 株式会社ニコン Fluorescence observation device
EP3305175A3 (en) * 2016-10-05 2018-07-25 Canon Kabushiki Kaisha Tomographic image acquisition apparatus and tomographic image acquisition method
JP2019058491A (en) * 2017-09-27 2019-04-18 株式会社トプコン Ophthalmic device

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016016103A (en) * 2014-07-08 2016-02-01 キヤノン株式会社 Ophthalmologic apparatus and control method thereof
JP2016016234A (en) * 2014-07-10 2016-02-01 キヤノン株式会社 Fundus imaging apparatus, aberration correction method, and program
JP2017522143A (en) * 2014-07-31 2017-08-10 ウニベルジテート ポリテクニカ デ カタル−ニア Method, system and computer program for measuring light diffusion in the eyeball or visual region
JP2016150090A (en) * 2015-02-17 2016-08-22 キヤノン株式会社 Imaging apparatus and control method of the same
US10271726B2 (en) 2015-02-17 2019-04-30 Canon Kabushiki Kaisha Imaging apparatus and control method for the same
JP2016158708A (en) * 2015-02-27 2016-09-05 株式会社トプコン Ophthalmologic apparatus
JP2016209571A (en) * 2015-04-29 2016-12-15 中国科学院光電技術研究所 Adaptive optical retinal imaging apparatus and method
JP2017047113A (en) * 2015-09-04 2017-03-09 株式会社ニデック Ophthalmic imaging apparatus and ophthalmic imaging program
EP3305175A3 (en) * 2016-10-05 2018-07-25 Canon Kabushiki Kaisha Tomographic image acquisition apparatus and tomographic image acquisition method
JP2018068630A (en) * 2016-10-28 2018-05-10 キヤノン株式会社 Tomographic image acquisition apparatus and method
JP7091018B2 (en) 2016-10-28 2022-06-27 キヤノン株式会社 Tomographic image acquisition device and method
JP2018068759A (en) * 2016-10-31 2018-05-10 キヤノン株式会社 Ophthalmic imaging apparatus and control method thereof
US10912460B2 (en) 2016-10-31 2021-02-09 Canon Kabushiki Kaisha Ophthalmic imaging apparatus and control method thereof
WO2018084271A1 (en) * 2016-11-02 2018-05-11 株式会社ニコン Fluorescence observation device
JPWO2018084268A1 (en) * 2016-11-02 2019-06-24 株式会社ニコン Fluorescence observation device
JPWO2018084271A1 (en) * 2016-11-02 2019-07-18 株式会社ニコン Fluorescence observation device
US10955349B2 (en) 2016-11-02 2021-03-23 Nikon Corporation Fluorescence observation device
US10983323B2 (en) 2016-11-02 2021-04-20 Nikon Corporation Fluorescence observation device
WO2018084268A1 (en) * 2016-11-02 2018-05-11 株式会社ニコン Fluorescence observation device
JP2019058491A (en) * 2017-09-27 2019-04-18 株式会社トプコン Ophthalmic device
JP2022040372A (en) * 2017-09-27 2022-03-10 株式会社トプコン Ophthalmic equipment
JP2023076659A (en) * 2017-09-27 2023-06-01 株式会社トプコン ophthalmic equipment

Similar Documents

Publication Publication Date Title
JP2014097191A (en) Imaging apparatus, imaging method and program
US8708489B2 (en) Aberration correction method, photographing method and photographing apparatus
KR101321779B1 (en) Optical imaging apparatus and method for imaging an optical image
JP5483873B2 (en) Optical tomographic imaging apparatus and optical tomographic imaging method
JP5539089B2 (en) Ophthalmic apparatus, control method and program for ophthalmic apparatus
JP5955020B2 (en) Fundus imaging apparatus and method
JP5511323B2 (en) Compensating optical device, compensating optical method, imaging device, and imaging method
JP6151897B2 (en) Optical tomographic imaging apparatus and control method thereof
JP7179523B2 (en) Fundus imaging device, fundus imaging method and program
JP6494198B2 (en) Fundus imaging apparatus, aberration correction method, and program
JP5517571B2 (en) Imaging apparatus and imaging method
US9339185B2 (en) Imaging apparatus that acquires a first image and, via an aberration correction unit, a second image of an area corresponding to a part of the first image
JP6074241B2 (en) Compensation optical apparatus, imaging apparatus, compensation optical apparatus control method, and program
JP6021394B2 (en) Imaging method and imaging apparatus
JP7164328B2 (en) Ophthalmic device and control method for ophthalmic device
JP2018068630A (en) Tomographic image acquisition apparatus and method
JP2017127578A (en) Imaging method, imaging apparatus, and program for executing the imaging method
US10820794B2 (en) Pupil monitoring method for adaptive optics imaging system
JP2019097944A (en) Ophthalmologic imaging apparatus
JP6921599B2 (en) Ophthalmic devices, their control methods, and programs
JP6108810B2 (en) Ophthalmic apparatus and control method thereof
JP2014111226A (en) Imaging apparatus and control method thereof
JP2017070635A (en) Ophthalmic apparatus and method for controlling ophthalmic apparatus
JP7103813B2 (en) Ophthalmic equipment
JP6869793B2 (en) Ophthalmic devices, their control methods, and programs