[go: up one dir, main page]

JP7677411B2 - IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM - Google Patents

IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM Download PDF

Info

Publication number
JP7677411B2
JP7677411B2 JP2023523483A JP2023523483A JP7677411B2 JP 7677411 B2 JP7677411 B2 JP 7677411B2 JP 2023523483 A JP2023523483 A JP 2023523483A JP 2023523483 A JP2023523483 A JP 2023523483A JP 7677411 B2 JP7677411 B2 JP 7677411B2
Authority
JP
Japan
Prior art keywords
scan data
light
oct
data
fundus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023523483A
Other languages
Japanese (ja)
Other versions
JPWO2022250048A5 (en
JPWO2022250048A1 (en
Inventor
泰士 田邉
泰史 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2022250048A1 publication Critical patent/JPWO2022250048A1/ja
Publication of JPWO2022250048A5 publication Critical patent/JPWO2022250048A5/ja
Application granted granted Critical
Publication of JP7677411B2 publication Critical patent/JP7677411B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Description

本開示の技術は、画像処理方法、画像処理装置、及びプログラムに関する。 The technology disclosed herein relates to an image processing method, an image processing device, and a program.

米国公開2020/0214557公報には、被検眼の断層画像を取得する技術が開示されている。広角で断層画像を取得することが望まれている。 U.S. Publication No. 2020/0214557 discloses a technology for acquiring a tomographic image of a subject's eye. It is desirable to acquire a tomographic image at a wide angle.

本開示の技術の第1の態様の画像処理方法は、プロセッサが行う画像処理であって、信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、前記OCTデータに含まれる複数のAスキャンデータのコントラストの差を補正し、補正されたOCTデータを生成するステップと、を含む。The image processing method of the first aspect of the technology disclosed herein is image processing performed by a processor, and includes the steps of acquiring OCT data of the fundus of the test eye based on interference light between return light obtained by scanning signal light and reference light, and correcting contrast differences between multiple A-scan data included in the OCT data to generate corrected OCT data.

本開示の技術の第2の態様の画像処理装置は、プロセッサを備えた画像処理装置であって、前記プロセッサは、信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、前記OCTデータに含まれる複数のAスキャンデータのコントラストの差を補正し、補正されたOCTデータを生成するステップと、を実行する。 The image processing device of the second aspect of the technology disclosed herein is an image processing device equipped with a processor, which executes the steps of acquiring OCT data of the fundus of the test eye based on interference light between return light obtained by scanning signal light and reference light, and correcting contrast differences between multiple A-scan data included in the OCT data to generate corrected OCT data.

本開示の技術の第3の態様のプログラムは、コンピュータに、信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、前記OCTデータに含まれる複数のAスキャンデータのコントラストの差を補正し、補正されたOCTデータを生成するステップと、を実行させる。 The program of the third aspect of the technology disclosed herein causes a computer to execute the steps of acquiring OCT data of the fundus of the test eye based on interference light between return light obtained by scanning a signal light and a reference light, and correcting contrast differences between multiple A-scan data included in the OCT data to generate corrected OCT data.

眼科システム100のブロック図である。FIG. 1 is a block diagram of an ophthalmology system 100. 眼科装置110の全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of an ophthalmic apparatus 110. FIG. 眼科装置110のCPU16Aが実行する、画像処理プログラムによって実現される機能の説明図である。10 is an explanatory diagram of functions realized by an image processing program executed by a CPU 16A of the ophthalmic apparatus 110. FIG. CPU16Aで行う画像処理を示したフローチャートである。10 is a flowchart showing image processing performed by a CPU 16A. 走査角度と、偏光およびAスキャンとの関係を示す図である。FIG. 13 is a diagram showing the relationship between the scan angle and the polarization and A-scan. 各Aスキャンデータを示す図である。FIG. 11 is a diagram showing each A-scan data. 図6Aの各AスキャンデータによるOCT画像を示す図である。FIG. 6B is a diagram showing an OCT image based on each A-scan data of FIG. 6A. A1スキャンデータのコントラストを算出した図である。FIG. 13 is a diagram showing the calculated contrast of A1 scan data. A2スキャンデータのコントラストを算出した図である。FIG. 13 is a diagram showing the calculated contrast of A2 scan data. A2スキャンデータのコントラストを算出した図である。FIG. 13 is a diagram showing the calculated contrast of A2 scan data. 補正後の各Aスキャンデータを示す図である。FIG. 13 is a diagram showing each A-scan data after correction. 図8Aの補正後の各AスキャンデータによるOCT画像を示す図である。FIG. 8B is a diagram showing an OCT image based on each A-scan data after correction in FIG. 8A. 図7AのA1スキャンデータのコントラストを補正した図である。FIG. 7B is a diagram in which the contrast of the A1 scan data of FIG. 7A is corrected. 図7BのA2スキャンデータのコントラストを補正した図である。FIG. 7C is a diagram showing the A2 scan data of FIG. 7B after contrast correction. ビューワ150に表示される画面スクリーン500を示す図である。FIG. 5 is a diagram showing a screen 500 displayed on the viewer 150.

[第1の実施の形態]
以下、本開示の技術の実施形態に係る眼科システム100について図面を参照して説明する。図1には、眼科システム100の概略構成が示されている。図1に示すように、眼科システム100は、眼科装置110と、サーバ装置(以下、「サーバ」という)140と、表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。サーバ140は、眼科装置110によって複数の患者の眼底が撮影されることにより得られた複数の眼底画像と、図示しない眼軸長測定装置により測定された眼軸長とを、患者IDに対応して記憶する。ビューワ150は、サーバ140により取得した眼底画像や解析結果を表示する。
[First embodiment]
An ophthalmic system 100 according to an embodiment of the technique of the present disclosure will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of the ophthalmic system 100. As shown in FIG. 1, the ophthalmic system 100 includes an ophthalmic device 110, a server device (hereinafter referred to as a "server") 140, and a display device (hereinafter referred to as a "viewer") 150. The ophthalmic device 110 acquires fundus images. The server 140 stores a plurality of fundus images obtained by photographing the fundus of a plurality of patients by the ophthalmic device 110 and an axial length measured by an axial length measuring device (not shown) in association with a patient ID. The viewer 150 displays the fundus images acquired by the server 140 and analysis results.

眼科装置110は、本開示の技術の「画像処理装置」の一例である。The ophthalmic device 110 is an example of an "image processing device" of the technology disclosed herein.

眼科装置110、サーバ140、およびビューワ150は、ネットワーク130を介して、相互に接続されている。ネットワーク130は、LAN、WAN、インターネットや広域イーサ網等の任意のネットワークである。例えば、眼科システム100が1つの病院に構築される場合には、ネットワーク130にLANを採用することができる。The ophthalmic device 110, the server 140, and the viewer 150 are connected to each other via the network 130. The network 130 is any network such as a LAN, a WAN, the Internet, or a wide area Ethernet network. For example, when the ophthalmic system 100 is constructed in a single hospital, a LAN can be adopted for the network 130.

ビューワ150は、クライアントサーバシステムにおけるクライアントであり、ネットワークを介して複数台が接続される。また、サーバ140も、システムの冗長性を担保するために、ネットワークを介して複数台が接続されていてもよい。又は、眼科装置110が画像処理機能およびビューワ150の画像閲覧機能を備えるのであれば、眼科装置110がスタンドアロン状態で、眼底画像の取得、画像処理、および画像閲覧が可能となる。また、サーバ140がビューワ150の画像閲覧機能を備えるのであれば、眼科装置110とサーバ140との構成で、眼底画像の取得、画像処理、および画像閲覧が可能となる。The viewer 150 is a client in a client-server system, and multiple units are connected via a network. In addition, multiple servers 140 may also be connected via a network to ensure system redundancy. Alternatively, if the ophthalmic device 110 has an image processing function and an image viewing function of the viewer 150, fundus image acquisition, image processing, and image viewing are possible when the ophthalmic device 110 is in a stand-alone state. Also, if the server 140 has an image viewing function of the viewer 150, the configuration of the ophthalmic device 110 and the server 140 allows fundus image acquisition, image processing, and image viewing.

なお、他の眼科機器(視野測定、眼圧測定などの検査機器)やAI(Artificial Intelligence)を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、サーバ140、およびビューワ150に接続されていてもよい。In addition, other ophthalmic equipment (examination equipment for visual field measurement, intraocular pressure measurement, etc.) and a diagnostic support device that performs image analysis using AI (Artificial Intelligence) may be connected to the ophthalmic device 110, server 140, and viewer 150 via network 130.

次に、図2を参照して、眼科装置110の構成を説明する。Next, the configuration of the ophthalmic device 110 will be described with reference to Figure 2.

説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。For ease of explanation, Scanning Laser Ophthalmoscope is referred to as "SLO" and Optical Coherence Tomography is referred to as "OCT."

なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。When the ophthalmic device 110 is placed on a horizontal plane, the horizontal direction is the "X direction", the vertical direction to the horizontal plane is the "Y direction", and the direction connecting the center of the pupil of the anterior part of the subject's eye 12 and the center of the eyeball is the "Z direction". Therefore, the X direction, Y direction, and Z direction are perpendicular to each other.

眼科装置110は、撮影装置14および制御装置16を含む。撮影装置14は、SLOユニット18およびOCTユニット20を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。The ophthalmic device 110 includes an imaging device 14 and a control device 16. The imaging device 14 is equipped with an SLO unit 18 and an OCT unit 20, and acquires a fundus image of the fundus of the subject's eye 12. Hereinafter, the two-dimensional fundus image acquired by the SLO unit 18 will be referred to as an SLO image. In addition, a tomographic image or an en-face image of the retina created based on the OCT data acquired by the OCT unit 20 will be referred to as an OCT image.

制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only Memory)16C、および入出力(I/O)ポート16Dを有するコンピュータを備えている。
本実施形態では、ROM16Cには、後述する図4に示す画像処理プログラムが記憶されている。
CPU16Aは、本開示の技術の「プロセッサ」の一例である。ROM16Cは、本開示の技術の「記憶部」の一例である。制御装置16は、「コンピュータープログラム製品」の一例である。
The control device 16 comprises a computer having a Central Processing Unit (CPU) 16A, a Random Access Memory (RAM) 16B, a Read-Only Memory (ROM) 16C, and an Input/Output (I/O) port 16D.
In this embodiment, the ROM 16C stores an image processing program shown in FIG. 4, which will be described later.
The CPU 16A is an example of a "processor" of the technology disclosed herein. The ROM 16C is an example of a "storage unit" of the technology disclosed herein. The control device 16 is an example of a "computer program product."

制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。The control device 16 includes an input/display device 16E connected to the CPU 16A via an I/O port 16D. The input/display device 16E has a graphic user interface that displays an image of the subject's eye 12 and receives various instructions from the user. An example of the graphic user interface is a touch panel display.

また、制御装置16は、I/Oポート16Dに接続された画像処理器17を備えている。画像処理器17は、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。なお、制御装置16は、通信インターフェース16Fを介してネットワーク130に接続される。The control device 16 also includes an image processor 17 connected to the I/O port 16D. The image processor 17 generates an image of the subject's eye 12 based on the data obtained by the photographing device 14. The control device 16 is connected to the network 130 via a communication interface 16F.

上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの表示制御部204の制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、表示制御部204が出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。As described above, in FIG. 2, the control device 16 of the ophthalmic device 110 is provided with an input/display device 16E, but the technology of the present disclosure is not limited to this. For example, the control device 16 of the ophthalmic device 110 may not be provided with the input/display device 16E, but may be provided with a separate input/display device that is physically independent from the ophthalmic device 110. In this case, the display device includes an image processing processor unit that operates under the control of the display control unit 204 of the CPU 16A of the control device 16. The image processing processor unit may display an SLO image, etc., based on an image signal that the display control unit 204 instructs to output.

撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、およびOCTユニット20を含む。撮影光学系19は、光学スキャナ22、および広角光学系30を含む。The imaging device 14 operates under the control of the CPU 16A of the control device 16. The imaging device 14 includes an SLO unit 18, an imaging optical system 19, and an OCT unit 20. The imaging optical system 19 includes an optical scanner 22 and a wide-angle optical system 30.

光学スキャナ22は、SLOユニット18から射出された光をX方向、およびY方向に2次元走査する。光学スキャナ22は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。The optical scanner 22 performs two-dimensional scanning in the X and Y directions with the light emitted from the SLO unit 18. The optical scanner 22 may be any optical element capable of deflecting a light beam, such as a polygon mirror or a galvanometer mirror. It may also be a combination of these.

光学スキャナ22は、SLOユニット18からの光とOCTユニット20からの光とを合成する。 The optical scanner 22 combines the light from the SLO unit 18 and the light from the OCT unit 20.

なお、広角光学系30は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、眼底中心部だけでなく眼底周辺部の網膜を撮影することが可能となる。The wide-angle optical system 30 may be a reflective optical system using a concave mirror such as an elliptical mirror, a refractive optical system using a wide-angle lens, or a catadioptric system combining concave mirrors and lenses. By using a wide-angle optical system using an elliptical mirror or a wide-angle lens, it is possible to photograph the retina not only in the center of the fundus but also in the peripheral part of the fundus.

楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示および国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。When a system including an elliptical mirror is used, the system using the elliptical mirror described in International Publication WO2016/103484 or International Publication WO2016/103489 may be used. The disclosures of International Publication WO2016/103484 and International Publication WO2016/103489 are each incorporated herein by reference in their entirety.

広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底Fへ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施形態では、内部照射角は200度としている。The wide-angle optical system 30 realizes observation of the fundus with a wide field of view (FOV) 12A. The FOV 12A indicates the range that can be photographed by the photographing device 14. The FOV 12A can be expressed as a field of view. In this embodiment, the field of view can be defined by an internal irradiation angle and an external irradiation angle. The external irradiation angle is the irradiation angle of the light beam irradiated from the ophthalmic device 110 to the subject's eye 12, which is defined based on the pupil 27. The internal irradiation angle is the irradiation angle of the light beam irradiated to the fundus F, which is defined based on the center O of the eyeball. The external irradiation angle and the internal irradiation angle are in a corresponding relationship. For example, when the external irradiation angle is 120 degrees, the internal irradiation angle corresponds to approximately 160 degrees. In this embodiment, the internal irradiation angle is 200 degrees.

ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。眼底の視野角(FOV)を超広角な角度とした広角光学系30により、被検眼12の眼底の後極部から赤道部を超える領域を撮影することができ、渦静脈などの眼底周辺部に存在する構造物を撮影できる。Here, an SLO fundus image captured at an internal illumination angle of 160 degrees or more is referred to as a UWF-SLO fundus image. UWF is an abbreviation for Ultra Wide Field. The wide-angle optical system 30, which sets the fundus field of view (FOV) to an ultra-wide angle, can capture an image of the area from the posterior pole of the fundus of the subject eye 12 beyond the equator, and structures present in the peripheral area of the fundus, such as vortex veins, can be captured.

眼科装置110は、被検眼12の眼球中心Oを基準位置として内部照射角が200°の領域12Aを撮影することができる。なお、200°の内部照射角は、被検眼12の眼球の瞳孔を基準とした外部照射角では110°である。つまり、広角光学系30は外部照射角110°の画角で瞳からレーザ光を照射させ、内部照射角で200°の眼底領域を撮影する。The ophthalmologic device 110 can capture an image of the area 12A with an internal irradiation angle of 200° with the eyeball center O of the subject's eye 12 as the reference position. The internal irradiation angle of 200° is 110° in terms of the external irradiation angle based on the pupil of the subject's eye 12. In other words, the wide-angle optical system 30 irradiates laser light from the pupil with an angle of view of an external irradiation angle of 110°, and captures an image of the fundus area of 200° with an internal irradiation angle.

SLOシステムは、図2に示す制御装置16、SLOユニット18、および撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。The SLO system is realized by the control device 16, the SLO unit 18, and the imaging optical system 19 shown in Figure 2. The SLO system is equipped with a wide-angle optical system 30, which enables fundus imaging with a wide FOV 12A.

SLOユニット18は、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、およびIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射又は透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、56は、ミラーであり、光学系50、52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。The SLO unit 18 includes a light source 40 of B light (blue light), a light source 42 of G light (green light), a light source 44 of R light (red light), and a light source 46 of IR light (infrared light (e.g., near-infrared light)), and optical systems 48, 50, 52, 54, and 56 that reflect or transmit the light from the light sources 40, 42, 44, and 46 and guide them to one optical path. The optical systems 48 and 56 are mirrors, and the optical systems 50, 52, and 54 are beam splitters. The B light is reflected by the optical system 48, transmits through the optical system 50, and is reflected by the optical system 54, the G light is reflected by the optical systems 50 and 54, the R light is transmitted through the optical systems 52 and 54, and the IR light is reflected by the optical systems 52 and 56, and each is guided to one optical path.

SLOユニット18は、R光およびG光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光の光源40、G光の光源42、R光の光源44、およびIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、更に、白色光の光源を更に備え、G光、R光、およびB光を発するモードや、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。The SLO unit 18 is configured to be able to switch between a light source that emits laser light of different wavelengths or a combination of light sources that emit light, such as a mode that emits R light and G light and a mode that emits infrared light. In the example shown in FIG. 2, four light sources are provided: a light source 40 of B light, a light source 42 of G light, a light source 44 of R light, and a light source 46 of IR light, but the technology of the present disclosure is not limited to this. For example, the SLO unit 18 may further include a light source of white light and emit light in various modes, such as a mode that emits G light, R light, and B light, or a mode that emits only white light.

SLOユニット18から撮影光学系19に入射された光は、光学スキャナ22によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された反射光は、広角光学系30および光学スキャナ22を経由してSLOユニット18へ入射される。Light incident on the imaging optical system 19 from the SLO unit 18 is scanned in the X and Y directions by the optical scanner 22. The scanning light passes through the wide-angle optical system 30 and the pupil 27 and is irradiated onto the fundus. The light reflected by the fundus passes through the wide-angle optical system 30 and the optical scanner 22 and is incident on the SLO unit 18.

SLOユニット18は、被検眼12の後眼部(眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、ビームスプリッタ58により反射したG光を検出するG光検出素子72、ビームスプリッタ60により反射したR光を検出するR光検出素子74、およびビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。The SLO unit 18 includes a beam splitter 64 that reflects B light and transmits light other than B light from the posterior segment (fundus) of the subject's eye 12, and a beam splitter 58 that reflects G light and transmits light other than G light from the light that has passed through the beam splitter 64. The SLO unit 18 includes a beam splitter 60 that reflects R light and transmits light other than R light from the light that has passed through the beam splitter 58. The SLO unit 18 includes a beam splitter 62 that reflects IR light from the light that has passed through the beam splitter 60. The SLO unit 18 includes a B light detection element 70 that detects B light reflected by the beam splitter 64, a G light detection element 72 that detects G light reflected by the beam splitter 58, an R light detection element 74 that detects R light reflected by the beam splitter 60, and an IR light detection element 76 that detects IR light reflected by the beam splitter 62.

広角光学系30および光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理器17は、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。 The light (reflected light reflected by the fundus) incident on the SLO unit 18 via the wide-angle optical system 30 and the optical scanner 22 is reflected by the beam splitter 64 and received by the B light detection element 70 in the case of B light, and is reflected by the beam splitter 58 and received by the G light detection element 72 in the case of G light. The incident light passes through the beam splitter 58 in the case of R light, is reflected by the beam splitter 60, and is received by the R light detection element 74. The incident light passes through the beam splitters 58 and 60 in the case of IR light, is reflected by the beam splitter 62, and is received by the IR light detection element 76. The image processor 17, which operates under the control of the CPU 16A, generates a UWF-SLO image using signals detected by the B light detection element 70, the G light detection element 72, the R light detection element 74, and the IR light detection element 76.

B光検出素子70で検出された信号を用いて生成されたUWF-SLO画像をB-UWF-SLO画像(B色眼底画像)という。G光検出素子72で検出された信号を用いて生成されたUWF-SLO画像をG-UWF-SLO画像(G色眼底画像)という。R光検出素子74で検出された信号を用いて生成されたUWF-SLO画像をR-UWF-SLO画像(R色眼底画像)という。IR光検出素子76で検出された信号を用いて生成されたUWF-SLO画像をIR-UWF-SLO画像(IR眼底画像)という。UWF-SLO画像には、これらのR色眼底画像、G色眼底画像、B色眼底画像からIR眼底画像までが含まれる。また、蛍光を撮影した蛍光のUWF-SLO画像も含まれる。A UWF-SLO image generated using a signal detected by the B light detection element 70 is called a B-UWF-SLO image (B-color fundus image). A UWF-SLO image generated using a signal detected by the G light detection element 72 is called a G-UWF-SLO image (G-color fundus image). A UWF-SLO image generated using a signal detected by the R light detection element 74 is called an R-UWF-SLO image (R-color fundus image). A UWF-SLO image generated using a signal detected by the IR light detection element 76 is called an IR-UWF-SLO image (IR fundus image). UWF-SLO images include R-color fundus images, G-color fundus images, B-color fundus images, and even IR fundus images. They also include fluorescent UWF-SLO images captured using fluorescence.

また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、およびB色眼底画像が得られる。G色眼底画像、R色眼底画像、およびB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像およびR色眼底画像が得られる。G色眼底画像およびR色眼底画像からRGカラー眼底画像が得られる。また、G色眼底画像、R色眼底画像およびB色眼底画像を用いてフルカラー眼底画像を生成するようにしてもよい。 The control device 16 also controls the light sources 40, 42, 44 to emit light simultaneously. The fundus of the test eye 12 is photographed simultaneously with B light, G light, and R light, thereby obtaining a G-color fundus image, an R-color fundus image, and a B-color fundus image, each of which corresponds to each other. An RGB color fundus image is obtained from the G-color fundus image, the R-color fundus image, and the B-color fundus image. The control device 16 controls the light sources 42, 44 to emit light simultaneously, and the fundus of the test eye 12 is photographed simultaneously with G light and R light, thereby obtaining a G-color fundus image and an R-color fundus image, each of which corresponds to each other. An RG color fundus image is obtained from the G-color fundus image and the R-color fundus image. A full-color fundus image may also be generated using the G-color fundus image, the R-color fundus image, and the B-color fundus image.

広角光学系30により、眼底の視野角(FOV:Field of View)を超広角な角度とし、被検眼12の眼底の後極部から赤道部を超える領域を撮影することができる。The wide-angle optical system 30 makes the field of view (FOV) of the fundus an ultra-wide angle, making it possible to capture images of the area from the posterior pole of the fundus of the test eye 12 beyond the equator.

OCTシステムは、図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、眼底周辺部のOCT撮影を可能とする。つまり、眼底の視野角(FOV)を超広角な角度とした広角光学系30により、被検眼12の眼底を広角で撮影、具体的には、被検眼12の眼底の後極部から赤道部を超える領域のOCT撮影を行うことができる。渦静脈などの眼底周辺部に存在する構造物のOCTデータを取得でき、渦静脈の断層像や、OCTデータを画像処理することにより渦静脈の3D構造を得ることができる。The OCT system is realized by the control device 16, OCT unit 20, and imaging optical system 19 shown in FIG. 2. The OCT system includes a wide-angle optical system 30, and thus enables OCT imaging of the peripheral part of the fundus, similar to the above-mentioned SLO fundus image. In other words, the wide-angle optical system 30, which has an ultra-wide fundus field of view (FOV), can image the fundus of the subject eye 12 at a wide angle, specifically, OCT imaging of the area from the posterior pole of the fundus of the subject eye 12 beyond the equator can be performed. OCT data of structures present in the peripheral part of the fundus, such as vortex veins, can be obtained, and a tomographic image of the vortex vein and a 3D structure of the vortex vein can be obtained by image processing the OCT data.

OCTユニット20は、光源20A、センサ(検出素子)20B、第一の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。The OCT unit 20 includes a light source 20A, a sensor (detection element) 20B, a first optical coupler 20C, a reference optical system 20D, a collimating lens 20E, and a second optical coupler 20F.

光源20Aから射出された光は、第一の光カプラ20Cで分岐される。分岐された一方の光は、信号光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。信号光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された信号光は、および広角光学系30を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第一の光カプラ20Cを介して、第2の光カプラ20Fに入射する。Light emitted from the light source 20A is branched by the first optical coupler 20C. One of the branched lights is collimated by the collimating lens 20E as signal light and then enters the imaging optical system 19. The signal light passes through the wide-angle optical system 30 and the pupil 27 and is irradiated onto the fundus. The signal light reflected by the fundus is also passed through the wide-angle optical system 30 and enters the OCT unit 20, and enters the second optical coupler 20F via the collimating lens 20E and the first optical coupler 20C.

光源20Aから射出され、第一の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。The other light emitted from the light source 20A and branched by the first optical coupler 20C is incident on the reference optical system 20D as reference light, and passes through the reference optical system 20D to be incident on the second optical coupler 20F.

第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された信号光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。画像処理部206の制御下で動作する画像処理器17は、センサ20Bで検出された検出信号に対してフーリエ変換などの処理を行いOCTデータを生成する。当該OCTデータに基づいて断層画像やen-face画像などのOCT画像を画像処理器17で生成することも可能である。These lights incident on the second optical coupler 20F, i.e., the signal light reflected from the fundus and the reference light, are interfered with by the second optical coupler 20F to generate interference light. The interference light is received by the sensor 20B. The image processor 17, which operates under the control of the image processing unit 206, performs processing such as Fourier transform on the detection signal detected by the sensor 20B to generate OCT data. It is also possible for the image processor 17 to generate OCT images such as tomographic images and en-face images based on the OCT data.

ここで、OCTユニット20は、所定範囲(例えば6mm×6mmの矩形範囲)を一回のOCT撮影で走査することができる。当該所定範囲は6mm×6mmに限らず、12mm×12mmや23mm×23mmの正方形の範囲でもよいし、14mm×9mm、6mm×3.5mmなど長方形の範囲でもよく、任意の矩形範囲とすることができる。また、直径6mm、12mm、23mmなどの円径の範囲であってもよい。Here, the OCT unit 20 can scan a predetermined range (for example, a rectangular range of 6 mm x 6 mm) in one OCT imaging. The predetermined range is not limited to 6 mm x 6 mm, but may be a square range of 12 mm x 12 mm or 23 mm x 23 mm, or a rectangular range such as 14 mm x 9 mm or 6 mm x 3.5 mm, and can be any rectangular range. It may also be a circular range with a diameter of 6 mm, 12 mm, or 23 mm.

広角光学系30を用いることにより、眼科装置110は、内部照射角が200°の領域12Aが走査対象とすることができる。つまり、光学スキャナ22を制御することにより、渦静脈を含む所定範囲のOCT撮影を行う。眼科装置110は、当該OCT撮影によってOCTデータを生成することが可能となる。By using the wide-angle optical system 30, the ophthalmic device 110 can scan the area 12A with an internal irradiation angle of 200°. In other words, by controlling the optical scanner 22, OCT imaging of a predetermined range including the vortex vein is performed. The ophthalmic device 110 can generate OCT data by the OCT imaging.

よって、眼科装置110は、OCT画像である、渦静脈を含む眼底の断層画像(B-スキャン画像)、渦静脈を含むOCTボリュームデータや、当該OCTボリュームデータの断面であるen-face画像(OCTボリュームデータに基づいて生成された正面画像)を生成することができる。なお、OCT画像には、眼底中心部(黄斑や視神経乳頭などが存在する眼球の後極部)のOCT画像が含まれることは言うまでもない。Therefore, the ophthalmologic device 110 can generate OCT images, such as tomographic images (B-scan images) of the fundus including vortex veins, OCT volume data including vortex veins, and en-face images (frontal images generated based on the OCT volume data) that are cross sections of the OCT volume data. It goes without saying that the OCT images include OCT images of the center of the fundus (the posterior pole of the eyeball where the macula, optic disc, etc. are present).

OCTデータ(あるいはOCT画像の画像データ)は、通信インターフェース16Fを介して眼科装置110からサーバ140へ送付され、図示しない記憶装置に記憶される。The OCT data (or image data of the OCT image) is sent from the ophthalmic device 110 to the server 140 via the communication interface 16F and stored in a storage device not shown.

なお、本実施形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。In this embodiment, the light source 20A is exemplified as a wavelength-swept type SS-OCT (Swept-Source OCT), but various types of OCT systems may also be used, such as SD-OCT (Spectral-Domain OCT) and TD-OCT (Time-Domain OCT).

次に、図3を参照して、眼科装置110のCPU16Aが画像処理プログラムを実行することで実現される各種機能について説明する。画像処理プログラムは、撮影制御機能、表示制御機能、画像処理機能、および処理機能を備えている。CPU16Aがこの各機能を有する画像処理プログラムを実行することで、CPU16Aは、図3に示すように、撮影制御部202、表示制御部204、画像処理部206、および処理部208として機能する。
画像処理部206は、本開示の技術の「取得部」及び「生成部」の一例である。
Next, various functions realized by the CPU 16A of the ophthalmic apparatus 110 executing the image processing program will be described with reference to Fig. 3. The image processing program has an imaging control function, a display control function, an image processing function, and a processing function. By the CPU 16A executing the image processing program having these functions, the CPU 16A functions as an imaging control unit 202, a display control unit 204, an image processing unit 206, and a processing unit 208 as shown in Fig. 3.
The image processing unit 206 is an example of the “acquisition unit” and the “generation unit” of the technology of the present disclosure.

次に、図4を用いて、眼科装置110の画像処理を詳細に説明する。眼科装置110の制御装置16のCPU16Aが画像処理プログラムを実行することで、図4のフローチャートに示された画像処理が実現される。Next, the image processing of the ophthalmic device 110 will be described in detail with reference to Figure 4. The image processing shown in the flowchart of Figure 4 is realized by the CPU 16A of the control device 16 of the ophthalmic device 110 executing an image processing program.

図4のフローチャートに示された処理は、本開示の技術の「画像処理方法」の一例である。The processing shown in the flowchart of Figure 4 is an example of an "image processing method" of the technology disclosed herein.

入力/表示装置16Eの表示画面を介して、患者の情報(患者ID、氏名、性別、年齢、被検眼が右眼か左眼かの情報)が入力され、表示画面に設けられた開始ボタンが操作されると、図4に示す画像処理プロセスがスタートする。
ステップ300で、表示制御部204及び撮影制御部202は、OCTユニット20及び撮影光学系19を制御して、ユーザにより指定された被検眼12の眼底の撮影希望範囲を撮影する。具体的には、まず、表示制御部204が、OCT撮影のための表示画面を入力/表示装置16Eに表示する。表示画面にはUWF眼底画像とOCT撮影開始ボタンとが表示されている。ユーザは、当該UWF眼底画像上で撮影希望範囲を指定し、OCT撮影開始ボタンを操作する。
When patient information (patient ID, name, sex, age, and information on whether the eye to be examined is the right eye or the left eye) is entered via the display screen of the input/display device 16E and a start button provided on the display screen is operated, the image processing process shown in FIG. 4 is started.
In step 300, the display control unit 204 and the imaging control unit 202 control the OCT unit 20 and the imaging optical system 19 to capture an image of the desired imaging range of the fundus of the subject's eye 12 specified by the user. Specifically, the display control unit 204 first displays a display screen for OCT imaging on the input/display device 16E. A UWF fundus image and an OCT imaging start button are displayed on the display screen. The user specifies the desired imaging range on the UWF fundus image and operates the OCT imaging start button.

撮影開始ボタンが押されると、撮影制御部202がOCTユニット20および撮影光学系19を制御し、ユーザに指定された範囲を走査する。そして、画像処理部206が、センサ20Bの検出信号に基づいてOCTデータを生成し、RAM16Bに記憶する。当該OCTデータは複数のAスキャンデータから構成されている。なお、Aスキャンデータとは、被検眼12の眼底の深さ(光軸)方向の走査(この走査を「A-スキャン」と言う。)により得られたデータをいう。図5は、AスキャンデータからAスキャンデータの5個のAスキャンデータに対応する眼底上の走査位置A1からA5と偏光状態の関係を示す図である。図5に示すように、複数のAスキャンデータの各々は、それぞれ異なる走査位置のAスキャンデータである。図6Aには、走査位置がA1からA5のAスキャンデータが示されている。Aスキャンデータは、走査位置が、眼球の中心を通る光軸に沿って信号光が入射する眼底の位置におけるAスキャンデータである。Aスキャンデータは、Aスキャンデータの走査位置よりも下側に位置する走査位置におけるAスキャンデータである。Aスキャンデータは、Aスキャンデータの走査位置よりも下側に位置する走査位置におけるAスキャンデータである。Aスキャンデータは、Aスキャンデータの走査位置よりも下側に位置する走査位置におけるAスキャンデータである。Aスキャンデータは、Aスキャンデータの走査位置よりも上側に位置する走査位置におけるAスキャンデータである。 When the image capture start button is pressed, the image capture control unit 202 controls the OCT unit 20 and the image capture optical system 19 to scan the range specified by the user. Then, the image processing unit 206 generates OCT data based on the detection signal of the sensor 20B and stores it in the RAM 16B. The OCT data is composed of multiple A-scan data. The A-scan data refers to data obtained by scanning the fundus of the subject eye 12 in the depth (optical axis) direction (this scanning is called "A-scan"). FIG. 5 is a diagram showing the relationship between the scanning positions A1 to A5 on the fundus corresponding to five A-scan data of the A1 scan data to the A5 scan data and the polarization state. As shown in FIG. 5, each of the multiple A-scan data is A-scan data at a different scanning position. FIG. 6A shows A-scan data with scanning positions A1 to A5. The A3 scan data is A-scan data at a position of the fundus where the signal light is incident along the optical axis passing through the center of the eyeball. The A2 scan data is A-scan data at a scanning position located lower than the scanning position of the A3 scan data. The A1 scan data is A-scan data at a scanning position located lower than the scanning position of the A2 scan data. The A4 scan data is A-scan data at a scanning position located lower than the scanning position of the A3 scan data. The A5 scan data is A-scan data at a scanning position located higher than the scanning position of the A4 scan data.

ステップ302で、画像処理部206は、RAM16Bから、被検眼12の眼底のOCTデータを取得し、OCTデータに含まれる複数のAスキャンデータの各Aスキャンデータを取得する。また、画像処理部206は、各Aスキャンデータに対して、当該Aスキャンデータの被検眼上の位置(例えば、眼底であれば眼底上の位置)を付与する。ここで、被検眼上の位置とは、眼底の撮影希望範囲(所定領域)を走査するときの走査位置から算出される。あるいは、光学スキャナ22の制御信号に基づいて、被検眼上の位置を算出するようにしてもよい。このようにして、画像処理部206は、OCTデータに含まれるすべてのAスキャンに対して被検眼上の位置を付与する。被検眼上の位置は座標データであり、眼底の場合と角膜などの前眼部の場合がある。In step 302, the image processing unit 206 acquires the OCT data of the fundus of the test eye 12 from the RAM 16B, and acquires each A-scan data of the multiple A-scan data included in the OCT data. The image processing unit 206 also assigns the position of the A-scan data on the test eye (for example, the position on the fundus in the case of the fundus) to each A-scan data. Here, the position on the test eye is calculated from the scanning position when scanning the desired photographing range (predetermined area) of the fundus. Alternatively, the position on the test eye may be calculated based on the control signal of the optical scanner 22. In this way, the image processing unit 206 assigns the position on the test eye to all A-scans included in the OCT data. The position on the test eye is coordinate data, and may be the fundus or the anterior part of the eye such as the cornea.

ステップ304で、画像処理部206は、各Aスキャンデータのコントラストを算出する。ここで、コントラストとは、Aスキャンデータにおける画素の略最高輝度(閾値よりも大きい輝度)と略最低輝度(閾値よりも小さい輝度)との差をいう。また、ここで、輝度とは、Aスキャンデータを構成する画素の明るさをいうものとする。In step 304, the image processor 206 calculates the contrast of each A-scan data. Here, contrast refers to the difference between the approximate maximum luminance (luminance greater than a threshold) and the approximate minimum luminance (luminance less than a threshold) of a pixel in the A-scan data. Also, luminance refers to the brightness of the pixels constituting the A-scan data.

具体的には、画像処理部206は、図6AのAスキャンデータの各画素の画素値から、Aスキャンデータのコントラストを、図7Aに示すように、輝度値の最大値がD40で、輝度値の最小値がD20であるとして算出する。なお、P1~Pnは、参照光と干渉する戻り光が発生する眼底の奥行方向の位置である。図6AのAスキャンデータの各画素の画素値から、Aスキャンデータのコントラストを、図7Bに示すように、輝度値の最大値がD45で、輝度値の最小値がD15であるとして算出する。 Specifically, the image processing unit 206 calculates the contrast of the A1 scan data from the pixel values of each pixel in the A1 scan data in Fig. 6A as shown in Fig. 7A, assuming that the maximum brightness value is D40 and the minimum brightness value is D20 . Note that P1 to Pn are positions in the depth direction of the fundus where return light that interferes with the reference light is generated. The image processing unit 206 calculates the contrast of the A2 scan data from the pixel values of each pixel in the A2 scan data in Fig. 6A as shown in Fig. 7B, assuming that the maximum brightness value is D45 and the minimum brightness value is D15 .

スキャンデータの各画素の画素値から、A3スキャンデータのコントラストは、図7Cに示すように、輝度値の最大値がD50で、輝度値の最小値がD10であるとして算出する。同様に、画像処理部206は、AスキャンデータおよびAスキャンデータについてもコントラストを算出し、OCTデータに含まれるすべてのAスキャンデータのコントラストを算出する。 From the pixel values of each pixel in the A3 scan data, the contrast of the A3 scan data is calculated as shown in Fig. 7C, assuming that the maximum brightness value is D 50 and the minimum brightness value is D 10. Similarly, the image processing unit 206 calculates the contrast for the A4 scan data and the A5 scan data, and calculates the contrast for all A-scan data included in the OCT data.

図5に示すように、眼底上の走査位置によって眼底への信号光の入射角度は異なる。よって、反射光の偏光の度合いも、眼底への信号光の入射角度に応じて、異なる。一方、参照光の偏光状態は、常に同じである。よって、信号光と参照光の偏光状態が一致する度合いは、走査位置に応じて変化することになる。 As shown in Figure 5, the angle of incidence of the signal light on the fundus varies depending on the scanning position on the fundus. Therefore, the degree of polarization of the reflected light also varies depending on the angle of incidence of the signal light on the fundus. On the other hand, the polarization state of the reference light is always the same. Therefore, the degree to which the polarization states of the signal light and the reference light match changes depending on the scanning position.

そして、信号光と参照光との偏光状態が異なる度合いが大きくなると、干渉光の強度はより小さくなる。よって、干渉光の強度は、走査位置に応じて変化する。つまり、走査位置により干渉光の強度は変化し、特に広角で撮影されたOCTデータでは、干渉光の強度の変化は大きくなる。そして、干渉光の強度変化は、OCTデータを構成する各Aスキャンデータのコントラストの変化となって現れる。 The greater the difference in polarization state between the signal light and the reference light, the smaller the intensity of the interference light becomes. Thus, the intensity of the interference light changes depending on the scanning position. In other words, the intensity of the interference light changes depending on the scanning position, and the change in the intensity of the interference light is particularly large in OCT data captured at a wide angle. The change in the intensity of the interference light is then manifested as a change in the contrast of each A-scan data that makes up the OCT data.

図6Aは、OCTデータが5個のAスキャンデータから構成されている場合の、各Aスキャンデータ(A、A、A、A、A)の輝度値を示している。図6Bは、図6Aの5個のAスキャンデータにより生成されたOCT画像を示す図である。図6Aおよび図6Bに示すように、各走査位置のAスキャンデータのコントラストは、他の走査位置のAスキャンデータのコントラストとは異なる。例えば、AスキャンデータとAスキャンデータとではAスキャンデータのほうがコントラストは大きい。 6A shows the brightness values of each A-scan data ( A1 , A2 , A3 , A4 , A5 ) when the OCT data is composed of five A-scan data. FIG. 6B shows an OCT image generated by the five A-scan data of FIG. 6A. As shown in FIG. 6A and FIG. 6B, the contrast of the A-scan data at each scanning position is different from the contrast of the A-scan data at other scanning positions. For example, the contrast of the A - scan data is larger than that of the A - scan data at the A- 3 scanning position.

従って、走査位置が異なると、各Aスキャンデータでコントラストが異なる値となってしまう。よって、互いにコントラストが異なる各Aスキャンデータに基づいてOCT画像を表示すると、同じ層であるのに輝度値が異なるような図6Bに示すOCT画像となる。そのため、各Aスキャンデータのコントラストを補正することが必要となる。Therefore, when the scanning position is different, the contrast of each A-scan data will be different. Therefore, when an OCT image is displayed based on each A-scan data with different contrast, the OCT image shown in Figure 6B will have different brightness values even though it is the same layer. Therefore, it is necessary to correct the contrast of each A-scan data.

次のステップ306で、画像処理部206は、ステップ304で算出された各Aスキャンデータのコントラストの差を補正し、補正されたOCTデータ生成する。 In the next step 306, the image processing unit 206 corrects the contrast difference between each A-scan data calculated in step 304 and generates corrected OCT data.

補正目標として、特定のAスキャンデータにおける画素値のヒストグラムや、予め定められたAスキャンデータ(本実施例ではAスキャンデータ)を、モデルのヒストグラムとして、その他の複数の各Aスキャンデータ(Aスキャンデータ、Aスキャンデータ、Aスキャンデータ、およびAスキャンデータ)の補正を行うことができる。 As a correction target, a histogram of pixel values in specific A-scan data or predetermined A-scan data ( A3 scan data in this embodiment) can be used as a model histogram to correct each of the other multiple A-scan data ( A1 scan data, A2 scan data, A4 scan data, and A5 scan data).

眼球の中心を通る光軸に沿って信号光が入射する眼底の位置におけるAスキャンデータのコントラスト、即ち、輝度値の最大値がD50で、輝度値の最小値がD10を、基準コントラストとする。画像処理部206は、その他のAスキャンデータ(A、A、A、A)のコントラストを、基準コントラストになるように、それぞれのAスキャンデータの各画素の輝度値を補正する。 The contrast of the A3 scan data at the position of the fundus where the signal light is incident along the optical axis passing through the center of the eyeball, i.e., the maximum brightness value is D50 and the minimum brightness value is D10, is set as the reference contrast. The image processing unit 206 corrects the brightness value of each pixel of the other A-scan data ( A1 , A2 , A4 , A5 ) so that the contrast of each of the other A-scan data becomes the reference contrast.

具体的には、画像処理部206は、図7AのAスキャンデータの輝度値の最大値D40、輝度値の最小値D20を、図9Aに示すように、輝度値の最大値D50、輝度値の最小値D10に補正する。そして、Aスキャンデータのその他の画素の画素値も、同様に、中間値より大きい画素値は、輝度値の最大値の増加率で増加させ、中間値より小さい画素値は、輝度値の最小値の減少率で減少させる。このようにして、画像処理部206は、図6AのAスキャンデータを補正し、図8Aに示す補正後のAスキャンデータであるf(A1)を出力する。 Specifically, the image processing unit 206 corrects the maximum brightness value D40 and the minimum brightness value D20 of the A1 scan data in Fig. 7A to the maximum brightness value D50 and the minimum brightness value D10 as shown in Fig. 9A. Similarly, for the pixel values of the other pixels in the A1 scan data, pixel values greater than the median value are increased at the increase rate of the maximum brightness value, and pixel values smaller than the median value are decreased at the decrease rate of the minimum brightness value. In this way, the image processing unit 206 corrects the A1 scan data in Fig. 6A and outputs f(A1), which is the corrected A1 scan data shown in Fig. 8A.

また、図7BのAスキャンデータの輝度値の最大値D45、輝度値の最小値D15を、図9Bに示すように、輝度値の最大値D50、輝度値の最小値D10に補正する。そして、Aスキャンデータのその他の画素の画素値も、上記Aスキャンデータと同様に補正する。このようにして、画像処理部206は、図6AのAスキャンデータを補正し、図8Aに示す補正後のAスキャンデータであるf(A2)を出力する。 Furthermore, the maximum luminance value D45 and the minimum luminance value D15 of the A2 scan data in Fig. 7B are corrected to maximum luminance value D50 and minimum luminance value D10 as shown in Fig. 9B. The pixel values of the other pixels of the A2 scan data are also corrected in the same manner as the A1 scan data. In this manner, the image processing unit 206 corrects the A2 scan data in Fig. 6A, and outputs f(A2), which is the corrected A-scan data shown in Fig. 8A.

画像処理部206は、同様に補正を行い、補正後のAスキャンデータであるf(A、)およびf(A)を生成し、A3スキャンデータは基準コントラストであるので、Aスキャンデータをそのまま補正後のAスキャンデータであるf(A)とする。このようにして、画像処理部206は、図6Aに示すAスキャンデータ(A、A、A、A)のコントラストを補正し、図8Aに示す補正後のスキャンデータである、(f(A)、f(A)、f(A)、f(A))を生成する。この補正により、Aスキャンごとのコントラストの差を補正することができる。 The image processing unit 206 performs the correction in the same manner to generate corrected A-scan data f( A4 ,) and f( A5 ), and since the A3 scan data is the reference contrast, the A3 scan data is directly set as the corrected A-scan data f( A3 ). In this manner, the image processing unit 206 corrects the contrast of the A-scan data ( A1 , A2 , A4 , A5 ) shown in Fig. 6A to generate corrected scan data (f( A1 ), f( A2 ), f( A4 ), f( A5 )) shown in Fig. 8A. This correction makes it possible to correct the difference in contrast between the A-scans.

本実施の形態のコントラスト補正は、特に、高画角でOCT画像を撮影する場合や、眼底周辺部のOCT画像を撮影する場合などの眼底の曲率が大きく変化する部分を撮影するときに効果的である。高画角や眼底周辺部の撮影は、眼底中心部の狭い画角でのOCT撮影に比べて、偏光の状態変化が大きくなる。よって、OCTデータ中のAスキャンのコントラスト差が大きくなる傾向がある。本実施の形態では、OCT撮影の範囲が広い撮影であっても、眼底周辺部の撮影であっても、均一なコントラストのOCTデータやOCT画像を生成することができる。同じ層の各画素の輝度値が同じであるOCT画像を形成することができる。The contrast correction of this embodiment is particularly effective when capturing an OCT image at a wide angle of view or when capturing an OCT image of the peripheral part of the fundus, where the curvature of the fundus changes significantly. When capturing an OCT image at a wide angle of view or the peripheral part of the fundus, the polarization state changes more significantly than when capturing an OCT image at a narrow angle of view in the center of the fundus. Therefore, the contrast difference between the A-scans in the OCT data tends to be large. In this embodiment, OCT data and OCT images with uniform contrast can be generated, whether the OCT image is captured over a wide range or the peripheral part of the fundus. An OCT image can be formed in which the brightness value of each pixel in the same layer is the same.

次にステップ308で、画像処理部206は、ステップ306でコントラストの差が補正されたAスキャンデータを用いて、図8Bに示すようなOCT画像(断層画像/Bスキャン画像)を作成する。Next, in step 308, the image processing unit 206 uses the A-scan data whose contrast difference has been corrected in step 306 to create an OCT image (tomographic image/B-scan image) as shown in FIG. 8B.

ステップ310で、表示制御部204が、生成されたOCT画像を入力/表示装置16Eに表示させる。その他、処理部208は、ステップ308で作成されたOCT画像の画像データや補正後のAスキャンデータからなるOCTデータをRAM16Bに記憶する。処理部208は、患者IDと共に、UWF眼底画像及びUWF眼底画像上での撮影希望範囲、OCT画像の画像データや補正後のAスキャンデータからなるOCTデータをサーバ140に送信する。サーバ140は、UWF眼底画像、UWF眼底画像上での撮影希望範囲、OCT画像の画像データ、及び補正後のAスキャンデータからなるOCTデータを、患者IDに対応して、図示しない記憶装置に記憶する。また、サーバ140は、ビューワ150からのリクエストに応じて、患者の情報(患者ID、氏名、性別、年齢、被検眼が右眼か左眼かの情報)と共に、UWF眼底画像、UWF眼底画像上での撮影希望範囲、OCT画像の画像データ、及び補正後のAスキャンデータからなるOCTデータを、ビューワ150に、送信する。ビューワ150は、患者の情報と、UWF眼底画像、UWF眼底画像上での撮影希望範囲、およびOCT画像を、図示しないディスプレイに表示する。In step 310, the display control unit 204 displays the generated OCT image on the input/display device 16E. In addition, the processing unit 208 stores the OCT data consisting of the image data of the OCT image created in step 308 and the corrected A-scan data in the RAM 16B. The processing unit 208 transmits the UWF fundus image, the desired shooting range on the UWF fundus image, the image data of the OCT image, and the corrected A-scan data together with the patient ID to the server 140. The server 140 stores the OCT data consisting of the UWF fundus image, the desired shooting range on the UWF fundus image, the image data of the OCT image, and the corrected A-scan data in a storage device (not shown) corresponding to the patient ID. Furthermore, in response to a request from the viewer 150, the server 140 transmits to the viewer 150 the OCT data consisting of the UWF fundus image, the desired imaging range on the UWF fundus image, image data of the OCT image, and corrected A-scan data, together with patient information (patient ID, name, sex, age, and information on whether the examined eye is right or left eye). The viewer 150 displays the patient information, the UWF fundus image, the desired imaging range on the UWF fundus image, and the OCT image on a display (not shown).

図10には、ビューワ150のディスプレイに表示される画面スクリーン500の表示内容が示されている。画面スクリーン500は、患者情報表示領域502、UWFSLO画像表示領域504、およびOCT画像表示領域506を有する。 Figure 10 shows the display contents of a screen 500 displayed on the display of the viewer 150. The screen 500 has a patient information display area 502, a UWFSLO image display area 504, and an OCT image display area 506.

患者情報表示領域502は、患者ID表示フィールド502A、患者氏名表示フィールド502B、性別表示フィールド502C、年齢表示フィールド502D、および右眼左眼表示フィールド502Eを有する。これらのフィールド(502Aから502E)には各情報が表示される。
画面スクリーン500には、右眼のUWFSLO画像404がUWFSLO画像表示領域504に表示されている。UWFSLO画像404上には、OCT画像702の眼底上の位置(撮影希望範囲)が矢印のマーク402として、重畳表示される。OCT画像表示領域506には、上記コントラストが補正されたOCT画像702が表示される。
The patient information display area 502 has a patient ID display field 502A, a patient name display field 502B, a gender display field 502C, an age display field 502D, and a right eye/left eye display field 502E. Each piece of information is displayed in these fields (502A to 502E).
On the screen 500, a UWFSLO image 404 of the right eye is displayed in a UWFSLO image display area 504. The position of the OCT image 702 on the fundus (desired imaging range) is superimposed and displayed as an arrow mark 402 on the UWFSLO image 404. The OCT image 702 with the contrast corrected is displayed in an OCT image display area 506.

このようにして、ユーザは、ビューワ150で、OCT画像702の眼底上での位置を確認することができる。さらに、コントラストが補正されたOCT画像を用いて診断などを行うことができる。In this way, the user can check the position of the OCT image 702 on the fundus using the viewer 150. Furthermore, the contrast-corrected OCT image can be used to perform diagnosis, etc.

(変形例)
<第1の変形例>
第1の実施の形態では、各Aスキャンデータのコントラストが他のAスキャンデータのコントラスト(基準コントラスト)と同じになるように、補正している。しかし、本開示の技術はこれに限定されない。特異輝度値、例えば、最大値、最小値、又は中央値が、各Aスキャンデータにおいて、差が所定値以内になるように、当該特異輝度値(例えば、最大値、最小値、又は中央値)のみを補正してもよい。
このように第1の変形例では、少なくとも特異輝度値についてはコントラストを算出することができる。また、第1の変形例では、少なくとも特異輝度値についてはコントラストを補正することができる。更に、第1の変形例では、少なくとも特異輝度値の画素については偏光の影響を補正しムラの無いOCT画像を得ることができる。
(Modification)
<First Modification>
In the first embodiment, the contrast of each A-scan data is corrected to be the same as the contrast (reference contrast) of other A-scan data. However, the technology of the present disclosure is not limited to this. Only the specific luminance value (e.g., maximum value, minimum value, or median value) may be corrected so that the difference between the specific luminance value, e.g., maximum value, minimum value, or median value, is within a predetermined value in each A-scan data.
In this way, in the first modified example, it is possible to calculate the contrast for at least the unique luminance value. Also, in the first modified example, it is possible to correct the contrast for at least the unique luminance value. Furthermore, in the first modified example, it is possible to correct the influence of polarization for at least the pixels with the unique luminance value, and to obtain an OCT image without unevenness.

<第2の変形例>
上記第1の実施の形態では、画素値として明度を表す輝度値を用いているが、本開示の技術はこれに限定されず、輝度値に代えてまたは輝度値と共に、彩度および色相の少なくとも一方を表す値を用いてもよい。
<Second Modification>
In the above first embodiment, a luminance value representing lightness is used as the pixel value, but the technology of the present disclosure is not limited to this, and a value representing at least one of saturation and hue may be used instead of or together with the luminance value.

<第3の変形例>
上記第1の実施の形態では、眼球中心位置のAスキャンデータのコントラストを基準としたが、本開示の技術では、眼球中心に限らず、特定の位置のAスキャンデータのコントラストを基準としておき、走査位置によって補正割合を変えるようにしてもよい。
<Third Modification>
In the first embodiment described above, the contrast of the A-scan data at the center of the eyeball was used as the reference, but in the technology disclosed herein, the contrast of the A-scan data at a specific position, not limited to the center of the eyeball, may be used as the reference, and the correction rate may be changed depending on the scanning position.

<第4の変形例>
上記第1の実施の形態では、眼球中心位置のAスキャンデータのコントラストを基準とした。しかし、本開示の技術では、走査位置とその走査位置でのAスキャンデータの各画素値を補正する補正係数(明画素数に依存したパラメータ)を備える補正係数テーブルを用いて、コントラストを補正するようにしてもよい。この場合、処理部208は、図4のステップ300に先立って、RAM16Bあるいはサーバ140から補正係数テーブルを読み出す。読み出した補正係数で、画像処理部206はAスキャンデータの各画素値を補正する。
<第4の変形例>
上記第1の実施の形態では、眼科装置110のCPU16Aで各Aスキャンデータのコントラストの差の補正を行っている。本開示の技術では、これに限らず、サーバ140に眼科装置110で取得したOCTデータ送信し、サーバ140のCPUで、当該OCTデータに含まれる各Aスキャンデータのコントラストの差の補正を行ってもよい。さらに、サーバ140ではなく、ビューワ150や眼科装置110とは別のコンピュータのCPUで行うようにしてもよい。
<Fourth Modification>
In the first embodiment, the contrast of the A-scan data at the center of the eyeball is used as a reference. However, in the technology disclosed herein, the contrast may be corrected using a correction coefficient table including a scanning position and a correction coefficient (a parameter dependent on the number of bright pixels) for correcting each pixel value of the A-scan data at that scanning position. In this case, the processing unit 208 reads out the correction coefficient table from the RAM 16B or the server 140 prior to step 300 in FIG. 4. The image processing unit 206 corrects each pixel value of the A-scan data with the read correction coefficient.
<Fourth Modification>
In the first embodiment, the contrast difference between each A-scan data is corrected by the CPU 16A of the ophthalmic device 110. However, the technology disclosed herein is not limited to this, and OCT data acquired by the ophthalmic device 110 may be transmitted to the server 140, and the contrast difference between each A-scan data included in the OCT data may be corrected by the CPU of the server 140. Furthermore, the correction may be performed by a CPU of a computer other than the viewer 150 or the ophthalmic device 110, instead of the server 140.

また、上記実施の形態で説明したデータ処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。 The data processing described in the above embodiment is merely an example. It goes without saying that unnecessary steps may be deleted, new steps may be added, or the processing order may be changed without departing from the spirit of the invention.

本開示において、各構成要素(装置等)は、矛盾が生じない限りは、1つのみ存在しても2つ以上存在してもよい 。In this disclosure, each component (device, etc.) may be present in one or more instances, provided no contradiction arises.

また、上記実施の形態では、コンピュータを利用したソフトウェア構成によりデータ処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA又はASIC等のハードウェア構成のみによって、データ処理が実行されるようにしてもよい。データ処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。 In addition, in the above embodiment, a case where data processing is realized by a software configuration using a computer is exemplified, but the technology of the present disclosure is not limited to this. For example, instead of a software configuration using a computer, data processing may be performed only by a hardware configuration such as an FPGA or an ASIC. A part of the data processing may be performed by a software configuration, and the remaining processing may be performed by a hardware configuration.

このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合とされない場合とを含むので、以下の技術を含む。 As such, the technology disclosed herein includes both cases in which image processing is achieved by a software configuration using a computer and cases in which it is not achieved, and therefore includes the following technologies.

(第1の技術)
信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得する取得部と、
前記OCTデータに含まれる複数のAスキャンデータのコントラストの差を補正し、補正されたOCTデータを生成する生成部と、
を備える画像処理装置。
(First Technology)
an acquisition unit that acquires OCT data of the fundus of the subject's eye based on interference light between return light obtained by scanning the signal light and the reference light;
A generating unit that corrects a difference in contrast between a plurality of A-scan data included in the OCT data and generates corrected OCT data;
An image processing device comprising:

(第2の技術)
取得部が、信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、
生成部が、前記OCTデータに含まれる複数のAスキャンデータのコントラストの差を補正し、補正されたOCTデータを生成するステップと、
を備える画像処理方法。
(Second Technology)
An acquisition unit acquires OCT data of the fundus of the test eye based on interference light between return light obtained by scanning the signal light and the reference light;
A generating unit corrects contrast differences between a plurality of A-scan data included in the OCT data, and generates corrected OCT data;
An image processing method comprising:

以上の開示内容から以下の技術が提案される。
(第3の技術)
OCT信号を得るためのコンピュータープログラム製品であって、
前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
前記コンピュータ可読記憶媒体には、プログラムが格納されており、
前記プログラムは、
コンピュータに、
信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、
前記OCTデータに含まれる複数のAスキャンデータのコントラストの差を補正し、補正されたOCTデータを生成するステップと、
を含む処理を実行させる、
コンピュータープログラム製品。
Based on the above disclosure, the following techniques are proposed.
(Third Technology)
1. A computer program product for obtaining an OCT signal, comprising:
The computer program product comprises a computer-readable storage medium that is not itself a transitory signal;
The computer-readable storage medium stores a program,
The program is
On the computer,
acquiring OCT data of the fundus of the subject's eye based on interference light between return light obtained by scanning the signal light and the reference light;
correcting a contrast difference between a plurality of A-scan data included in the OCT data to generate corrected OCT data;
Execute a process including
Computer program products.

本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。All publications, patent applications, and technical standards described in this specification are incorporated by reference into this specification to the same extent as if each individual publication, patent application, and technical standard was specifically and individually indicated to be incorporated by reference.

なお、日本国特許出願第2021-087903号の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。The disclosure of Japanese Patent Application No. 2021-087903 is incorporated herein by reference in its entirety. In addition, all documents, patent applications, and technical standards described herein are incorporated herein by reference to the same extent as if each individual document, patent application, and technical standard was specifically and individually indicated to be incorporated by reference.

Claims (8)

プロセッサが行う画像処理であって、
信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、
前記OCTデータに含まれる複数のAスキャンデータの、それぞれのAスキャンデータのコントラストを算出するステップと、
前記複数のAスキャンデータから基準となるAスキャンデータを選択するステップと、
前記OCTデータに含まれる複数のAスキャンデータのコントラストを前記基準となるAスキャンデータのコントラストになるよう補正し、補正されたOCTデータを生成するステップと、
を含む画像処理方法。
Image processing performed by a processor,
acquiring OCT data of the fundus of the subject's eye based on interference light between return light obtained by scanning the signal light and the reference light;
Calculating contrast of each of a plurality of A-scan data included in the OCT data;
selecting reference A-scan data from the plurality of A-scan data;
correcting contrasts of a plurality of A-scan data included in the OCT data to match contrasts of the reference A-scan data , thereby generating corrected OCT data;
An image processing method comprising:
前記基準となるAスキャンデータを選択するステップは、前記被検眼の眼底中心部のAスキャンデータを選択する、請求項1に記載の画像処理方法。The image processing method according to claim 1 , wherein the step of selecting the reference A-scan data comprises selecting A-scan data of a central portion of the fundus of the subject's eye. 前記補正されたOCTデータを用いて、OCT画像を生成するステップを含む、請求項1に記載の画像処理方法。
を含むことを特徴とする、請求項1に記載の画像処理方法。
The image processing method of claim 1 , further comprising generating an OCT image using the corrected OCT data.
The image processing method according to claim 1 , further comprising:
前記コントラストの算出は、Aスキャンデータにおける画素の最高輝度と最低輝度との差を求めることにより行われることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, characterized in that the contrast is calculated by determining the difference between the maximum and minimum brightness of a pixel in the A-scan data. 前記複数のAスキャンデータの各々は、前記被検眼の眼底の異なる走査位置のAスキャンデータであることを特徴とする請求項1に記載の画像処理方法。 The image processing method according to claim 1, characterized in that each of the plurality of A-scan data is A-scan data of a different scanning position of the fundus of the subject eye. 前記OCTデータは、前記被検眼の眼底を広角で撮影することにより、得られたことを特徴とする請求項1から請求項5の何れか1項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 5, characterized in that the OCT data is obtained by photographing the fundus of the subject's eye at a wide angle. プロセッサを備えた画像処理装置であって、
前記プロセッサは、
信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、
前記OCTデータに含まれる複数のAスキャンデータの、それぞれのAスキャンデータのコントラストを算出するステップと、
前記複数のAスキャンデータから基準となるAスキャンデータを選択するステップと、
前記OCTデータに含まれる複数のAスキャンデータのコントラストを前記基準となるAスキャンデータのコントラストになるよう補正し、補正されたOCTデータを生成するステップと、
を実行する、画像処理装置。
An image processing device including a processor,
The processor,
acquiring OCT data of the fundus of the subject's eye based on interference light between return light obtained by scanning the signal light and the reference light;
Calculating contrast of each of a plurality of A-scan data included in the OCT data;
selecting reference A-scan data from the plurality of A-scan data;
correcting contrasts of a plurality of A-scan data included in the OCT data to match contrasts of the reference A-scan data , thereby generating corrected OCT data;
An image processing device that performs the above.
コンピュータに、
信号光を走査して得られた戻り光と参照光との干渉光に基づいて被検眼の眼底のOCTデータを取得するステップと、
前記OCTデータに含まれる複数のAスキャンデータの、それぞれのAスキャンデータのコントラストを算出するステップと、
前記複数のAスキャンデータから基準となるAスキャンデータを選択するステップと、
前記OCTデータに含まれる複数のAスキャンデータのコントラストを前記基準となるAスキャンデータのコントラストになるよう補正し、補正されたOCTデータを生成するステップと、
を実行させるプログラム。
On the computer,
acquiring OCT data of the fundus of the subject's eye based on interference light between return light obtained by scanning the signal light and the reference light;
Calculating contrast of each of a plurality of A-scan data included in the OCT data;
selecting reference A-scan data from the plurality of A-scan data;
correcting contrasts of a plurality of A-scan data included in the OCT data to match contrasts of the reference A-scan data , thereby generating corrected OCT data;
A program that executes the following.
JP2023523483A 2021-05-25 2022-05-24 IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM Active JP7677411B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021087903 2021-05-25
JP2021087903 2021-05-25
PCT/JP2022/021237 WO2022250048A1 (en) 2021-05-25 2022-05-24 Image processing method, image processing device, and program

Publications (3)

Publication Number Publication Date
JPWO2022250048A1 JPWO2022250048A1 (en) 2022-12-01
JPWO2022250048A5 JPWO2022250048A5 (en) 2024-02-07
JP7677411B2 true JP7677411B2 (en) 2025-05-15

Family

ID=84228804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023523483A Active JP7677411B2 (en) 2021-05-25 2022-05-24 IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM

Country Status (2)

Country Link
JP (1) JP7677411B2 (en)
WO (1) WO2022250048A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015188546A (en) 2014-03-27 2015-11-02 キヤノン株式会社 Tomographic image processing device, tomographic image processing method, and program
JP2018020024A (en) 2016-08-05 2018-02-08 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018043085A (en) 2012-02-10 2018-03-22 カール ツアイス メディテック アクチエンゲゼルシャフト Segmentation and enhanced visualization technique for full-range fourier domain optical coherence tomography
JP2020048911A (en) 2018-09-27 2020-04-02 株式会社トプコン Ophthalmic imaging apparatus, control method thereof, program, and record medium
JP2020116315A (en) 2019-01-28 2020-08-06 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102062372B1 (en) * 2017-12-13 2020-01-03 한국생산기술연구원 Apparatus for optical coherence tomography and method for image processing thereof for improving image quality based on region segmentation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018043085A (en) 2012-02-10 2018-03-22 カール ツアイス メディテック アクチエンゲゼルシャフト Segmentation and enhanced visualization technique for full-range fourier domain optical coherence tomography
JP2015188546A (en) 2014-03-27 2015-11-02 キヤノン株式会社 Tomographic image processing device, tomographic image processing method, and program
JP2018020024A (en) 2016-08-05 2018-02-08 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2020048911A (en) 2018-09-27 2020-04-02 株式会社トプコン Ophthalmic imaging apparatus, control method thereof, program, and record medium
JP2020116315A (en) 2019-01-28 2020-08-06 株式会社トプコン Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and program

Also Published As

Publication number Publication date
WO2022250048A1 (en) 2022-12-01
JPWO2022250048A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
JP2023009530A (en) Image processing method, image processing device, and program
JP5061380B2 (en) Fundus observation apparatus, ophthalmologic image display apparatus, and program
JP7758111B2 (en) Image processing method, program, ophthalmic device, and choroidal vessel image generating method
JP2022040372A (en) Ophthalmic equipment
JP7186587B2 (en) ophthalmic equipment
JP6633468B2 (en) Blood flow measurement device
JP2023123734A (en) Image processing method
JP2025083399A (en) Ophthalmologic apparatus, and control method of ophthalmologic apparatus and program
JP2022089086A (en) Image processing method, image processing device, and image processing program
JP7677411B2 (en) IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM
JP7715186B2 (en) Image processing method, image processing device, and program
WO2021074960A1 (en) Image processing method, image processing device, and image processing program
JP7419946B2 (en) Image processing method, image processing device, and image processing program
JP7472914B2 (en) IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM
JP2023066198A (en) Information output device, fundus image imaging apparatus, information output method and information output program
US20210049742A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP7758171B2 (en) Image processing method, image processing device, and program
JP7810981B2 (en) Image processing method, image processing device, ophthalmic device, and program
JP7116572B2 (en) Ophthalmic device and ophthalmic information processing program
JP7800663B2 (en) Image processing method, image processing device, and program
CN117597061A (en) Image processing method, image processing program, image processing device and ophthalmic device
JP7711369B2 (en) Ophthalmic device and image processing method
JP7673803B2 (en) OCT signal processing method, OCT device, and program
JP7201855B2 (en) Ophthalmic device and ophthalmic information processing program
US20260038091A1 (en) Image processing method, image processing device, program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241008

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20241204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250414

R150 Certificate of patent or registration of utility model

Ref document number: 7677411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150