[go: up one dir, main page]

JP2020110250A - Fundus image processing device - Google Patents

Fundus image processing device Download PDF

Info

Publication number
JP2020110250A
JP2020110250A JP2019001824A JP2019001824A JP2020110250A JP 2020110250 A JP2020110250 A JP 2020110250A JP 2019001824 A JP2019001824 A JP 2019001824A JP 2019001824 A JP2019001824 A JP 2019001824A JP 2020110250 A JP2020110250 A JP 2020110250A
Authority
JP
Japan
Prior art keywords
image
component
blood vessel
vein
mainly composed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019001824A
Other languages
Japanese (ja)
Inventor
茂出木 敏雄
Toshio Modegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019001824A priority Critical patent/JP2020110250A/en
Publication of JP2020110250A publication Critical patent/JP2020110250A/en
Pending legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】眼底画像における静脈の識別処理をより高い精度で行うことが可能な眼底画像処理装置を提供する。【解決手段】RGBの3色成分で構成されるカラー眼底画像のR成分を用いてR成分主体のグレースケール眼底画像を作成するとともに、G成分を用いてR成分主体のグレースケール眼底画像を作成するグレースケール変換手段10と、R成分主体のグレースケール眼底画像とG成分主体のグレースケール眼底画像を基に、血管領域である確率が高いほど高い輝度値が設定されたR成分主体の血管強調画像とG成分主体の血管強調画像を得る血管領域強調手段20と、R成分主体の血管強調画像を基に静脈である確率が高い部分が強調された静脈強調画像を得る静脈強調画像作成手段30と、G成分主体の血管強調画像を基に動脈である確率が高い部分が強調された動脈強調画像を得る動脈強調画像作成手段40を有する。【選択図】図2PROBLEM TO BE SOLVED: To provide a fundus image processing apparatus capable of performing a vein identification process in a fundus image with higher accuracy. SOLUTION: A grayscale fundus image mainly composed of R component is created by using the R component of a color fundus image composed of three color components of RGB, and a grayscale fundus image mainly composed of R component is created by using G component. Based on the grayscale conversion means 10 to be performed, the grayscale fundus image mainly composed of R component, and the grayscale fundus image mainly composed of G component, the blood vessel enhancement mainly composed of R component is set with a higher brightness value as the probability of being a blood vessel region is higher. A blood vessel region enhancing means 20 for obtaining an image and a blood vessel-enhanced image mainly composed of G component, and a vein-enhanced image creating means 30 for obtaining a vein-enhanced image in which a portion having a high probability of being a vein is emphasized based on the blood vessel-enhanced image mainly composed of R component. And 40, there is an arterial-enhanced image creating means 40 for obtaining an arterial-enhanced image in which a portion having a high probability of being an artery is emphasized based on a blood vessel-enhanced image mainly composed of G component. [Selection diagram] Fig. 2

Description

本発明は、眼底画像の処理技術に関し、特に、眼底画像を用いて、動静脈を識別可能な画像を得るための技術に関する。 The present invention relates to a fundus image processing technique, and more particularly to a technique for obtaining an image capable of identifying arteries and veins using the fundus image.

生活習慣病として代表的な高血圧・脂質異常症・糖尿病・動脈硬化など、いわゆるメタボリックシンドロームにおいて、血圧・脂質・血糖は簡便に計測でき自己検診も可能である。しかし、動脈硬化の計測(通称:血管年齢検査)については、現状ではPWV検査(脈波伝播速度)、ABI検査(足関節上腕血圧比)、頚動脈エコー検査など、検査設備を備えた循環器専門のクリニックでないと計測ができない。 In so-called metabolic syndrome such as hypertension, dyslipidemia, diabetes and arteriosclerosis that are typical lifestyle-related diseases, blood pressure, lipids and blood glucose can be easily measured and self-examination is possible. However, regarding arteriosclerosis measurement (commonly known as blood vessel age test), at present, it is a cardiovascular specialist equipped with test equipment such as PWV test (pulse wave velocity), ABI test (ankle brachial blood pressure ratio), carotid artery echo test, etc. It is not possible to measure unless it is a clinic.

これに対して、眼科クリニックが保有する眼底カメラを用いて眼底血管口径を計測することにより、高血圧や動脈硬化を簡便に計測する手法も知られている。眼底は人体の中で唯一血管を直接観察できる箇所であり、眼底動脈の硬化が全身の動脈と同様に進行すると仮定すれば、眼底写真の撮影により動脈硬化の計測が可能になる。眼底カメラは小型化・低価格化が進み、海外では既にスマートフォンでも撮影できる特殊なレンズが販売されており、眼底写真の自己撮影のインフラも整いつつある。 On the other hand, a method of easily measuring hypertension and arteriosclerosis by measuring the diameter of the fundus blood vessel using a fundus camera owned by an ophthalmology clinic is also known. The fundus is the only place in the human body where blood vessels can be directly observed, and assuming that the hardening of the fundus arteries progresses in the same manner as the arteries of the whole body, it is possible to measure arteriosclerosis by taking a fundus photograph. Fundus cameras are becoming smaller and cheaper, and special lenses that can be used with smartphones are already sold overseas, and the infrastructure for self-photographing fundus photographs is being established.

このような状況に鑑み、出願人は、撮影により得られた眼底画像から血管部分を強調する技術(特許文献1参照)や、特定された血管領域を動静脈のいずれかに分類する技術(特許文献2参照)を提案した。 In view of such a situation, the applicant has a technique of emphasizing a blood vessel portion from a fundus image obtained by photographing (see Patent Document 1) and a technique of classifying a specified blood vessel region into one of arteriovenous (patented) Reference 2) was proposed.

特開2018−23602号公報JP, 2018-23602, A 特開2018−102586号公報JP, 2018-102586, A

特許文献2に記載の技術では、特許文献1にも用いられている眼底血管の特定技術を用いた後、特定された血管領域の各画素に対して色相値を算出し、画素ごとに固定のしきい値により動静脈の属性分けを行う方法をとっていた。このため、画素ごとに判定される属性にバラツキが生じ易い。また、眼底領域は物理的には球面であり、単一光源で2次元的に撮影される眼底画像の中心部と周辺部とで輝度や色相に顕著なムラが生じるため、固定のしきい値では中心部の血管は動脈と判定されやすく周辺部の血管は静脈と判定されやすく、動静脈を判定するしきい値を手動で調整しても適切に分離が難しい領域が生じていた。そのため、動静脈判定された画像に対して、手動で修正する操作が必要となる場合があった。 In the technique described in Patent Document 2, after using the technique of specifying the fundus blood vessels that is also used in Patent Document 1, a hue value is calculated for each pixel in the specified blood vessel region, and the hue value is fixed for each pixel. A method of performing attribute classification of arteriovenous according to a threshold value is used. Therefore, the attributes determined for each pixel are likely to vary. In addition, the fundus region is physically a spherical surface, and significant unevenness in brightness and hue occurs between the central part and the peripheral part of the fundus image that is two-dimensionally photographed with a single light source. Therefore, the blood vessel in the central portion is easily determined to be an artery, and the blood vessel in the peripheral portion is easily determined to be a vein. Therefore, even if the threshold value for determining the arteriovenous is manually adjusted, there is a region that is difficult to be appropriately separated. Therefore, there is a case where an operation of manually correcting the image for which the arteriovenous determination is performed is necessary.

そこで、本発明は、眼底画像における静脈の識別処理をより高い精度で行うことが可能な眼底画像処理装置を提供することを課題とする。 Therefore, an object of the present invention is to provide a fundus image processing apparatus capable of performing vein identification processing in a fundus image with higher accuracy.

本開示は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、
カラー眼底画像を処理して血管領域を強調するための装置であって、
RGBの3色成分で構成されるカラー眼底画像のR成分を用いてR成分主体のグレースケール眼底画像を作成するグレースケール変換手段と、
前記R成分主体のグレースケール眼底画像を基に、血管領域である確率が高いほど高い輝度値が設定されたR成分主体の血管強調画像を得る血管領域強調手段と、
前記R成分主体の血管強調画像を基に静脈である確率が高い部分が強調された静脈強調画像を得る静脈強調画像作成手段と、
を有する。
The present disclosure includes a plurality of means for solving the above problems, and if one example is given,
A device for processing a color fundus image to enhance a blood vessel region,
Grayscale conversion means for creating a grayscale fundus image mainly composed of R components by using R components of a color fundus image composed of three color components of RGB,
Blood vessel region emphasizing means for obtaining a blood vessel emphasized image mainly composed of R component, which has a higher luminance value as the probability of being a blood vessel region is higher, based on the grayscale fundus image mainly composed of R component;
A vein-enhanced image creating means for obtaining a vein-enhanced image in which a portion having a high probability of being a vein is emphasized based on the R-component-based blood vessel-enhanced image;
Have.

また、本開示は、
コンピュータが、カラー眼底画像を処理して血管領域を強調した画像を作成するための方法であって、
RGBの3色成分で構成されるカラー眼底画像のR成分を用いてR成分主体のグレースケール眼底画像を作成するとともに、G成分を用いてG成分主体のグレースケール眼底画像を作成するステップと、
前記R成分主体のグレースケール眼底画像と前記G成分主体のグレースケール眼底画像を基に、血管領域である確率が高いほど高い輝度値が設定されたR成分主体の血管強調画像と前記G成分主体の血管強調画像を得るステップと、
前記R成分主体の血管強調画像を基に静脈である確率が高い部分が強調された静脈強調画像を得るステップと、
前記G成分主体の血管強調画像を基に動脈である確率が高い部分が強調された動脈強調画像を得るステップと、
前記動脈強調画像をR成分に、前記静脈強調画像をB成分に割り当ててカラーの動静脈識別画像を作成するステップと、
を有する。
In addition, the present disclosure is
A method for a computer to process a color fundus image to create an image in which blood vessel regions are emphasized,
Creating a grayscale fundus image mainly composed of R components using R components of a color fundus image composed of three color components of RGB, and creating a grayscale fundus image mainly composed of G components using G components;
Based on the R-component-based grayscale fundus image and the G-component-based grayscale fundus image, the R-component-based blood vessel-enhanced image and the G-component-based image in which a higher brightness value is set as the probability of a blood vessel region is higher Obtaining a blood vessel weighted image of
Obtaining a vein-enhanced image in which a portion having a high probability of being a vein is emphasized based on the R-component-based blood vessel-enhanced image;
Obtaining an artery-emphasized image in which a portion having a high probability of being an artery is emphasized based on the blood vessel-emphasized image mainly composed of the G component;
Assigning the arterial weighted image to the R component and the vein weighted image to the B component to create a color arteriovenous identification image;
Have.

本発明によれば、眼底画像における静脈の識別処理をより高い精度で行うことが可能となる。 According to the present invention, it is possible to perform the vein identification process in the fundus image with higher accuracy.

本発明の一実施形態に係る眼底画像処理装置100のハードウェア構成図である。1 is a hardware configuration diagram of a fundus image processing device 100 according to an embodiment of the present invention. 本発明の一実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。It is a functional block diagram showing the composition of the fundus image processing device concerning one embodiment of the present invention. 本発明の一実施形態に係る眼底画像処理装置の処理概要を示すフローチャートである。It is a flow chart which shows the processing outline of the fundus image processing device concerning one embodiment of the present invention. 血管領域強調手段20の詳細を示す機能ブロック図である。4 is a functional block diagram showing details of a blood vessel region emphasizing means 20. FIG. グレースケール眼底画像上の画素(x,y)と平均値Mean(x,y)を算出するための近傍画素との関係を示す図である。It is a figure which shows the relationship between the pixel (x, y) on a gray scale fundus image and the neighboring pixel for calculating average value Mean (x, y). ステップS300の線状成分強調処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the linear component emphasis process of step S300. オープニング処理で用いる線形構造要素の一例を示す図である。It is a figure which shows an example of the linear structuring element used by an opening process. オープニング処理で用いる円形構造要素の一例を示す図である。It is a figure which shows an example of the circular structuring element used by an opening process. 方向d=1の場合の線形構造要素の具体的な画素値を示す図である。It is a figure which shows the concrete pixel value of a linear structuring element when direction d=1. 方向d=2の場合の線形構造要素の具体的な画素値を示す図である。It is a figure which shows the concrete pixel value of a linear structuring element when the direction d=2. 本実施形態に係る眼底画像処理装置の処理過程により得られたグレースケール眼底画像、血管強調画像を示す図である。It is a figure which shows the gray scale fundus image and the blood vessel emphasis image obtained by the process of the fundus image processing apparatus which concerns on this embodiment. 本実施形態に係る眼底画像処理装置の処理過程により得られた静脈強調画像、動脈強調画像、動静脈識別画像を示す図である。It is a figure which shows the vein emphasis image, the arterial emphasis image, and the arteriovenous identification image obtained by the process of the fundus image processing apparatus which concerns on this embodiment. 正常者の場合における従来技術と本実施形態により得られた動静脈識別画像を比較するための図である。It is a figure for comparing the arteriovenous identification image obtained by the prior art and this embodiment in the case of a normal person. 緑内障の場合における従来技術と本実施形態により得られた動静脈識別画像を比較するための図である。It is a figure for comparing the arteriovenous identification image obtained by the prior art and this embodiment in the case of glaucoma. 白内障の場合における従来技術と本実施形態により得られた動静脈識別画像を比較するための図である。It is a figure for comparing the arteriovenous identification image obtained by this embodiment with the prior art in the case of a cataract.

以下、本発明の好適な実施形態について図面を参照して詳細に説明する。
<1.装置構成>
図1は、本発明の一実施形態に係る眼底画像処理装置のハードウェア構成図である。本実施形態に係る眼底画像処理装置100は、汎用のコンピュータで実現することができ、図1に示すように、CPU(Central Processing Unit)1と、コンピュータのメインメモリであるRAM(Random Access Memory)2と、CPU1が実行するプログラムやデータを記憶するためのハードディスク、フラッシュメモリ等の大容量の記憶装置3と、キーボード、マウス等の指示入力I/F(インターフェース)4と、データ記憶媒体等の外部装置とデータ通信するためのデータ入出力I/F(インターフェース)5と、液晶ディスプレイ等の表示デバイスである表示部6と、を備え、互いにバスを介して接続されている。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
<1. Device configuration>
FIG. 1 is a hardware configuration diagram of a fundus image processing apparatus according to an embodiment of the present invention. The fundus image processing apparatus 100 according to the present embodiment can be realized by a general-purpose computer, and as shown in FIG. 1, a CPU (Central Processing Unit) 1 and a RAM (Random Access Memory) that is a main memory of the computer. 2, a large-capacity storage device 3 such as a hard disk and a flash memory for storing programs and data executed by the CPU 1, an instruction input I/F (interface) 4 such as a keyboard and a mouse, a data storage medium, etc. A data input/output I/F (interface) 5 for data communication with an external device and a display unit 6 which is a display device such as a liquid crystal display are provided and are connected to each other via a bus.

図2は、本実施形態に係る眼底画像処理装置の構成を示す機能ブロック図である。図2において、10はグレースケール変換手段、20は血管領域強調手段、30は静脈強調画像作成手段、40は動脈強調画像作成手段、50は動静脈識別画像作成手段、60は眼底画像記憶手段、70は動静脈識別画像記憶手段である。 FIG. 2 is a functional block diagram showing the configuration of the fundus image processing apparatus according to this embodiment. In FIG. 2, 10 is a gray scale conversion means, 20 is a blood vessel region emphasis means, 30 is a vein weighted image generation means, 40 is an artery weighted image generation means, 50 is an arteriovenous identification image generation means, 60 is a fundus image storage means, 70 is an arteriovenous identification image storage means.

グレースケール変換手段10は、カラー眼底画像に対し、RGB3原色成分に所定の演算を施し、血管候補領域が高い輝度になるようにネガポジ反転させることにより、2種類のグレースケール眼底画像に変換する処理を行う。血管領域強調手段20は、R成分主体のグレースケール眼底画像とG成分主体のグレースケール眼底画像の各々に対して血管領域を強調し、血管領域である確率が高いほど高い輝度値が設定されたR成分主体の血管強調画像とG成分主体の血管強調画像を得る処理を行う。 The grayscale conversion unit 10 performs a predetermined operation on the RGB three primary color components of the color fundus image, and performs negative/positive inversion so that the blood vessel candidate region has high brightness, thereby converting into two types of grayscale fundus images. I do. The blood vessel region emphasizing means 20 emphasizes the blood vessel region with respect to each of the grayscale fundus image mainly composed of the R component and the grayscale fundus image mainly composed of the G component, and a higher luminance value is set as the probability of being the blood vessel region is higher. Processing for obtaining a blood vessel emphasized image mainly composed of R component and a blood vessel emphasized image mainly composed of G component is performed.

静脈強調画像作成手段30は、R成分主体の血管強調画像とG成分主体の血管強調画像との間での所定の積演算を行い、グレースケールの静脈強調画像を作成する処理を行う。動脈強調画像作成手段40は、R成分主体の血管強調画像とG成分主体の血管強調画像との間で所定の差分演算を行い、グレースケールの動脈強調画像を作成する処理を行う。動静脈識別画像作成手段50は、グレースケールの動脈強調画像をR成分に、グレースケールの静脈強調画像をB成分に割り当ててカラーの動静脈識別画像を作成する処理を行う。 The vein-enhanced image creating means 30 performs a predetermined product operation between the R-component-based blood vessel-enhanced image and the G-component-based blood vessel-enhanced image to create a grayscale vein-enhanced image. The artery-enhanced image creating means 40 performs a predetermined difference calculation between the R-component-based blood vessel-enhanced image and the G-component-based blood vessel-enhanced image to perform a process of creating a grayscale artery-enhanced image. The arteriovenous identification image creating means 50 performs a process of creating a color arteriovenous identification image by allocating a grayscale arterial emphasis image to the R component and a grayscale vein emphasis image to the B component.

グレースケール変換手段10、血管領域強調手段20、静脈強調画像作成手段30、動脈強調画像作成手段40、動静脈識別画像作成手段50は、CPU1が、記憶装置3に記憶されているプログラムを実行することにより実現される。眼底画像記憶手段60は、可視光・光源方式の眼底カメラを用いてカラーで撮影された、血管領域の抽出対象となるカラー眼底画像を記憶した記憶手段であり、記憶装置3により実現される。眼底画像処理装置にカラー眼底画像を読み込ませて、そのまま処理を行う場合は、RAM2が眼底画像記憶手段60としての役割を果たす。カラー眼底画像とは、RGBの3成分により記録された画像データであり、被験者の眼底が撮影されたものである。本実施形態では、RGB各色8ビット256階調で記録されたフルカラー眼底画像を用いている。動静脈識別画像記憶手段70は、動静脈識別画像作成手段50により生成された動静脈識別画像を記憶する記憶手段であり、記憶装置3により実現される。 In the grayscale conversion unit 10, the blood vessel region emphasizing unit 20, the vein emphasizing image creating unit 30, the arterial emphasizing image creating unit 40, and the arteriovenous identification image creating unit 50, the CPU 1 executes a program stored in the storage device 3. It is realized by The fundus image storage unit 60 is a storage unit that stores a color fundus image that is an object of extraction of a blood vessel region and is captured in color using a visible light/light source type fundus camera, and is realized by the storage device 3. When the color fundus image is read by the fundus image processing apparatus and is processed as it is, the RAM 2 functions as the fundus image storage unit 60. The color fundus image is image data recorded by three components of RGB, and is the image of the fundus of the subject. In this embodiment, a full-color fundus image recorded with 8-bit 256 gradations for each color of RGB is used. The arteriovenous vein identification image storage means 70 is a storage means for storing the arteriovenous vein identification image generated by the arteriovenous vein identification image creating means 50, and is realized by the storage device 3.

図2に示した各構成手段は、現実には図1に示したように、コンピュータおよびその周辺機器等のハードウェアに専用のプログラムを搭載することにより実現される。すなわち、コンピュータが、専用のプログラムに従って各手段の内容を実行することになる。なお、本明細書において、コンピュータとは、CPU等の演算処理部を有し、データ処理が可能な装置を意味し、パーソナルコンピュータなどの汎用コンピュータだけでなく、スマートフォン、タブレット等の携帯型端末も含む。 Each component shown in FIG. 2 is actually realized by installing a dedicated program in hardware such as a computer and its peripheral devices as shown in FIG. That is, the computer executes the contents of each means according to the dedicated program. In this specification, a computer means a device that has an arithmetic processing unit such as a CPU and is capable of data processing, and includes not only a general-purpose computer such as a personal computer but also a portable terminal such as a smartphone and a tablet. Including.

図1に示した記憶装置3には、CPU1を動作させ、コンピュータを、眼底画像処理装置として機能させるための専用のプログラムが実装されている。この専用のプログラムを実行することにより、CPU1は、グレースケール変換手段10、血管領域強調手段20、静脈強調画像作成手段30、動脈強調画像作成手段40、動静脈識別画像作成手段50としての機能を実現することになる。また、記憶装置3は、眼底画像記憶手段60、動静脈識別画像記憶手段70として機能するだけでなく、眼底画像処理装置としての処理に必要な様々なデータを記憶する。 The storage device 3 shown in FIG. 1 is provided with a dedicated program for operating the CPU 1 and causing the computer to function as a fundus image processing device. By executing this dedicated program, the CPU 1 functions as the grayscale conversion unit 10, the blood vessel region emphasizing unit 20, the vein emphasizing image creating unit 30, the arterial emphasizing image creating unit 40, and the arteriovenous identification image creating unit 50. Will be realized. Further, the storage device 3 not only functions as the fundus image storage unit 60 and the arteriovenous identification image storage unit 70, but also stores various data necessary for processing as the fundus image processing device.

<2.処理動作>
<2.1.前処理>
まず、処理対象とするカラー眼底画像を用意する。カラー眼底画像としては、デジタル方式の眼底カメラによりカラーで撮影した画像ファイルがあれば、そのまま使用できる。また、アナログ方式の眼底カメラにより写真媒体に記録された古いものであれば、保管されていたアナログのカラーのネガ・ポジフィルム、印画紙、インスタント写真等をスキャナによりカラーで読み取る等してデジタルのカラー眼底画像ファイルを取得する。一般には、可視光・光源方式の眼底カメラを用いてカラーで撮影することによりカラー眼底画像が得られる。取得したカラー眼底画像は、眼底画像処理装置の眼底画像記憶手段60に記憶させる。本実施形態では、カラー眼底画像としてR,G,B各成分8ビット256階調のフルカラー画像を用意する。
<2. Processing operation>
<2.1. Pretreatment>
First, a color fundus image to be processed is prepared. As a color fundus image, if there is an image file captured in color by a digital fundus camera, it can be used as it is. In addition, if it is an old one recorded on a photographic medium by an analog fundus camera, analog color negative/positive film, photographic paper, instant photo etc. that have been stored will be read in color by a scanner and digitalized. Get a color fundus image file. In general, a color fundus image is obtained by photographing in color using a visible light/light source type fundus camera. The acquired color fundus image is stored in the fundus image storage unit 60 of the fundus image processing apparatus. In this embodiment, a full-color image of R, G, and B component 8-bit 256 gradations is prepared as a color fundus image.

<2.2.処理概要>
次に、図1、図2に示した眼底画像処理装置の処理動作とともに、本発明の一実施形態に係る画像作成方法について説明する。本発明の一実施形態に係る画像作成方法は、眼底画像を処理して静脈強調画像、動脈強調画像、動静脈識別画像等の画像を作成する。図3は、本発明の一実施形態に係る眼底画像処理装置の処理概要を示すとともに、本発明の一実施形態に係る画像作成方法を示すフローチャートである。上述のように、処理対象であるカラー眼底画像は、RGB各色8ビット256階調のフルカラーの画像データである。したがって、x方向の画素数Xs、y方向の画素数Ysのカラー眼底画像は、色成分を示す変数c=0(Red),1(Green),2(Blue)とすると、Image(x,y,c)=0〜255(x=0,・・・,Xs−1;y=0,・・・,Ys−1;c=0,1,2)と定義される。
<2.2. Processing outline>
Next, the image forming method according to the embodiment of the present invention will be described together with the processing operation of the fundus image processing apparatus shown in FIGS. An image creating method according to an embodiment of the present invention processes a fundus image to create an image such as a vein-enhanced image, an artery-enhanced image, or an arteriovenous identification image. FIG. 3 is a flow chart showing an outline of processing of the fundus image processing apparatus according to one embodiment of the present invention and showing an image creating method according to one embodiment of the present invention. As described above, the color fundus image to be processed is full-color image data of 8-bit 256 gradations for each RGB color. Therefore, assuming that the color fundus image having the number of pixels Xs in the x direction and the number of pixels Ys in the y direction is c=0 (Red), 1 (Green), and 2 (Blue) indicating the color components, Image(x, y) , C)=0 to 255 (x=0,..., Xs-1; y=0,..., Ys-1; c=0, 1, 2).

まず、グレースケール変換手段10が、カラー眼底画像に対して、グレースケール変換を行い、グレースケール眼底画像を作成する(ステップS100)。 First, the grayscale conversion unit 10 performs grayscale conversion on the color fundus image to create a grayscale fundus image (step S100).

グレースケール変換手段10は、カラー眼底画像Image(x,y,c)に対して、一般に以下の〔数式1〕に従った処理を実行することによりグレースケール変換する。 The grayscale conversion means 10 performs grayscale conversion on the color fundus image Image(x, y, c) by generally performing the process according to the following [Formula 1].

〔数式1〕
Gr(x,y)=Image(x,y,0)・Wr+Image(x,y,1)・Wg+Image(x,y,2)・Wb
[Formula 1]
Gr(x,y)=Image(x,y,0)*Wr+Image(x,y,1)*Wg+Image(x,y,2)*Wb

上記〔数式1〕において、Image(x,y,0)は、カラー眼底画像のうち、R(レッド、赤)の成分を示しており、Image(x,y,2)は、カラー眼底画像のうち、B(ブルー、青)の成分を示している。また、WrはR成分の重み、WgはG成分の重み、WbはB成分の重み、をそれぞれ示している。Wr、Wg、Wbはいずれも実数値である。 In the above [Formula 1], Image (x, y, 0) represents the R (red, red) component of the color fundus image, and Image (x, y, 2) is the color fundus image. Of these, the B (blue, blue) component is shown. Further, Wr represents the weight of the R component, Wg represents the weight of the G component, and Wb represents the weight of the B component. Wr, Wg, and Wb are all real numbers.

さらに、グレースケール変換手段10は、グレースケール形式の画像Gr(x,y)に対して、一般に以下の〔数式2〕に従った処理を実行することによりネガポジ反転して、グレースケール眼底画像Gray(x,y)を得る。ネガポジ反転とは、元の画素値の大きいもの程小さい値に変換する処理を意味する。ここで、眼底画像に対してネガポジ反転させる理由は、血管候補領域の輝度を高くし背景の非血管候補領域の輝度を低くすることにより、グレースケール眼底画像の血管候補領域を疑似カラーで着色し易くするためである。ネガポジ反転することにより、複数のグレースケール眼底画像を合成しても背景部(非血管候補領域)が混ざり合わないため、血管候補領域の位置関係が把握し易くなる。 Further, the grayscale conversion means 10 performs negative/positive inversion on the image Gr(x, y) in the grayscale format by generally performing the processing according to the following [Equation 2] to obtain the grayscale fundus image Gray. Get (x,y). Negative/positive inversion means a process of converting a larger original pixel value into a smaller value. Here, the reason for performing the negative/positive inversion on the fundus image is to color the blood vessel candidate region of the grayscale fundus image in a pseudo color by increasing the brightness of the blood vessel candidate region and decreasing the brightness of the background non-blood vessel candidate region. This is to make it easier. By performing the negative/positive inversion, the background portions (non-blood vessel candidate areas) do not mix even if a plurality of grayscale fundus images are combined, so that the positional relationship of the blood vessel candidate areas can be easily grasped.

〔数式2〕
Gray(x,y)=255−Gr(x,y)
[Formula 2]
Gray(x,y)=255-Gr(x,y)

眼底血管の壁は殆ど透明なため、中に流れている血液の色の違いにより動静脈が異なる色を呈す。動脈血は、肺において酸素を吸着した赤血球のヘモグロビンにより鮮やかな赤色を示し、静脈血は、末梢においてガス交換後に赤血球のヘモグロビンから酸素が外され、血液中に二酸化炭素が溶解して青紫色を示す。一般に健常者のRGBフルカラーの眼底画像では、分色成分の輝度がR>G>>Bの順に顕著な差があり、最も強いR成分では赤色に富む動脈のコントラストが低いという特徴があり、逆に最も弱いB成分では赤色に富む動脈のコントラストが比較的高いという特徴がある。従って、R成分とB成分の差分成分をとると、動脈のコントラストが抑圧され静脈パターンが強調された画像になる。一方、中間のG成分は動静脈を問わず全ての血管のコントラストが高いという特徴があり、全ての眼底血管を一様に抽出するにはG成分が最も適している。ただし、白内障の患者の眼底画像は、R成分およびG成分の血管像が健常者に比べて不鮮明になり、代わりにB成分が増強されるため、G成分およびR成分からB成分を減算すると血管パターンのコントラストが改善することがある。(白内障の病態が進むとカラー眼底画像では血管パターンの抽出や動静脈の識別は困難になり、血管造影検査などが必要になる)。本実施形態では、カラー眼底画像から2種類のグレースケール眼底画像を作成する。1つ目はG成分主体のグレースケール眼底画像、2つ目はR成分主体のグレースケール眼底画像である。 Since the wall of the fundus blood vessel is almost transparent, the arteriovenous veins have different colors due to the difference in the color of blood flowing inside. Arterial blood shows a bright red color due to hemoglobin of red blood cells that adsorb oxygen in the lungs, and venous blood shows bluish-purple color due to the removal of oxygen from hemoglobin of red blood cells after gas exchange in the periphery and the dissolution of carbon dioxide in the blood. .. Generally, in the RGB full-color fundus image of a healthy person, there is a significant difference in the luminance of the color-separating components in the order of R>G>>B, and the strongest R component has the characteristic that the contrast of red-rich arteries is low. The weakest B component is that the contrast of arteries rich in red is relatively high. Therefore, when the difference component between the R component and the B component is taken, an image in which the contrast of the artery is suppressed and the vein pattern is emphasized is obtained. On the other hand, the intermediate G component is characterized by high contrast in all blood vessels regardless of arteriovenous, and the G component is most suitable for uniformly extracting all fundus blood vessels. However, in the fundus image of a patient with cataract, the blood vessel image of the R component and the G component becomes unclear compared to a healthy person, and the B component is enhanced instead. Therefore, when the B component is subtracted from the G component and the R component, The pattern contrast may be improved. (As the pathology of cataract progresses, it becomes difficult to extract blood vessel patterns and identify arteries and veins from color fundus images, and angiographic examination is required). In this embodiment, two types of gray scale fundus images are created from color fundus images. The first is a grayscale fundus image mainly composed of G components, and the second is a grayscale fundus image mainly composed of R components.

1つ目のG成分主体のグレースケール眼底画像の作成について説明する。「G成分主体」とは、主として元のカラー眼底画像のG成分を含むことを意味する。そのため、他のR成分やB成分を含んでいてもよい。本実施形態では、G成分主体のグレースケール眼底画像として、R成分やB成分を含まないG成分のみによるグレースケール眼底画像を作成する。上記〔数式1〕において、本実施形態では、各成分の重みをそれぞれWr=0.0、Wg=1.0、Wb=0.0として算出したグレースケール画像Gr(x,y)をG成分主体のグレースケール画像Grg(x,y)としている。Wg=1.0であるため、グレースケール画像Grg(x,y)においては、G成分はそのまま反映される。Wr=Wb=0.0であるため、グレースケール画像Grg(x,y)においては、R成分およびB成分は一切反映されない。したがって、上記〔数式1〕においては、各画素のG成分のみを抽出し、グレースケール形式の画像Grg(x,y)を得ている。前述の通り、一般に健常者の眼底画像では、G成分に全ての血管像が現れる。 The creation of the first grayscale fundus image mainly composed of the G component will be described. “Mainly G component” means mainly including the G component of the original color fundus image. Therefore, it may contain other R component or B component. In this embodiment, as the grayscale fundus image mainly composed of the G component, a grayscale fundus image including only the G component which does not include the R component and the B component is created. In the above [Formula 1], in the present embodiment, the grayscale image Gr(x, y) calculated with the weight of each component set to Wr=0.0, Wg=1.0, and Wb=0.0 is the G component. The main grayscale image Grg(x, y) is used. Since Wg=1.0, the G component is directly reflected in the grayscale image Grg(x, y). Since Wr=Wb=0.0, the R component and the B component are not reflected at all in the grayscale image Grg(x,y). Therefore, in the above [Formula 1], only the G component of each pixel is extracted to obtain the image Grg(x, y) in the gray scale format. As described above, generally, in a fundus image of a healthy person, all blood vessel images appear in the G component.

さらに、グレースケール変換手段10は、上記〔数式2〕のグレースケール形式の画像Gr(x,y)としてG成分主体のグレースケール形式の画像Grg(x,y)を与えることにより、ネガポジ反転されたG成分主体のグレースケール眼底画像Grayg(x,y)を得る。ネガポジ反転することにより、周囲に比べ輝度が低い血管領域の画素値が高い状態に変換される。 Further, the grayscale conversion means 10 gives the image Grg(x, y) in the grayscale format mainly composed of the G component as the image Gr(x, y) in the grayscale format in the above [Formula 2], thereby performing the negative/positive inversion. The grayscale fundus image Grayg(x, y) mainly including the G component is obtained. By performing the negative/positive inversion, the pixel value of the blood vessel region whose brightness is lower than that of the surroundings is converted to a high pixel value.

2つ目のR成分主体のグレースケール眼底画像の作成について説明する。「R成分主体」とは、主として元のカラー眼底画像のR成分を含むことを意味する。そのため、他のG成分やB成分を含んでいてもよい。本実施形態では、R成分主体のグレースケール眼底画像として、B成分を逆方向に反映させたR成分主体のグレースケール眼底画像を作成する。グレースケール変換手段10は、カラー眼底画像Image(x,y,c)に対して、同様に上記〔数式1〕に従った処理を実行することによりグレースケール変換する。 The second generation of the R-component-based grayscale fundus image will be described. “Mainly R component” means that mainly the R component of the original color fundus image is included. Therefore, other G component or B component may be included. In the present embodiment, as the grayscale fundus image mainly composed of the R component, a grayscale fundus image mainly composed of the R component in which the B component is reflected in the opposite direction is created. The grayscale conversion unit 10 performs the grayscale conversion on the color fundus image Image(x, y, c) by similarly performing the processing according to the above [Formula 1].

上記〔数式1〕において、本実施形態では、各成分の重みをそれぞれWr=1.0、Wg=0.0とし、Wbは−2.0〜0.0の範囲の負値として算出したグレースケール画像Gr(x,y)をR成分主体のグレースケール画像Grr(x,y)としている。グレースケール画像Grr(x,y)においては、Wbが小さいほど動脈が強調される。Wr=1.0であるため、グレースケール画像Grr(x,y)においては、R成分はそのまま反映される。Wg=0であるため、グレースケール画像Grr(x,y)においては、G成分は一切反映されない。Wbは負値であるため、グレースケール画像Grr(x,y)においては、B成分が逆方向に反映される。Wbは−2.0という値もとることがあり、この場合、B成分の2倍の値が削減されることになる。しかし、元のカラー眼底画像においてB成分の値は、小さいため、2倍にしてもグレースケール画像Grr(x,y)の値は負値にならないことが多い。 In the above [Formula 1], in the present embodiment, the weight of each component is set to Wr=1.0 and Wg=0.0, and Wb is calculated as a negative value in the range of −2.0 to 0.0. The scale image Gr(x, y) is a grayscale image Grr(x, y) mainly composed of R components. In the grayscale image Grr(x,y), the smaller Wb, the more the artery is emphasized. Since Wr=1.0, the R component is reflected as it is in the grayscale image Grr(x, y). Since Wg=0, the G component is not reflected at all in the grayscale image Grr(x, y). Since Wb is a negative value, the B component is reflected in the opposite direction in the grayscale image Grr(x,y). Wb may take a value of -2.0, and in this case, the value of twice the B component is reduced. However, since the value of the B component is small in the original color fundus image, the value of the grayscale image Grr(x, y) often does not become a negative value even if the value is doubled.

すなわち、ステップS100において、グレースケール変換手段10は、カラー眼底画像のR成分よりカラー眼底画像のB成分を所定の割合Wbだけ減算することによりR成分主体のグレースケール画像として作成するようにしている。 That is, in step S100, the grayscale conversion means 10 subtracts the B component of the color fundus image from the R component of the color fundus image by a predetermined ratio Wb to create a grayscale image mainly composed of the R component. ..

さらに、グレースケール変換手段10は、上記〔数式2〕のグレースケール形式の画像Gr(x,y)としてR成分主体のグレースケール形式の画像Grr(x,y)を与えることにより、ネガポジ反転されたR成分主体のグレースケール眼底画像Grayr(x,y)を得る。 Further, the grayscale conversion means 10 gives the image Grr(x, y) in the grayscale format mainly composed of the R component as the image Gr(x, y) in the grayscale format in the above [Formula 2], thereby performing the negative/positive inversion. A grayscale fundus image Grayr(x, y) mainly including the R component is obtained.

上記〔数式2〕に従った処理を実行して、ネガポジ反転することにより、周囲に比べ輝度が低い血管領域の画素値が高い状態に変換される。このようにして、R成分主体のグレースケール眼底画像Grayr(x,y)が得られる。 By performing the processing according to the above [Formula 2] and performing the negative/positive inversion, the pixel value of the blood vessel region having a lower brightness than the surroundings is converted to a high pixel value. In this way, the grayscale fundus image Grayr(x, y) mainly composed of the R component is obtained.

2種類のグレースケール眼底画像が得られたら、血管領域強調手段20が、R成分主体のグレースケール眼底画像とG成分主体のグレースケール眼底画像の各々に対して血管領域を強調し、血管領域である確率が高いほど高い輝度値が設定されたR成分主体の血管強調画像とG成分主体の血管強調画像を作成する処理を行う。図4は、血管領域強調手段20の詳細を示す機能ブロック図である。図4において、21は画像平坦化手段、22は線状成分強調手段、23は画素階調変換手段である。図4に示すように、血管領域強調手段20は、画像平坦化手段21、線状成分強調手段22、画素階調変換手段23を備えている。 When two types of gray scale fundus images are obtained, the blood vessel region emphasizing unit 20 emphasizes the blood vessel region with respect to each of the R component-based grayscale fundus image and the G component-based grayscale fundus image, and The higher the certain probability is, the higher the brightness value is set, and the processing to create the blood vessel emphasized image mainly composed of the R component and the blood vessel emphasized image mainly composed of the G component is performed. FIG. 4 is a functional block diagram showing details of the blood vessel region emphasizing means 20. In FIG. 4, 21 is an image flattening means, 22 is a linear component enhancing means, and 23 is a pixel gradation converting means. As shown in FIG. 4, the blood vessel region enhancing unit 20 includes an image flattening unit 21, a linear component enhancing unit 22, and a pixel gradation converting unit 23.

画像平坦化手段21は、グレースケール眼底画像の各画素に対して、所定の範囲に含まれる近傍画素の画素値(輝度値)の平均値を算出し、当該画素の画素値に所定の値から平均値を減算した値を加算することにより、全ての血管候補領域の輝度を一定以上に揃えた平坦化画像を作成する。線状成分強調手段22は、平坦化画像に対して、所定の構造要素を用いてオープニング処理を行い全ての血管候補領域に含まれる線状成分を強調するとともに血管候補領域に含まれない粒状成分を抑圧した線状成分強調画像を作成する処理を行う。画素階調変換手段23は、線状成分強調画像において、所定の条件を満たさない画素値、即ち所定のしきい値以下の血管候補領域に含まれない背景部の画素の画素値を、変換後の血管強調画像の階調の最小値になるように置き換え、所定の条件を満たす血管候補領域に含まれる画素の画素値、即ち所定のしきい値を超える画素値が、階調の最小値付近の値から最大値の範囲になるように画素の階調を補正し、血管強調画像(Tray)を作成する処理を行う。 The image flattening unit 21 calculates an average value of pixel values (luminance values) of neighboring pixels included in a predetermined range for each pixel of the grayscale fundus image, and calculates the pixel value of the pixel from the predetermined value. By adding the values obtained by subtracting the average value, a flattened image in which the brightness of all the blood vessel candidate regions is made uniform above a certain level is created. The linear component enhancing means 22 performs an opening process on the flattened image using a predetermined structuring element to enhance the linear components included in all the blood vessel candidate regions, and the granular components not included in the blood vessel candidate regions. The process of creating a linear component emphasized image in which is suppressed. The pixel gradation converting means 23 converts the pixel values that do not satisfy the predetermined condition, that is, the pixel values of the pixels of the background portion that are not included in the blood vessel candidate region equal to or less than the predetermined threshold value, in the linear component-enhanced image after conversion. Of the blood vessel-emphasized image is replaced with the minimum value, and the pixel value of the pixel included in the blood vessel candidate region satisfying the predetermined condition, that is, the pixel value exceeding the predetermined threshold value is near the minimum gradation value. The gradation of the pixel is corrected so as to fall within the range from the value of to the maximum value, and a process of creating a blood vessel emphasized image (Tray) is performed.

まず、画像平坦化手段21が、所定の範囲に含まれる近傍画素の画素値の平均値を算出し、その画素の画素値から平均値を減算し、所定の均一な値Midを加算することにより、平坦化画像を作成する(ステップS200)。所定の均一な値Midを加算するのは画素値が負値にならないようにするためである。ステップS200においては、G成分主体のグレースケール眼底画像Grayg(x,y)、R成分主体のグレースケール眼底画像Grayr(x,y)の双方に対して同一の処理が行われる。以降、G成分主体グレースケール眼底画像Grayg(x,y)、R成分主体のグレースケール眼底画像Grayr(x,y)を総称してグレースケール眼底画像Gray(x,y)と表現する。以降の処理において、Gray(x,y)に対して行われる処理は、Grayg(x,y)、Grayr(x,y)それぞれに対して行われる処理を示す。ステップS200においては、以下の〔数式5〕に従った処理を実行することにより、グレースケールの平坦化画像Gray´(x,y)を得る。 First, the image flattening means 21 calculates an average value of pixel values of neighboring pixels included in a predetermined range, subtracts the average value from the pixel values of the pixels, and adds a predetermined uniform value Mid. , A flattened image is created (step S200). The reason why the predetermined uniform value Mid is added is to prevent the pixel value from becoming a negative value. In step S200, the same processing is performed on both the G component-based grayscale fundus image Grayg(x, y) and the R component-based grayscale fundus image Grayr(x, y). Hereinafter, the G component-based grayscale fundus image Grayg(x, y) and the R component-based grayscale fundus image Grayr(x, y) are collectively referred to as a grayscale fundus image Gray(x, y). In the following processing, the processing performed on Gray(x, y) indicates the processing performed on each of Grayg(x, y) and Grayr(x, y). In step S200, a grayscale flattened image Gray'(x, y) is obtained by performing processing according to the following [Equation 5].

〔数式5〕
Mean(x,y)=[Σj=-m+1,mΣi=-m+1,mGray(x+i,y+j)}/(4m2
Gray´(x,y)=Gray(x,y)−Mean(x,y)+Mid
[Formula 5]
Mean(x,y)=[Σ j=-m+1,m Σ i=-m+1,m Gray(x+i,y+j)}/(4m 2 )
Gray'(x,y)=Gray(x,y)-Mean(x,y)+Mid

上記〔数式5〕において、mは1以上の整数であり、Σの添え字の“j=−m+1,m” “i=−m+1,m”は、jが−m+1からmまで、およびiが−m+1からmまでの4m2個の画素の総和を求めることを示している。すなわち、Mean(x,y)は、画素(x,y)から前後左右m画素の範囲に含まれる近傍画素の画素値の平均値を示している。近傍画素の画素数としては、画像の全画素の1/3000〜1/7000の範囲とすることが好ましい。本実施形態では、m=8として近傍画素を256(=4m2=2m×2m)個としている。これは、グレースケール眼底画像Gray(x,y)が1280×1024画素の場合、約1/50000に相当する。 In the above [Formula 5], m is an integer of 1 or more, and the subscript “j=−m+1,m” “i=−m+1,m” of j is j from −m+1 to m, and i is It indicates that the sum of 4m 2 pixels from −m+1 to m is calculated. That is, Mean (x, y) represents the average value of the pixel values of the neighboring pixels included in the range of the front, rear, left, and right m pixels from the pixel (x, y). The number of neighboring pixels is preferably in the range of 1/3000 to 1/7000 of all pixels of the image. In this embodiment, m=8 and the number of neighboring pixels is 256 (=4 m 2 =2 m×2 m). This corresponds to about 1/50,000 when the gray scale fundus image Gray(x, y) has 1280×1024 pixels.

この平均値Mean(x,y)を用いて、〔数式5〕の第2式により、各画素(x,y)の画素値Gray(x,y)から平均値Mean(x,y)を減算した値に所定の値Midを加算することにより、平坦化画像Gray´(x,y)が得られる。所定の値Midは、画素が取り得る階調の中央値である。本実施形態では、画像が0〜255の値を取り得るため、中央値としては、127、128の2つがあるが、便宜上Mid=128としている。 Using this average value Mean(x, y), the average value Mean(x, y) is subtracted from the pixel value Gray(x, y) of each pixel (x, y) by the second equation of [Equation 5]. A flattened image Gray'(x, y) is obtained by adding a predetermined value Mid to the calculated value. The predetermined value Mid is a median value of gradation that can be taken by the pixel. In the present embodiment, since the image can take a value of 0 to 255, there are two median values of 127 and 128, but Mid=128 for convenience.

上記平均値Mean(x,y)を算出する際、上記〔数式5〕の第1式に示したように、直接近傍画素の画素値の総和を求めるようにしてもよいが、この手法だと、演算処理の負荷が高い。そのため、本実施形態では、画像平坦化手段21は、以下の〔数式6〕に従った処理を実行することにより、少ない処理負荷で高速に平均値Mean(x,y)を算出するようにしている。 When calculating the average value Mean(x, y), the sum of the pixel values of the neighboring pixels may be directly obtained as shown in the first expression of [Equation 5], but this method is used. , The processing load is high. Therefore, in the present embodiment, the image flattening unit 21 is configured to calculate the average value Mean(x, y) at high speed with a small processing load by executing the processing according to the following [Equation 6]. There is.

〔数式6〕
j=0の場合、S(i,0)=Σii=0,iGray(ii,0)
j>0の場合、S(i,j)=S(i,j−1)+Σii=0,iGray(ii,j)
Mean(x,y)=[S(x+m,y+m)−S(x−m,y+m)−S(x+m,y−m)+S(x−m,y−m)]/(4m2
[Formula 6]
When j=0, S(i,0)=Σ ii=0,i Gray(ii,0)
When j>0, S(i,j)=S(i,j−1)+Σ ii=0,i Gray(ii,j)
Mean(x, y)=[S(x+m, y+m)-S(x-m, y+m)-S(x+m, ym)+S(x-m, ym)]/(4m< 2 >).

上記〔数式6〕の第1式において、S(i,j)は、先頭の画素(画像の左上端x=0、y=0)から画素(i,j)までの矩形領域の画素値Gray(ii,jj)の(i+1)×(j+1)個の総和値である。 In the first expression of the above [Equation 6], S(i,j) is the pixel value Gray of the rectangular area from the first pixel (upper left corner x=0, y=0 of the image) to the pixel (i,j). It is the sum of (i+1)×(j+1) pieces of (ii, jj).

図5は、グレースケール眼底画像Gray(x,y)上の画素(x,y)と平均値Mean(x,y)を算出するための近傍画素との関係を示す図である。大きな太枠で囲ったように、平均値Mean(x,y)を算出するために、左上方の画素(x−m+1,y−m+1)〜右下方の画素(x+m,y+m)の全2m×2m個の画素値を加算する必要がある。この際、画像の先頭の画素から画素(x,y)までの(x+1)×(y+1)個の矩形領域の画素の画素値の総和値S(x,y)を〔数式6〕の第1式を用いて算出しておく。すると、この2m×2m個の矩形領域の画素値の総和は、先頭画素(0,0)〜右下方の画素(x+m,y+m)の(x+m+1)×(y+m+1)個の矩形領域の画素値の総和S(x+m,y+m)から、先頭画素(0,0)〜右上方の画素(x+m,y−m)までの(x+m+1)×(y−m+1)個の矩形領域の画素値の総和S(x+m,y−m)と、先頭画素(0,0)〜左下方の画素(x−m,y+m)までの(x−m+1)×(y+m+1)個の矩形領域の画素値の総和S(x−m,y+m)を減算し、先頭画素(0,0)〜左上方の画素(x−m,y−m)までの(x−m+1)×(y−m+1)個の矩形領域の画素値の総和S(x−m,y−m)を加算したものと等価である。 FIG. 5 is a diagram showing a relationship between a pixel (x, y) on the gray scale fundus image Gray(x, y) and a neighboring pixel for calculating the average value Mean(x, y). As surrounded by a large thick frame, in order to calculate the average value Mean(x, y), a total of 2 m×the upper left pixel (x−m+1, y−m+1) to the lower right pixel (x+m, y+m). It is necessary to add 2m pixel values. At this time, the total sum value S(x, y) of the pixel values of the (x+1)×(y+1) rectangular pixels from the first pixel of the image to the pixel (x, y) is calculated as It is calculated using a formula. Then, the sum of the pixel values of the 2m×2m rectangular areas is the sum of the pixel values of the (x+m+1)×(y+m+1) rectangular areas of the first pixel (0,0) to the lower right pixel (x+m,y+m). From the sum S(x+m, y+m) to the top pixel (0,0) to the pixel (x+m,y−m) at the upper right, the sum S((++m+1)×(y−m+1) of pixel values of rectangular areas x+m, y−m) and the sum S(x of pixel values of (x−m+1)×(y+m+1) rectangular areas from the first pixel (0, 0) to the lower left pixel (x−m, y+m). -M, y+m) is subtracted to obtain pixel values of (x-m+1) x (y-m+1) rectangular areas from the first pixel (0, 0) to the upper left pixel (x-m, ym). Is equivalent to the sum of the sums S(x-m, ym).

そうすると、平均値Mean(x,y)は、〔数式6〕の第2式に示すように、先頭画素(0,0)から指定された4つの画素までの矩形領域の画素の総和値を加減算するだけの少ない処理負荷で高速に算出することができる。ここで、総和値を加減算する4つの矩形領域の末端の画素は、図5に、小さい太枠で囲った(x+m,y+m)、(x−m,y+m)、(x+m,y−m)、(x−m,y−m)の4画素である。グレースケール眼底画像Gray(x,y)の各画素(x,y)から近傍画素の平均値Mean(x,y)をし所定の値Midを加算することにより、平坦化画像Gray´(x,y)が得られる。すなわち、G成分主体の平坦化画像Grayg´(x,y)、R成分主体の平坦化画像Grayr´(x,y)が得られる。なお、図3においては、それぞれ平坦化画像(G)、平坦化画像(R)と表記している。 Then, the average value Mean(x, y) is added or subtracted from the total sum value of the pixels in the rectangular area from the first pixel (0, 0) to the specified four pixels, as shown in the second equation of [Equation 6]. It can be calculated at high speed with a small processing load. Here, the end pixels of the four rectangular areas to which the sum total value is added and subtracted are surrounded by small thick frames (x+m, y+m), (x−m, y+m), (x+m, ym) in FIG. There are 4 pixels of (x-m, ym). The average value Mean (x, y) of the neighboring pixels is calculated from each pixel (x, y) of the gray scale fundus image Gray (x, y), and a predetermined value Mid is added to the flattened image Gray' (x, y). y) is obtained. That is, a flattened image Grayg′(x,y) mainly composed of the G component and a flattened image Grayr′(x,y) mainly composed of the R component are obtained. In addition, in FIG. 3, it is described as a flattened image (G) and a flattened image (R), respectively.

結局、〔数式6〕に従った処理を実行することにより、画像平坦化手段21は、画像のサイズがXs×Ysであるグレースケール眼底画像Gray(x,y)に対して、あらかじめ(0,0)から各画素(x,y)までの(x+1)×(y+1)個の矩形領域の画素値の総和値S(x,y)を算出する処理を行い、S(x+m,y+m)−S(x−m,y+m)−S(x+m,y−m)+S(x−m,y−m)の値を、2m×2mで除算した値を平均値として算出している。各画素(x,y)における累積値S(x,y)を事前に算出する処理が余分に加わるが、この計算はXs×Ys回の加算演算だけで行える。これに対して、累積値S(x,y)を用いずに、各画素(x,y)における平均値Mean(x,y)を算出しようとすると、各画素ごとに2m×2m回の加算演算が必要となり、トータルXs×Ys×2m×2m回の加算演算が必要となる。これに対して、累積値S(x,y)を用いれば、各画素ごとに4回の加減算で済み、事前の画像全体の累積値計算を含めてトータルXs×Ys×5回の加減算で完結する。 Eventually, the image flattening unit 21 executes (0, 0) for the grayscale fundus image Gray(x, y) whose image size is Xs×Ys by executing the process according to [Equation 6]. 0) to each pixel (x, y), a process of calculating a sum value S(x, y) of pixel values of (x+1)×(y+1) rectangular areas is performed, and S(x+m, y+m)−S is performed. The value obtained by dividing the value of (x−m, y+m)−S(x+m, ym)+S(x−m, ym) by 2 m×2 m is calculated as an average value. Although an extra process for calculating the cumulative value S(x, y) in each pixel (x, y) in advance is added, this calculation can be performed only by Xs×Ys addition operations. On the other hand, if an average value Mean(x, y) in each pixel (x, y) is calculated without using the cumulative value S(x, y), 2m×2m additions are performed for each pixel. Calculation is required, and total Xs×Ys×2m×2m additions are required. On the other hand, if the cumulative value S(x, y) is used, the addition/subtraction of 4 times is required for each pixel, and the total Xs×Ys×5 additions/subtractions including the calculation of the cumulative value of the entire image are completed. To do.

平坦化画像が得られたら、次に、線状成分強調手段22が、平坦化画像に対して、オープニング処理(収縮・膨張処理)を行って線状成分の強調を行い、線状成分強調画像を得る(ステップS300)。図6は、ステップS300における線状成分強調の処理動作を示すフローチャートである。 After the flattened image is obtained, the linear component emphasizing unit 22 then performs an opening process (contraction/expansion process) on the flattened image to emphasize the linear component, and the linear component emphasized image. Is obtained (step S300). FIG. 6 is a flowchart showing the processing operation of the linear component enhancement in step S300.

まず、線状成分強調手段22は、画像平坦化手段21により得られた平坦化画像に対して、8種の線形構造要素によるオープニング処理を行う(ステップS310)。ステップS310のオープニング処理では、線形構造要素を複数個用いて、複数の線形オープニング画像を作成する。本実施形態では、指定構造要素として8個の線形構造要素を用いる。これは、方向が8方向に異なる線形の構造要素である線形構造要素である。図7は、本実施形態で用いる線形構造要素の一例を示す図である。 First, the linear component emphasizing unit 22 performs an opening process using eight types of linear structuring elements on the flattened image obtained by the image flattening unit 21 (step S310). In the opening process in step S310, a plurality of linear structuring elements are used to create a plurality of linear opening images. In this embodiment, eight linear structuring elements are used as the designated structuring element. This is a linear structuring element, which is a linear structuring element whose directions differ in eight directions. FIG. 7 is a diagram showing an example of the linear structuring element used in this embodiment.

図7に示す線形構造要素は、マスクとしての役割を果たすものであるため、二値画像である。そのため、図7において、“0”と表記された画素の値は“0”であるが、“0”以外の数値が表記された画素の値は、8種類の各方向dに応じて“1”となり、他の方向のとき“0”である。図7における“0”以外の数字は方向を示している。“1”は水平方向(図面左右方向)であり、以後数字が1増えるに従って22.5度間隔で方向が変化する。“2” “4”“6”“8”については、画素の格子状配置の関係から、同一数字の列が直線上に配列することができないため、近傍の区画に配置されている。“234”や“678”などの3桁の数字は、それぞれ“2” “3”“4”の3方向、“6”“7”“8”の3方向のいずれかの方向の場合に、画素値が“1”となることを示している。なお、“9”は中心となる画素を示しており、中心となる画素の値は常に“1”である。 The linear structuring element shown in FIG. 7 serves as a mask and is therefore a binary image. Therefore, in FIG. 7, the value of the pixel described as “0” is “0”, but the value of the pixel described as a numerical value other than “0” is “1” according to each of the eight types of directions d. ", and "0" in the other directions. The numbers other than "0" in FIG. 7 indicate the directions. “1” is the horizontal direction (the horizontal direction in the drawing), and as the number increases by 1, the direction changes at intervals of 22.5 degrees. As for “2”, “4”, “6”, and “8”, the columns of the same number cannot be arranged in a straight line due to the grid-like arrangement of the pixels, and thus are arranged in the neighboring partitions. Three-digit numbers such as "234" and "678" are three directions of "2" "3" "4" and three directions of "6" "7" "8", respectively. This indicates that the pixel value is “1”. Note that "9" indicates the central pixel, and the value of the central pixel is always "1".

図7に示すように、線形構造要素は、円形構造要素の半径Nの2倍の長さで画素幅が1画素であって、22.5度間隔の直線の少なくとも近傍に配置され、8方向を定義したものとなる。実際には、各方向において画素値“1”が与えられる連続する画素は、直線となることが好ましいが、線形構造要素の全体画素数が少ない場合は、必ずしも直線にならない。そのため、図7の例では、“2” “4”“6”“8”で示す方向については、直線ではなく、画素値“1”となる画素は、22.5度間隔の直線の近傍に配置されることになる。 As shown in FIG. 7, the linear structuring element has a length twice the radius N of the circular structuring element, a pixel width of 1 pixel, and is arranged at least in the vicinity of a straight line at intervals of 22.5 degrees. Will be defined. Actually, it is preferable that the continuous pixels to which the pixel value “1” is given in each direction be a straight line, but when the total number of pixels of the linear structuring element is small, it is not necessarily a straight line. Therefore, in the example of FIG. 7, in the directions indicated by “2”, “4”, “6”, and “8”, the pixel having the pixel value “1” is not in the straight line but in the vicinity of the straight line at the interval of 22.5 degrees. Will be placed.

実際に用いる線形構造要素は、中心から半径7画素の条件を追加したものとなる。すなわち、図7に示した線形構造要素と、図8に示した円形構造要素の論理積(AND)をとったものとなる。図8は、本実施形態で用いる円形構造要素の一例を示す図である。図8に示すように、本実施形態では、半径7画素、すなわち中心から距離7画素以下を有効とした15×15のマスク画像の形態である円形構造要素を用いる。図8に示すように、15×15の画素のうち、中心から距離7画素以下の画素値は“1”、その他の中心から距離7を超える画素の画素値は“0”である。図7に示した線形構造要素と、図8に示した円形構造要素の論理積(AND)をとることにより、例えば、方向d=1の場合は、図9に示したような二値のマスク画像が得られる。また、方向d=2の場合は、図10に示したような二値のマスク画像が得られる。図9、図10において、“1”と示されている画素が参照画素である。すなわち、オープニング処理の際に参照される参照画素が定義された(2N+1)×(2N+1)画素の2値画像で、半径Nの円形内部に参照画素が定義され、2N+1の長さで画素幅が1画素であって、22.5度間隔の直線の少なくとも近傍に配置されることにより、8方向が定義されることになる。 The linear structuring element that is actually used has the condition of adding a radius of 7 pixels from the center. That is, it is the logical product (AND) of the linear structuring element shown in FIG. 7 and the circular structuring element shown in FIG. FIG. 8 is a diagram showing an example of the circular structural element used in the present embodiment. As shown in FIG. 8, in this embodiment, a circular structuring element in the form of a 15×15 mask image in which a radius of 7 pixels, that is, a distance of 7 pixels or less from the center is effective is used. As shown in FIG. 8, among the 15×15 pixels, the pixel value at a distance of 7 pixels or less from the center is “1”, and the pixel value of the other pixels exceeding the distance 7 from the center is “0”. By taking the logical product (AND) of the linear structuring element shown in FIG. 7 and the circular structuring element shown in FIG. 8, for example, when the direction d=1, the binary mask as shown in FIG. An image is obtained. When the direction d=2, a binary mask image as shown in FIG. 10 is obtained. In FIGS. 9 and 10, the pixel indicated by “1” is the reference pixel. That is, in the binary image of (2N+1)×(2N+1) pixels in which the reference pixel referred to in the opening process is defined, the reference pixel is defined inside the circle having the radius N, and the pixel width is 2N+1 and the pixel width is Eight directions are defined by arranging one pixel at least in the vicinity of a straight line at intervals of 22.5 degrees.

図7に示した線形構造要素はM(d,u,v)={0,1}(d=1,・・・,8;u=−N,・・・,0,・・・,N;v=−N,・・・,0,・・・,N)と定義することができる。なお、Nは有効とする半径を示しており、図7の例では、N=7である。また、uは図7における横軸、vは図7における縦軸を、それぞれ示す。線状成分強調手段22は、線形構造要素M(d,u,v)を用いて、上記〔数式5〕に従った処理を実行して得られた平坦化画像Gray´(x,y)に対して、以下の〔数式7〕に従った処理を実行し、収縮画像Eray(x,y)を得る。 The linear structuring element shown in FIG. 7 is M(d, u, v)={0, 1} (d=1,..., 8; u=−N,..., 0,..., N). V=-N,..., 0,..., N). Note that N represents a valid radius, and in the example of FIG. 7, N=7. Further, u indicates the horizontal axis in FIG. 7, and v indicates the vertical axis in FIG. 7, respectively. The linear component emphasizing unit 22 uses the linear structuring element M(d, u, v) to perform the process according to the above [Equation 5] and obtains the flattened image Gray′(x, y). On the other hand, the process according to the following [Formula 7] is executed to obtain the contracted image Eray(x, y).

〔数式7〕
Eray(d,x,y)=MINu=-N,N;v=-N,N[(255−M(d,u,v)×254)×(Gray´(x+u,y+v)+1)−1]
[Formula 7]
Eray(d,x,y)=MIN u=-N,N;v=-N,N [(255-M(d,u,v)*254)*(Gray'(x+u,y+v)+1)- 1]

上記〔数式7〕において、MINは最小値をとることを示しており、MINの添え字の“u=−N,N;v=−N,N”は、u,vが−NからNの範囲における演算を行うことを示している。すなわち、“x=N,・・・,Xs−N−1;y=N,・・・,Ys−N−1“の各画素Gray´(x,y)に対して、“u=−N,N;v=−N,N”の隣接画素内でM(u,v)=1である画素値の最小値に変換を行っている。したがって、図7の例では、線形構造要素の(2N+1)×(2N+1)画素でN=7として225画素を用いて演算を行い、その最小値がEray(x,y)として与えられることになる。 In the above [Formula 7], MIN indicates that it takes a minimum value, and the subscript “u=−N,N;v=−N,N” of MIN indicates that u and v are from −N to N. It indicates that the calculation in the range is performed. That is, for each pixel Gray'(x, y) of "x=N,..., Xs-N-1; y=N,..., Ys-N-1", "u=-N. , N;v=−N,N″, the conversion is performed to the minimum pixel value of M(u,v)=1 in the adjacent pixels. Therefore, in the example of FIG. 7, the calculation is performed using 225 pixels with (2N+1)×(2N+1) pixels of the linear structuring element, where N=7, and the minimum value is given as Eray(x,y). ..

上記〔数式7〕に従った処理を実行して収縮画像Eray(d,x,y)が得られたら、このEray(d,x,y)をGray´(x,y)に置き換えて、上記〔数式7〕に従った処理を繰り返し実行することもできる。繰り返しの回数は、適宜設定することが可能である。ただし、通常は画質劣化を抑えるため、1回に設定し繰り返しは行わない。8つの各方向dについて行うことにより、d=1〜8の8種の収縮画像Eray(d,x,y)が得られる。 When the contracted image Eray(d,x,y) is obtained by executing the processing according to the above [Formula 7], the Eray(d,x,y) is replaced with Gray'(x,y), and The processing according to [Equation 7] can be repeatedly executed. The number of repetitions can be set appropriately. However, in order to suppress image quality deterioration, it is usually set to once and not repeated. By performing the process in each of the eight directions d, eight contraction images Eray(d, x, y) with d=1 to 8 are obtained.

収縮処理を繰り返し実行して8種の収縮画像Eray(d,x,y)が得られたら、次に、線状成分強調手段22は、収縮処理に用いた線形構造要素を指定構造要素として用いて膨張処理を行う。具体的には、線形構造要素M(d,u,v)を用いて、収縮画像Eray(d,x,y)に対して、以下の〔数式8〕に従った処理を実行し、膨張後の画像Dray(d,x,y)を得る。 When the contraction processing is repeatedly executed and eight kinds of contraction images Eray(d, x, y) are obtained, then the linear component enhancing means 22 uses the linear structuring element used for the contraction processing as the designated structuring element. And perform expansion processing. Specifically, using the linear structuring element M(d,u,v), the process according to the following [Equation 8] is performed on the contracted image Eray(d,x,y), and after the expansion, The image Dray(d,x,y) of is obtained.

〔数式8〕
Dray(d,x,y)=MAXu=-N,N;v=-N,N[M(d,u,v)×Eray(d,x+u,y+v)]
[Formula 8]
Dray(d,x,y)=MAX u=-N,N;v=-N,N [M(d,u,v)×Eray(d,x+u,y+v)]

上記〔数式8〕において、MAXは最大値をとることを示しており、MAXの添え字の“u=−N,N;v=−N,N”は、u,vが−NからNの範囲における演算を行うことを示している。すなわち、“x=N,・・・,Xs−N−1;y=N,・・・,Ys−N−1“の各画素Eray(d,x,y)に対して、“u=−N,N;v=−N,N”の隣接画素内でM(d,u,v)=1である画素値の最大値に変換を行っている。したがって、図7の例では、線形構造要素の(2N+1)×(2N+1)画素として225画素を用いて演算を行い、その最大値がDray(d,x,y)として与えられることになる。 In the above [Formula 8], MAX indicates that it takes the maximum value, and the subscript “u=−N,N;v=−N,N” of MAX indicates that u and v are from −N to N. It indicates that the calculation in the range is performed. That is, for each pixel Eray(d, x, y) of "x=N,..., Xs-N-1; y=N,..., Ys-N-1", "u=- The conversion is performed to the maximum pixel value of M(d, u, v)=1 in the adjacent pixels of N, N; v=-N, N". Therefore, in the example of FIG. 7, the calculation is performed using 225 pixels as (2N+1)×(2N+1) pixels of the linear structuring element, and the maximum value is given as Dray(d,x,y).

上記〔数式8〕に従った処理を実行して膨張後の画像Dray(d,x,y)が得られたら、このDray(d,x,y)をEray(d,x,y)に置き換えて、上記〔数式8〕に従った処理を繰り返し実行することもできる。繰り返しの回数は、収縮処理の繰り返しの回数と同じ回数にする必要があり、通常は収縮処理とも1回に設定し繰り返しは行わない。8つの各方向dについて行うことにより、d=1〜8の8種の膨張後の画像Dray(d,x,y)が得られる。収縮および膨張を行った結果得られる画像は、線形オープニング画像Dray(d,x,y)として得られる。 When the expanded image Dray(d,x,y) is obtained by executing the processing according to the above [Equation 8], this Dray(d,x,y) is replaced with Eray(d,x,y). Thus, the processing according to the above [Formula 8] can be repeatedly executed. The number of repetitions needs to be the same as the number of repetitions of the contraction processing, and normally the contraction processing is set to 1 and the repetition is not performed. By performing the process in each of the eight directions d, eight types of expanded images Dray(d, x, y) with d=1 to 8 are obtained. The image obtained as a result of the contraction and expansion is obtained as a linear opening image Dray(d,x,y).

次に、線状成分強調手段22は、8種の線形オープニング画像の最大値の画像を作成する処理を行う(ステップS320)。具体的には、以下の〔数式9〕に従った処理を実行し、最大値の画像であるグレースケールの線状成分強調画像Lray(x,y)を得る。 Next, the linear component emphasizing unit 22 performs a process of creating an image having the maximum value of the eight types of linear opening images (step S320). Specifically, the processing according to the following [Equation 9] is executed to obtain the grayscale linear component emphasized image Lray(x, y) which is the image of the maximum value.

〔数式9〕
Lray(x,y)=MAXd=1,8Dray(d,x,y)
[Formula 9]
Lray(x,y)=MAX d=1,8 Delay(d,x,y)

上記〔数式9〕において、MAXは最大値をとることを示しており、MAXの添え字の“d=1,8”は、8種の全ての線形オープニング画像Dray(d,x,y)における演算を行うことを示している。すなわち、各画素(x,y)について、8種の線形オープニング画像Dray(d,x,y)の最大値を取得する処理を行っている。この結果、最大値の画像である線状成分強調画像Lray(x,y)が得られる。すなわち、G成分主体の線状成分強調画像Lrayg(x,y)、R成分主体の線状成分強調画像Lrayr(x,y)が得られる。なお、図3においては、それぞれ線状成分強調画像(G)、線状成分強調画像(R)と表記している。本実施形態では、8種類の方向に従って8種の線形オープニング画像に対して処理を行うため、22.5度の均等間隔で変更させた各方向に均等に粒状成分の抽出を抑えることができる。作成する画像の数も方向に応じた8個だけであるため、演算処理の負荷を抑えることができる。 In the above [Formula 9], MAX indicates that it takes the maximum value, and the subscript “d=1, 8” of MAX indicates that all eight types of linear opening images Dray(d, x, y) It indicates that calculation is performed. That is, the process of acquiring the maximum value of the eight types of linear opening images Dray(d, x, y) is performed for each pixel (x, y). As a result, the linear component emphasized image Lray(x, y), which is the image with the maximum value, is obtained. That is, the linear component emphasized image Lrayg(x, y) mainly composed of the G component and the linear component emphasized image Lrayr(x, y) mainly composed of the R component are obtained. In addition, in FIG. 3, it is described as a linear component emphasized image (G) and a linear component emphasized image (R), respectively. In the present embodiment, since processing is performed on eight types of linear opening images according to eight types of directions, it is possible to evenly suppress the extraction of granular components in each direction changed at an equal interval of 22.5 degrees. Since the number of images to be created is only eight according to the direction, the load of arithmetic processing can be suppressed.

線状成分強調画像が得られたら、次に、画素階調変換手段23が、線状成分強調画像に対して、階調変換(コントラスト補正)を行い、血管強調画像を得る(ステップS400)。具体的には、まず、画素階調変換手段23は、0〜255の値をもつ、線状成分強調画像Lray(x,y)のXs×Ys個の全画素について、画素値vbの度数分布H(vb)(vb=0,・・・,255)を求める。そして、以下の〔数式10〕に示す条件を満たす最小値vbminを求める。 After the linear component emphasized image is obtained, the pixel gradation conversion unit 23 then performs gradation conversion (contrast correction) on the linear component emphasized image to obtain a blood vessel emphasized image (step S400). Specifically, first, the pixel gradation conversion unit 23 has a frequency distribution of the pixel value vb for all Xs×Ys pixels of the linear component emphasized image Lray(x, y) having a value of 0 to 255. H(vb) (vb=0,..., 255) is calculated. Then, the minimum value vbmin that satisfies the condition shown in the following [Formula 10] is obtained.

〔数式10〕
Σvb=0,vbminH(vb)≧(Xs×Ys)×α
[Formula 10]
Σ vb=0,vbmin H(vb)≧(Xs×Ys)×α

上記〔数式10〕において、Σの添え字の“vb=0,vbmin”は、vbが0からvbminまでの総和を求めることを示している。したがって、上記〔数式10〕に示す条件とは、全画素数(Xs×Ys)のうち、およそ比率α×100%の画素が、画素値vbmin以下の画素値となることを示している。比率αとしては、眼底画像中に含まれる血管以外の領域の比率を与える必要があり、この比率は取得された眼底画像ごとに変動するが、平均的には0.7〜0.9、典型的な例として0.8と設定することが好ましい。結局、〔数式10〕を用いることにより、線状成分強調画像に含まれる非血管候補領域と血管候補領域とを判別する画素値のしきい値として、線状成分強調画像の最小画素値vb=0から数えて画素数の総和が線状成分強調画像の全画素数の所定の比率αを超える画素値のうち最小の画素値vbminを特定することができる。 In the above [Formula 10], the subscript “vb=0, vbmin” of Σ indicates that the sum of vb from 0 to vbmin is obtained. Therefore, the condition shown in the above [Formula 10] indicates that, out of the total number of pixels (Xs×Ys), pixels having a ratio α×100% have a pixel value vbmin or less. As the ratio α, it is necessary to give a ratio of regions other than blood vessels included in the fundus image, and this ratio varies for each acquired fundus image, but is 0.7 to 0.9 on average, typical As a typical example, it is preferable to set 0.8. After all, by using [Equation 10], the minimum pixel value vb= of the linear component emphasized image is set as the threshold value of the pixel value for discriminating the non-blood vessel candidate region and the blood vessel candidate region included in the linear component emphasized image. It is possible to specify the minimum pixel value vbmin among the pixel values in which the total number of pixels counting from 0 exceeds a predetermined ratio α of the total number of pixels of the linear component emphasized image.

上記〔数式10〕に示す条件を満たす最小値vbminが求められたら、次に、画素階調変換手段23は、x=0,・・・,Xs−1;y=0,・・・,Ys−1の全画素に対して、以下の〔数式11〕に従った処理を実行し、コントラスト補正を行い、血管強調画像Tray(x,y)を得る。 When the minimum value vbmin satisfying the condition shown in the above [Formula 10] is obtained, next, the pixel gradation converting means 23, x=0,..., Xs−1; y=0,..., Ys. The processing according to the following [Formula 11] is executed for all the pixels of −1, and the contrast is corrected to obtain the blood vessel emphasized image Tray(x, y).

〔数式11〕
Tray(x,y)={Lray(x,y)−vbmin}×255×β/(255−vbmin)
[Formula 11]
Tray(x,y)={Lray(x,y)-vbmin}×255×β/(255-vbmin)

上記〔数式11〕において、βは輝度スケーリング値である。輝度スケーリング値βとしては、任意に設定することができるが、設定された比率αに依存するため、α=0.8に設定した場合、好ましくは70〜90、特に好ましい例として80とすることができる。すなわち、βはαの100倍程度に設定することが好ましい。 In the above [Formula 11], β is a brightness scaling value. The brightness scaling value β can be set arbitrarily, but depends on the set ratio α, so when α=0.8, it is preferably 70 to 90, and particularly preferably 80. You can That is, β is preferably set to about 100 times α.

Tray(x,y)は画素値であるため、〔数式11〕の結果が負の値となった場合には、Tray(x,y)=0と置き換え、〔数式11〕の結果が255を超えた場合には、Tray(x,y)=255と置き換える。したがって、所定の条件Lray(x,y)>vbminを満たさない画素は、最小値“0”に置き換えられ、所定の条件Lray(x,y)>vbminを満たす画素は、最小値“0”より大きい値“1”から最大値の範囲になるようにTray(x,y)の画素値が設定される。Tray(x,y)においては、階調の最小値である“0”が血管候補領域外を示し、血管候補領域は“1”以上、“255”以下となる。血管候補領域の最小値は、階調の最小値付近の値が設定される。本実施形態では、階調の最小値付近の値として、階調の最小値+1を設定しているが、それ以上であってもよい。もちろん、血管領域のコントラストを高くするため、階調の最小値+1であることが好ましい。このようにして得られた血管強調画像Tray(x,y)は、血管領域である確率が高い画素ほど高い値をもつグレースケールの画像となる。 Since Tray(x,y) is a pixel value, when the result of [Equation 11] is a negative value, it is replaced with Tray(x,y)=0, and the result of [Equation 11] becomes 255. If it exceeds, it is replaced with Tray(x, y)=255. Therefore, a pixel that does not satisfy the predetermined condition Lray(x,y)>vbmin is replaced with the minimum value “0”, and a pixel that satisfies the predetermined condition Lray(x,y)>vbmin is less than the minimum value “0”. The pixel value of Tray(x, y) is set so as to fall within the range from the large value “1” to the maximum value. In Tray(x, y), “0”, which is the minimum gradation value, indicates outside the blood vessel candidate region, and the blood vessel candidate region is “1” or more and “255” or less. The minimum value of the blood vessel candidate region is set to a value near the minimum gradation value. In the present embodiment, the minimum gradation value +1 is set as a value near the minimum gradation value, but it may be set higher. Of course, in order to increase the contrast of the blood vessel region, it is preferable that the minimum gradation value is +1. The blood vessel emphasized image Tray(x, y) thus obtained is a gray scale image having a higher value for a pixel having a higher probability of being a blood vessel region.

所定の条件Lray(x,y)>vbminを満たさない画素を最小値に設定する場合、上述のように“0”とすることが好ましいが、“0”以外の値であってもよい。眼底領域は一般に円形をしているため、矩形形状の眼底画像には非眼底領域も含まれるため、非眼底領域を“0”に設定し、眼底領域内の非血管候補領域を“1”に設定し、眼底領域内の血管候補領域を“2”〜“255”に設定することもできる。コントラストを高くすることが目的であるため、当然のことながら、血管候補領域における最小値は“0”に近い値にすることが好ましい。 When a pixel that does not satisfy the predetermined condition Lray(x, y)>vbmin is set to the minimum value, it is preferably set to “0” as described above, but a value other than “0” may be set. Since the fundus area is generally circular, the non-fundus area is also included in the rectangular fundus image. Therefore, the non-fundus area is set to “0” and the non-vascular candidate area in the fundus area is set to “1”. Alternatively, the blood vessel candidate region in the fundus region can be set to "2" to "255". Since the purpose is to increase the contrast, it is, of course, preferable that the minimum value in the blood vessel candidate region is close to “0”.

ステップS400における処理の結果、いずれもグレースケール画像であるG成分主体の血管強調画像Trayg(x,y)、R成分主体の血管強調画像Trayr(x,y)が得られる。なお、図3においては、それぞれ血管強調画像(G)、血管強調画像(R)と表記している。 As a result of the processing in step S400, a blood vessel emphasized image Trayg(x, y) mainly composed of a G component and a blood vessel emphasized image Trayr(x, y) mainly composed of an R component are obtained which are grayscale images. In addition, in FIG. 3, it is described as a blood vessel emphasized image (G) and a blood vessel emphasized image (R).

次に、静脈強調画像作成手段30が、G成分主体の血管強調画像Trayg(x,y)とR成分主体の血管強調画像Trayr(x,y)を用いて、静脈強調画像を作成する(ステップS500)。静脈強調画像とは、静脈である可能性が高い部分が強調された画像、すなわち静脈である確率が高い部分が強調された画像である。R成分主体の血管強調画像とG成分主体の血管強調画像との間での所定の積演算を行って得られる画像は、静脈である確率が高い部分が強調された静脈強調画像となる。静脈強調画像は、R成分主体の血管強調画像を基に得ることができる。R成分主体の血管強調画像をそのまま静脈強調画像とすることも可能である。上述のように、静脈血は、末梢においてガス交換後に赤血球のヘモグロビンから酸素が外され、血液中に二酸化炭素が溶解して青紫色を示すため、R成分主体の血管強調画像をそのまま静脈強調画像としても使用に耐え得る。特に動脈成分が目立つB成分を減算したR成分主体の血管強調画像は殆ど静脈成分とみなすことができるが、残留している動脈成分を抑圧するためには、全ての血管成分を含むG成分主体の血管強調画像とANDをとる方法が有効である。 Next, the vein-enhanced image creating means 30 creates a vein-enhanced image using the blood vessel-enhanced image Trayg(x, y) mainly composed of the G component and the blood vessel-enhanced image Trayr(x, y) mainly composed of the R component. S500). The vein-enhanced image is an image in which a portion having a high possibility of being a vein is emphasized, that is, an image in which a portion having a high probability of being a vein is emphasized. An image obtained by performing a predetermined product operation between the blood vessel emphasized image mainly composed of the R component and the blood vessel emphasized image mainly composed of the G component is a vein emphasized image in which a portion having a high probability of being a vein is emphasized. The vein-enhanced image can be obtained based on the R-component-based blood vessel-enhanced image. It is also possible to use the blood vessel emphasized image mainly composed of the R component as the vein emphasized image as it is. As described above, in venous blood, oxygen is removed from hemoglobin of red blood cells after gas exchange in the periphery, and carbon dioxide is dissolved in the blood to show a blue-purple color. Can withstand use as well. Especially, a blood vessel-enhanced image mainly composed of R component obtained by subtracting B component in which an arterial component is conspicuous can be regarded as a venous component, but in order to suppress the remaining arterial component, a G component mainly including all blood component is mainly composed. An effective method is to take the AND with the blood vessel-emphasized image.

そこで、本実施形態では、より的確な静脈強調画像を作成するため、以下のように、R成分主体の血管強調画像とG成分主体の血管強調画像との間での所定の積演算を行って作成する。静脈強調画像を作成するにあたり、まず、G成分主体の血管強調画像Trayg(x,y)における所定値以上の画素値の平均値Avrg、R成分主体の血管強調画像Trayr(x,y)における所定値以上の画素値の平均値Avrrを算出する。所定値としては、適宜設定することができるが、本実施形態では、G成分主体の血管強調画像Trayg(x,y)、R成分主体の血管強調画像Trayr(x,y)のいずれにおいても、0〜255の値をとる場合のほぼ中央となる値である128としている。したがって、本実施形態では、画素値が128以上となる画素についての、画素値の平均値がAvrg、Avrrとして算出されることになる。 Therefore, in the present embodiment, in order to create a more accurate vein-enhanced image, a predetermined product operation is performed between the R-component-based blood vessel-emphasized image and the G-component-based blood vessel-emphasized image as follows. create. In creating the vein-enhanced image, first, the average value Avrg of pixel values equal to or greater than a predetermined value in the blood vessel-enhanced image Trayg(x,y) mainly composed of the G component and the predetermined value in the blood vessel-enhanced image Trayr(x,y) mainly composed of the R component An average value Avrr of pixel values equal to or larger than the value is calculated. Although the predetermined value can be set as appropriate, in the present embodiment, in both the blood vessel emphasized image Trayg(x, y) mainly composed of the G component and the blood vessel emphasized image Trayr(x, y) mainly composed of the R component, It is set to 128, which is a value at the center of the range from 0 to 255. Therefore, in this embodiment, the average value of the pixel values of the pixels having the pixel value of 128 or more is calculated as Avrg and Avrr.

次に、以下の〔数式12〕に従った処理を実行し、静脈強調画像Grayv(x,y)を得る。 Next, the process according to the following [Formula 12] is executed to obtain the vein-enhanced image Grayv(x, y).

〔数式12〕
Grayv(x,y)={Trayg(x,y)・Trayr(x,y)・Avrg/Avrr}1/2
[Formula 12]
Grayv(x,y)={Trayg(x,y)·Trayr(x,y)·Avrg/Avrr} 1/2

上記〔数式12〕においては、G成分主体の血管強調画像Trayg(x,y)とR成分主体の血管強調画像Trayr(x,y)の積演算を行い、積演算の値にAvrg/Avrrを乗じた後、平方根を求めることにより、静脈強調画像Grayv(x,y)の各画素の値を求めている。すなわち、ステップS500において、静脈強調画像作成手段30は、R成分主体の血管強調画像と前記G成分主体の血管強調画像に対して各々、血管領域に含まれる画素の画素値の平均値を算出し、算出した平均値を各々R成分平均値AvrrおよびG成分平均値Avrgとすると、R成分主体の血管強調画像の各画素の画素値に(G成分平均値Avrg/R成分平均値Avrr)なる値を乗算する補正を行った上で、所定の積演算を行うようにしている。また、ステップS500において、静脈強調画像作成手段30は、所定の積演算として、R成分主体の血管強調画像の画素の画素値とG成分主体の血管強調画像の当該画素に対応する画素の画素値との幾何平均をとっている。 In the above [Formula 12], the product operation of the blood vessel emphasized image Trayg(x, y) mainly composed of the G component and the blood vessel emphasized image Trayr(x, y) mainly composed of the R component is performed, and Avrg/Avrr is set to the value of the product operation. After multiplication, the square root is obtained to obtain the value of each pixel of the vein-enhanced image Grayv(x,y). That is, in step S500, the vein-enhanced image creating unit 30 calculates the average value of the pixel values of the pixels included in the blood vessel region for each of the R-component-based blood vessel-emphasized image and the G-component-based blood vessel-emphasized image. , And the calculated average values are the R component average value Avrr and the G component average value Avrg, respectively, the value of (G component average value Avrg/R component average value Avrr) becomes the pixel value of each pixel of the blood vessel emphasized image mainly of the R component. After performing correction by multiplying by, a predetermined product operation is performed. Further, in step S500, the vein-enhanced image creating means 30 performs, as a predetermined product operation, the pixel value of the pixel of the R-component-based blood vessel-emphasized image and the pixel value of the pixel corresponding to the pixel of the G-component-dominated blood vessel-emphasized image. And the geometric mean is taken.

後述する動脈強調画像Graya(x,y)の画素値とレベル合わせを行うため、続いて、静脈強調画像Grayv(x,y)の各画素値の最大値を所定の値(255)に正規化する処理を行う。具体的には、まず、静脈強調画像Grayv(x,y)における画素値の最大値MAXvを求める。そして、以下の〔数式13〕に従った処理を実行し、0〜255の範囲に正規化された静脈強調画像Grayv(x,y)を得る。 In order to perform level matching with the pixel value of the artery-enhanced image Graya(x,y), which will be described later, subsequently, the maximum value of each pixel value of the vein-enhanced image Grayv(x,y) is normalized to a predetermined value (255). Perform processing to Specifically, first, the maximum value MAXv of pixel values in the vein-enhanced image Grayv(x, y) is obtained. Then, the processing according to the following [Equation 13] is executed to obtain the vein-enhanced image Grayv(x, y) normalized to the range of 0 to 255.

〔数式13〕
Grayv(x,y)←512・Grayv(x,y)/MAXv
演算の結果、Grayv(x,y)>255となった場合は、Grayv(x,y)=255に設定
[Formula 13]
Grayv(x,y)←512・Grayv(x,y)/MAXv
If the result of the calculation is Grayv(x,y)>255, set Grayv(x,y)=255.

〔数式13〕においては、階調256の2倍である512を乗じて最大値MAXvで除した値である所定の倍率VE(=512/MAXv)を乗算することにより、静脈強調画像Grayv(x,y)の各画素値を正規化しており、取り得る画素値の最大値255を超える画素について場合は、全て最大値255となるようにしている。以上のようにして、正規化された静脈強調画像Grayv(x,y)が得られる。 In [Equation 13], the vein-enhanced image Grayv(x is obtained by multiplying 512, which is twice the gradation 256, and multiplying by a predetermined magnification VE (=512/MAXv), which is a value obtained by dividing the maximum value MAXv. , Y) of each pixel value is normalized, and in the case of a pixel having a maximum possible pixel value of 255, the maximum value is set to 255. As described above, the normalized vein-enhanced image Grayv(x, y) is obtained.

次に、動脈強調画像作成手段40が、G成分主体の血管強調画像Trayg(x,y)とR成分主体の血管強調画像Trayr(x,y)を用いて、動脈強調画像を作成する(ステップS600)。動脈強調画像とは、動脈である可能性が高い部分が強調された画像、すなわち動脈である確率が高い部分が強調された画像である。R成分主体の血管強調画像とG成分主体の血管強調画像との間で所定の差分演算を行って得られる画像は、動脈である確率が高い部分が強調された動脈強調画像となる。動脈強調画像は、静脈強調画像のように単一の色成分の血管強調画像から得ることは困難で、全ての血管成分を含むG成分主体の血管強調画像から静脈強調画像を減算することにより得ることができる。例えば、静脈強調画像作成手段30により算出された静脈強調画像とG成分主体の血管強調画像との間で所定の差分演算を行うことにより得ることもできる。ただし、本実施形態では、より的確な動脈強調画像を作成するため、以下のように、R成分主体の血管強調画像とG成分主体の血管強調画像との間での所定の差分演算を行って作成する。静脈強調画像作成手段30の処理と、動脈強調画像作成手段40の処理は、どちらを先に実行してもよい。既に静脈強調画像作成手段30が処理を実行している場合は、算出されたG成分主体の血管強調画像Trayg(x,y)における所定値以上の画素値の平均値Avrg、R成分主体の血管強調画像Trayr(x,y)における所定値以上の画素値の平均値Avrrを利用する。動脈強調画像作成手段40が静脈強調画像作成手段30より先に処理を行う場合は、G成分主体の血管強調画像Trayg(x,y)における所定値以上の画素値の平均値Avrg、R成分主体の血管強調画像Trayr(x,y)における所定値以上の画素値の平均値Avrrを算出する。 Next, the artery-enhanced image creating means 40 creates an artery-enhanced image by using the blood vessel emphasized image Trayg(x, y) mainly composed of the G component and the blood vessel emphasized image Trayr(x, y) mainly composed of the R component. S600). The arterial-enhanced image is an image in which a portion having a high possibility of being an artery is emphasized, that is, an image in which a portion having a high probability of being an artery is emphasized. An image obtained by performing a predetermined difference calculation between a blood vessel emphasized image mainly composed of R component and a blood vessel emphasized image mainly composed of G component is an arterial emphasized image in which a portion having a high probability of being an artery is emphasized. It is difficult to obtain an arterial weighted image from a blood vessel weighted image having a single color component like a vein weighted image, and is obtained by subtracting the vein weighted image from a G component-based blood vessel weighted image including all blood vessel components. be able to. For example, it can be obtained by performing a predetermined difference calculation between the vein-enhanced image calculated by the vein-enhanced image creating means 30 and the blood vessel-enhanced image mainly composed of the G component. However, in the present embodiment, in order to create a more accurate artery-enhanced image, a predetermined difference calculation is performed between the R-component-based blood vessel-enhanced image and the G-component-based blood vessel-enhanced image as follows. create. Either the process of the vein-enhanced image creating unit 30 or the process of the artery-enhanced image creating unit 40 may be executed first. When the vein-enhanced image creating means 30 has already executed the process, the average value Avrg of pixel values equal to or larger than a predetermined value in the calculated blood vessel-enhanced image Tray(x, y) mainly composed of the G component and the blood vessel mainly composed of the R component. An average value Avrr of pixel values that are equal to or larger than a predetermined value in the emphasized image Trayr(x, y) is used. When the artery-enhanced image creating unit 40 performs the processing before the vein-enhanced image creating unit 30, the average value Avrg of the pixel values of the predetermined value or more in the blood vessel emphasized image Trayg(x, y) mainly composed of the G component, the R component mainly The average value Avrr of the pixel values equal to or larger than a predetermined value in the blood vessel emphasized image Trayr(x, y) is calculated.

次に、以下の〔数式14〕に従った処理を実行し、動脈強調画像Graya(x,y)を得る。 Next, the process according to the following [Formula 14] is executed to obtain the artery-enhanced image Graya(x, y).

〔数式4〕
Graya(x,y)=Trayg(x,y)−Trayr(x,y)・Avrg/Avrr
演算の結果、Graya(x,y)<0となった場合は、Graya(x,y)=0に設定する。
[Formula 4]
Graya(x,y)=Trayg(x,y)−Trayr(x,y)·Avrg/Avrr
If the result of the calculation is Graya(x,y)<0, then Graya(x,y)=0 is set.

上記〔数式4〕においては、R成分主体の血管強調画像Trayr(x,y)にAvrg/Avrrを乗じた後、G成分主体の血管強調画像Trayg(x,y)からR成分主体の血管強調画像Trayr(x,y)を減じる差分演算を行い、動脈強調画像Graya(x,y)の各画素の値を求めている。すなわち、ステップS600において、動脈強調画像作成手段40は、R成分主体の血管強調画像とG成分主体の血管強調画像に対して各々、血管領域に含まれる画素の画素値の平均値を算出し、算出した平均値を各々R成分平均値AvrrおよびG成分平均値Avrgとすると、R成分主体の血管強調画像の各画素の画素値に(G成分平均値Avrg/R成分平均値Avrr)なる値を乗算する補正を行った上で、所定の差分演算を行うようにしている。 In the above [Formula 4], after the blood vessel emphasized image Trayr(x, y) mainly composed of R component is multiplied by Avrg/Avrr, the blood vessel emphasized image Trayg(x, y) mainly composed of G component is used to emphasize the blood vessel emphasized R component. The difference calculation for subtracting the image Trayr(x, y) is performed to obtain the value of each pixel of the artery-enhanced image Graya(x, y). That is, in step S600, the arterial weighted image creating unit 40 calculates the average value of the pixel values of the pixels included in the blood vessel region for each of the blood vessel weighted image mainly composed of the R component and the blood vessel weighted image mainly composed of the G component, Letting the calculated average values be the R component average value Avrr and the G component average value Avrg, the value of (G component average value Avrg/R component average value Avrr) is added to the pixel value of each pixel of the R component-based blood vessel emphasized image. A predetermined difference calculation is performed after the correction for multiplication is performed.

動脈強調画像Graya(x,y)についても、静脈強調画像Grayv(x,y)の場合と同様、各画素値の最大値を所定の値(255)に正規化する処理を行う。具体的には、まず、動脈強調画像Graya(x,y)における画素値の最大値MAXaを求める。そして、以下の〔数式15〕に従った処理を実行し、0〜255の範囲に正規化された動脈強調画像Graya(x,y)を得る。 As with the vein-enhanced image Grayv(x,y), the arterial-enhanced image Graya(x,y) is also subjected to the process of normalizing the maximum value of each pixel value to a predetermined value (255). Specifically, first, the maximum value MAXa of the pixel values in the artery-enhanced image Graya(x,y) is obtained. Then, the process according to the following [Formula 15] is executed to obtain the artery-emphasized image Graya(x, y) normalized to the range of 0 to 255.

〔数式15〕
Graya(x,y)←512・Grayv(x,y)/MAXa
演算の結果、Graya(x,y)>255となった場合は、Graya(x,y)=255
[Equation 15]
Graya(x,y)←512・Grayv(x,y)/MAXa
When the result of the calculation is Graya(x,y)>255, Graya(x,y)=255.

〔数式15〕においては、階調256の2倍である512を乗じて最大値MAXaで除した値である所定の倍率AR(=512/MAXa)を乗算することにより、動脈強調画像Graya(x,y)の各画素値を正規化しており、取り得る画素値の最大値255を超える画素について場合は、全て最大値255となるようにしている。以上のようにして、正規化された動脈強調画像Graya(x,y)が得られる。このようにして、ステップS500において、静脈強調画像作成手段30は、グレースケールの静脈強調画像の各画素の画素値に所定の倍率VEを乗算し、ステップS600において、動脈強調画像作成手段40は、動脈強調画像の各画素の画素値に所定の倍率ARを乗算している。ステップS500における〔数式13〕において、グレースケールの静脈強調画像の各画素の画素値に所定の倍率VEを乗算し、ステップS600における〔数式15〕において、グレースケールの動脈強調画像の各画素の画素値に所定の倍率ARを乗算することにより、動脈強調画像および静脈強調画像の画素値の最大値を一致させる処理を行っている。 In [Equation 15], the artery-enhanced image Graya(x is obtained by multiplying 512, which is twice the gradation 256, and multiplying by a predetermined magnification AR (=512/MAXa), which is a value divided by the maximum value MAXa. , Y) of each pixel value is normalized, and in the case of a pixel having a maximum possible pixel value of 255, the maximum value is set to 255. As described above, the normalized artery-enhanced image Graya(x, y) is obtained. Thus, in step S500, the vein-enhanced image creating unit 30 multiplies the pixel value of each pixel of the gray-scale vein-enhanced image by the predetermined magnification VE, and in step S600, the artery-enhanced image creating unit 40 The pixel value of each pixel of the artery-enhanced image is multiplied by a predetermined magnification AR. In [Expression 13] in step S500, the pixel value of each pixel of the grayscale vein-enhanced image is multiplied by a predetermined magnification VE, and in [Expression 15] in step S600, the pixel value of each pixel of the grayscale artery-enhanced image is calculated. By multiplying the value by a predetermined scale factor AR, a process of matching the maximum pixel values of the artery-enhanced image and the vein-enhanced image is performed.

静脈強調画像Grayv(x,y)、動脈強調画像Graya(x,y)が得られたら、次に、動静脈識別画像作成手段が動静脈識別画像を作成する(ステップS700)。具体的には、グレースケールの静脈強調画像Grayv(x,y)と動脈強調画像Graya(x,y)を用いて、カラーの動静脈識別画像AVsep(x,y,c)(c=0(Red),1(Green),2(Blue))を作成する。この際、まず、以下の〔数式16〕に従った処理を実行し、色相変換画像Hues(x,y)を得る。 When the vein-enhanced image Grayv(x, y) and the artery-enhanced image Graya(x, y) are obtained, the arteriovenous identification image creating means then creates an arteriovenous identification image (step S700). Specifically, using the grayscale vein-enhanced image Grayv(x, y) and the artery-enhanced image Graya(x, y), the color arteriovenous identification image AVsep(x, y, c) (c=0( Red), 1 (Green), 2 (Blue)) are created. At this time, first, the process according to the following [Formula 16] is executed to obtain the hue conversion image Hues(x, y).

〔数式16〕
Hues(x,y)=Graya(x,y)−Grayv(x,y)
[Formula 16]
Hues(x,y)=Graya(x,y)-Grayv(x,y)

〔数式16〕に示すように、Hues(x,y)は、動脈強調画像Graya(x,y)から静脈強調画像Grayv(x,y)を減じる差分演算により得られるグレースケール画像である。色相変換画像Hues(x,y)は、動脈の場合、0より大きな値となり、静脈の場合、0より小さい値となる傾向がある。 As shown in [Equation 16], Hues(x, y) is a grayscale image obtained by subtracting the vein-enhanced image Grayv(x, y) from the artery-enhanced image Graya(x, y). The hue-converted image Hues(x, y) tends to have a value larger than 0 in the case of arteries and smaller than 0 in the case of veins.

動静脈識別画像作成手段50は、さらに、以下の〔数式17〕に従った処理を実行することにより動静脈判定結果画像AVsep(x,y,c)を得る。 The arteriovenous identification image creating means 50 further obtains an arteriovenous determination result image AVsep(x, y, c) by executing processing according to the following [Numerical Expression 17].

〔数式17〕
AVsep(x,y,1)=Grayg(x,y)/4
Hues(x,y)>0のとき(動脈の可能性が高い場合)
AVsep(x,y,0)=(Hues(x,y)/2+L/2)・Grayg(x,y)/(L−1)
AVsep(x,y,2)=Hues(x,y)/4
Hues(x,y)≦0のとき(静脈の可能性が高い場合)
AVsep(x,y,2)=(−Hues(x,y)/2+L/2)・Grayg(x,y)/(L−1)
AVsep(x,y,0)=−Hues(x,y)/4
[Formula 17]
AVsep(x,y,1)=Grayg(x,y)/4
When Hues(x, y)> 0 (when the possibility of arteries is high)
AVsep(x,y,0)=(Hues(x,y)/2+L/2).Grayg(x,y)/(L-1)
AVsep(x,y,2)=Hues(x,y)/4
When Hues(x, y) ≤ 0 (when there is a high possibility of veins)
AVsep(x,y,2)=(-Hues(x,y)/2+L/2)Grayg(x,y)/(L-1)
AVsep(x,y,0)=-Hues(x,y)/4

〔数式17〕において、Grayg(x,y)はG成分主体の血管強調画像Trayg(x,y)で、Lは画素値の階調数を与え例えば256である。〔数式17〕に示すように、動静脈識別画像作成手段50は、動脈強調画像をR成分AVsep(x,y,0)に、静脈強調画像をB成分AVsep(x,y,2)に割り当ててカラー動静脈識別画像AVsep(x,y,c)を作成する。まず、ステップS700において、動静脈識別画像作成手段50は、G成分AVsep(x,y,1)として、Grayg(x,y)を4で除して縮小した値を固定で与える。これは動静脈識別画像AVsep(x,y,c)よりGrayg(x,y)を取得できるようにするためである。次に、動脈の可能性が高いHues(x,y)>0のとき、Hues(x,y)の値をL/2〜L−1になるように底上げ変換し、更に画素の最大値(L−1)で除算して正規化したG成分主体の血管強調画像Grayg(x,y)を乗算したものをR成分AVsep(x,y,0)として与える。併せて、B成分AVsep(x,y,2)にはHues(x,y)を4で除して縮小した値を固定で与える。これは動静脈識別画像AVsep(x,y,c)よりHues(x,y)を取得できるようにするためである。以上によりR成分AVsep(x,y,0)の値がG成分AVsep(x,y,1)およびB成分AVsep(x,y,2)に比べ、顕著に大きくなり赤色になるが、R成分AVsep(x,y,0)の値にはG成分主体の血管強調画像が乗算されているため、非血管候補領域では暗いグレーになる。また、静脈の可能性が高いHues(x,y)≦0のとき、Hues(x,y)の符号を反転した値をL/2〜L−1になるように底上げ変換し、更に画素の最大値(L−1)で除算して正規化したG成分主体の血管強調画像Grayg(x,y)を乗算したものをB成分AVsep(x,y,2)として与える。併せて、R成分AVsep(x,y,0)にはHues(x,y)の符号を反転した値を4で除して縮小した値を固定で与える。これも動静脈識別画像AVsep(x,y,c)よりHues(x,y)を取得できるようにするためである。以上によりB成分AVsep(x,y,2)の値がG成分AVsep(x,y,1)およびR成分AVsep(x,y,0)に比べ、顕著に大きくなり青色になるが、B成分AVsep(x,y,2)の値にはG成分主体の血管強調画像が乗算されているため、非血管候補領域では暗いグレーになる。結局、動静脈識別画像作成手段50は、上記〔数式17〕に従った処理を実行することにより動脈強調画像Graya(x,y)をR成分AVsep(x,y,0)に、静脈強調画像Grayv(x,y)をB成分AVsep(x,y,2)に割り当てる際、動脈強調画像Graya(x,y)、静脈強調画像Grayv(x,y)それぞれの画素の画素値にG成分主体の血管強調画像Trayg(x,y)を乗算するようにしている。 In [Expression 17], Grayg(x, y) is the blood vessel emphasized image Trayg(x, y) mainly composed of the G component, and L is the number of gradations of the pixel value, and is 256, for example. As shown in [Formula 17], the arteriovenous identification image creating means 50 allocates the arterial weighted image to the R component AVsep(x, y, 0) and the vein weighted image to the B component AVsep(x, y, 2). A color arteriovenous identification image AVsep(x, y, c) is created. First, in step S700, the arteriovenous identification image creating means 50 gives a fixed value as G component AVsep(x, y, 1), which is a value obtained by dividing Grayg(x, y) by 4. This is so that Grayg(x, y) can be acquired from the arteriovenous identification image AVsep(x, y, c). Next, when Hues(x, y)>0 where the possibility of an artery is high, the value of Hues(x, y) is raised to L/2 to L−1, and the maximum pixel value ( The result is multiplied by the blood vessel-enhanced image Grayg(x, y) mainly composed of the G component, which is divided by L-1) and is normalized, and is given as the R component AVsep(x, y, 0). At the same time, the B component AVsep(x, y, 2) is fixedly given a value obtained by dividing Hues(x, y) by 4. This is so that Hues(x, y) can be acquired from the arteriovenous identification image AVsep(x, y, c). As described above, the value of the R component AVsep(x, y, 0) becomes significantly larger and becomes red compared to the G component AVsep(x, y, 1) and the B component AVsep(x, y, 2). Since the value of AVsep(x, y, 0) is multiplied by the blood vessel emphasized image mainly composed of the G component, it becomes dark gray in the non-blood vessel candidate area. Further, when Hues(x, y)≦0 in which the possibility of veins is high, the value obtained by inverting the sign of Hues(x, y) is converted so as to be L/2 to L−1, and further converted to the pixel value. The B component AVsep(x, y, 2) is obtained by multiplying the normalized blood vessel emphasized image Grayg(x, y) of the G component by dividing by the maximum value (L-1). At the same time, the R component AVsep(x, y, 0) is given a fixed value that is the value obtained by inverting the sign of Hues(x, y) and dividing the value by 4. This is also to allow Hues(x, y) to be acquired from the arteriovenous identification image AVsep(x, y, c). As described above, the value of the B component AVsep(x, y, 2) becomes significantly larger and becomes blue compared to the G component AVsep(x, y, 1) and the R component AVsep(x, y, 0). Since the value of AVsep(x, y, 2) is multiplied by the blood vessel emphasized image mainly composed of the G component, it becomes dark gray in the non-blood vessel candidate area. After all, the arteriovenous identification image creating means 50 executes the process according to the above [Formula 17] to convert the arterial emphasized image Graya(x, y) into the R component AVsep(x, y, 0) and the vein emphasized image. When assigning Grayv(x, y) to the B component AVsep(x, y, 2), the pixel value of each pixel of the artery-enhanced image Graya(x, y) and the vein-enhanced image Grayv(x, y) is the main component of the G component. The blood vessel emphasized image Trayg(x, y) is multiplied.

動静脈判定結果画像AVsep(x,y,c)においても、カラー眼底画像Image(x,y,c)と同様、色成分を示す変数c=0(Red),1(Green),2(Blue)となっている。動脈の場合はRed成分が大きくなるとともにBlue成分が小さくなり、静脈の場合はBlue成分が大きくなるとともに、Red成分が大きくなり、Green成分には血管強調画像の値が設定されているが、動脈と静脈の視覚的な識別を容易にするため、血管強調画像の画素値を大きく削減して与えている。そのため、血管候補領域であるか否かの判別は、Green成分より血管強調画像の値が乗算されているRed成分またはGreen成分の方が明確に行える。得られた動静脈判定結果画像AVsep(x,y,c)において、L=256の場合、一般的なフルカラー画像として表示させることができ、動脈、静脈の別を視覚的に把握することができる。 Also in the arteriovenous determination result image AVsep(x, y, c), as in the color fundus image Image(x, y, c), variables c=0 (Red), 1 (Green), 2 (Blue) indicating color components. ). In the case of an artery, the Red component becomes large and the Blue component becomes small. In the case of a vein, the Blue component becomes large and the Red component becomes large, and the value of the blood vessel emphasized image is set in the Green component. In order to facilitate the visual identification of veins and veins, the pixel value of the blood vessel emphasized image is greatly reduced and given. Therefore, the determination as to whether or not it is a blood vessel candidate region can be made more clearly for the Red component or the Green component in which the value of the blood vessel emphasized image is multiplied than the Green component. In the obtained arteriovenous determination result image AVsep(x, y, c), when L=256, it can be displayed as a general full-color image, and the distinction between arteries and veins can be visually recognized. ..

<3.画像の表示例>
本実施形態に係る眼底画像処理装置により作成された画像の表示例について説明する。図11、図12は、本実施形態に係る眼底画像処理装置の処理過程により得られた画像を示す図である。図11(a)は、グレースケール変換手段10により作成されたG成分主体のグレースケール眼底画像であり、図11(b)は、グレースケール変換手段10により作成されたR成分主体のグレースケール眼底画像である。図11(a)、(b)に示すWr、Wg、Wbは〔数式1〕に示した各色成分の重みである。図11(c)は、血管領域強調手段20により得られたグレースケールのG成分主体の血管強調画像であり、図11(d)は、血管領域強調手段20により得られたグレースケールのR成分主体の血管強調画像である。
<3. Image display example>
A display example of an image created by the fundus image processing apparatus according to this embodiment will be described. 11 and 12 are views showing images obtained in the processing process of the fundus image processing apparatus according to the present embodiment. FIG. 11A is a G component-based grayscale fundus image created by the grayscale conversion means 10, and FIG. 11B is an R component-based grayscale fundus created by the grayscale conversion means 10. It is an image. Wr, Wg, and Wb shown in FIGS. 11A and 11B are weights of the respective color components shown in [Equation 1]. FIG. 11( c) is a grayscale G component-based blood vessel emphasized image obtained by the blood vessel region enhancing unit 20, and FIG. 11( d) is a grayscale R component obtained by the blood vessel region enhancing unit 20. It is a blood vessel emphasis image of the main subject.

図12(a)は、静脈強調画像作成手段30により所定の積演算を用いて作成されたグレースケールの静脈強調画像である。図12(b)は、動脈強調画像作成手段40により所定の差分演算を用いて作成されたグレースケールの動脈強調画像である。図12(c)は、動静脈識別画像作成手段50により作成されたカラーの動静脈識別画像である。 FIG. 12A is a grayscale vein-enhanced image created by the vein-enhanced image creating means 30 using a predetermined product operation. FIG. 12B is a grayscale artery-enhanced image created by the artery-enhanced image creating means 40 using a predetermined difference calculation. FIG. 12C is a color arteriovenous identification image created by the arteriovenous identification image creating means 50.

図13〜図15は、いずれも従来技術で得られた動静脈識別画像と本実施形態により得られた動静脈識別画像を比較するための図である。図13〜図15のいずれにおいても(a)は処理対象のカラー眼底画像、(b)は従来技術で得られた動静脈識別画像、(c)は本実施形態により得られた動静脈識別画像を示している。図13は、正常な被験者に対して得られた画像である。図13(b)の従来技術と図13(c)の本実施形態を比較すると、図13(b)の従来技術では、眼底の中心部と周辺部で色相成分が異なり、血管属性が中心部は動脈に周辺部は静脈に偏って分離され易い傾向があったのに対し、図13(c)の本実施形態では、そのような傾向は解消されている。 13 to 15 are diagrams for comparing the arteriovenous identification image obtained by the conventional technique with the arteriovenous identification image obtained by the present embodiment. 13 to 15, (a) is a color fundus image to be processed, (b) is an arteriovenous identification image obtained by a conventional technique, and (c) is an arteriovenous identification image obtained by the present embodiment. Is shown. FIG. 13 is an image obtained for a normal subject. Comparing the conventional technique of FIG. 13B and the present embodiment of FIG. 13C, in the conventional technique of FIG. 13B, the hue component is different between the central part and the peripheral part of the fundus and the blood vessel attribute is the central part. While there was a tendency for the arteries to be separated toward the veins in the peripheral portion, the tendency is eliminated in the present embodiment of FIG. 13( c ).

図14は、緑内障の被験者に対して得られた画像である。図14(b)の従来技術と図14(c)の本実施形態を比較すると、図14(b)の従来技術では、眼底の中心部と周辺部で色相成分が異なり、特に上側の血管属性が静脈に偏って分離され易い傾向があったのに対し、図14(c)の本実施形態では、そのような傾向は解消されている。図15は、白内障の被験者に対して得られた画像である。図15(b)の従来技術と図15(c)の本実施形態を比較すると、図15(b)の従来技術では、眼底の中心部と周辺部で色相成分が異なり、特に右側の血管属性が動脈に偏って分離され易い傾向があったのに対し、図15(c)の本実施形態では、そのような傾向は解消されている。 FIG. 14 is an image obtained for a subject with glaucoma. Comparing the prior art of FIG. 14(b) and the present embodiment of FIG. 14(c), in the prior art of FIG. 14(b), the hue component is different between the central part and the peripheral part of the fundus, and especially the upper blood vessel attribute. Tended to be biased toward veins and tend to be separated, whereas such a tendency is eliminated in the present embodiment of FIG. 14(c). FIG. 15 is an image obtained for a subject with cataract. Comparing the prior art of FIG. 15(b) and the present embodiment of FIG. 15(c), in the prior art of FIG. 15(b), the hue component is different between the central part and the peripheral part of the fundus, and in particular, the blood vessel attribute on the right side. Tended to be biased toward the artery and tend to be separated, but in the present embodiment of FIG. 15C, such a tendency is eliminated.

<4.変形例等>
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、静脈強調画像作成手段30は、R成分主体の血管強調画像とG成分主体の血管強調画像との間での所定の積演算を行い、グレースケールの静脈強調画像を作成する処理を行っているが、R成分主体の血管強調画像をそのままグレースケールの静脈強調画像として与えても良い。また、動脈強調画像作成手段40は、R成分主体の血管強調画像とG成分主体の血管強調画像との間で所定の差分演算を行い、グレースケールの動脈強調画像を作成する処理を行っているが、上記所定の積演算により算出されたグレースケールの静脈強調画像とG成分主体の血管強調画像との間で所定の差分演算を行うようにしても良い。具体的には、上記所定の積演算により算出されたグレースケールの静脈強調画像を、G成分主体の血管強調画像から減算する処理を行う。
<4. Modifications>
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made. For example, in the above embodiment, the vein-enhanced image creating unit 30 creates a grayscale vein-enhanced image by performing a predetermined product operation between the R-component-based blood vessel-enhanced image and the G-component-based blood vessel-enhanced image. However, the blood vessel emphasized image mainly composed of the R component may be given as it is as a gray scale vein emphasized image. Further, the artery-enhanced image creating unit 40 performs a predetermined difference calculation between the R-component-based blood vessel-enhanced image and the G-component-based blood vessel-enhanced image to create a grayscale artery-enhanced image. However, a predetermined difference calculation may be performed between the grayscale vein-enhanced image calculated by the above-mentioned predetermined product calculation and the G-component-based blood vessel emphasized image. Specifically, a process of subtracting the grayscale vein-enhanced image calculated by the predetermined product operation from the blood vessel emphasized image mainly composed of the G component is performed.

また、R成分主体の血管強調画像をそのままグレースケールの静脈強調画像とした場合、動脈強調画像作成手段40は、R成分主体の血管強調画像とG成分主体の血管強調画像との間で所定の積演算を行ってグレースケールの積演算画像を得た後、得られた積演算画像とG成分主体の血管強調画像との間で所定の差分演算を行うようにしても良い。具体的には、上記所定の積演算により算出されたグレースケールの積演算画像を、G成分主体の血管強調画像から減算する処理を行う。この際、グレースケールの積演算画像としては、例えば上記実施形態において静脈強調画像作成手段30により算出された静脈強調画像Grayv(x,y)と略同一の画像を用いることができる。 When the R-component-based blood vessel-emphasized image is used as a grayscale vein-emphasized image as it is, the artery-emphasized image creating unit 40 sets a predetermined value between the R-component-based blood vessel-emphasized image and the G-component-based blood vessel-emphasized image. After performing the product operation to obtain the grayscale product operation image, a predetermined difference operation may be performed between the obtained product operation image and the blood vessel emphasized image mainly composed of the G component. Specifically, a process of subtracting the grayscale product calculation image calculated by the predetermined product calculation from the blood vessel emphasized image mainly composed of the G component is performed. At this time, as the grayscale product calculation image, for example, an image substantially the same as the vein-enhanced image Grayv(x, y) calculated by the vein-enhanced image creating means 30 in the above-described embodiment can be used.

また、上記実施形態では、動脈強調画像、動静脈識別画像を作成するようにしたが、これらは必ずしも作成する必要はなく、静脈強調画像のみを作成するようにしてもよい。動脈強調画像、動静脈識別画像により、動脈を含め眼底の状態をより詳細に把握することができるが、静脈強調画像のみであっても、眼底の状態を把握するのに役立つ。 Further, in the above embodiment, the arterial weighted image and the arteriovenous identification image are created, but these do not necessarily have to be created, and only the vein weighted image may be created. The arterial-weighted image and the arteriovenous identification image enable more detailed grasping of the condition of the fundus including the artery, but even the vein-enhanced image alone is useful for grasping the condition of the fundus.

1・・・CPU(Central Processing Unit)
2・・・RAM(Random Access Memory)
3・・・記憶装置
4・・・指示入力I/F
5・・・データ入出力I/F
6・・・表示部
10・・・グレースケール変換手段
20・・・血管領域強調手段
21・・・画像平坦化手段
22・・・線状成分強調手段
23・・・画素階調変換手段
30・・・静脈強調画像作成手段
40・・・動脈強調画像作成手段
50・・・動静脈識別画像作成手段
60・・・眼底画像記憶手段
70・・・動静脈識別画像記憶手段
100・・・眼底画像処理装置
1... CPU (Central Processing Unit)
2... RAM (Random Access Memory)
3... storage device 4... instruction input I/F
5: Data input/output I/F
6... Display unit 10... Gray scale conversion means 20... Blood vessel region emphasis means 21... Image flattening means 22... Linear component emphasis means 23... Pixel gradation conversion means 30. ..Venous-enhanced image creating means 40...arterial-enhanced image creating means 50...arteriovenous identification image creating means 60...fundinal image storage means 70...arteriovenous identification image storage means 100...fundus image Processor

Claims (16)

カラー眼底画像を処理して血管領域を強調するための装置であって、
RGBの3色成分で構成されるカラー眼底画像のR成分を用いてR成分主体のグレースケール眼底画像を作成するグレースケール変換手段と、
前記R成分主体のグレースケール眼底画像を基に、血管領域である確率が高いほど高い輝度値が設定されたR成分主体の血管強調画像を得る血管領域強調手段と、
前記R成分主体の血管強調画像を基に静脈である確率が高い部分が強調された静脈強調画像を得る静脈強調画像作成手段と、
を有する眼底画像処理装置。
A device for processing a color fundus image to enhance a blood vessel region,
Grayscale conversion means for creating a grayscale fundus image mainly composed of R components by using R components of a color fundus image composed of three color components of RGB,
Blood vessel region emphasizing means for obtaining a blood vessel emphasized image mainly composed of R component, which has a higher luminance value as the probability of being a blood vessel region is higher, based on the grayscale fundus image mainly composed of R component;
A vein-enhanced image creating means for obtaining a vein-enhanced image in which a portion having a high probability of being a vein is emphasized based on the R-component-based blood vessel-enhanced image;
A fundus image processing apparatus having:
前記グレースケール変換手段は、さらにG成分を用いてG成分主体のグレースケール眼底画像を作成し、
前記血管領域強調手段は、さらに前記G成分主体のグレースケール眼底画像を基に前記G成分主体の血管強調画像を得て、
前記静脈強調画像作成手段は、
前記R成分主体の血管強調画像と前記G成分主体の血管強調画像との間で所定の積演算を行うことにより、前記静脈強調画像を得るようにしている請求項1に記載の眼底画像処理装置。
The grayscale conversion means further uses the G component to create a grayscale fundus image mainly composed of the G component,
The blood vessel region enhancing means further obtains the blood vessel emphasized image mainly composed of the G component based on the gray scale fundus image mainly composed of the G component,
The vein weighted image creating means,
The fundus image processing apparatus according to claim 1, wherein the vein weighted image is obtained by performing a predetermined product operation between the R component-based blood vessel emphasized image and the G component-based blood vessel emphasized image. ..
前記静脈強調画像作成手段により作成された前記静脈強調画像と前記G成分主体の血管強調画像との間で所定の差分演算を行うことにより、動脈である確率が高い部分が強調された動脈強調画像を得る動脈強調画像作成手段と、
前記動脈強調画像をR成分に、前記静脈強調画像をB成分に割り当ててカラーの動静脈識別画像を作成する動静脈識別画像作成手段と、
を有する請求項2に記載の眼底画像処理装置。
By performing a predetermined difference calculation between the vein-enhanced image created by the vein-enhanced image creating unit and the G-component-based blood vessel-enhanced image, an arterial-enhanced image in which a portion having a high probability of being an artery is emphasized An arterial weighted image creating means for obtaining
An arteriovenous identification image creating means for creating a color arteriovenous identification image by assigning the arterial weighted image to the R component and the vein weighted image to the B component;
The fundus image processing apparatus according to claim 2, further comprising:
前記グレースケール変換手段は、さらにG成分を用いてG成分主体のグレースケール眼底画像を作成し、
前記血管領域強調手段は、さらに前記G成分主体のグレースケール眼底画像を基に前記G成分主体の血管強調画像を得て、
前記静脈強調画像作成手段により作成された前記静脈強調画像と前記G成分主体の血管強調画像との間で所定の差分演算を行うことにより、動脈である確率が高い部分が強調された動脈強調画像を得る動脈強調画像作成手段と、
前記動脈強調画像をR成分に、前記静脈強調画像をB成分に割り当ててカラーの動静脈識別画像を作成する動静脈識別画像作成手段と、
を有する請求項1に記載の眼底画像処理装置。
The grayscale conversion means further uses the G component to create a grayscale fundus image mainly composed of the G component,
The blood vessel region enhancing means further obtains the blood vessel emphasized image mainly composed of the G component based on the gray scale fundus image mainly composed of the G component,
By performing a predetermined difference calculation between the vein-enhanced image created by the vein-enhanced image creating unit and the G-component-based blood vessel-enhanced image, an arterial-enhanced image in which a portion having a high probability of being an artery is emphasized An arterial weighted image creating means for obtaining
An arteriovenous identification image creating means for creating a color arteriovenous identification image by assigning the arterial weighted image to the R component and the vein weighted image to the B component;
The fundus image processing apparatus according to claim 1, further comprising:
前記R成分主体の血管強調画像と前記G成分主体の血管強調画像との間で所定の差分演算を行うことにより、動脈である確率が高い部分が強調された動脈強調画像を得る動脈強調画像作成手段と、
前記動脈強調画像をR成分に、前記静脈強調画像をB成分に割り当ててカラーの動静脈識別画像を作成する動静脈識別画像作成手段と、
を有する請求項2に記載の眼底画像処理装置。
Creating an arterial weighted image that obtains an arterial weighted image in which a portion having a high probability of being an artery is emphasized by performing a predetermined difference calculation between the blood vessel weighted image mainly composed of the R component and the blood vessel weighted image mainly composed of the G component Means and
An arteriovenous identification image creating means for creating a color arteriovenous identification image by assigning the arterial weighted image to the R component and the vein weighted image to the B component;
The fundus image processing apparatus according to claim 2, further comprising:
前記グレースケール変換手段は、さらにG成分を用いてG成分主体のグレースケール眼底画像を作成し、
前記血管領域強調手段は、さらに前記G成分主体のグレースケール眼底画像を基に前記G成分主体の血管強調画像を得て、
前記R成分主体の血管強調画像と前記G成分主体の血管強調画像との間で所定の積演算を行うことにより得られた積演算画像と、前記G成分主体の血管強調画像との間で所定の差分演算を行うことにより、動脈である確率が高い部分が強調された動脈強調画像を得る動脈強調画像作成手段と、
前記動脈強調画像をR成分に、前記静脈強調画像をB成分に割り当ててカラーの動静脈識別画像を作成する動静脈識別画像作成手段と、
を有する請求項1に記載の眼底画像処理装置。
The grayscale conversion means further uses the G component to create a grayscale fundus image mainly composed of the G component,
The blood vessel region enhancing means further obtains the blood vessel emphasized image mainly composed of the G component based on the gray scale fundus image mainly composed of the G component,
A product calculation image obtained by performing a predetermined product calculation between the R-component-based blood vessel emphasized image and the G-component-based blood vessel emphasized image, and the G-component-based blood vessel emphasized image An arterial weighted image creating means for obtaining an arterial weighted image in which a portion having a high probability of being an artery is weighted by performing a difference calculation of
An arteriovenous identification image creating means for creating a color arteriovenous identification image by assigning the arterial weighted image to the R component and the vein weighted image to the B component;
The fundus image processing apparatus according to claim 1, further comprising:
前記グレースケール変換手段は、
前記R成分主体のグレースケール眼底画像として、前記カラー眼底画像のR成分より前記カラー眼底画像のB成分を所定の割合だけ減算した画像に対してネガポジ反転して作成し、
前記G成分主体のグレースケール眼底画像として、前記カラー眼底画像のG成分の画像に対してネガポジ反転して作成する請求項2から請求項6のいずれか一項に記載の眼底画像処理装置。
The grayscale conversion means,
As the grayscale fundus image mainly composed of the R component, negative-positive inversion is performed on an image obtained by subtracting a predetermined ratio of the B component of the color fundus image from the R component of the color fundus image,
7. The fundus image processing apparatus according to claim 2, wherein the grayscale fundus image mainly composed of the G component is created by negative/positive inversion with respect to the G component image of the color fundus image.
前記血管領域強調手段は、
前記R成分主体のグレースケール眼底画像、前記G成分主体のグレースケール眼底画像の各画素に対して、所定の範囲に含まれる近傍画素の画素値の平均値を算出し、当該画素の画素値より前記平均値を減算し所定の値を加算することにより、前記R成分主体のグレースケール眼底画像、前記G成分主体のグレースケール眼底画像それぞれの平坦化画像を作成する画像平坦化手段と、
各前記平坦化画像に対して、所定の構造要素を用いてオープニング処理を行い血管候補領域の輝度を一定以上に揃えたそれぞれの線状成分強調画像を作成する線状成分強調手段と、
各前記線状成分強調画像において、所定の条件を満たさない画素値を、変換後の血管強調画像の階調の最小値になるように置き換え、前記所定の条件を満たす画素値が、階調の最小値付近の値から最大値の範囲になるように画素の階調を補正し、前記R成分主体の血管強調画像、前記G成分主体の血管強調画像を作成する画素階調変換手段と、
を有する請求項2から請求項7のいずれか一項に記載の眼底画像処理装置。
The blood vessel region emphasizing means,
For each pixel of the R-component-based grayscale fundus image and the G-component-based grayscale fundus image, an average value of pixel values of neighboring pixels included in a predetermined range is calculated, and from the pixel value of the pixel, An image flattening unit that creates a flattened image of each of the R component-based grayscale fundus image and the G component-based grayscale fundus image by subtracting the average value and adding a predetermined value,
For each of the flattened images, a linear component enhancing unit that performs an opening process using a predetermined structuring element to create each linear component enhanced image in which the brightness of the blood vessel candidate region is aligned to a certain level or more,
In each of the linear component emphasized images, the pixel value that does not satisfy the predetermined condition is replaced so as to be the minimum gradation value of the converted blood vessel emphasized image, and the pixel value that satisfies the predetermined condition is Pixel gradation conversion means for correcting the gradation of pixels so as to fall within a range from a value near the minimum value to a maximum value, and creating the blood vessel emphasized image mainly composed of the R component and the blood vessel emphasized image mainly composed of the G component,
The fundus image processing device according to claim 2, further comprising:
前記線状成分強調手段は、前記平坦化画像に対して、前記所定の構造要素として、方向が異なる線形の構造要素である線形構造要素を複数個用いてオープニング処理を行い複数の線形オープニング画像を作成し、得られた複数の線形オープニング画像より画素ごとの最大値を画素値として与えることにより、前記線状成分強調画像を作成する請求項8に記載の眼底画像処理装置。 The linear component emphasizing means performs an opening process on the flattened image using a plurality of linear structuring elements that are linear structuring elements having different directions as the predetermined structuring element to perform a plurality of linear opening images. The fundus image processing apparatus according to claim 8, wherein the linear component emphasized image is created by giving a maximum value for each pixel as a pixel value from the created and obtained plurality of linear opening images. 前記線形構造要素は、所定の半径をNとし(Nは1以上の整数)、前記オープニング処理の際に参照される参照画素が定義された(2N+1)×(2N+1)画素の2値画像で、前記半径の円形内部に参照画素が定義され、2N+1の長さで画素幅が1画素であって、22.5度間隔の直線の少なくとも近傍に参照画素が配置され、8方向を定義している請求項9に記載の眼底画像処理装置。 The linear structuring element has a predetermined radius of N (N is an integer of 1 or more), and is a binary image of (2N+1)×(2N+1) pixels in which reference pixels referred to in the opening process are defined, Reference pixels are defined inside the circle having the radius, the pixel width is 1N, the pixel width is 1 pixel, and the reference pixels are arranged at least in the vicinity of a straight line at intervals of 22.5 degrees to define 8 directions. The fundus image processing apparatus according to claim 9. 前記静脈強調画像作成手段または前記動脈強調画像作成手段は、
前記R成分主体の血管強調画像と前記G成分主体の血管強調画像に対して各々、血管領域に含まれる画素の画素値の平均値を算出し、算出した平均値を各々R成分平均値およびG成分平均値とすると、
前記R成分主体の血管強調画像の各画素の画素値にG成分平均値/R成分平均値なる値を乗算する補正を行った上で、
前記静脈強調画像または前記動脈強調画像の作成を行うようにしている請求項3から請求項6のいずれか一項に記載の眼底画像処理装置。
The vein-enhanced image creating means or the artery-enhanced image creating means,
An average value of pixel values of pixels included in a blood vessel region is calculated for each of the R component-based blood vessel emphasized image and the G component-based blood vessel emphasized image, and the calculated average values are respectively calculated as the R component average value and the G component. Assuming the component mean value,
After performing a correction by multiplying the pixel value of each pixel of the blood vessel emphasized image mainly composed of R component by a value of G component average value/R component average value,
The fundus image processing apparatus according to claim 3, wherein the vein-enhanced image or the artery-enhanced image is created.
前記静脈強調画像作成手段は、
前記所定の積演算として、
前記R成分主体の血管強調画像の画素の画素値と前記G成分主体の血管強調画像の当該画素に対応する画素の画素値との幾何平均をとるようにしている請求項2、3、5、6のいずれか一項に記載の眼底画像処理装置。
The vein weighted image creating means,
As the predetermined product operation,
The geometric mean of the pixel value of the pixel of the blood vessel emphasized image mainly composed of the R component and the pixel value of a pixel corresponding to the pixel of the blood vessel emphasized image mainly composed of the G component is calculated. The fundus image processing device according to any one of 6 above.
前記静脈強調画像作成手段は、前記静脈強調画像の各画素の画素値に所定の倍率VEを乗算し、
前記動脈強調画像作成手段は、前記動脈強調画像の各画素の画素値に所定の倍率ARを乗算することにより、
前記静脈強調画像および前記動脈強調画像の画素値の最大値を一致させる処理を行う請求項3から請求項6のいずれか一項に記載の眼底画像処理装置。
The vein-enhanced image creating means multiplies a pixel value of each pixel of the vein-enhanced image by a predetermined magnification VE,
The arterial weighted image creating means multiplies the pixel value of each pixel of the arterial weighted image by a predetermined magnification AR,
The fundus image processing apparatus according to any one of claims 3 to 6, which performs a process of matching maximum pixel values of the vein-enhanced image and the artery-enhanced image.
前記動静脈識別画像作成手段は、
前記動脈強調画像をR成分に、前記静脈強調画像をB成分に割り当てる際、
前記動脈強調画像、前記静脈強調画像それぞれの画素の画素値に前記G成分主体の血管強調画像を乗算するようにしている請求項3から請求項6のいずれか一項に記載の眼底画像処理装置。
The arteriovenous identification image creating means,
When assigning the arterial weighted image to the R component and the vein weighted image to the B component,
7. The fundus image processing apparatus according to claim 3, wherein the pixel values of the pixels of the artery-enhanced image and the vein-enhanced image are multiplied by the blood vessel-enhanced image mainly composed of the G component. ..
コンピュータを、請求項1から請求項14のいずれか一項に記載の眼底画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the fundus image processing device according to any one of claims 1 to 14. コンピュータが、カラー眼底画像を処理して血管領域を強調した画像を作成するための方法であって、
RGBの3色成分で構成されるカラー眼底画像のR成分を用いてR成分主体のグレースケール眼底画像を作成するとともに、G成分を用いてG成分主体のグレースケール眼底画像を作成するステップと、
前記R成分主体のグレースケール眼底画像と前記G成分主体のグレースケール眼底画像を基に、血管領域である確率が高いほど高い輝度値が設定されたR成分主体の血管強調画像と前記G成分主体の血管強調画像を得るステップと、
前記R成分主体の血管強調画像を基に静脈である確率が高い部分が強調された静脈強調画像を得るステップと、
前記G成分主体の血管強調画像を基に動脈である確率が高い部分が強調された動脈強調画像を得るステップと、
前記動脈強調画像をR成分に、前記静脈強調画像をB成分に割り当ててカラーの動静脈識別画像を作成するステップと、
を有する画像作成方法。
A method for a computer to process a color fundus image to create an image in which blood vessel regions are emphasized,
Creating a grayscale fundus image mainly composed of R components using R components of a color fundus image composed of three color components of RGB, and creating a grayscale fundus image mainly composed of G components using G components;
Based on the R-component-based grayscale fundus image and the G-component-based grayscale fundus image, the R-component-based blood vessel-enhanced image and the G-component-based image in which a higher brightness value is set as the probability of a blood vessel region is higher Obtaining a blood vessel weighted image of
Obtaining a vein-enhanced image in which a portion having a high probability of being a vein is emphasized based on the R-component-based blood vessel-enhanced image;
Obtaining an artery-emphasized image in which a portion having a high probability of being an artery is emphasized based on the blood vessel-emphasized image mainly composed of the G component;
Assigning the arterial weighted image to the R component and the vein weighted image to the B component to create a color arteriovenous identification image;
An image creating method having.
JP2019001824A 2019-01-09 2019-01-09 Fundus image processing device Pending JP2020110250A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019001824A JP2020110250A (en) 2019-01-09 2019-01-09 Fundus image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019001824A JP2020110250A (en) 2019-01-09 2019-01-09 Fundus image processing device

Publications (1)

Publication Number Publication Date
JP2020110250A true JP2020110250A (en) 2020-07-27

Family

ID=71666099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019001824A Pending JP2020110250A (en) 2019-01-09 2019-01-09 Fundus image processing device

Country Status (1)

Country Link
JP (1) JP2020110250A (en)

Similar Documents

Publication Publication Date Title
CN110505459B (en) Image color correction method, device and storage medium suitable for endoscope
JP3810776B2 (en) A method for detecting and correcting red eyes in digital images.
JP3880553B2 (en) Image processing method and apparatus
JP7188514B2 (en) Diagnosis support device, image processing method in diagnosis support device, and program
AU2017213456B2 (en) Diagnosis assisting device, and image processing method in diagnosis assisting device
CN100399354C (en) Image signal processing method and device
JP5205968B2 (en) Gradation correction method, gradation correction apparatus, gradation correction program, and image device
US20120155724A1 (en) Image processing apparatus, image processing method and computer-readable recording device
JP2018171177A (en) Fundus image processing device
JP2018114031A (en) Fundus image processing device
JP6623832B2 (en) Image correction apparatus, image correction method, and computer program for image correction
CN101646014A (en) Image processing apparatus and image processing method
JP2018102586A (en) Fundus image processing device
JP7234086B2 (en) Biometric information acquisition device and program
CN117314872A (en) An intelligent segmentation method and device for retinal images
JP6620636B2 (en) Fundus image processing device
WO2002065396A1 (en) Image processing program, computer-readable recording medium recording image processing program, image processing method and image processing device
JP6414386B2 (en) Image processing apparatus and image processing program
CN116245766A (en) Image enhancement processing method, device, electronic equipment and readable storage medium
CN115731205A (en) Image processing device and method for endoscope, electronic device, and storage medium
JP6747130B2 (en) Fundus image processor
JP2020110250A (en) Fundus image processing device
CN114202517A (en) Method and device for adjusting image contrast
JP2005038119A (en) Image processing apparatus and method
JP6481432B2 (en) Fundus image processing device