KR101269175B1 - Method for detecting an area and area detecting apparatus applying the same - Google Patents
Method for detecting an area and area detecting apparatus applying the same Download PDFInfo
- Publication number
- KR101269175B1 KR101269175B1 KR1020110029691A KR20110029691A KR101269175B1 KR 101269175 B1 KR101269175 B1 KR 101269175B1 KR 1020110029691 A KR1020110029691 A KR 1020110029691A KR 20110029691 A KR20110029691 A KR 20110029691A KR 101269175 B1 KR101269175 B1 KR 101269175B1
- Authority
- KR
- South Korea
- Prior art keywords
- correlation coefficient
- image
- value
- sad
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/14—Eye parts, e.g. lenses or corneal implants; Artificial eyes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Vascular Medicine (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Cardiology (AREA)
- Transplantation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Abstract
영역 검출 방법이 개시된다. 영역 검출 장치에 의해 인공수정체가 삽입되는 안구의 일 영역을 검출하는 방법은 실시간으로 촬상된 안구에 대한 영상을 입력받는 단계, 촬상된 안구 영상에 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 단계, 템플릿 매칭(template matching) 알고리즘을 이용하여, 설정된 템플릿 영상과 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하는 단계, 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출하는 단계, 상관 계수를 상기 SAD 값과 비교하는 단계 및 비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 촬상된 안구 영상에서 인공수정체가 삽입되는 영역을 검출하는 단계를 포함한다.An area detection method is disclosed. The method for detecting an area of the eye into which the intraocular lens is inserted by the area detecting apparatus comprises receiving an image of an eye photographed in real time and a template corresponding to the area into which the intraocular lens is to be inserted into the captured eye image. Receiving a user command to set the step, using a template matching algorithm, calculating a correlation coefficient between the set template image and the captured eye image in real time, SAD (sum) for the captured eye image in real time calculating the value of the absolute diference value, comparing the correlation coefficient with the SAD value, and selectively performing a template matching algorithm or SAD algorithm according to the comparison result to insert the intraocular lens in the captured eye image. Detecting the area of interest.
Description
본 발명은 인공수정체가 삽입되는 안구의 일 영역을 검출하는 영역 검출 방법 및 이를 적용한 영역 검출 장치에 관한 것으로서, 더욱 상세하게는 템플릿 매칭(template matching) 알고리즘 또는 SAD(sum of absolute difference) 알고리즘을 선택적으로 적용하여 인공수정체의 삽입 영역을 검출하는 영역 검출 방법 및 이를 적용한 영역 검출 장치에 관한 것이다.The present invention relates to an area detection method for detecting an area of an eye into which an intraocular lens is inserted, and an area detection device using the same, and more particularly, selects a template matching algorithm or a sum of absolute difference (SAD) algorithm. The present invention relates to a region detecting method for detecting an insertion region of an intraocular lens and a region detecting apparatus using the same.
의료기술 및 식생활의 발전에 따른 고령화로, 현재 백내장 수술은 빈번한 수술 중 하나이다. 난시가 동반된 백내장 환자의 경우 수술 후 향상된 시력을 얻기 위해 안경이나 콘택트 렌즈 혹은 추가적인 각막 수술이 요구되며, 최근에 난시 교정을 위한 인공수정체, 즉 toric IOL이 소개되면서 수술 후에 안정적인 난시교정효과를 얻을 수 있게 되었다. With the aging of medical technology and the development of diet, cataract surgery is one of the frequent operations. In cataract patients with astigmatism, eyeglasses, contact lenses, or additional corneal surgery are required to achieve improved vision after surgery. Recently, astigmatism, or toric IOL, was introduced to correct astigmatism. It became possible.
다만, 난시교정용 인공수정체인 toric IOL은 성공적인 수술 결과를 얻기 위해서 삽입되는 toric IOL의 축이 계산된 축에 정확하게 일치하도록 위치시키는 것이 매우 중요하다. 특히, 인공수정체 삽입 축의 정확한 정렬은 수술결과에 가장 중요한 영향을 미치며, 작은 양의 오차라도 상대적으로 큰 난시개선효과의 상실을 가져온다. However, it is very important that the toric IOL, astigmatism-corrected intraocular lens, be placed so that the axis of the inserted toric IOL exactly matches the calculated axis. In particular, the correct alignment of the intraocular lens implant has the most important effect on the surgical outcome, and even a small amount of error results in a relatively large loss of astigmatism.
때문에, 초음파 검사나 전기생리검사를 통하여 간접적인 망막의 상태를 파악하지만, 수술에 반드시 필요한 정보를 줄 수 없으며, 수술실에서 의사의 경험에 의존하여 수술하는 경우가 많다. 그래서 인공수정체 삽입영역을 정확한 추적이 매우 중요하다.Therefore, the indirect retinal state is detected through ultrasound or electrophysiological examination, but it is not possible to give information necessary for surgery, and surgery is often performed depending on the experience of a doctor in an operating room. Therefore, accurate tracking of the intraocular lens IOL region is very important.
망막질환의 경우 수술 전에 안구 내 혼탁으로 인해 망막을 관찰할 수가 없기 때문에, 초음파 검사나 전기생리검사를 통하여 간접적인 망막의 상태를 파악한다. 하지만, 이는 수술에 반드시 필요한 정보를 줄 수 없으며, 수술실에서 의사의 경험에 의존하여 수술하는 경우가 많다는 문제점이 있다.In the case of retinal disease, the retina cannot be observed due to intraocular turbidity before surgery, and the indirect retinal state is determined by ultrasound or electrophysiology. However, this does not necessarily give the information necessary for the operation, there is a problem that the operation in many cases depending on the experience of the doctor in the operating room.
따라서, 인공수정체 삽입에 있어, 인공수정체의 삽입 영역을 정확히 추적하기 위한 방안의 모색이 요청된다.Therefore, in intraocular lens implantation, a search for a method for accurately tracking the insertion region of the intraocular lens is required.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 템플릿 매칭 알고리즘 또는 SAD 알고리즘을 선택적으로 적용하여, 인공수정체의 삽입 영역을 검출하는 영역 검출 방법 및 이를 적용한 영역 검출 장치를 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a region detecting method for detecting an insertion region of an intraocular lens and a region detecting apparatus using the same by selectively applying a template matching algorithm or a SAD algorithm. .
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 영역 검출 장치에 의해 인공수정체가 삽입되는 안구의 일 영역을 검출하는 방법은 실시간으로 촬상된 안구에 대한 영상을 입력받는 단계, 상기 촬상된 안구 영상에 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 단계, 템플릿 매칭(template matching) 알고리즘을 이용하여, 상기 설정된 템플릿영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하는 단계, 상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute difference) 값을 산출하는 단계, 상기 상관 계수를 상기 SAD 값과 비교하는 단계 및 비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 단계를 포함한다.According to an embodiment of the present invention, a method for detecting an area of an eye into which an artificial lens is inserted by an area detecting device includes: receiving an image of an eye photographed in real time; Receiving a user command for setting a template corresponding to a region into which the intraocular lens is to be inserted into the captured eye image, by using a template matching algorithm, the captured template image and the captured image in real time Calculating a correlation coefficient between eyeball images, calculating a sum of absolute difference (SAD) value for the eyeball image captured in real time, comparing the correlation coefficient with the SAD value, and a template according to a comparison result Selectively performing a matching matching algorithm or a SAD algorithm to the artificial eye in the captured eye image; And a step of detecting a region in which stagnation is inserted.
이 경우, 상기 사용자 명령을 입력받는 단계는 상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대하여 상기 인공수정체가 삽입될 영역에 대응되는 템플릿을 설정하는 사용자 명령을 입력받을 수 있다. In this case, the step of receiving the user command may receive a user command for setting a template corresponding to a region into which the intraocular lens is inserted in one frame of the image of the eyeball captured in real time.
한편, 상기 상관 계수는 -1 내지 1 사이의 값을 가지며 상기 상관 계수를 산출하는 단계는 아래의 수학식을 이용하여 상기 상관 계수를 산출할 수 있다. 여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.Meanwhile, the correlation coefficient has a value between -1 and 1, and the calculating of the correlation coefficient may calculate the correlation coefficient by using the following equation. Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.
한편, 상기 SAD 값을 산출하는 단계는 아래의 수학식을 이용하여 상기 SAD 값을 산출할 수 있다. 여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. In the calculating of the SAD value, the SAD value may be calculated using the following equation. Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.
한편, 상기 비교하는 단계는 상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교할 수 있다.The comparing may include normalizing the calculated SAD value and comparing the normalized SAD value with the correlation coefficient.
이 경우, 상기 검출하는 단계는 상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출할 수 있다.In this case, the detecting may include performing the template matching algorithm if the correlation coefficient is greater than the normalized SAD value, and performing the SAD algorithm if the correlation coefficient is less than or equal to the normalized SAD value. A region into which the intraocular lens is inserted may be detected in an eyeball image.
한편, 상기 검출된 영역을 표시하는 단계를 더 포함할 수 있다.Meanwhile, the method may further include displaying the detected area.
본 발명의 다른 실시 예에 따른 인공수정체가 삽입되는 안구의 일 영역을 검출하는 장치는 상기 안구를 실시간으로 촬상하는 촬상부, 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 입력부, 템플릿 매칭(template matching) 알고리즘을 이용하여 상기 설정된 템플릿 영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하고, 상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute difference) 값을 산출하는 산출부 및 상기 상관 계수를 상기 SAD 값과 비교하고, 비교 결과에 따라 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 검출부를 포함한다.According to another embodiment of the present invention, an apparatus for detecting an area of an eye into which an intraocular lens is inserted includes an imager configured to image the eye in real time, and a template corresponding to an area into which the intraocular lens is to be inserted in the captured eye image. an input unit for receiving a user command for setting a template, a template matching algorithm, and calculating a correlation coefficient between the set template image and the eyeball image captured in real time, and the eyeball image captured in real time. A calculation unit for calculating a sum of absolute difference (SAD) value and the correlation coefficient with the SAD value, and selectively performing a template matching algorithm or a SAD algorithm according to the comparison result to photograph the eyeball in real time And a detector configured to detect a region where the intraocular lens is inserted in the image.
이 경우, 상기 입력부는 상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대해 상기 인공수정체가 삽입될 영역에 대한 템플릿을 설정하는 사용자 명령을 입력받을 수 있다.In this case, the input unit may receive a user command for setting a template for the region into which the intraocular lens is to be inserted in one frame of the image of the eyeball captured in real time.
한편, 상기 상관 계수는 -1 내지 1 사이의 값을 가지며, 상기 산출부는 아래의 수학식을 이용하여 상기 상관 계수를 산출할 수 있다. 여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.On the other hand, the correlation coefficient has a value between -1 and 1, the calculation unit may calculate the correlation coefficient by using the following equation. Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.
한편, 상기 산출부는 아래의 수학식을 이용하여 상기 SAD 값을 산출할 수 있다. 여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. On the other hand, the calculator may calculate the SAD value using the following equation. Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.
한편, 상기 검출부는 상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교할 수 있다.The detector may normalize the calculated SAD value and compare the normalized SAD value with the correlation coefficient.
이 경우, 상기 검출부는 상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출할 수 있다.In this case, the detection unit performs the template matching algorithm when the correlation coefficient is greater than the normalized SAD value, and performs the SAD algorithm when the correlation coefficient is less than or equal to the normalized SAD value to capture the image in real time. A region into which the intraocular lens is inserted may be detected in an eyeball image.
한편, 상기 검출된 영역을 표시하는 표시부를 더 포함할 수 있다.The display device may further include a display unit displaying the detected area.
본 발명의 다양한 실시 예에 따르면, 템플릿 매칭 알고리즘 또는 SAD 알고리즘을 선택적으로 적용하여, 인공수정체의 삽입 영역을 검출하므로, 보다 적은 연산량으로 인공수정체의 삽입 영역을 검출할 수 있으며, 수술 환경의 조명 변화 및 삽입 영역의 배경 변화에도 강인한 이점을 갖는다.According to various embodiments of the present disclosure, by selectively applying a template matching algorithm or an SAD algorithm, the insertion region of the intraocular lens may be detected, and thus, the insertion region of the intraocular lens may be detected with a smaller amount of computation, and the illumination of the surgical environment may be changed. And a strong effect on the background change of the insertion region.
도 1은 본 발명의 일 실시 예에 따른 영역 검출 장치의 구성을 설명하기 위한 블록도,
도 2는 본 발명의 일 실시 예에 따른 영역 검출 방법을 설명하기 위한 흐름도,
도 3 내지 도 6은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 도면 그리고,
도 7은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 다른 그래프이다.1 is a block diagram illustrating a configuration of an area detection apparatus according to an embodiment of the present invention;
2 is a flowchart illustrating an area detection method according to an embodiment of the present invention;
3 to 6 are diagrams for evaluating the performance of the area detection method according to an embodiment of the present invention;
7 is another graph for evaluating the performance of the area detection method according to an embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, with reference to the drawings will be described the present invention in more detail.
도 1은 본 발명의 일 실시 예에 따른 영역 검출 장치의 구성을 설명하기 위한 블록도이다. 본 실시 예에 따른 영역 검출 장치(100)는 인공수정체의 삽입 영역을 검출함에 있어, 템플릿 매칭(template matching) 알고리즘 또는 SAD(sum of absolute difference) 알고리즘을 선택적으로 수행하여 인공수정체의 삽입 영역을 검출할 수 있다. 도 1을 참조하면, 이러한 기능을 수행하는 영역 검출 장치(100)는 촬상부(110), 입력부(120), 산출부(130), 검출부(140) 및 표시부(150)를 구비할 수 있다. 1 is a block diagram illustrating a configuration of an area detection apparatus according to an exemplary embodiment. In detecting the insertion region of the intraocular lens, the
촬상부(110)는 안구를 실시간으로 촬상한다. 여기서, 안구는 인공수정체가 삽입될 영역을 포함하며, 이러한 기능을 수행하는 촬상부(110)는 카메라 등으로 구현하여, 촬상된 안구에 대한 영상을 프레임 단위로 출력할 수 있다.The
입력부(120)는 촬상된 안구 영상에 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는다. 구체적으로, 입력부(120)는 실시간으로 촬상된 안구 영상 중 하나의 프레임에 대해 너비 w, 높이 h를 가지는 템플릿을 설정하는 사용자 명령을 입력받을 수 있으며, 여기서, 템플릿은 템플릿 매칭(template matching) 알고리즘에서 추적하고자 하는 영역의 이미지를 의미할 수 있다.The
구체적으로, 템플릿 매칭(template matching) 알고리즘이란, 추적하고자 하는 영역의 이미지에 대한 템플릿과 입력 영상 간의 상관 관계(correlation)를 산출하고, 이에 따라, 입력 영상에서 추적하고자 하는 영역을 검출하는 알고리즘을 의미한다([1] Myung Hwangbo, Jun-Sik Kim, and Takeo Kanade, “Inertial-Aided KLT Feature Tracking for a Moving Camera" International Conference on Intelligent Robots and Systems, October 11-15, 2009).Specifically, a template matching algorithm means an algorithm for calculating a correlation between a template and an input image of an image of an area to be tracked, and thus detecting an area to be tracked in the input image. (1) Myung Hwangbo, Jun-Sik Kim, and Takeo Kanade, “Inertial-Aided KLT Feature Tracking for a Moving Camera” International Conference on Intelligent Robots and Systems, October 11-15, 2009).
이러한 템플릿 매칭은 총 두 단계로 이루어져 있으며, 첫 번째 단계는 영상의 화소에 일일이 대응하며 비교하여 관계성을 분석하는 것이고, 두 번째 단계는 상관계수(correlation coefficient)의 유사성을 이용하여 상관계수의 최대, 최소값을 찾는 것이다([2] Chaur_Chin Chen and Hsueh-Ting Chu “Similarity Measurement Between Images." Proceedings of the 29th Annual International Computer Software and Applications Conference (COMPSAC'05), vol.1, pp. 41-42, 2005).This template matching consists of two steps. The first step is to analyze the relationship by comparing and comparing the pixels of the image one by one. The second step is to maximize the correlation coefficient by using the similarity of the correlation coefficient. (2) Chaur_Chin Chen and Hsueh-Ting Chu “Similarity Measurement Between Images.” Proceedings of the 29th Annual International Computer Software and Applications Conference (COMPSAC'05), vol. 1, pp. 41-42, 2005).
먼저, 템플릿 영상과 입력된 이미지의 유사도를 측정하기 위하여 유클리디안 거리(Euclidian Distance)를 계산하며, 이는 아래의 수학식 1과 같이 나타낼 수 있다.First, in order to measure the similarity between the template image and the input image, an Euclidian distance is calculated, which can be expressed by
또한, 상관계수의 유사성을 비교하기 위하여 편차 표본 상관계수인 피어슨 상관계수(Pearson correlation coefficient) 를 사용하게 되는데, 이는 아래의 수학식 2와 같다.In addition, Pearson correlation coefficient, which is a deviation sample correlation coefficient, is used to compare the similarity of correlation coefficients, which is expressed by Equation 2 below.
여기서, f(x,y)는 템플릿 영상의 픽셀값을 나타내며, f'는 템플릿 영상의 평균 픽셀값을 나타낸다. t(x,y)는 입력영상의 픽셀값을 나타내며, t'은 입력영상의 블록에 평균값을 나타내며, r은 상관계수로서 입력 영상과 템플릿 영상의 매칭 결과로서, -1 내지 1 사이의 값을 가지며 1에 가까울수록 템플릿 영상과 입력 영상이 유사한 것을 의미한다.Here, f (x, y) represents a pixel value of the template image, and f 'represents an average pixel value of the template image. t (x, y) denotes a pixel value of the input image, t 'denotes an average value in a block of the input image, r is a correlation coefficient, and a matching value between -1 and 1 as a result of matching the input image and the template image. The closer to 1, the more similar the template image to the input image.
이러한, 템플릿 매칭의 가장 큰 장점은 쉽고 간단한 알고리즘으로, 환경 변화가 별로 없을 경우 정합의 정확도가 높다는 점이다. 하지만 복잡한 배경을 가지고 있을 경우 잘못 추출할 가능성이 있다는 단점이 있다.The biggest advantage of the template matching is an easy and simple algorithm, which is highly accurate when there is little environmental change. However, the disadvantage is that if you have a complex background, there is a possibility of incorrect extraction.
산출부(130)는 템플릿 매칭 알고리즘을 이용하여, 설정된 템플릿 영상과 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출할 수 있다. 즉, 산출부(130)는 상기의 수학식 2와 같이, 실시간으로 촬상된 안구 영상의 각 프레임의 평균값과 추출된 템플릿의 평균값을 이용하여, 실시간으로 촬상된 안구 영상의 각 프레임마다 설정된 템플릿 간의 상관 관계를 산출할 수 있다. 여기서, 산출된 상관 계수는 -1 내지 1 사이의 값을 가지는 피어스 상관 계수가 된다.The
한편, 산출부(130)가 산출한 상관 계수는 정규화된 값으로, -1 내지 1 사이의 값을 가질 수 있다.The correlation coefficient calculated by the
또한, 산출부(130)는 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute difference) 값을 산출할 수 있다.In addition, the
구체적으로, SAD(sum of absolute difference) 알고리즘은 H.264, MPEG-4등 동영상 압축 표준에서 움직임 추정(Motion Estimation) 방법에 사용하는 방식이다. 움직임 추정이란 시간적으로 이웃한 화면 간의 연관관계를 이용하여 동영상을 압축하기 위해서 화면상의 움직임을 구하는 방법으로, 블록 매칭 알고리즘 (BMA)을 이용하여 수행된다. 블록 매칭 알고리즘은 부호화될 현재 프레임(frame)에서 각각의 현재 블록과 가장 비슷한 블록을 이전 프레임에서 찾는 방법으로, 가장 널리 사용하는 방법은 전역탐색기법(full search block matching algorithm)이 널리 사용되고 있다. In detail, the sum of absolute difference (SAD) algorithm is a method used for a motion estimation method in a video compression standard such as H.264 and MPEG-4. Motion estimation is a method of obtaining motion on a screen in order to compress a video using a correlation between neighboring screens in time, and is performed using a block matching algorithm (BMA). The block matching algorithm is a method of finding a block most similar to each current block in a current frame to be encoded in a previous frame. The most widely used method is a full search block matching algorithm.
한편, 전역탐색기법에서는 주어진 탐색영역 안의 가능한 모든 후보 블록을 현재 블록과 비교하며, 이때 비교 척도로 사용되는 방법이 SAD 알고리즘으로, 하기와 같은 수학식 3으로 나타낼 수 있다([3] H. Cheong and A.M. Tourapis, “Fast motion estimation within the H.264 codec,”IEEE Int. Conf. Multimedia and Expo, Baltimore, MD, vol. 3, pp.517?520, July 2003. [4] Dong-kyun Park, Hyo-moon Cho, Sang-bok Cho, and Jong-hwa Lee, “A Fast Motion Estimation Algorithm for SAD Optimization in Sub-pixel" IEEE International Symposium on ISIC '07. pp.528-531).On the other hand, in the global search method, all possible candidate blocks in a given search area are compared with the current block, and the method used as a comparison measure is a SAD algorithm, which can be represented by Equation 3 below ([3] H. Cheong). and AM Tourapis, “Fast motion estimation within the H.264 codec,” IEEE Int. Conf.Multimedia and Expo, Baltimore, MD, vol. 3, pp. 517-520, July 2003. [4] Dong-kyun Park, Hyo-moon Cho, Sang-bok Cho, and Jong-hwa Lee, “A Fast Motion Estimation Algorithm for SAD Optimization in Sub-pixel” IEEE International Symposium on ISIC '07. Pp.528-531).
여기서, It(i,j)와 It - 1(i,j)는 시간 t, t+1 에서의 각각의 휘도(luminance) 화소값이다. 또한, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. Here, I t (i, j) and I t - 1 (i, j) are respective luminance pixel values at time t,
이러한, SAD는 복잡한 배경에서도 비교적 정확히 현재 블록과 비슷한 블록을 찾을 수 있다는 장점이 있지만, 조명 변화에 민감하다는 단점이 있다.Such SAD has the advantage of finding a block that is similar to the current block relatively accurately even in a complicated background, but has a disadvantage of being sensitive to light changes.
검출부(140)는 상관 계수 및 SAD 값을 비교하고, 비교 결과에 따라 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 인공수정체가 삽입되는 영역을 검출할 수 있다. The
이를 위해, 검출부(140)는 산출부(130)에서 산출된 SAD 값을 아래의 수학식 4 내지 6을 이용하여 정규화(normalization)하여 norSAD 를 산출한다. To this end, the
여기서, n은 블록의 크기를 의미하며, 30×30 블록에서 n은 30이 된다.Here, n means the size of the block, n is 30 in a 30 × 30 block.
이와 같은 정규화 과정은, SAD 알고리즘에서 템플릿 영상을 잘못 찾게 될 경우의 계산량을 줄이고, -1 내지 1 사이의 값을 가지는 피어슨 상관 계수와의 비교를 위함이다.This normalization process is intended to reduce the amount of computation when the template image is incorrectly found by the SAD algorithm, and to compare with the Pearson correlation coefficient having a value between -1 and 1.
검출부(140)는 상관 계수와 SAD 값을 비교하고, 비교 결과에 따라, 템플릿 매칭 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 인공수정체가 삽입되는 영역을 검출할 수 있다. The
구체적으로, 검출부(140)는 산출부(130)의 출력에 기초하여 실시간으로 촬상된 안구 영상의 각 프레임에 대한 상관 계수와 SAD 값을 비교한다. 그리고, 검출부(140)는 상관 계수가 정규화된 SAD 값보다 크면 템플릿 매칭 알고리즘을 수행하며, 상관 계수가 정규화된 SAD 값보다 작거나 같으면 SAD 알고리즘을 수행하여 실시간으로 촬상된 안구 영상에서 인공수정체가 삽입되는 영역을 검출할 수 있다. 한편, 템플릿 매칭 알고리즘 및 SAD 알고리즘은 본 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 용이하게 이해할 수 있으므로 더 이상의 구체적인 설명은 생략한다.In detail, the
표시부(150)는 검출된 영역을 표시할 수 있다. 즉, 표시부(150)는 촬상부(110)에서 촬상한 안구 영상에 검출된 인공수정체가 삽입되는 영역을 부가하여 표시할 수 있다.The
한편, 상술한 실시 예에서는 템플릿을 설정하기 위한 사용자 명령을 입력받는 것으로 설명하였지만, 이는 일 예에 불과하다. 본 발명에 따른 영역 검출 장치에서 인공수정체가 삽입되는 영역에 대한 템플릿을 자동적으로 설정할 수도 있다. 구체적으로, 촬상된 안구 영상에서 픽셀의 밝기가 낮은 값에서 높은 값으로 변하는 부분 또는 그 반대로 변하는 부분에 대해 템플릿을 자동적으로 설정할 수도 있다.Meanwhile, the above-described embodiment has been described as receiving a user command for setting a template, but this is merely an example. In the area detection apparatus according to the present invention, a template for an area into which an intraocular lens is inserted may be automatically set. In detail, the template may be automatically set for a portion in which the brightness of the pixel changes from a low value to a high value in the captured eye image or vice versa.
한편, 2차원 영상에서 패턴의 움직임을 검출하기 위해, 광 흐름 방법이 많이 사용되고 있다. 이 방법은 원칙적으로는 안구 인식에 필요한 상대적인 움직임을 구할 수 있다. 그러나, 이동 벡터가 정확하게 검출되지 않거나, 계산 비용이 크다는 문제점이 있다([5] S.S. Beauchemin, and J.L. Barron. “The Computation of Optical Flow", ACM Computing Surveys, Vol. 27, No. 3, pp.433-467, Sep.1995S.S. Beauchemin, and J.L. Barron. “The Computation of Optical Flow", ACM Computing Surveys, Vol. 27, No. 3, pp.433-467, Sep.1995). On the other hand, in order to detect the movement of the pattern in the two-dimensional image, a light flow method is widely used. This method can, in principle, find the relative movements required for eye recognition. However, there is a problem that the motion vector is not accurately detected or the computational cost is high ([5] SS Beauchemin, and JL Barron. “The Computation of Optical Flow”, ACM Computing Surveys, Vol. 27, No. 3, pp. 433-467, Sep. 1995, S. Beauchemin, and JL Barron. “The Computation of Optical Flow”, ACM Computing Surveys, Vol. 27, No. 3, pp. 433-467, Sep. 1995.
광 흐름의 계산은 물체의 밝기(brightness)가 시간에 관계없이 일정하다는 것과 영상에서의 인접한 점들은 비슷하게 움직인다는 두 가지 가정을 기초로 하고 있으며, 이는 아래의 수학식 7과 같다.The calculation of the light flow is based on two assumptions that the brightness of the object is constant over time and that adjacent points in the image move similarly, which is expressed by Equation 7 below.
여기서, Ix, Iy, It는 각각 x축 방향, y축 방향, 시간 축 방향의 밝기의 변화율을 나타낸다. 그러나, 수학식 7에서는 밝기 경사의 방향만을 구할 수 있기 때문에 평탄화(smoothness) 조건을 적용시켜서 속도 벡터 u, v를 추정하게 된다. u와 v를 추정하는 방법에는 여러 가지가 있지만, 가장 많이 사용되는 방식은 다음과 같다. Here, Ix, Iy, and It represent the rate of change of brightness in the x-axis direction, the y-axis direction, and the time axis direction, respectively. However, in Equation 7, since only the direction of the brightness gradient can be obtained, the velocity vectors u and v are estimated by applying a smoothing condition. There are several ways to estimate u and v, but the most common method is:
step 1. 모든 (i, j)에 대해서 속도 벡터 c(i, j)를 초기화한다.
step 2. 다음으로, k를 반복 횟수라 하고, 모든 픽셀 (i, j)에 대해서 다음 수학식 8 및 수학식 9를 사용하여 u, v를 계산한다.step 2. Next, let k be the number of repetitions and calculate u and v using the following Equations 8 and 9 for all pixels (i, j).
여기서, , 를 나타낸다.here, , Indicates.
step 3. 다음 수학식 10의 조건을 만족하면 계산을 멈추고, 아니면 과정 2를 반복한다.step 3. When the condition of
여기서, 는 최대 허용 오차를 나타낸다.here, Represents the maximum allowable error.
도 2는 본 발명의 일 실시 예에 따른 영역 검출 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an area detection method according to an exemplary embodiment.
실시간으로 촬상된 안구에 대한 영상을 입력받는다(S210). 이 경우, 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대하여 인공수정체가 삽입될 영역에 대응되는 템플릿을 설정하는 사용자 명령을 입력받을 수 있다.In operation S210, an image of an eye photographed in real time is received. In this case, a user command for setting a template corresponding to an area into which an intraocular lens is to be inserted is input to one frame of an image captured in real time.
이후, 촬상된 안구 영상에 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는다(S220).Thereafter, a user command for setting a template corresponding to a region into which the intraocular lens is to be inserted is input to the captured eye image (S220).
그리고, 템플릿 매칭(template matching) 알고리즘을 이용하여, 설정된 템플릿 영상과 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출한다(S230).The correlation coefficient between the set template image and the eyeball image captured in real time is calculated using a template matching algorithm (S230).
한편, 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출한다(S240). Meanwhile, a sum of absolute diference (SAD) value of an eye image captured in real time is calculated (S240).
그리고, 상관 계수를 상기 SAD 값과 비교한다(S250). 이 경우, 산출된 SAD 값을 정규화(normalization)하고, 정규화된 SAD 값을 상관 계수와 비교할 수 있다.The correlation coefficient is then compared with the SAD value (S250). In this case, the calculated SAD value may be normalized and the normalized SAD value may be compared with a correlation coefficient.
비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 촬상된 안구 영상에서 인공수정체가 삽입되는 영역을 검출할 수 있다. According to the comparison result, a template matching algorithm or a SAD algorithm may be selectively performed to detect a region into which an intraocular lens is inserted in the captured eye image.
구체적으로, 상관 계수가 정규화된 SAD 값보다 크면(S260-Y) 템플릿 매칭 알고리즘을 수행하며(S270), 상관 계수가 정규화된 SAD 값보다 작거나 같으면(S260-N) SAD 알고리즘을 수행하여, 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출할 수 있다.Specifically, when the correlation coefficient is larger than the normalized SAD value (S260-Y), the template matching algorithm is performed (S270). If the correlation coefficient is smaller than or equal to the normalized SAD value (S260-N), the SAD algorithm is performed. A region into which the intraocular lens is inserted may be detected in the extracted eye image.
한편, S230 단계에서, 산출된 상관 계수는 -1 내지 1 사이의 값을 가지며, 아래의 수학식을 이용하여 상관 계수를 산출할 수 있다.In operation S230, the calculated correlation coefficient has a value between −1 and 1 and a correlation coefficient may be calculated using the following equation.
여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.
한편, S240 단계에서, 아래의 수학식을 이용하여 상기 SAD 값을 산출할 수 있다.In operation S240, the SAD value may be calculated using the following equation.
여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.
한편, 검출된 영역을 표시할 수도 있다. 구체적으로, 촬상된 안구 영상에 검출된 인공수정체가 삽입되는 영역을 부가하여 표시할 수 있다.On the other hand, the detected area may be displayed. In detail, an area in which the detected intraocular lens is inserted may be added to the captured eye image and displayed.
도 3 내지 도 6은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 도면이다. 도 3 내지 도 6은 초당 30 프레임으로 촬상된 서로 다른 2 개의 안구 영상에 대한 결과로, 블록은 30 X 30로 설정하였다. 3 to 6 are diagrams for evaluating the performance of the area detection method according to an embodiment of the present invention. 3 to 6 show results of two different eye images captured at 30 frames per second, and the block is set to 30 × 30.
도 3 및 도 4는 제1 안구 영상에 대한 150 프레임 전 및 후의 영상을 각각 나타내며, 도 5 및 도 6은 제2 안구 영상에 대한 150 프레임 전 및 후의 영상을 각각 나타낸다. 도 3 내지 도 6을 참조하면, 인공수정체가 삽입될 영역의 움직임이 많거나 인공수정체가 삽입될 영역의 배경에 다른 물체가 들어오더라도, 정확하게 추적함을 알 수 있다.3 and 4 show images before and after 150 frames of the first eye image, and FIGS. 5 and 6 show images before and after 150 frames of the second eye image, respectively. 3 to 6, it can be seen that even if there is a lot of movement of the area into which the intraocular lens is inserted or another object enters the background of the area into which the intraocular lens is inserted, it is accurately tracked.
도 7은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 다른 그래프이다. 도 7은 피어슨 상관계수를 이용한 템플릿 매칭과 본 발명에 따른 영역 검출 방법의 PSNR(peak signal to noise ratio)을 비교한 결과를 나타낸다.7 is another graph for evaluating the performance of the area detection method according to an embodiment of the present invention. FIG. 7 shows a result of comparing template matching using Pearson's correlation coefficient and peak signal to noise ratio (PSNR) of the area detection method according to the present invention.
도 7과 같이, 피어슨 상관계수를 이용한 템플릿 매칭을 이용한 방법에 비해 본 발명에 따른 영역 검출 방법이 PSNR이 높게 나오는 것을 알 수 있으며, 이를 통해, 본 발명에 따른 영역 검출 방법이 피어슨 상관계수를 이용한 템플릿 매칭보다 더 정확히 추정함을 알 수 있다.As shown in FIG. 7, it can be seen that the region detection method according to the present invention has a higher PSNR compared to the method using the template matching using the Pearson correlation coefficient. Through this, the region detection method according to the present invention uses the Pearson correlation coefficient. It can be seen that the estimation is more accurate than template matching.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 개재의 범위 내에 있게 된다. Although the above has been illustrated and described with respect to preferred embodiments of the present invention, the present invention is not limited to the above-described example, and the general knowledge in the art to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Anyone with a variety of modifications can be made, as well as such changes fall within the scope of the claims.
100 : 영역 검출 장치
110 : 촬상부 120 : 입력부
130 : 산출부 140 : 검출부100: area detection device
110: imaging unit 120: input unit
130: calculator 140: detector
Claims (14)
실시간으로 촬상된 안구에 대한 영상을 입력받는 단계;
상기 촬상된 안구 영상에 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 단계;
템플릿 매칭(template matching) 알고리즘을 이용하여, 상기 설정된 템플릿영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하는 단계;
상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출하는 단계;
상기 상관 계수를 상기 SAD 값과 비교하는 단계; 및
비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 단계;를 포함하는 영역 검출 방법.In the method for detecting an area of the eye into which the intraocular lens is inserted by the area detecting device,
Receiving an image of an eye photographed in real time;
Receiving a user command for setting a template corresponding to an area into which the intraocular lens is to be inserted into the captured eye image;
Calculating a correlation coefficient between the set template image and the eyeball image captured in real time by using a template matching algorithm;
Calculating a sum of absolute diference (SAD) value for the eye image captured in real time;
Comparing the correlation coefficient with the SAD value; And
And selectively detecting a region into which the intraocular lens is inserted in the captured eye image by performing a template matching algorithm or a SAD algorithm according to the comparison result.
상기 사용자 명령을 입력받는 단계는,
상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대하여 상기 인공수정체가 삽입될 영역에 대응되는 템플릿을 설정하는 사용자 명령을 입력받는 것을 특징으로 하는 영역 검출 방법.The method of claim 1,
The step of receiving the user command,
And a user command for setting a template corresponding to an area into which the intraocular lens is to be inserted with respect to one frame of the eyeball image captured in real time.
상기 상관 계수는 -1 내지 1 사이의 값을 가지며,
상기 상관 계수를 산출하는 단계는,
아래의 수학식을 이용하여 상기 상관 계수를 산출하는 것을 특징으로 하는 영역 검출 방법.
여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균 픽셀값을 나타낸다.The method of claim 1,
The correlation coefficient has a value between -1 and 1,
Computing the correlation coefficient,
And calculating the correlation coefficient by using the following equation.
Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The average pixel value is shown in the block of the eyeball image.
상기 SAD 값을 산출하는 단계는,
아래의 수학식을 이용하여 상기 SAD 값을 산출하는 것을 특징으로 하는 영역 검출 방법.
여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. The method of claim 1,
Computing the SAD value,
The SAD value is calculated using the following equation.
Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.
상기 비교하는 단계는,
상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교하는 것을 특징으로 하는 영역 검출 방법.The method of claim 1,
Wherein the comparing comprises:
And normalizing the calculated SAD value and comparing the normalized SAD value with the correlation coefficient.
상기 검출하는 단계는,
상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 것을 특징으로 하는 영역 검출 방법.The method of claim 5,
Wherein the detecting comprises:
If the correlation coefficient is greater than the normalized SAD value, the template matching algorithm is performed. If the correlation coefficient is less than or equal to the normalized SAD value, the SAD algorithm is performed to insert the artificial lens in the captured eye image. An area detection method characterized by detecting a region to be used.
상기 검출된 영역을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영역 검출 방법.The method of claim 1,
And displaying the detected area.
상기 안구를 실시간으로 촬상하는 촬상부;
상기 촬상된 안구 영상에서 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 입력부;
템플릿 매칭(template matching) 알고리즘을 이용하여 상기 설정된 템플릿 영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하고, 상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출하는 산출부; 및
상기 상관 계수를 상기 SAD 값과 비교하고, 비교 결과에 따라 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 검출부;를 포함하는 영역 검출 장치.In the device for detecting a region of the eye into which the intraocular lens is inserted,
An imaging unit for capturing the eyeball in real time;
An input unit configured to receive a user command for setting a template corresponding to an area in which the intraocular lens is to be inserted in the captured eye image;
Calculation of a correlation coefficient between the set template image and the eyeball image captured in real time using a template matching algorithm, and calculating a sum of absolute diference (SAD) value for the eyeball image captured in real time. part; And
A detector for comparing the correlation coefficient with the SAD value and selectively performing a template matching algorithm or a SAD algorithm according to a comparison result to detect a region in which the artificial lens is inserted in the real-time eyeball image; Area detection apparatus comprising a.
상기 입력부는,
상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대해 상기 인공수정체가 삽입될 영역에 대한 템플릿을 설정하는 사용자 명령을 입력받는 것을 특징으로 하는 영역 검출 장치.9. The method of claim 8,
Wherein the input unit comprises:
And a user command for setting a template for a region into which the intraocular lens is to be inserted in one frame of the image of the eyeball captured in real time.
상기 상관 계수는 -1 내지 1 사이의 값을 가지며,
상기 산출부는,
아래의 수학식을 이용하여 상기 상관 계수를 산출하는 것을 특징으로 하는 영역 검출 장치.
여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.9. The method of claim 8,
The correlation coefficient has a value between -1 and 1,
The calculating unit calculates,
And calculating the correlation coefficient by using the following equation.
Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.
상기 산출부는,
아래의 수학식을 이용하여 상기 SAD 값을 산출하는 것을 특징으로 하는 영역 검출 장치.
여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. 9. The method of claim 8,
The calculating unit calculates,
The SAD value is calculated using the following equation.
Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.
상기 검출부는,
상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교하는 것을 특징으로 하는 영역 검출 장치.9. The method of claim 8,
Wherein:
And normalize the calculated SAD value and compare the normalized SAD value with the correlation coefficient.
상기 검출부는,
상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 것을 특징으로 하는 영역 검출 장치.The method of claim 12,
Wherein:
If the correlation coefficient is greater than the normalized SAD value, the template matching algorithm is performed. If the correlation coefficient is less than or equal to the normalized SAD value, the SAD algorithm is performed to perform the artificial lens in the real-time eyeball image. And the area detecting device is inserted.
상기 검출된 영역을 표시하는 표시부;를 더 포함하는 것을 특징으로 하는 영역 검출 장치.
9. The method of claim 8,
And a display unit for displaying the detected area.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020110029691A KR101269175B1 (en) | 2011-03-31 | 2011-03-31 | Method for detecting an area and area detecting apparatus applying the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020110029691A KR101269175B1 (en) | 2011-03-31 | 2011-03-31 | Method for detecting an area and area detecting apparatus applying the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20120111792A KR20120111792A (en) | 2012-10-11 |
| KR101269175B1 true KR101269175B1 (en) | 2013-05-31 |
Family
ID=47282401
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020110029691A Expired - Fee Related KR101269175B1 (en) | 2011-03-31 | 2011-03-31 | Method for detecting an area and area detecting apparatus applying the same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101269175B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CA3100434A1 (en) | 2019-04-11 | 2020-10-15 | Amo Development, Llc | High speed tracking of iol during refractive index modification |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002056394A (en) | 2000-08-09 | 2002-02-20 | Matsushita Electric Ind Co Ltd | Eye position detection method and eye position detection device |
| JP2002216129A (en) | 2001-01-22 | 2002-08-02 | Honda Motor Co Ltd | Apparatus and method for detecting face area and computer-readable recording medium |
-
2011
- 2011-03-31 KR KR1020110029691A patent/KR101269175B1/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002056394A (en) | 2000-08-09 | 2002-02-20 | Matsushita Electric Ind Co Ltd | Eye position detection method and eye position detection device |
| JP2002216129A (en) | 2001-01-22 | 2002-08-02 | Honda Motor Co Ltd | Apparatus and method for detecting face area and computer-readable recording medium |
Non-Patent Citations (1)
| Title |
|---|
| 논문:영상처리 및 이해에 관한 워크샵 |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20120111792A (en) | 2012-10-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8330801B2 (en) | Complexity-adaptive 2D-to-3D video sequence conversion | |
| US8665326B2 (en) | Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method | |
| US9727974B2 (en) | System for video super resolution using semantic components | |
| JP6368709B2 (en) | Method for generating 3D body data | |
| Nasrollahi et al. | Face quality assessment system in video sequences | |
| EP1225769A2 (en) | Spatial temporal visual attention model for a video frame sequence | |
| US11232586B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
| CN102831382A (en) | Face tracking apparatus and method | |
| US20160110610A1 (en) | Image processor, image processing method, and computer program | |
| WO2011113444A1 (en) | Method and apparatus for trajectory estimation, and method for segmentation | |
| Jacobson et al. | A novel approach to FRUC using discriminant saliency and frame segmentation | |
| CN103959767B (en) | The video process apparatus of detection time synchronized mismatch and method | |
| CN110378183B (en) | Image analysis device, image analysis method, and recording medium | |
| JP6349448B1 (en) | Information processing apparatus, information processing program, and information processing method | |
| CN110781712B (en) | Human head space positioning method based on human face detection and recognition | |
| CN110910449A (en) | Method and system for recognizing three-dimensional position of object | |
| CN108010059A (en) | The method for analyzing performance and device of electronic flutter-proof algorithm | |
| Jaroensri et al. | A video-based method for automatically rating ataxia | |
| CN117437392B (en) | Cruciate ligament dead center marker and model training method and arthroscope system thereof | |
| Napolean et al. | Heart rate estimation in intense exercise videos | |
| KR20080002409A (en) | 3D image conversion device and method of 2D image | |
| KR101269175B1 (en) | Method for detecting an area and area detecting apparatus applying the same | |
| Gurbuz et al. | Model free head pose estimation using stereovision | |
| Jacobson et al. | Scale-aware saliency for application to frame rate upconversion | |
| Xu et al. | Auto-adjusted 3-D optic disk viewing from low-resolution stereo fundus image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20170417 Year of fee payment: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| FPAY | Annual fee payment |
Payment date: 20190429 Year of fee payment: 7 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 9 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20220524 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20220524 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |