[go: up one dir, main page]

KR101269175B1 - Method for detecting an area and area detecting apparatus applying the same - Google Patents

Method for detecting an area and area detecting apparatus applying the same Download PDF

Info

Publication number
KR101269175B1
KR101269175B1 KR1020110029691A KR20110029691A KR101269175B1 KR 101269175 B1 KR101269175 B1 KR 101269175B1 KR 1020110029691 A KR1020110029691 A KR 1020110029691A KR 20110029691 A KR20110029691 A KR 20110029691A KR 101269175 B1 KR101269175 B1 KR 101269175B1
Authority
KR
South Korea
Prior art keywords
correlation coefficient
image
value
sad
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020110029691A
Other languages
Korean (ko)
Other versions
KR20120111792A (en
Inventor
김승호
전재현
박경석
신은수
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020110029691A priority Critical patent/KR101269175B1/en
Publication of KR20120111792A publication Critical patent/KR20120111792A/en
Application granted granted Critical
Publication of KR101269175B1 publication Critical patent/KR101269175B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/14Eye parts, e.g. lenses or corneal implants; Artificial eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Vascular Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Cardiology (AREA)
  • Transplantation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

영역 검출 방법이 개시된다. 영역 검출 장치에 의해 인공수정체가 삽입되는 안구의 일 영역을 검출하는 방법은 실시간으로 촬상된 안구에 대한 영상을 입력받는 단계, 촬상된 안구 영상에 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 단계, 템플릿 매칭(template matching) 알고리즘을 이용하여, 설정된 템플릿 영상과 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하는 단계, 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출하는 단계, 상관 계수를 상기 SAD 값과 비교하는 단계 및 비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 촬상된 안구 영상에서 인공수정체가 삽입되는 영역을 검출하는 단계를 포함한다.An area detection method is disclosed. The method for detecting an area of the eye into which the intraocular lens is inserted by the area detecting apparatus comprises receiving an image of an eye photographed in real time and a template corresponding to the area into which the intraocular lens is to be inserted into the captured eye image. Receiving a user command to set the step, using a template matching algorithm, calculating a correlation coefficient between the set template image and the captured eye image in real time, SAD (sum) for the captured eye image in real time calculating the value of the absolute diference value, comparing the correlation coefficient with the SAD value, and selectively performing a template matching algorithm or SAD algorithm according to the comparison result to insert the intraocular lens in the captured eye image. Detecting the area of interest.

Description

영역 검출 방법 및 이를 적용한 영역 검출 장치{Method for detecting an area and area detecting apparatus applying the same}Method for detecting an area and area detecting apparatus applying the same

본 발명은 인공수정체가 삽입되는 안구의 일 영역을 검출하는 영역 검출 방법 및 이를 적용한 영역 검출 장치에 관한 것으로서, 더욱 상세하게는 템플릿 매칭(template matching) 알고리즘 또는 SAD(sum of absolute difference) 알고리즘을 선택적으로 적용하여 인공수정체의 삽입 영역을 검출하는 영역 검출 방법 및 이를 적용한 영역 검출 장치에 관한 것이다.The present invention relates to an area detection method for detecting an area of an eye into which an intraocular lens is inserted, and an area detection device using the same, and more particularly, selects a template matching algorithm or a sum of absolute difference (SAD) algorithm. The present invention relates to a region detecting method for detecting an insertion region of an intraocular lens and a region detecting apparatus using the same.

의료기술 및 식생활의 발전에 따른 고령화로, 현재 백내장 수술은 빈번한 수술 중 하나이다. 난시가 동반된 백내장 환자의 경우 수술 후 향상된 시력을 얻기 위해 안경이나 콘택트 렌즈 혹은 추가적인 각막 수술이 요구되며, 최근에 난시 교정을 위한 인공수정체, 즉 toric IOL이 소개되면서 수술 후에 안정적인 난시교정효과를 얻을 수 있게 되었다. With the aging of medical technology and the development of diet, cataract surgery is one of the frequent operations. In cataract patients with astigmatism, eyeglasses, contact lenses, or additional corneal surgery are required to achieve improved vision after surgery. Recently, astigmatism, or toric IOL, was introduced to correct astigmatism. It became possible.

다만, 난시교정용 인공수정체인 toric IOL은 성공적인 수술 결과를 얻기 위해서 삽입되는 toric IOL의 축이 계산된 축에 정확하게 일치하도록 위치시키는 것이 매우 중요하다. 특히, 인공수정체 삽입 축의 정확한 정렬은 수술결과에 가장 중요한 영향을 미치며, 작은 양의 오차라도 상대적으로 큰 난시개선효과의 상실을 가져온다. However, it is very important that the toric IOL, astigmatism-corrected intraocular lens, be placed so that the axis of the inserted toric IOL exactly matches the calculated axis. In particular, the correct alignment of the intraocular lens implant has the most important effect on the surgical outcome, and even a small amount of error results in a relatively large loss of astigmatism.

때문에, 초음파 검사나 전기생리검사를 통하여 간접적인 망막의 상태를 파악하지만, 수술에 반드시 필요한 정보를 줄 수 없으며, 수술실에서 의사의 경험에 의존하여 수술하는 경우가 많다. 그래서 인공수정체 삽입영역을 정확한 추적이 매우 중요하다.Therefore, the indirect retinal state is detected through ultrasound or electrophysiological examination, but it is not possible to give information necessary for surgery, and surgery is often performed depending on the experience of a doctor in an operating room. Therefore, accurate tracking of the intraocular lens IOL region is very important.

망막질환의 경우 수술 전에 안구 내 혼탁으로 인해 망막을 관찰할 수가 없기 때문에, 초음파 검사나 전기생리검사를 통하여 간접적인 망막의 상태를 파악한다. 하지만, 이는 수술에 반드시 필요한 정보를 줄 수 없으며, 수술실에서 의사의 경험에 의존하여 수술하는 경우가 많다는 문제점이 있다.In the case of retinal disease, the retina cannot be observed due to intraocular turbidity before surgery, and the indirect retinal state is determined by ultrasound or electrophysiology. However, this does not necessarily give the information necessary for the operation, there is a problem that the operation in many cases depending on the experience of the doctor in the operating room.

따라서, 인공수정체 삽입에 있어, 인공수정체의 삽입 영역을 정확히 추적하기 위한 방안의 모색이 요청된다.Therefore, in intraocular lens implantation, a search for a method for accurately tracking the insertion region of the intraocular lens is required.

본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 템플릿 매칭 알고리즘 또는 SAD 알고리즘을 선택적으로 적용하여, 인공수정체의 삽입 영역을 검출하는 영역 검출 방법 및 이를 적용한 영역 검출 장치를 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a region detecting method for detecting an insertion region of an intraocular lens and a region detecting apparatus using the same by selectively applying a template matching algorithm or a SAD algorithm. .

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 영역 검출 장치에 의해 인공수정체가 삽입되는 안구의 일 영역을 검출하는 방법은 실시간으로 촬상된 안구에 대한 영상을 입력받는 단계, 상기 촬상된 안구 영상에 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 단계, 템플릿 매칭(template matching) 알고리즘을 이용하여, 상기 설정된 템플릿영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하는 단계, 상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute difference) 값을 산출하는 단계, 상기 상관 계수를 상기 SAD 값과 비교하는 단계 및 비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 단계를 포함한다.According to an embodiment of the present invention, a method for detecting an area of an eye into which an artificial lens is inserted by an area detecting device includes: receiving an image of an eye photographed in real time; Receiving a user command for setting a template corresponding to a region into which the intraocular lens is to be inserted into the captured eye image, by using a template matching algorithm, the captured template image and the captured image in real time Calculating a correlation coefficient between eyeball images, calculating a sum of absolute difference (SAD) value for the eyeball image captured in real time, comparing the correlation coefficient with the SAD value, and a template according to a comparison result Selectively performing a matching matching algorithm or a SAD algorithm to the artificial eye in the captured eye image; And a step of detecting a region in which stagnation is inserted.

이 경우, 상기 사용자 명령을 입력받는 단계는 상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대하여 상기 인공수정체가 삽입될 영역에 대응되는 템플릿을 설정하는 사용자 명령을 입력받을 수 있다. In this case, the step of receiving the user command may receive a user command for setting a template corresponding to a region into which the intraocular lens is inserted in one frame of the image of the eyeball captured in real time.

한편, 상기 상관 계수는 -1 내지 1 사이의 값을 가지며 상기 상관 계수를 산출하는 단계는 아래의 수학식을 이용하여 상기 상관 계수를 산출할 수 있다.

Figure 112011023651306-pat00001
여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.Meanwhile, the correlation coefficient has a value between -1 and 1, and the calculating of the correlation coefficient may calculate the correlation coefficient by using the following equation.
Figure 112011023651306-pat00001
Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.

한편, 상기 SAD 값을 산출하는 단계는 아래의 수학식을 이용하여 상기 SAD 값을 산출할 수 있다.

Figure 112011023651306-pat00002
여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. In the calculating of the SAD value, the SAD value may be calculated using the following equation.
Figure 112011023651306-pat00002
Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.

한편, 상기 비교하는 단계는 상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교할 수 있다.The comparing may include normalizing the calculated SAD value and comparing the normalized SAD value with the correlation coefficient.

이 경우, 상기 검출하는 단계는 상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출할 수 있다.In this case, the detecting may include performing the template matching algorithm if the correlation coefficient is greater than the normalized SAD value, and performing the SAD algorithm if the correlation coefficient is less than or equal to the normalized SAD value. A region into which the intraocular lens is inserted may be detected in an eyeball image.

한편, 상기 검출된 영역을 표시하는 단계를 더 포함할 수 있다.Meanwhile, the method may further include displaying the detected area.

본 발명의 다른 실시 예에 따른 인공수정체가 삽입되는 안구의 일 영역을 검출하는 장치는 상기 안구를 실시간으로 촬상하는 촬상부, 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 입력부, 템플릿 매칭(template matching) 알고리즘을 이용하여 상기 설정된 템플릿 영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하고, 상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute difference) 값을 산출하는 산출부 및 상기 상관 계수를 상기 SAD 값과 비교하고, 비교 결과에 따라 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 검출부를 포함한다.According to another embodiment of the present invention, an apparatus for detecting an area of an eye into which an intraocular lens is inserted includes an imager configured to image the eye in real time, and a template corresponding to an area into which the intraocular lens is to be inserted in the captured eye image. an input unit for receiving a user command for setting a template, a template matching algorithm, and calculating a correlation coefficient between the set template image and the eyeball image captured in real time, and the eyeball image captured in real time. A calculation unit for calculating a sum of absolute difference (SAD) value and the correlation coefficient with the SAD value, and selectively performing a template matching algorithm or a SAD algorithm according to the comparison result to photograph the eyeball in real time And a detector configured to detect a region where the intraocular lens is inserted in the image.

이 경우, 상기 입력부는 상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대해 상기 인공수정체가 삽입될 영역에 대한 템플릿을 설정하는 사용자 명령을 입력받을 수 있다.In this case, the input unit may receive a user command for setting a template for the region into which the intraocular lens is to be inserted in one frame of the image of the eyeball captured in real time.

한편, 상기 상관 계수는 -1 내지 1 사이의 값을 가지며, 상기 산출부는 아래의 수학식을 이용하여 상기 상관 계수를 산출할 수 있다.

Figure 112011023651306-pat00003
여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.On the other hand, the correlation coefficient has a value between -1 and 1, the calculation unit may calculate the correlation coefficient by using the following equation.
Figure 112011023651306-pat00003
Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.

한편, 상기 산출부는 아래의 수학식을 이용하여 상기 SAD 값을 산출할 수 있다.

Figure 112011023651306-pat00004
여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. On the other hand, the calculator may calculate the SAD value using the following equation.
Figure 112011023651306-pat00004
Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.

한편, 상기 검출부는 상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교할 수 있다.The detector may normalize the calculated SAD value and compare the normalized SAD value with the correlation coefficient.

이 경우, 상기 검출부는 상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출할 수 있다.In this case, the detection unit performs the template matching algorithm when the correlation coefficient is greater than the normalized SAD value, and performs the SAD algorithm when the correlation coefficient is less than or equal to the normalized SAD value to capture the image in real time. A region into which the intraocular lens is inserted may be detected in an eyeball image.

한편, 상기 검출된 영역을 표시하는 표시부를 더 포함할 수 있다.The display device may further include a display unit displaying the detected area.

본 발명의 다양한 실시 예에 따르면, 템플릿 매칭 알고리즘 또는 SAD 알고리즘을 선택적으로 적용하여, 인공수정체의 삽입 영역을 검출하므로, 보다 적은 연산량으로 인공수정체의 삽입 영역을 검출할 수 있으며, 수술 환경의 조명 변화 및 삽입 영역의 배경 변화에도 강인한 이점을 갖는다.According to various embodiments of the present disclosure, by selectively applying a template matching algorithm or an SAD algorithm, the insertion region of the intraocular lens may be detected, and thus, the insertion region of the intraocular lens may be detected with a smaller amount of computation, and the illumination of the surgical environment may be changed. And a strong effect on the background change of the insertion region.

도 1은 본 발명의 일 실시 예에 따른 영역 검출 장치의 구성을 설명하기 위한 블록도,
도 2는 본 발명의 일 실시 예에 따른 영역 검출 방법을 설명하기 위한 흐름도,
도 3 내지 도 6은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 도면 그리고,
도 7은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 다른 그래프이다.
1 is a block diagram illustrating a configuration of an area detection apparatus according to an embodiment of the present invention;
2 is a flowchart illustrating an area detection method according to an embodiment of the present invention;
3 to 6 are diagrams for evaluating the performance of the area detection method according to an embodiment of the present invention;
7 is another graph for evaluating the performance of the area detection method according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, with reference to the drawings will be described the present invention in more detail.

도 1은 본 발명의 일 실시 예에 따른 영역 검출 장치의 구성을 설명하기 위한 블록도이다. 본 실시 예에 따른 영역 검출 장치(100)는 인공수정체의 삽입 영역을 검출함에 있어, 템플릿 매칭(template matching) 알고리즘 또는 SAD(sum of absolute difference) 알고리즘을 선택적으로 수행하여 인공수정체의 삽입 영역을 검출할 수 있다. 도 1을 참조하면, 이러한 기능을 수행하는 영역 검출 장치(100)는 촬상부(110), 입력부(120), 산출부(130), 검출부(140) 및 표시부(150)를 구비할 수 있다. 1 is a block diagram illustrating a configuration of an area detection apparatus according to an exemplary embodiment. In detecting the insertion region of the intraocular lens, the area detecting apparatus 100 according to the present embodiment selectively detects the insertion region of the intraocular lens by selectively performing a template matching algorithm or a sum of absolute difference (SAD) algorithm. can do. Referring to FIG. 1, the area detecting apparatus 100 performing such a function may include an image capturing unit 110, an input unit 120, a calculating unit 130, a detecting unit 140, and a display unit 150.

촬상부(110)는 안구를 실시간으로 촬상한다. 여기서, 안구는 인공수정체가 삽입될 영역을 포함하며, 이러한 기능을 수행하는 촬상부(110)는 카메라 등으로 구현하여, 촬상된 안구에 대한 영상을 프레임 단위로 출력할 수 있다.The imaging unit 110 picks up the eyeball in real time. Here, the eyeball includes a region into which the intraocular lens is to be inserted, and the image capturing unit 110 which performs such a function may be implemented as a camera to output an image of the captured eyeball in frame units.

입력부(120)는 촬상된 안구 영상에 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는다. 구체적으로, 입력부(120)는 실시간으로 촬상된 안구 영상 중 하나의 프레임에 대해 너비 w, 높이 h를 가지는 템플릿을 설정하는 사용자 명령을 입력받을 수 있으며, 여기서, 템플릿은 템플릿 매칭(template matching) 알고리즘에서 추적하고자 하는 영역의 이미지를 의미할 수 있다.The input unit 120 receives a user command for setting a template corresponding to a region into which an intraocular lens is to be inserted into the captured eye image. In detail, the input unit 120 may receive a user command for setting a template having a width w and a height h with respect to one frame of the eyeball image captured in real time, wherein the template is a template matching algorithm. Can mean an image of a region to be tracked.

구체적으로, 템플릿 매칭(template matching) 알고리즘이란, 추적하고자 하는 영역의 이미지에 대한 템플릿과 입력 영상 간의 상관 관계(correlation)를 산출하고, 이에 따라, 입력 영상에서 추적하고자 하는 영역을 검출하는 알고리즘을 의미한다([1] Myung Hwangbo, Jun-Sik Kim, and Takeo Kanade, “Inertial-Aided KLT Feature Tracking for a Moving Camera" International Conference on Intelligent Robots and Systems, October 11-15, 2009).Specifically, a template matching algorithm means an algorithm for calculating a correlation between a template and an input image of an image of an area to be tracked, and thus detecting an area to be tracked in the input image. (1) Myung Hwangbo, Jun-Sik Kim, and Takeo Kanade, “Inertial-Aided KLT Feature Tracking for a Moving Camera” International Conference on Intelligent Robots and Systems, October 11-15, 2009).

이러한 템플릿 매칭은 총 두 단계로 이루어져 있으며, 첫 번째 단계는 영상의 화소에 일일이 대응하며 비교하여 관계성을 분석하는 것이고, 두 번째 단계는 상관계수(correlation coefficient)의 유사성을 이용하여 상관계수의 최대, 최소값을 찾는 것이다([2] Chaur_Chin Chen and Hsueh-Ting Chu “Similarity Measurement Between Images." Proceedings of the 29th Annual International Computer Software and Applications Conference (COMPSAC'05), vol.1, pp. 41-42, 2005).This template matching consists of two steps. The first step is to analyze the relationship by comparing and comparing the pixels of the image one by one. The second step is to maximize the correlation coefficient by using the similarity of the correlation coefficient. (2) Chaur_Chin Chen and Hsueh-Ting Chu “Similarity Measurement Between Images.” Proceedings of the 29th Annual International Computer Software and Applications Conference (COMPSAC'05), vol. 1, pp. 41-42, 2005).

먼저, 템플릿 영상과 입력된 이미지의 유사도를 측정하기 위하여 유클리디안 거리(Euclidian Distance)를 계산하며, 이는 아래의 수학식 1과 같이 나타낼 수 있다.First, in order to measure the similarity between the template image and the input image, an Euclidian distance is calculated, which can be expressed by Equation 1 below.

Figure 112011023651306-pat00005
Figure 112011023651306-pat00005

또한, 상관계수의 유사성을 비교하기 위하여 편차 표본 상관계수인 피어슨 상관계수(Pearson correlation coefficient) 를 사용하게 되는데, 이는 아래의 수학식 2와 같다.In addition, Pearson correlation coefficient, which is a deviation sample correlation coefficient, is used to compare the similarity of correlation coefficients, which is expressed by Equation 2 below.

Figure 112011023651306-pat00006
Figure 112011023651306-pat00006

여기서, f(x,y)는 템플릿 영상의 픽셀값을 나타내며, f'는 템플릿 영상의 평균 픽셀값을 나타낸다. t(x,y)는 입력영상의 픽셀값을 나타내며, t'은 입력영상의 블록에 평균값을 나타내며, r은 상관계수로서 입력 영상과 템플릿 영상의 매칭 결과로서, -1 내지 1 사이의 값을 가지며 1에 가까울수록 템플릿 영상과 입력 영상이 유사한 것을 의미한다.Here, f (x, y) represents a pixel value of the template image, and f 'represents an average pixel value of the template image. t (x, y) denotes a pixel value of the input image, t 'denotes an average value in a block of the input image, r is a correlation coefficient, and a matching value between -1 and 1 as a result of matching the input image and the template image. The closer to 1, the more similar the template image to the input image.

이러한, 템플릿 매칭의 가장 큰 장점은 쉽고 간단한 알고리즘으로, 환경 변화가 별로 없을 경우 정합의 정확도가 높다는 점이다. 하지만 복잡한 배경을 가지고 있을 경우 잘못 추출할 가능성이 있다는 단점이 있다.The biggest advantage of the template matching is an easy and simple algorithm, which is highly accurate when there is little environmental change. However, the disadvantage is that if you have a complex background, there is a possibility of incorrect extraction.

산출부(130)는 템플릿 매칭 알고리즘을 이용하여, 설정된 템플릿 영상과 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출할 수 있다. 즉, 산출부(130)는 상기의 수학식 2와 같이, 실시간으로 촬상된 안구 영상의 각 프레임의 평균값과 추출된 템플릿의 평균값을 이용하여, 실시간으로 촬상된 안구 영상의 각 프레임마다 설정된 템플릿 간의 상관 관계를 산출할 수 있다. 여기서, 산출된 상관 계수는 -1 내지 1 사이의 값을 가지는 피어스 상관 계수가 된다.The calculator 130 may calculate a correlation coefficient between the set template image and the eyeball image captured in real time using a template matching algorithm. That is, the calculation unit 130, as shown in Equation 2 above, using the average value of each frame of the eyeball image captured in real time and the average value of the extracted template, between the templates set for each frame of the eyeball image captured in real time Correlation can be calculated. Here, the calculated correlation coefficient is a pierce correlation coefficient having a value between -1 and 1.

한편, 산출부(130)가 산출한 상관 계수는 정규화된 값으로, -1 내지 1 사이의 값을 가질 수 있다.The correlation coefficient calculated by the calculator 130 is a normalized value and may have a value between -1 and 1. FIG.

또한, 산출부(130)는 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute difference) 값을 산출할 수 있다.In addition, the calculator 130 may calculate a sum of absolute difference (SAD) value for the eyeball image captured in real time.

구체적으로, SAD(sum of absolute difference) 알고리즘은 H.264, MPEG-4등 동영상 압축 표준에서 움직임 추정(Motion Estimation) 방법에 사용하는 방식이다. 움직임 추정이란 시간적으로 이웃한 화면 간의 연관관계를 이용하여 동영상을 압축하기 위해서 화면상의 움직임을 구하는 방법으로, 블록 매칭 알고리즘 (BMA)을 이용하여 수행된다. 블록 매칭 알고리즘은 부호화될 현재 프레임(frame)에서 각각의 현재 블록과 가장 비슷한 블록을 이전 프레임에서 찾는 방법으로, 가장 널리 사용하는 방법은 전역탐색기법(full search block matching algorithm)이 널리 사용되고 있다. In detail, the sum of absolute difference (SAD) algorithm is a method used for a motion estimation method in a video compression standard such as H.264 and MPEG-4. Motion estimation is a method of obtaining motion on a screen in order to compress a video using a correlation between neighboring screens in time, and is performed using a block matching algorithm (BMA). The block matching algorithm is a method of finding a block most similar to each current block in a current frame to be encoded in a previous frame. The most widely used method is a full search block matching algorithm.

한편, 전역탐색기법에서는 주어진 탐색영역 안의 가능한 모든 후보 블록을 현재 블록과 비교하며, 이때 비교 척도로 사용되는 방법이 SAD 알고리즘으로, 하기와 같은 수학식 3으로 나타낼 수 있다([3] H. Cheong and A.M. Tourapis, “Fast motion estimation within the H.264 codec,”IEEE Int. Conf. Multimedia and Expo, Baltimore, MD, vol. 3, pp.517?520, July 2003. [4] Dong-kyun Park, Hyo-moon Cho, Sang-bok Cho, and Jong-hwa Lee, “A Fast Motion Estimation Algorithm for SAD Optimization in Sub-pixel" IEEE International Symposium on ISIC '07. pp.528-531).On the other hand, in the global search method, all possible candidate blocks in a given search area are compared with the current block, and the method used as a comparison measure is a SAD algorithm, which can be represented by Equation 3 below ([3] H. Cheong). and AM Tourapis, “Fast motion estimation within the H.264 codec,” IEEE Int. Conf.Multimedia and Expo, Baltimore, MD, vol. 3, pp. 517-520, July 2003. [4] Dong-kyun Park, Hyo-moon Cho, Sang-bok Cho, and Jong-hwa Lee, “A Fast Motion Estimation Algorithm for SAD Optimization in Sub-pixel” IEEE International Symposium on ISIC '07. Pp.528-531).

Figure 112011023651306-pat00007
Figure 112011023651306-pat00007

여기서, It(i,j)와 It - 1(i,j)는 시간 t, t+1 에서의 각각의 휘도(luminance) 화소값이다. 또한, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. Here, I t (i, j) and I t - 1 (i, j) are respective luminance pixel values at time t, t + 1. Also, (u, v) means motion, and N is the size of a block.

이러한, SAD는 복잡한 배경에서도 비교적 정확히 현재 블록과 비슷한 블록을 찾을 수 있다는 장점이 있지만, 조명 변화에 민감하다는 단점이 있다.Such SAD has the advantage of finding a block that is similar to the current block relatively accurately even in a complicated background, but has a disadvantage of being sensitive to light changes.

검출부(140)는 상관 계수 및 SAD 값을 비교하고, 비교 결과에 따라 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 인공수정체가 삽입되는 영역을 검출할 수 있다. The detector 140 may compare the correlation coefficient and the SAD value, and selectively detect a region into which the intraocular lens is inserted by selectively performing a template matching algorithm or an SAD algorithm according to the comparison result.

이를 위해, 검출부(140)는 산출부(130)에서 산출된 SAD 값을 아래의 수학식 4 내지 6을 이용하여 정규화(normalization)하여 norSAD 를 산출한다. To this end, the detector 140 calculates norSAD by normalizing the SAD value calculated by the calculator 130 using Equations 4 to 6 below.

Figure 112011023651306-pat00008
Figure 112011023651306-pat00008

Figure 112011023651306-pat00009
Figure 112011023651306-pat00009

Figure 112011023651306-pat00010
Figure 112011023651306-pat00010

여기서, n은 블록의 크기를 의미하며, 30×30 블록에서 n은 30이 된다.Here, n means the size of the block, n is 30 in a 30 × 30 block.

이와 같은 정규화 과정은, SAD 알고리즘에서 템플릿 영상을 잘못 찾게 될 경우의 계산량을 줄이고, -1 내지 1 사이의 값을 가지는 피어슨 상관 계수와의 비교를 위함이다.This normalization process is intended to reduce the amount of computation when the template image is incorrectly found by the SAD algorithm, and to compare with the Pearson correlation coefficient having a value between -1 and 1.

검출부(140)는 상관 계수와 SAD 값을 비교하고, 비교 결과에 따라, 템플릿 매칭 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 인공수정체가 삽입되는 영역을 검출할 수 있다. The detector 140 may compare the correlation coefficient and the SAD value, and selectively detect a region into which the intraocular lens is inserted by selectively performing a template matching algorithm or an SAD algorithm according to the comparison result.

구체적으로, 검출부(140)는 산출부(130)의 출력에 기초하여 실시간으로 촬상된 안구 영상의 각 프레임에 대한 상관 계수와 SAD 값을 비교한다. 그리고, 검출부(140)는 상관 계수가 정규화된 SAD 값보다 크면 템플릿 매칭 알고리즘을 수행하며, 상관 계수가 정규화된 SAD 값보다 작거나 같으면 SAD 알고리즘을 수행하여 실시간으로 촬상된 안구 영상에서 인공수정체가 삽입되는 영역을 검출할 수 있다. 한편, 템플릿 매칭 알고리즘 및 SAD 알고리즘은 본 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 용이하게 이해할 수 있으므로 더 이상의 구체적인 설명은 생략한다.In detail, the detector 140 compares the correlation coefficient and the SAD value for each frame of the eyeball image captured in real time based on the output of the calculator 130. If the correlation coefficient is greater than the normalized SAD value, the detector 140 performs a template matching algorithm. If the correlation coefficient is less than or equal to the normalized SAD value, the detection unit 140 performs an SAD algorithm to insert an intraocular lens in the eye image captured in real time. The area to be detected can be detected. Meanwhile, the template matching algorithm and the SAD algorithm are easily understood by those of ordinary skill in the art, and thus, further detailed description thereof will be omitted.

표시부(150)는 검출된 영역을 표시할 수 있다. 즉, 표시부(150)는 촬상부(110)에서 촬상한 안구 영상에 검출된 인공수정체가 삽입되는 영역을 부가하여 표시할 수 있다.The display unit 150 may display the detected area. That is, the display unit 150 may add and display a region into which the detected intraocular lens is inserted in the eyeball image captured by the imaging unit 110.

한편, 상술한 실시 예에서는 템플릿을 설정하기 위한 사용자 명령을 입력받는 것으로 설명하였지만, 이는 일 예에 불과하다. 본 발명에 따른 영역 검출 장치에서 인공수정체가 삽입되는 영역에 대한 템플릿을 자동적으로 설정할 수도 있다. 구체적으로, 촬상된 안구 영상에서 픽셀의 밝기가 낮은 값에서 높은 값으로 변하는 부분 또는 그 반대로 변하는 부분에 대해 템플릿을 자동적으로 설정할 수도 있다.Meanwhile, the above-described embodiment has been described as receiving a user command for setting a template, but this is merely an example. In the area detection apparatus according to the present invention, a template for an area into which an intraocular lens is inserted may be automatically set. In detail, the template may be automatically set for a portion in which the brightness of the pixel changes from a low value to a high value in the captured eye image or vice versa.

한편, 2차원 영상에서 패턴의 움직임을 검출하기 위해, 광 흐름 방법이 많이 사용되고 있다. 이 방법은 원칙적으로는 안구 인식에 필요한 상대적인 움직임을 구할 수 있다. 그러나, 이동 벡터가 정확하게 검출되지 않거나, 계산 비용이 크다는 문제점이 있다([5] S.S. Beauchemin, and J.L. Barron. “The Computation of Optical Flow", ACM Computing Surveys, Vol. 27, No. 3, pp.433-467, Sep.1995S.S. Beauchemin, and J.L. Barron. “The Computation of Optical Flow", ACM Computing Surveys, Vol. 27, No. 3, pp.433-467, Sep.1995). On the other hand, in order to detect the movement of the pattern in the two-dimensional image, a light flow method is widely used. This method can, in principle, find the relative movements required for eye recognition. However, there is a problem that the motion vector is not accurately detected or the computational cost is high ([5] SS Beauchemin, and JL Barron. “The Computation of Optical Flow”, ACM Computing Surveys, Vol. 27, No. 3, pp. 433-467, Sep. 1995, S. Beauchemin, and JL Barron. “The Computation of Optical Flow”, ACM Computing Surveys, Vol. 27, No. 3, pp. 433-467, Sep. 1995.

광 흐름의 계산은 물체의 밝기(brightness)가 시간에 관계없이 일정하다는 것과 영상에서의 인접한 점들은 비슷하게 움직인다는 두 가지 가정을 기초로 하고 있으며, 이는 아래의 수학식 7과 같다.The calculation of the light flow is based on two assumptions that the brightness of the object is constant over time and that adjacent points in the image move similarly, which is expressed by Equation 7 below.

Figure 112011023651306-pat00011
Figure 112011023651306-pat00011

여기서, Ix, Iy, It는 각각 x축 방향, y축 방향, 시간 축 방향의 밝기의 변화율을 나타낸다. 그러나, 수학식 7에서는 밝기 경사의 방향만을 구할 수 있기 때문에 평탄화(smoothness) 조건을 적용시켜서 속도 벡터 u, v를 추정하게 된다. u와 v를 추정하는 방법에는 여러 가지가 있지만, 가장 많이 사용되는 방식은 다음과 같다. Here, Ix, Iy, and It represent the rate of change of brightness in the x-axis direction, the y-axis direction, and the time axis direction, respectively. However, in Equation 7, since only the direction of the brightness gradient can be obtained, the velocity vectors u and v are estimated by applying a smoothing condition. There are several ways to estimate u and v, but the most common method is:

step 1. 모든 (i, j)에 대해서 속도 벡터 c(i, j)를 초기화한다. step 1. Initialize the velocity vectors c (i, j) for all (i, j).

step 2. 다음으로, k를 반복 횟수라 하고, 모든 픽셀 (i, j)에 대해서 다음 수학식 8 및 수학식 9를 사용하여 u, v를 계산한다.step 2. Next, let k be the number of repetitions and calculate u and v using the following Equations 8 and 9 for all pixels (i, j).

Figure 112011023651306-pat00012
Figure 112011023651306-pat00012

Figure 112011023651306-pat00013
Figure 112011023651306-pat00013

여기서,

Figure 112011023651306-pat00014
,
Figure 112011023651306-pat00015
를 나타낸다.here,
Figure 112011023651306-pat00014
,
Figure 112011023651306-pat00015
Indicates.

step 3. 다음 수학식 10의 조건을 만족하면 계산을 멈추고, 아니면 과정 2를 반복한다.step 3. When the condition of Equation 10 is satisfied, the calculation is stopped, or the process is repeated.

Figure 112011023651306-pat00016
Figure 112011023651306-pat00016

여기서,

Figure 112011023651306-pat00017
는 최대 허용 오차를 나타낸다.here,
Figure 112011023651306-pat00017
Represents the maximum allowable error.

도 2는 본 발명의 일 실시 예에 따른 영역 검출 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an area detection method according to an exemplary embodiment.

실시간으로 촬상된 안구에 대한 영상을 입력받는다(S210). 이 경우, 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대하여 인공수정체가 삽입될 영역에 대응되는 템플릿을 설정하는 사용자 명령을 입력받을 수 있다.In operation S210, an image of an eye photographed in real time is received. In this case, a user command for setting a template corresponding to an area into which an intraocular lens is to be inserted is input to one frame of an image captured in real time.

이후, 촬상된 안구 영상에 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는다(S220).Thereafter, a user command for setting a template corresponding to a region into which the intraocular lens is to be inserted is input to the captured eye image (S220).

그리고, 템플릿 매칭(template matching) 알고리즘을 이용하여, 설정된 템플릿 영상과 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출한다(S230).The correlation coefficient between the set template image and the eyeball image captured in real time is calculated using a template matching algorithm (S230).

한편, 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출한다(S240). Meanwhile, a sum of absolute diference (SAD) value of an eye image captured in real time is calculated (S240).

그리고, 상관 계수를 상기 SAD 값과 비교한다(S250). 이 경우, 산출된 SAD 값을 정규화(normalization)하고, 정규화된 SAD 값을 상관 계수와 비교할 수 있다.The correlation coefficient is then compared with the SAD value (S250). In this case, the calculated SAD value may be normalized and the normalized SAD value may be compared with a correlation coefficient.

비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 촬상된 안구 영상에서 인공수정체가 삽입되는 영역을 검출할 수 있다. According to the comparison result, a template matching algorithm or a SAD algorithm may be selectively performed to detect a region into which an intraocular lens is inserted in the captured eye image.

구체적으로, 상관 계수가 정규화된 SAD 값보다 크면(S260-Y) 템플릿 매칭 알고리즘을 수행하며(S270), 상관 계수가 정규화된 SAD 값보다 작거나 같으면(S260-N) SAD 알고리즘을 수행하여, 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출할 수 있다.Specifically, when the correlation coefficient is larger than the normalized SAD value (S260-Y), the template matching algorithm is performed (S270). If the correlation coefficient is smaller than or equal to the normalized SAD value (S260-N), the SAD algorithm is performed. A region into which the intraocular lens is inserted may be detected in the extracted eye image.

한편, S230 단계에서, 산출된 상관 계수는 -1 내지 1 사이의 값을 가지며, 아래의 수학식을 이용하여 상관 계수를 산출할 수 있다.In operation S230, the calculated correlation coefficient has a value between −1 and 1 and a correlation coefficient may be calculated using the following equation.

Figure 112011023651306-pat00018
Figure 112011023651306-pat00018

여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.

한편, S240 단계에서, 아래의 수학식을 이용하여 상기 SAD 값을 산출할 수 있다.In operation S240, the SAD value may be calculated using the following equation.

Figure 112011023651306-pat00019
Figure 112011023651306-pat00019

여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다. Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.

한편, 검출된 영역을 표시할 수도 있다. 구체적으로, 촬상된 안구 영상에 검출된 인공수정체가 삽입되는 영역을 부가하여 표시할 수 있다.On the other hand, the detected area may be displayed. In detail, an area in which the detected intraocular lens is inserted may be added to the captured eye image and displayed.

도 3 내지 도 6은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 도면이다. 도 3 내지 도 6은 초당 30 프레임으로 촬상된 서로 다른 2 개의 안구 영상에 대한 결과로, 블록은 30 X 30로 설정하였다. 3 to 6 are diagrams for evaluating the performance of the area detection method according to an embodiment of the present invention. 3 to 6 show results of two different eye images captured at 30 frames per second, and the block is set to 30 × 30.

도 3 및 도 4는 제1 안구 영상에 대한 150 프레임 전 및 후의 영상을 각각 나타내며, 도 5 및 도 6은 제2 안구 영상에 대한 150 프레임 전 및 후의 영상을 각각 나타낸다. 도 3 내지 도 6을 참조하면, 인공수정체가 삽입될 영역의 움직임이 많거나 인공수정체가 삽입될 영역의 배경에 다른 물체가 들어오더라도, 정확하게 추적함을 알 수 있다.3 and 4 show images before and after 150 frames of the first eye image, and FIGS. 5 and 6 show images before and after 150 frames of the second eye image, respectively. 3 to 6, it can be seen that even if there is a lot of movement of the area into which the intraocular lens is inserted or another object enters the background of the area into which the intraocular lens is inserted, it is accurately tracked.

도 7은 본 발명의 일 실시 예에 따른 영역 검출 방법의 성능을 평가하기 위한 다른 그래프이다. 도 7은 피어슨 상관계수를 이용한 템플릿 매칭과 본 발명에 따른 영역 검출 방법의 PSNR(peak signal to noise ratio)을 비교한 결과를 나타낸다.7 is another graph for evaluating the performance of the area detection method according to an embodiment of the present invention. FIG. 7 shows a result of comparing template matching using Pearson's correlation coefficient and peak signal to noise ratio (PSNR) of the area detection method according to the present invention.

도 7과 같이, 피어슨 상관계수를 이용한 템플릿 매칭을 이용한 방법에 비해 본 발명에 따른 영역 검출 방법이 PSNR이 높게 나오는 것을 알 수 있으며, 이를 통해, 본 발명에 따른 영역 검출 방법이 피어슨 상관계수를 이용한 템플릿 매칭보다 더 정확히 추정함을 알 수 있다.As shown in FIG. 7, it can be seen that the region detection method according to the present invention has a higher PSNR compared to the method using the template matching using the Pearson correlation coefficient. Through this, the region detection method according to the present invention uses the Pearson correlation coefficient. It can be seen that the estimation is more accurate than template matching.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 개재의 범위 내에 있게 된다. Although the above has been illustrated and described with respect to preferred embodiments of the present invention, the present invention is not limited to the above-described example, and the general knowledge in the art to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Anyone with a variety of modifications can be made, as well as such changes fall within the scope of the claims.

100 : 영역 검출 장치
110 : 촬상부 120 : 입력부
130 : 산출부 140 : 검출부
100: area detection device
110: imaging unit 120: input unit
130: calculator 140: detector

Claims (14)

영역 검출 장치에 의해 인공수정체가 삽입되는 안구의 일 영역을 검출하는 방법에 있어서,
실시간으로 촬상된 안구에 대한 영상을 입력받는 단계;
상기 촬상된 안구 영상에 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 단계;
템플릿 매칭(template matching) 알고리즘을 이용하여, 상기 설정된 템플릿영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하는 단계;
상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출하는 단계;
상기 상관 계수를 상기 SAD 값과 비교하는 단계; 및
비교 결과에 따라, 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 단계;를 포함하는 영역 검출 방법.
In the method for detecting an area of the eye into which the intraocular lens is inserted by the area detecting device,
Receiving an image of an eye photographed in real time;
Receiving a user command for setting a template corresponding to an area into which the intraocular lens is to be inserted into the captured eye image;
Calculating a correlation coefficient between the set template image and the eyeball image captured in real time by using a template matching algorithm;
Calculating a sum of absolute diference (SAD) value for the eye image captured in real time;
Comparing the correlation coefficient with the SAD value; And
And selectively detecting a region into which the intraocular lens is inserted in the captured eye image by performing a template matching algorithm or a SAD algorithm according to the comparison result.
제1항에 있어서,
상기 사용자 명령을 입력받는 단계는,
상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대하여 상기 인공수정체가 삽입될 영역에 대응되는 템플릿을 설정하는 사용자 명령을 입력받는 것을 특징으로 하는 영역 검출 방법.
The method of claim 1,
The step of receiving the user command,
And a user command for setting a template corresponding to an area into which the intraocular lens is to be inserted with respect to one frame of the eyeball image captured in real time.
제1항에 있어서,
상기 상관 계수는 -1 내지 1 사이의 값을 가지며,
상기 상관 계수를 산출하는 단계는,
아래의 수학식을 이용하여 상기 상관 계수를 산출하는 것을 특징으로 하는 영역 검출 방법.
Figure 112011023651306-pat00020

여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균 픽셀값을 나타낸다.
The method of claim 1,
The correlation coefficient has a value between -1 and 1,
Computing the correlation coefficient,
And calculating the correlation coefficient by using the following equation.
Figure 112011023651306-pat00020

Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The average pixel value is shown in the block of the eyeball image.
제1항에 있어서,
상기 SAD 값을 산출하는 단계는,
아래의 수학식을 이용하여 상기 SAD 값을 산출하는 것을 특징으로 하는 영역 검출 방법.
Figure 112011023651306-pat00021

여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다.
The method of claim 1,
Computing the SAD value,
The SAD value is calculated using the following equation.
Figure 112011023651306-pat00021

Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.
제1항에 있어서,
상기 비교하는 단계는,
상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교하는 것을 특징으로 하는 영역 검출 방법.
The method of claim 1,
Wherein the comparing comprises:
And normalizing the calculated SAD value and comparing the normalized SAD value with the correlation coefficient.
제5항에 있어서,
상기 검출하는 단계는,
상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 것을 특징으로 하는 영역 검출 방법.
The method of claim 5,
Wherein the detecting comprises:
If the correlation coefficient is greater than the normalized SAD value, the template matching algorithm is performed. If the correlation coefficient is less than or equal to the normalized SAD value, the SAD algorithm is performed to insert the artificial lens in the captured eye image. An area detection method characterized by detecting a region to be used.
제1항에 있어서,
상기 검출된 영역을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영역 검출 방법.
The method of claim 1,
And displaying the detected area.
인공수정체가 삽입되는 안구의 일 영역을 검출하는 장치에 있어서,
상기 안구를 실시간으로 촬상하는 촬상부;
상기 촬상된 안구 영상에서 상기 인공수정체가 삽입될 영역에 대응되는 템플릿(template)을 설정하는 사용자 명령을 입력받는 입력부;
템플릿 매칭(template matching) 알고리즘을 이용하여 상기 설정된 템플릿 영상과 상기 실시간으로 촬상된 안구 영상 간의 상관 계수를 산출하고, 상기 실시간으로 촬상된 안구 영상에 대한 SAD(sum of absolute diference) 값을 산출하는 산출부; 및
상기 상관 계수를 상기 SAD 값과 비교하고, 비교 결과에 따라 템플릿 매칭(template matching) 알고리즘 또는 SAD 알고리즘을 선택적으로 수행하여 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 검출부;를 포함하는 영역 검출 장치.
In the device for detecting a region of the eye into which the intraocular lens is inserted,
An imaging unit for capturing the eyeball in real time;
An input unit configured to receive a user command for setting a template corresponding to an area in which the intraocular lens is to be inserted in the captured eye image;
Calculation of a correlation coefficient between the set template image and the eyeball image captured in real time using a template matching algorithm, and calculating a sum of absolute diference (SAD) value for the eyeball image captured in real time. part; And
A detector for comparing the correlation coefficient with the SAD value and selectively performing a template matching algorithm or a SAD algorithm according to a comparison result to detect a region in which the artificial lens is inserted in the real-time eyeball image; Area detection apparatus comprising a.
제8항에 있어서,
상기 입력부는,
상기 실시간으로 촬상된 안구에 대한 영상 중 하나의 프레임에 대해 상기 인공수정체가 삽입될 영역에 대한 템플릿을 설정하는 사용자 명령을 입력받는 것을 특징으로 하는 영역 검출 장치.
9. The method of claim 8,
Wherein the input unit comprises:
And a user command for setting a template for a region into which the intraocular lens is to be inserted in one frame of the image of the eyeball captured in real time.
제8항에 있어서,
상기 상관 계수는 -1 내지 1 사이의 값을 가지며,
상기 산출부는,
아래의 수학식을 이용하여 상기 상관 계수를 산출하는 것을 특징으로 하는 영역 검출 장치.
Figure 112011023651306-pat00022

여기서, r은 상관 계수, f(x,y)는 상기 템플릿의 픽셀값, f'는 상기 템플릿의 평균 픽셀값, t(x,y)는 촬상된 안구 영상의 픽셀값, t'은 촬상된 안구 영상의 블록에 평균값을 나타낸다.
9. The method of claim 8,
The correlation coefficient has a value between -1 and 1,
The calculating unit calculates,
And calculating the correlation coefficient by using the following equation.
Figure 112011023651306-pat00022

Where r is the correlation coefficient, f (x, y) is the pixel value of the template, f 'is the average pixel value of the template, t (x, y) is the pixel value of the photographed eye image, and t' is the captured image. The mean value is shown in the block of the eyeball image.
제8항에 있어서,
상기 산출부는,
아래의 수학식을 이용하여 상기 SAD 값을 산출하는 것을 특징으로 하는 영역 검출 장치.
Figure 112011023651306-pat00023

여기서, It(i,j)와 It - 1(i,j)는 촬상된 안구 영상의 시간 t, t+1 에서 휘도(luminance) 화소값, (u,v)는 움직임을 의미하며, N은 블록의 크기이다.
9. The method of claim 8,
The calculating unit calculates,
The SAD value is calculated using the following equation.
Figure 112011023651306-pat00023

Here, I t (i, j) and I t - 1 (i, j) are luminance pixel values at time t and t + 1 of the photographed eye image, and (u, v) means movement. N is the size of the block.
제8항에 있어서,
상기 검출부는,
상기 산출된 SAD 값을 정규화(normalization)하고, 상기 정규화된 SAD 값을 상기 상관 계수와 비교하는 것을 특징으로 하는 영역 검출 장치.
9. The method of claim 8,
Wherein:
And normalize the calculated SAD value and compare the normalized SAD value with the correlation coefficient.
제12항에 있어서,
상기 검출부는,
상기 상관 계수가 상기 정규화된 SAD 값보다 크면 상기 템플릿 매칭 알고리즘을 수행하며, 상기 상관 계수가 상기 정규화된 SAD 값보다 작거나 같으면 상기 SAD 알고리즘을 수행하여, 상기 실시간으로 촬상된 안구 영상에서 상기 인공수정체가 삽입되는 영역을 검출하는 것을 특징으로 하는 영역 검출 장치.
The method of claim 12,
Wherein:
If the correlation coefficient is greater than the normalized SAD value, the template matching algorithm is performed. If the correlation coefficient is less than or equal to the normalized SAD value, the SAD algorithm is performed to perform the artificial lens in the real-time eyeball image. And the area detecting device is inserted.
제8항에 있어서,
상기 검출된 영역을 표시하는 표시부;를 더 포함하는 것을 특징으로 하는 영역 검출 장치.





9. The method of claim 8,
And a display unit for displaying the detected area.





KR1020110029691A 2011-03-31 2011-03-31 Method for detecting an area and area detecting apparatus applying the same Expired - Fee Related KR101269175B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110029691A KR101269175B1 (en) 2011-03-31 2011-03-31 Method for detecting an area and area detecting apparatus applying the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110029691A KR101269175B1 (en) 2011-03-31 2011-03-31 Method for detecting an area and area detecting apparatus applying the same

Publications (2)

Publication Number Publication Date
KR20120111792A KR20120111792A (en) 2012-10-11
KR101269175B1 true KR101269175B1 (en) 2013-05-31

Family

ID=47282401

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110029691A Expired - Fee Related KR101269175B1 (en) 2011-03-31 2011-03-31 Method for detecting an area and area detecting apparatus applying the same

Country Status (1)

Country Link
KR (1) KR101269175B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3100434A1 (en) 2019-04-11 2020-10-15 Amo Development, Llc High speed tracking of iol during refractive index modification

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detection method and eye position detection device
JP2002216129A (en) 2001-01-22 2002-08-02 Honda Motor Co Ltd Apparatus and method for detecting face area and computer-readable recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detection method and eye position detection device
JP2002216129A (en) 2001-01-22 2002-08-02 Honda Motor Co Ltd Apparatus and method for detecting face area and computer-readable recording medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:영상처리 및 이해에 관한 워크샵

Also Published As

Publication number Publication date
KR20120111792A (en) 2012-10-11

Similar Documents

Publication Publication Date Title
US8330801B2 (en) Complexity-adaptive 2D-to-3D video sequence conversion
US8665326B2 (en) Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
US9727974B2 (en) System for video super resolution using semantic components
JP6368709B2 (en) Method for generating 3D body data
Nasrollahi et al. Face quality assessment system in video sequences
EP1225769A2 (en) Spatial temporal visual attention model for a video frame sequence
US11232586B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
CN102831382A (en) Face tracking apparatus and method
US20160110610A1 (en) Image processor, image processing method, and computer program
WO2011113444A1 (en) Method and apparatus for trajectory estimation, and method for segmentation
Jacobson et al. A novel approach to FRUC using discriminant saliency and frame segmentation
CN103959767B (en) The video process apparatus of detection time synchronized mismatch and method
CN110378183B (en) Image analysis device, image analysis method, and recording medium
JP6349448B1 (en) Information processing apparatus, information processing program, and information processing method
CN110781712B (en) Human head space positioning method based on human face detection and recognition
CN110910449A (en) Method and system for recognizing three-dimensional position of object
CN108010059A (en) The method for analyzing performance and device of electronic flutter-proof algorithm
Jaroensri et al. A video-based method for automatically rating ataxia
CN117437392B (en) Cruciate ligament dead center marker and model training method and arthroscope system thereof
Napolean et al. Heart rate estimation in intense exercise videos
KR20080002409A (en) 3D image conversion device and method of 2D image
KR101269175B1 (en) Method for detecting an area and area detecting apparatus applying the same
Gurbuz et al. Model free head pose estimation using stereovision
Jacobson et al. Scale-aware saliency for application to frame rate upconversion
Xu et al. Auto-adjusted 3-D optic disk viewing from low-resolution stereo fundus image

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

FPAY Annual fee payment

Payment date: 20170417

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

FPAY Annual fee payment

Payment date: 20190429

Year of fee payment: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20220524

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20220524

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301