[go: up one dir, main page]

KR20050025927A - 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 - Google Patents

홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 Download PDF

Info

Publication number
KR20050025927A
KR20050025927A KR1020040071432A KR20040071432A KR20050025927A KR 20050025927 A KR20050025927 A KR 20050025927A KR 1020040071432 A KR1020040071432 A KR 1020040071432A KR 20040071432 A KR20040071432 A KR 20040071432A KR 20050025927 A KR20050025927 A KR 20050025927A
Authority
KR
South Korea
Prior art keywords
iris
image
pupil
boundary
moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020040071432A
Other languages
English (en)
Inventor
유웅덕
Original Assignee
유웅덕
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유웅덕 filed Critical 유웅덕
Publication of KR20050025927A publication Critical patent/KR20050025927A/ko
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

1. 청구범위에 기재된 발명이 속하는 기술분야
본 발명은 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출 방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과 홍채인식 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 연산량 및 속도가 향상된 홍채 검출을 위해 안구영상에 비치는 조명의 영향에 둔감하고 높은 정확도를 가지는 홍채 인식을 위한 실시간 동공 검출 방법 및 그를 이용한 홍채 특징 장치 및 그 방법과 홍채인식 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하고자 함.
3. 발명의 해결 방법의 요지
본 발명은, 홍채인식을 위한 동공 검출 방법에 있어서, 안구 영상으로부터 조명으로 인한 광원을 동공내 두 개의 기준점으로 검출하는 기준점 검출단계; 상기 두 개의 기준점을 지나는 직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제1 경계후보지점 결정단계; 교차하는 두 개의 홍채와 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제2 경계후보지점 결정단계; 및 상기 결정한 후보지점들로부터 서로 가깝게 이웃하는 후보지점 사이를 지나는 직선들의 이등분 중심점을 기준으로 한 수직선들이 교차하는 중심 후보점을 이용하여 경계 후보지에 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하는 동공영역 검출단계를 포함함.
4. 발명의 중요한 용도
본 발명은 패턴인식과 영상처리를 이용한 생체인식 등에 이용됨.

Description

홍채인식을 위한 동공 검출 방법 및 형상기술자 추출 방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과 홍채인식 시스템 및 그 방법{The pupil detection method and shape descriptor extraction method for a iris recognition, iris feature extraction apparatus and method, and iris recognition system and method using its}
본 발명은 패턴인식과 영상처리를 이용한 생체인식 기술분야에 관한 것으로, 보다 상세하게는 눈의 홍채에 근거하여 개인 식별을 제공할 수 있는 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출 방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과 홍채인식 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
개인을 식별하는 전통적인 방법으로 널리 활용되는 개인 암호(password)나 개인식별번호(personal identification number) 등은 도용 및 분실의 위험 등으로 인하여 점차 고도화/첨단화되고 있는 정보사회에서의 안정적이고 정확한 개인식별에 대한 요구를 충족시켜 줄 수 없을 뿐만 아니라, 그 역기능으로 인하여 사회전반에 대한 많은 부작용을 초래할 수 있다. 특히, 급격한 인터넷 환경의 발달과 전자상거래의 급증 등은 과거의 전통적인 개인 인증 방법만으로는 개인 및 단체에 대한 커다란 물질적, 정신적인 손실들이 초래될 수 있음을 예측할 수 있다.
이러한 전통적인 개인식별 방법들의 단점을 보완할 수 있는 대체 방법으로써 생체인식(biometrics)은 가장 안정적이고 정확한 개인식별 방법으로서 각광을 받고 있다. 생체인식은 개개인의 물리적(생체적) 특성 및 행동적 특성을 기반으로 하여 개인을 식별하는 방법으로서, 지문, 얼굴, 홍채, 장문 등이 물리적 특성이라 할 수 있으며, 서명, 음성 등이 행동적 특성으로 분류될 수 있다. 이러한 개인의 특성을 기반으로 하는 개인식별 및 보안은 절도나 누출에 의해 전달할 수 없으며 변경되거나 분실할 위험성이 없으므로 보안 침해를 누가 행했는지 추적이 가능해지는 등 감사(audit) 기능이 완벽하게 구축될 수 있다는 장점이 있다.
특히, 다양한 생체인식 방법 중에서 홍채는 개인을 식별함에 있어 유일성과 불변성, 안정성 측면에서 가장 뛰어나다고 알려져 있으며 오인식률이 매우 낮아 고도의 보안이 요구되는 분야에 적용되고 있는 추세를 보이고 있다.
홍채는 출생 후 3세 이전에 모두 형성되며 특별한 외상을 입지 않는 한 평생 변하지 않는 것으로 알려져 있으며, 지문보다 패턴이 더 다양하여 현재까지는 가장 완벽한 개인 식별 방법으로 알려져 있을 뿐만 아니라, 비접촉식으로 영상획득이 가능하기 때문에 사용자 편의성 또한 매우 높아 시장 잠재력이 매우 클 것으로 예상된다.
일반적으로, 홍채를 이용하여 특정 개인을 인식하는 방법에 있어서는, 사람의 눈 부분을 촬영한 영상신호에서 실시간 홍채인식을 위해 빠른 동공과 홍채의 검출은 필수적이다.
이하에서는 홍채의 특징을 먼저 살펴보고, 홍채인식 기술분야의 종래기술을 상세히 살펴보기로 한다.
동공 경계의 위치를 찾아서 고도의 정확성으로 홍채로부터 동공을 분리시키는 과정에 있어서, 동공 확장(pupillary dilation) 정도에 관계없이 상이 분석될 때마다 홍채의 분석대역의 동일 부분이 동일한 좌표로 할당되지 않아도 특징점과 정규화 특징량을 얻는 것은 매우 중요하다. 또한, 홍채의 분석대역에서의 특징점은 열공(lacuna) 음와(crypts) 결손(defect)을 포함한다는 것이 매우 중요하다.
홍채는 우리 몸에서 가장 복잡한 섬유막 구조로 되어 있고 신경을 통하여 대뇌(大腦)와 신체 각 부위에 연결되어 있기 때문에 신체내의 각 조직(組織), 장기(臟器)에서 일어나는 화학적, 물리적 변화에 따른 정보가 바이브레이션(Vibration)으로 전달되어 섬유조직의 형태를 변화시키게 된다.
하나의 원으로서 홍채는 균형을 표현한다. 기능적 평형에 장애가 있을 때 홍채의 모양이 원형에서 이탈한다. 인체에서 일어나는 생리적 반응은 신경계통의 작용이며, 수축과 이완의 착오로 장애가 나타난다. 이 작용은 홍채의 원형에 영향을 준다.
홍채섬유와 층은 구조와 연결상태의 결함을 반영한다. 구조는 기능에 영향을 미치고 통합성을 반영하기 때문에 조직은 기관의 저항력과 유전적 소인을 나타낸다. 관련징후로는 열공(Lacunae), 음와(Crypts), 결손징후(Defect signs), 조직이완(Rarifition) 등이 있다.
홍채(Iris)는 색채를 띠는 부분으로서 확대해 보면 상세한 부분까지 많은 특징들을 담고 있기 때문에 대량의 정보를 얻을 수 있다. 홍채는 폭 4~5㎜, 두께 0.3~0.4㎜, 직경 10~12㎜의 얇은 원판으로 인종과 개인에 따라 고유한 색을 갖고 있으며, 한국인은 흑갈색에서 담청갈색 사이의 여러 가지 색상을 가지고 있다.
홍채의 중앙에는 동공(Pupil)이 위치하는데 동공연의 외방 1~2㎜거리에 톱니모양의 분계륜인 권축륜(Collarette-홍채학에서는 자율신경선이라 명명한다)이 있고, 그 안쪽을 소홍채륜(Anulus iridis minor)이라 하고, 그 바깥쪽은 대홍채륜(Anulns iridis major)이라 한다. 대홍채륜에는 동공연에 일치한 동심성의 윤상융기인 홍채주름(홍채학에서는 "신경링"으로 명명함)이 있다.
홍채외연과 각막(Cornea)사이의 각을 홍채각막각이라 하는데, 그 곳에는 강인한 결합 조직성의 망상체인 절상인대가 있으며, 그 섬유속 사이로 틈이 나 있는데 그 곳을 통하여 안방수가 정맥으로 빠져나가게 된다.
홍채는 구조상 홍채내피, 전경계판, 홍채지질로 이루어져 있는데, 특히 지질에는 혈관, 신경, 색소세포가 풍부한 혈관층이 있고, 그 후방에 5종류의 평활근이 있어서 동공의 크기를 조절한다.
이와 같은 홍채학의 임상근거에 기준한 홍채의 무늬를 특징점으로 사용하기 위해 홍채의 분석대역을 다음과 같이 나누는 것이 매우 중요하다.
예를 들면, 본 발명에서와 같이 시계의 12시방향을 기준으로 하여 좌우6도(섹터1), 이어서 시계방향으로 24도(섹터2), 42도(섹터3), 9도(섹터4), 30도(섹터5), 42도(섹터6), 27도(섹터7), 36도(섹터8), 18도(섹터9), 39도(섹터(10), 27도(섹터11), 24도(섹터12), 36도(섹터13)와 같이 대역을 나누며, 이와 같이 각 섹터들을 동공을 중심으로 4개의 환상대역으로 나눈다. 따라서, 각 섹터는 동공을 중심으로부터 홍채의 외부경계 방향으로 4개의 환상대역에 따라서 섹터1-4, 섹터1-3, 섹터1-2, 섹터1-1로 나뉘어진다.
홍채인식 시스템은 홍채부분의 영상신호를 검출하여 그것을 특화하고, 해당 홍채로부터 특화된 정보와 동일한 것을 데이터베이스에서 탐색하여 비교함으로써, 그 비교결과에 따라 특정 개인임을 인식하여 수용하거나 또는 반대로 거절하도록 처리방법이 이루어져 있다.
홍채인식 시스템에서의 통계적 텍스쳐(홍채 형상)의 검색은 매우 중요하다. 이 텍스쳐(홍채 형상)를 인간이 인식하는 특성을 인지과학에서는 세가지 특징, 즉 주기성(Periodicity), 방향성(directionality) 그리고 복잡성(randomness)이라 한다. 홍채의 확률적인 특징은 상당한 자유도를 지니면서도 개인을 식별하기 위한 충분한 고유성을 지니고 있어, 확률적인 독립성을 이용하여 개개인을 식별할 수 있다.
일반적으로, 기존 홍채 인식 시스템의 Daugman이 제안한 기존의 동공 검출 방법은 영상의 모든 위치에서의 원형 프로젝션(circular projection)을 구한 후, 프로젝션(projection)에 대한 미분치에 대하여 가우시안 컨볼루션(Gaussian Convolution)을 이용한 가장 큰 값에 경계선을 추정한 후, 추정된 경계치를 이용하여 원형의 경계 성분이 가장 강한 위치를 찾아 사람의 안구영상으로부터 동공을 찾는 방법을 사용하였다.
그러나, 기존 방법의 경우 홍채 전체 영역에 대한 프로젝션(projection)과 얻어진 프로젝션(projection)에 대한 미분으로 인한 연산량의 증가로 인해 동공 검출에 있어 많은 시간이 필요한 단점이 있으며, 이미 원 성분이 있다는 가정하에 수행하는 것으로서 원 성분이 없다는 것을 알아내지는 못한다는 단점도 있다.
또한, 동공 검출은 홍채 인식에 있어서 선행되어야 하는 과정으로, 실시간 홍채 인식을 위해 빠른 동공의 검출은 필수적이다. 그러나, 기존 방법의 경우 광원이 동공내에 위치하게 되는 경우, 적외선 조명 광원의 영향에 의해 부정확한 동공의 경계를 초래하는 문제점이 있어, 홍채 분석대역을 광원영역을 제외한 부분에 대하여 검색을 수행해야 하기 때문에 정확도를 저하시키는 문제점이 있다.
특히, 홍채특징 추출에 있어서는 최근에는 필터 뱅크에 의해 주파수 영역을 분할하여 통계적 특성을 추출하는 방법이 많이 이용되어 필터로는 가버(Gabor) 필터 또는 웨이블릿(Wavelet) 필터 등이 사용 되었다. 가버(Gabor) 필터는 주파수 영역을 가장 효과적으로 분할할 수 있어 많이 이용되고 있으며, 웨이블릿(Wavelet) 필터는 주파수 영역을 인간의 시각적 특성이 고려된 형태로 분할할 수 있어 많이 이용되고 있다. 그러나, 이러한 방법들은 모두 계산량이 많아 홍채영상처리에 많은 시간을 필요로 하므로, 대용량 홍채인식 시스템에는 적합하지 않다. 구체적으로, 홍채인식 시스템 데이터베이스를 구축하는데 너무 많은 시간과 비용이 소요될 뿐만 아니라, 사용자에 의한 인식도 신속하게 이루어질 수 없기 때문에 효과적인 홍채인식 수단이 될 수 없다. 또한, 이러한 특징값은 특징값 자체가 회전이나 스케일 변화에 불변인 특징값이 아니어서 변환된 텍스쳐(홍채 형상)를 검색하기 위하여 특징값을 회전시켜가며 특징을 비교해야 하는 한계를 가지고 있다.
그러나, 형상(shape)의 경우에는 경계를 방향코드로 표현하여 검색하거나 여러 가지 변화 등을 사용하여 형상의 약간의 변형이나 이동, 회전, 스케일에 관계없이 표현하고 검색하는 것이 가능하다. 따라서, 홍채인식 시스템에서는 영상 중에 나타나는 홍채의 윤곽형상 또는 홍채 일부의 효율적인 특징을 보존하는 것이 바람직하다.
형상기술자(shape discriptor)는 자동 추출 가능한 보다 낮은 추상적인 단계의 추출(lower abstraction level description)을 기초로 하며, 영상으로부터 인간이 인식할 수 있는 기본적인 기술자라 할 수 있다. MPEG-7과 같은 표준화 그룹에서 제안하고 있는 MPEG-7의 표준화 단계인 XM(eXperiment Model)에서 채택되고 있는 형상기술자는 대표적으로 두 가지가 알려져 있다. 첫 번째로, 물체의 다양한 형상들에 대하여 영상내의 상기 형상의 분포를 알기 위하여 저니크(Zernike) 기저함수를 준비하고, 일정 크기의 영상을 각각의 기저함수들에 투영시켜 그 값들을 기술자로 사용하는 저니크 모멘트 형상기술자(Zernike moment shape descriptor)가 알려져 있다. 두 번째로, 이전 영상으로부터 추출된 외곽선을 따라 저주파 통과 필터링을 하면서 외곽선상에 존재하는 변곡점의 변화를 스케일 공간상에서 나타내어 첨두치와 그 위치를 2차원 벡터로 나타내는 곡률 스케일 공간 형상기술자(Curvature scale space shape descriptor)가 알려져 있다.
또한, 종래의 형상기술자를 사용한 영상 정합 방법에 따르면, 질의 영상과 유사한 형상기술자를 가지는 모델 영상을 데이터베이스로부터 검색하기 위하여 영상으로부터 물체(object)를 정확히 추출할 것이 요구되므로, 물체가 정확히 추출되지 않는 경우에는 검색이 불가능하다는 문제점이 있다.
따라서, 위의 저니크 모멘트 형상기술자나 곡률 스케일 공간 형상기술자와 같은 유사도 형상기술자를 이용하여 인덱싱된 유사그룹단위 데이터베이스 구축 및 이로부터 질의 영상과 유사한 형상기술자를 가지는 인덱스 홍채그룹을 검색할 수 있는 방법이 요구되며, 또한 물체의 정확한 추출없이도 골격직선 기반의 형상기술자와 같은 비유사도 형상기술자에 의하여 유사도에 의해 정합 검색된 그룹단위 인덱싱 데이터베이스내에서 비유사도를 측정하여 비유사한 형상기술자 단위로 데이터베이스 구축 및 비유사도를 사용하여 질의 영상과 정합한 홍채인식 방법이 요구된다. 특히, 이러한 방법은 1:N과 같은 신원확인(Identification)을 위해서는 매우 효율적인 방법이 될 수 있다.
본 발명은, 상기와 같은 제반 문제점을 해결하기 위하여 제안된 것으로, 연산량 및 속도가 향상된 홍채 검출을 위해 안구영상에 비치는 조명의 영향에 둔감하고 높은 정확도를 가지는 홍채 인식을 위한 실시간 동공 검출 방법 및 그를 이용한 홍채 특징 장치 및 그 방법과 홍채인식 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.
또한, 본 발명은 홍채영상의 이동, 스케일, 조명 및 회전에 무관한 특징인 형상기술자를 추출하며, 이 형상기술자를 이용하여 인덱싱된 유사 홍채형상 그룹단위 데이터베이스 구축 및 이로부터 질의 영상과 유사한 홍채 형상기술자를 가지는 인덱스 홍채형상그룹을 검색할 수 있는 형상기술자 추출 방법 및 그를 이용한 홍채 특징 장치 및 그 방법과 홍채인식 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 다른 목적이 있다.
또한, 본 발명은 직선기반 형상기술자 추출 방법에 의하여 추출된 형상기술자를 사용하여, 인덱싱된 유사 홍채형상 단위그룹내의 비유사도를 측정하여 비유사한 형상기술자 단위로 홍채형상 데이터베이스 구축 및 이로부터 질의 영상과 정합한 홍채형상을 검색할 수 있는 형상기술자 추출 방법 및 그를 이용한 홍채 특징 장치 및 그 방법과 홍채인식 시스템 및 그 방법과, 상기 방법들을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 또 다른 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명은, 홍채인식을 위한 동공 검출 방법에 있어서, 안구 영상으로부터 조명으로 인한 광원을 동공내 두 개의 기준점으로 검출하는 기준점 검출단계; 상기 두 개의 기준점을 지나는 직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제1 경계후보지점 결정단계; 교차하는 두 개의 홍채와 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제2 경계후보지점 결정단계; 및 상기 결정한 후보지점들로부터 서로 가깝게 이웃하는 후보지점 사이를 지나는 직선들의 이등분 중심점을 기준으로 한 수직선들이 교차하는 중심 후보점을 이용하여 경계 후보지에 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하는 동공영역 검출단계를 포함하여 이루어진 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명은, 홍채인식을 위한 형상기술자 추출 방법에 있어서, 스케일 스페이스 및/또는 스케일 조명에서 홍채 특징을 추출하는 단계; 상기 추출된 특징을 저차원 모멘트를 사용해 모멘트를 평균 크기 및/또는 밝기로 정규화하여 크기 및/또는 조명에 불변한 저니크 모멘트를 생성하는 저니크 모멘트 생성단계; 및 상기 저니크 모멘트를 이용하여 회전 불변 뿐만 아니라, 크기 및/또는 조명에 강인한 형상기술자를 추출하는 형상기술자 추출단계를 포함하여 이루어진 것을 특징으로 한다.
또한, 본 발명은 상기 형상기술자를 이용하여 인덱싱된 유사 홍채형상 그룹단위 데이터베이스를 구축하고, 이로부터 질의 영상과 유사한 홍채 형상기술자를 갖는 인덱스 홍채형상그룹을 검색하는 단계를 더 포함하여 이루어진 것을 특징으로 한다.
한편, 본 발명은, 홍채인식을 위한 형상기술자 추출 방법에 있어서, 입력된 홍채영상으로부터 골격을 추출하는 단계; 상기 추출된 골격을 세션화(thinning)하여 세션화된 골격내의 각 픽셀들을 연결하여 직선들을 추출하고, 추출된 직선들의 직선 병합에 의하여 직선들의 목록을 구하는 단계; 및 직선들의 목록을 정규화함으로써 얻은 정규화된 직선목록을 형상기술자로서 설정하는 단계를 포함하여 이루어진 것을 특징으로 한다.
또한, 본 발명은 직선기반의 상기 형상기술자를 사용하여, 인덱싱된 유사 홍채형상 단위그룹내의 비유사도를 측정하여 비유사한 형상기술자 단위로 홍채 형상 데이터베이스를 구축하고, 이로부터 질의 영상과 정합한 홍채형상을 검색하는 검색단계를 더 포함하여 이루어진 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명은, 홍채 특징 추출 장치에 있어서, 입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득수단; 획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출수단; 동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출수단; 분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환수단; 홍채학의 임상근거에 기준한 홍채의 무늬를 특징점으로 사용하기 위해 홍채 상내의 분석대역을 분류하기 위한 영상분석대역 정의수단; 영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화수단; 평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화수단; 및 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출수단을 포함하여 이루어진 것을 특징으로 한다.
또한, 본 발명은 상기 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장수단을 더 포함하여 이루어진 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명은, 홍채인식 시스템에 있어서, 입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득수단; 획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출수단; 동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출수단; 분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환수단; 홍채학의 임상근거에 기준한 홍채의 무늬를 특징점으로 사용하기 위해 홍채 상내의 분석대역을 분류하기 위한 영상분석대역 정의수단; 영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화수단; 평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화수단; 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출수단; 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장수단; 및 상기 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 홍채 영상을 인식하기 위한 검증수단을 포함하여 이루어진 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명은, 홍채 특징 추출 장치에 적용되는 홍채 특징 추출 방법에 있어서, 입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득단계; 획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출단계; 동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출단계; 분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환단계; 영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화단계; 평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화단계; 및 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출단계를 포함하여 이루어진 것을 특징으로 한다.
또한, 본 발명은 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장단계를 더 포함하여 이루어진 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명은, 홍채인식 시스템에 적용되는 홍채인식 방법에 있어서, 입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득단계; 획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출단계; 동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출단계; 분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환단계; 영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화단계; 평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화단계; 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출단계; 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장단계; 및 상기 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 홍채 영상을 인식하기 위한 검증단계를 포함하여 이루어진 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명은, 홍채인식을 위한 동공 검출을 위하여, 프로세서를 구비한 동공 검출 장치에, 안구 영상으로부터 조명으로 인한 광원을 동공내 두 개의 기준점으로 검출하는 기준점 검출기능; 상기 두 개의 기준점을 지나는 직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제1 경계후보지점 결정기능; 교차하는 두 개의 홍채와 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제2 경계후보지점 결정기능; 및 상기 결정한 후보지점들로부터 서로 가깝게 이웃하는 후보지점 사이를 지나는 직선들의 이등분 중심점을 기준으로 한 수직선들이 교차하는 중심 후보점을 이용하여 경계 후보지에 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하는 동공영역 검출기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
상기 목적을 달성하기 위한 본 발명은, 홍채인식을 위한 형상기술자 추출을 위하여, 프로세서를 구비한 형상기술자 추출 장치에, 스케일 스페이스 및/또는 스케일 조명에서 홍채 특징을 추출하는 기능; 상기 추출된 특징을 저차원 모멘트를 사용해 모멘트를 평균 크기 및/또는 밝기로 정규화하여 크기 및/또는 조명에 불변한 저니크 모멘트를 생성하는 저니크 모멘트 생성기능; 및 상기 저니크 모멘트를 이용하여 회전 불변 뿐만 아니라, 크기 및/또는 조명에 강인한 형상기술자를 추출하는 형상기술자 추출기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
또한, 본 발명은 상기 형상기술자를 이용하여 인덱싱된 유사 홍채형상 그룹단위 데이터베이스를 구축하고, 이로부터 질의 영상과 유사한 홍채 형상기술자를 갖는 인덱스 홍채형상그룹을 검색하는 기능을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
한편, 본 발명은 홍채인식을 위한 형상기술자 추출을 위하여, 프로세서를 구비한 형상기술자 추출 장치에, 입력된 홍채영상으로부터 골격을 추출하는 기능; 상기 추출된 골격을 세션화(thinning)하여 세션화된 골격내의 각 픽셀들을 연결하여 직선들을 추출하고, 추출된 직선들의 직선 병합에 의하여 직선들의 목록을 구하는 기능; 및 직선들의 목록을 정규화함으로써 얻은 정규화된 직선목록을 형상기술자로서 설정하는 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
또한, 본 발명은 직선기반의 상기 형상기술자를 사용하여, 인덱싱된 유사 홍채형상 단위그룹내의 비유사도를 측정하여 비유사한 형상기술자 단위로 홍채 형상 데이터베이스를 구축하고, 이로부터 질의 영상과 정합한 홍채형상을 검색하는 기능을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
상기 목적을 달성하기 위한 본 발명은, 홍채인식을 위한 홍채 특징 추출을 위하여, 프로세서를 구비한 홍채 특징 추출 장치에, 입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득기능; 획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출기능; 동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출기능; 분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환기능; 영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화기능; 평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화기능; 및 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
또한, 본 발명은 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장기능을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
상기 목적을 달성하기 위한 본 발명은, 프로세서를 구비한 홍채인식 시스템에, 입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득기능; 획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출기능; 동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출기능; 분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환기능; 영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화기능; 평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화기능; 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출기능; 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장기능; 및 상기 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 홍채 영상을 인식하기 위한 검증기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
본 발명은 본인 자신 및 본인과 다른 사람과의 식별을 눈의 홍채에 근거한 식별시스템을 제공하되, 이때 홍채인식에 적합한 영상을 획득하고, 실시간 홍채인식을 위해 빠르게 동공과 홍채를 검출하고, 비접촉식 홍채인식에서 나타나는 문제점인 영상의 크기변화, 기울어짐, 이동에 대한 문제를 해결함으로써 더욱 고유한 특징을 추출하며, 인간의 시각적 인식 능력과 같은 이동, 스케일, 조명, 회전에 관계없이 저니크 모멘트를 사용함으로써 홍채 형상을 신속하고 정확하게 검색하고자 한다.
이를 위해, 본 발명은 홍채영상으로부터 얻을 수 있는 눈꺼풀 영역의 밝기, 동공의 위치를 산출하여 홍채인식에 적합한 영상을 획득하고, 가우시안 블러링을 한 홍채영상의 에지부분 잡영을 확실하게 제거하기 위해 diffusion filter을 사용하고, 반복적 임계값 변경 방법으로서 더욱 빠른 실시간 동공 검출을 제공하며, 동공은 곡률이 다르므로 확대 최대 계수법을 이용하여 반지름을 구하고, 구간이등분선교차 방법을 이용하여 동공의 중심좌표를 구한 후 중심점에서 반시계 방향으로 동공의 반지름까지의 거리를 구한다. 그리고, x축을 회전각으로 하고 y축은 중심에서 동공의 반지름까지의 거리로 해서 그래프로 나타내서 정확한 경계검출을 한다.
또한, 스케일 스페이스 필터링을 적용하여 홍채특징을 추출하고, 크기와 조명, 회전에 불변한 특징량을 얻기 위해 저차원 모멘트를 사용하여 모멘트를 평균크기로 정규화함으로써 불변특성을 갖는 저니크 모멘트를 생성하여 참조값으로 저장하고, 인식부분에서는 위의 참조값과 입력된 영상의 저니크 모멘트의 안정도, 특징량 사이의 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 입력 영상에 있는 물체를 인식한다. 이때, LS(least square)와 LmedS(least media of square) 기법을 결합하여 특정 개인을 구별해 낼 수 있도록 함으로써, 살아있는 사람의 홍채를 빠르고 명확하게 구별할 수 있다.
보다 상세하게는, 본 발명은 식별을 위해 인체의 안구영상을 일반 비디오 카메라가 아닌 디지털 카메라를 통해 디지털화된 안구영상을 직접 획득하고, 인식에 적합한 안구영상을 선택하고, 동공내 기준점을 검출한 후, 안구영상의 홍채 부분과 동공 부분 사이의 동공 경계를 정의하고, 동공 경계와 꼭 동심을 이루지는 않는 호(arc)를 사용해 상의 홍채 부분과 공막(sclera) 부분 사이의 다른 원형 경계를 정의한다. 즉, 식별을 위해 인체의 안구영상을 일반 비디오 카메라가 아닌 디지털 카메라를 통해 디지털화된 안구영상을 직접 획득하고 인식에 적합한 안구영상을 선택하며, 동공내 기준점을 검출한 후, 안구영상의 홍채 부분과 동공 부분 사이의 동공 경계를 검출하고, 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하며, 동공 경계와 꼭 동심을 이루지는 않는 호(arc)를 사용해 상의 홍채 부분과 공막(sclera) 부분 사이의 외부영역을 검출한다.
그리고, 분리된 홍채 패턴영상은 극좌표계를 설정하여 좌표계의 원점이 원형 동공 경계의 중심이 되게 한다. 그 다음, 홍채 상내에의 분석대역(annular analysis band)을 정의하고, 이들 분석대역은 눈꺼풀, 속눈썹 또는 조명기로부터의 거울 반사에 의해 차단될 수 있는 홍채 상의 어떤 미리 선택된 부분들이 포함되지 않은 인식에 적합한 영상의 분석대역만을 의미한다. 이들 분석대역들내에 있는 홍채 영상 부분은 극좌표 변환 과정을 거쳐 동공을 중심으로 동일 반지름상의 1차원 홍채영상 패턴에 대해 가우시안 커널을 사용하여 홍채영상의 크기 변화에도 동일한 패턴을 제공하는 1차원 스케일 스페이스 필터링을 적용한 후, 영점통과 지점인 에지를 구하고, 겹치는 회선 윈도우를 이용하여 이를 누적시켜 다시 홍채 특징을 2차원으로 추출되므로, 홍채 코드 생성시 데이터 크기들을 줄일 수 있게 한다. 또한, 이와 같이 추출된 특징은 크기에 불변한 특징량을 얻기 위해 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화함으로써, 회전에는 불변하나 크기와 조명에 민감한 저니크 모멘트가 크기에 불변 특성을 갖는 저니크 모멘트를 만들 수 있게 하고, 지역 조명 변화를 스케일 조명 변화로 모델링할 경우, 모멘트를 평균 밝기로 정규화하면, 조명에 불변 특성을 갖는 저니크 모멘트를 만들 수 있게 한다. 이들 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크 모멘트를 생성하여 참조값으로 저장되며, 인식부분에서는 위의 참조값과 입력된 홍채영상의 저니크 모멘트의 안정도, 특징량 사이의 유사도를 확률적으로 반영한 모델사이의 특징량 매칭을 통해 입력 홍채영상에 있는 물체를 인식한다. 이때, LS(least square)와 LmedS(least media of square) 기법을 결합하여 홍채인식을 검증한다.
본 발명은 인간이 물체를 인식할 때 의식적으로 특징점에 집중한다는 생물학적 사실에 근거하여 국부 저니크 모멘트를 변경하여 국부 조명 변화에 불변성을 갖는 특징량으로 만들었다. 이를 위해, 분석할 눈의 상이 분석하기에 적합한 디지털 형태로 획득되어야 한다. 그 다음, 그 상의 홍채 부분이 정의되고 분리되어야 한다. 이 홍채영상의 정의된 영역은 그 다음에 분석되어 홍채 특징점을 생성한다. 그리고, 특정 홍채에 대해 생성된 특징점을 중심으로 모멘트를 생성하여 참조값으로서 저장한다. 그리고, 이상치(outlier)를 얻기 위해 제공된 입력영상의 모멘트를 확률적 물체인식에 사용한 유사도와 안정도를 이용하여 일차로 필터링하고 저장하였던 참조값 모멘트와 지역공간 매칭을 한다. 이 경우 이상치(outlier)는 시스템이 대상자의 신원을 확립, 확인 또는 부인(disconfirm)하고, 그 결정에 대한 확신 레벨을 산출하는 것을 허용한다. 또한, 이 과정의 인식율은 입력영상과 옳은 모델과의 매칭수가 다른 모델과의 매칭수 보다 많을수록 인식능력이 좋은 변별인자 DF(discriminative factor)을 통해 알 수 있다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
도 1 은 본 발명에 따른 홍채인식 시스템의 일실시예 구성도이다.
홍채인식 시스템은 홍채인식을 위해 기본적으로 조명(도면에 도시되지 않음), 안구영상 획득을 위한 카메라(바람직하게는 디지털 카메라)(도면에 도시되지 않음) 등을 구비하고 있고, 메모리 및 중앙연산처리부(CPU) 등을 갖는 공지의 컴퓨터 환경하에서 동작 가능함을 미리 밝혀둔다.
홍채인식 시스템은 홍채 특징 추출 장치(홍채 영상 획득부(11), 영상처리 및 분할(가공)부(12), 홍채패턴 특징 추출부(13))를 통하여 특정 개인의 홍채에 대한 특징을 추출하며, 이 홍채 특징들은 홍채 패턴 등록부(14) 및 홍채 패턴 검증부(16)에서 개인에 대한 확인 과정에 사용된다.
이를 위해, 최초에 사용자는 자신의 홍채에 대한 특징 정보를 홍채 DB(15)에 저장하여야 하며(홍채 패턴 등록부(14)에서 등록 수행), 추후에 검증이 필요할 때는 자신의 홍채를 디지털 카메라에 위치시켜 자신에 대한 확인을 요구하게 된다(홍채 패턴 검증부(16)에서 검증 수행).
홍채패턴 검증부(16)에서의 검증시에는 검증 대상자의 홍채 특징과 홍채 DB(15)에 저장되어 있는 검증 대상자 홍채 특징에 대한 비교가 이루어지며, 이의 결과로써 인증이 성공적으로 수행되었을 때, 사용자는 정해진 서비스를 제공받을 수 있으며, 인증이 거부되었을 때는 등록이 이루어지지 않은 검증 대상자나 불법적인 서비스 제공 요구자라고 판단할 수 있다.
상기 홍채 특징 추출 장치의 세부 구성을 살펴보면, 도 2에 도시된 바와 같이, 입력 영상에 대해 디지털화 및 양자화한 후, 깜빡임 탐지, 동공의 위치, 에지 수직성분의 분포를 통해 홍채인식에 적합한 영상을 획득하기 위한 영상 획득부(21)와, 획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출부(22)와, 동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하기 위한 내부경계 및 외부경계 검출부(23,24)와, 분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환부(25)와, 홍채학의 임상근거에 기준한 홍채의 무늬를 특징점으로 사용하기 위해 홍채 상내의 분석대역을 분류하기 위한 영상분석대역 정의부(26)와, 영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화부(27)와, 평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화부(28)와, 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 불변 특성을 갖는 저니크(Zernike) 모멘트를 생성하고, 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출부(29)를 포함한다. 또한, 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장(영상 패턴을 25개의 공간상으로 투영(템플릿)해서 분류 저장)하기 위한 참조값 저장부(상기 도 1의 홍채 패턴 등록부(14) 및 홍채 DB(15))(30)를 더 포함한다.
여기서, 상기 영상분석대역 정의부(26)는 실제 홍채 인식 과정을 구성하는 요소는 아니다. 다만, 이해를 돕기 위하여 도면에 도시한 것에 불과할 뿐, 홍채의 특징점을 홍채학에 근거하여 추출해 낸다는 의미이다. 이때, 분석대역은 눈꺼풀, 속눈썹 또는 조명기로부터의 거울반사에 의해 차단될 수 있는 홍채 상의 어떤 미리 선택된 부분들이 포함되지 않은 인식에 적합한 영상의 분석대역만을 의미한다.
따라서, 홍채인식 시스템은 상기와 같은 구성을 갖는 홍채 특징 추출 장치(21~29)를 통하여 특정 개인의 홍채에 대한 특징을 추출하여, 영상인식 및 검증부(상기 도 1의 홍채 패턴 검증부(16))(31)에서 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 홍채 영상을 인식(개인의 신원을 인증)할 수 있다.
특히, 내부경계 및 외부경계 검출부(23,24)에서는, 안구영상으로부터 조명(바람직하게는 적외선 조명)으로 인한 광원을 동공내 두 개의 기준점으로 검출한 후, 동공 경계 후보 지점을 결정하여, 중심 후보점을 이용하여 경계 후보지에 가장 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 실시간으로 검출한다. 즉, 홍채 인식 시스템에 있어서 촬영된 실제 안구영상으로부터 적외선조명으로 인한 광원을 동공내 두개의 기준점으로 검출하며, 두 개의 기준점을 지나는 직선과 교차하는 안구영상의 홍채와 동공 사이의 경계 후보지점을 결정하고, 교차하는 두개의 홍채와 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선과 교차하는 안구영상의 홍채와 동공 사이의 경계 후보지점을 결정하며, 전단계에서 결정한 후보지점 들로부터 서로 가장 가깝게 이웃하는 후보지점 사이를 지나는 직선들의 이등분 중심점을 기준으로 한 수직선들이 교차하는 중심 후보점을 이용하여 경계 후보지에 가장 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출한다.
그리고, 형상기술자 추출부(29)는 홍채영상의 이동, 스케일, 조명 및 회전에 무관한 특징인 형상기술자를 추출한다. 즉, 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크 모멘트를 생성하고, 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출한다. 이 형상기술자를 이용하여 인덱싱된 유사 홍채형상 그룹단위 데이터베이스 구축 및 이로부터 질의 영상과 유사한 홍채 형상기술자를 가지는 인덱스 홍채형상그룹을 검색할 수 있다.
또한, 형상기술자 추출부(29)는 직선기반 형상기술자 추출 방법에 의하여 형상기술자를 추출한다. 즉, 입력된 홍채영상으로부터 골격을 추출하고, 추출된 골격을 기초로 픽셀들의 연결을 수행함으로써 직선들의 목록을 구한 후, 직선들의 목록을 정규화함으로써 얻은 정규화된 직선 목록을 형상기술자로서 설정한다. 이 직선기반 형상기술자를 사용하여, 인덱싱된 유사 홍채형상 단위그룹내의 비유사도를 측정하여 비유사한 형상기술자 단위로 홍채형상 데이터베이스 구축 및 이로부터 질의 영상과 정합한 홍채형상을 검색할 수 있다.
그럼, 홍채인식 시스템의 각 세부 구성요소들(21~31)의 특징을 보다 상세하게 살펴보기로 한다. 설명의 편의를 위하여, 도 3을 참조하여 함께 설명하기로 한다.
홍채인식을 위해 획득되어지는 홍채 영상은 눈의 중심인 동공과 동공 외곽의 홍채 주름을 포함하여 전체적으로 검은자를 포함하는 영상이 필요하다. 또한, 홍채주름의 패턴을 이용하여 인식하게 되므로, 영상의 칼라정보는 필요하지 않아, 흑백영상을 얻도록 한다.
조명의 경우 빛이 너무 강한 경우 사용자의 눈에 피로감을 줄 수 있고 너무 약하면 홍채 무늬의 특징을 잘 드러내지 못할 뿐 아니라 주변의 자연 조명 등에 의한 반사광이 눈에 맺히는 것을 방지하지 못하게 된다. 이러한 점을 고려하여 적외선 램프를 사용하는 것이 바람직하다.
카메라에서 들어오는 영상신호를 획득하여 디스플레이하고 또한 처리영상을 획득하기 위해 캡쳐기능을 수행할 수 있는 CCD, CMOS 칩을 이용한 디지탈 카메라를 사용한다. 이렇게 획득된 영상에 대해서 바로 전처리 과정을 수행하게 된다.
홍채인식의 단계를 간략히 기술하면, 우선 안구에 포함되어 있는 홍채 영역을 촬영해야 하는데 보통 320x240 정도에서 640x480 정도까지의 해상도를 가지기도 한다. 아무리 전처리를 잘한다 하더라도 원본인 촬영 영상 자체에 불필요한 잡영이 많이 들어가면 좋은 결과를 얻을 수 없으므로 매우 중요한 단계라고 할 수 있다. 이때, 주변 환경의 조건을 시간과 관계없이 동일하게 유지시키는 것이 중요하며, 또한 조명에 의한 반사광의 위치를 홍채 영역의 간섭을 최소화시키도록 설정하는 것이 필수적이다.
이렇게 촬영된 영상을 특징 추출에 이용할 수 있도록 홍채 영역만을 추출해내고, 잡영을 제거하는 등의 과정을 거치게 되는데 이를 '전처리'라고 한다. 전처리는 정확한 홍채 특징을 추출하기 위하여 요구되는 매우 중요한 과정이라 할 수 있으며, 동공과 홍채의 경계를 빠르고 정확하게 찾는 기법과 홍채 영역만을 분리해 내는 기법, 그리고 분리된 홍채 영역을 적합한 좌표계로 변환하는 기법 등으로 구성된다.
이 과정에서는 획득된 영상에 대한 품질을 평가하여 선별적으로 영상을 선택한 후 다음 단계에서 활용되도록 하는 세부 처리 과정이 포함된다. 이렇게 전처리된 영상의 특징을 분석해서 일정 정보를 담고 있는 코드로 변환하는 과정이 특징 추출 과정인데, 이것은 기존에 학습된 특징들과 비교 대상이 되거나 또는 학습될 대상이 된다. 먼저, 영상을 선택하는 주요 기법을 소개한 후, 홍채를 분리하는 기법에 대하여 소개하도록 한다.
영상 획득부(21)에서는 입력 영상에 대해 디지털화(샘플링(시간분해), 양자화(농담분해)) 및 영상의 적합도 판별(영상의 농담을 이용해서 깜박임 탐지 및 동공의 위치 판별, Sobel edge detector를 사용하여 에지 수직 성분의 분포 검사) 등을 통해(301~303), 홍채인식에 적합한 영상을 획득한다. 즉, 영상 획득부(21)에서는 간략하게 우선 적합한 원형 영상인지 확인하는 작업을 수행한다. 이를 구체적으로 살펴보면 다음과 같다.
먼저, 홍채인식 시스템에서 효율적으로 영상을 획득하기 위한 방법으로, 고정 초점 카메라로부터 연속적으로 입력되는 복수 개의 영상 중 간결한 적합성 평가 과정을 통해 인식에 효율적으로 사용될 수 있는 영상을 선정하는 방법을 살펴보기로 한다.
CCD, CMOS 칩을 이용한 디지털 카메라에 의해 영상을 자동으로 획득하기 위해서는, 주어진 시간내에 복수 개의 영상들을 입력받아 적절한 처리 과정을 수행하게 된다. 이때, 모든 입력 영상에 대해 인식 과정을 거치는 대신에 실시간의 영상 적합성 처리를 통해 동영상 프레임의 순위를 결정한 후 인식 시스템에 제공하는 방법을 사용한다.
이와 같은 과정을 통해 처리 시간의 단축과 동시에 인식기의 인식 성능을 높일 수 있게 된다. 이러한 인식에 적합한 영상을 선택하기 위해 영상의 화소값 분포와 경계 값의 성분비를 이용한다.
우선, 입력 영상에 대한 1차원 신호의 디지털화 과정(301,302)을 살펴보기로 한다.
일상 생활에서 사용하는 전화 회선에서 전해지는 음성 신호와 같이 그 전압 진동 폭이 시간에 따라 변화하는 신호를 시계열 신호라고 한다. 특히, 신호의 특성이 1개의 전압 값으로 표현되는 경우를 1차원 시계열 신호라고 부른다
이와 같은 1차원 시계열 신호를 디지털화하는 경우, 2가지 의미에서 디지털화(이산화)가 있다. 하나는 시간적인 의미로서의 디지털화이고, 다른 하나는 진폭 값의 디지털화이다. 시간적인 의미에서의 디지털화를 샘플링이라 하고, 진폭 값의 디지털화를 양자화라 한다. 다시 말하면, 아날로그 신호의 디지털화는 신호를 일정한 시간 간격으로 표본화하고(샘플링) 각 표본 값을 일정한 길이의 비트로 나타냄으로써(양자화) 이루어진다.
음성 등은 그 전압 진동 값이 시간적으로 연속하여 변화하는 신호이다. 이와 같이, 시간적으로 연속적인 신호를 시간적으로 연속하지 않는 유한개의 값으로 표현하는 경우 샘플링 정리(Sampling theorem)에 의하면 신호가 가지고 있는 최대 주파수의 2배 이상으로 샘플링하면 전혀 정보의 손실없이 디지털화 할 수 있음이 알려져 있다.
시간적으로 연속된 원래의 신호 f(t)를 시간적으로 불연속적인 이산적 수치열 fs(n,△t)으로 나타내는 것을 샘플링(Sampling)이라고 말한다. 여기서, △t는 샘플링 시간 간격을 나타내며, n은 정수이다. fs를 샘플링된 신호(Sampled signal)라고 부른다.
어떤 범위 △안에 드는 진폭 값에 모두 qk라는 진폭 값을 할당하여 원래의 신호를 유한개의 대표 값만으로 표현하는 것을 양자화(진폭값의 디지털화)라 한다. 이를 일반적으로 양자화(quantization)라 하며, 폭 △를 양자화폭이라고 한다. 정확한 신호를 표현하기 위해서는 양자화폭 △을 가능한 한 작게 하여 많은 대표값으로 표현해야 한다. 그러나, 현실적으로 A/D 변환기의 정밀도 등을 고려해 볼 때 대표 값의 개수에는 제한이 있다. 대표 값의 개수를 비트 단위로 표현하여 진폭 값의 디지털화 정밀도를 표현한다. 예를 들어, 12비트이면 최대 진폭의 1/4096이 양자화폭 △가 된다. 최대 진폭이 ±1V인 경우에는 △값은 0.5mV이 된다. 이 값이 신호에 존재하는 잡영 진폭과 비교하여 작은 경우에는 거의 정확하게 디지털화가 되었다고 할 수 있다.
이제, 입력 영상에 대한 2차원 신호(영상)의 디지털화 과정(301,302)을 살펴보기로 한다.
영상 데이터는 2차원 공간(xy 좌표) 상에 분포하는 analog값(z 좌표)으로 표현된다. 영상을 디지털화하는 방법은, 먼저 공간 영역에 대하여 디지털화를 실시하고 다음에 명암 값의 디지털화를 실시한다. 공간 영역의 디지털화는 수평 방향의 디지털화, 명암의 디지털화는 수직 방향의 디지털화라고도 부른다.
공간 영역의 디지털화는 1차원 시계열 신호의 시간축 샘플링을 2차원상의 x축, y축의 2방향에 대해서 확장한 것이다. 이 샘플링하는 점들을 픽셀(pixel : picture element)이라 한다. 다시 말하면, 영상의 공간 영역 디지털화는 이산적인 픽셀의 명암값을 표현한 것이다. 이 공간 영역 디지털화는 영상의 해상도를 결정한다.
영상의 양자화(명암의 디지털화)란, 각 픽셀의 명암(밝기) 값을 정해진 몇 단계의 밝기로 제한하는 과정이다. 예를 들어, 각 픽셀의 밝기 값을 256단계로 제한한다면 밝기를 0에서 255까지의 숫자로 명암을 표현할 수 있다. 즉, 8비트의 이진수로 명암값을 표현할 수 있다. 인간의 눈의 명암 특성은 이상적인 경우 500단계까지 판별된다고 이야기되므로 9비트의 양자화면 충분하다. 현실적으로 널리 사용되고 있는 CRT 디스플레이에서 표현되는 명암의 단계 수는 4~8비트 정도이다. 실제로는 3~4비트인 경우에도 인쇄 영상에서는 좋은 화질을 얻을 수 있다. 그러나, 1~3비트와 같은 상당히 적은 비트 수의 양자화에서는 부자연스러운 음영이 발생하는 경우도 있다.
한편, 영상 계측, 해석 분야에서 명암의 정밀도는 계측 정밀도에 직접적인 관계가 있으므로, 이 경우는 더 섬세한 양자화가 필요하다. 예를 들어, 10비트의 양자화인 경우에도 0.1퍼센트 정도의 정밀도에 불과하다. 연산 처리 등을 하면 정밀도가 더욱 저하되므로 16~20비트 정도의 섬세한 양자화가 필요한 경우도 발생한다. 그러나, 많은 비트로 양자화되는 경우에는 항상 잡영의 존재가 문제가 되므로, 통상 S/N비를 고려하여 적당한 비트 수를 결정한다. 일반적으로, 1~10비트의 양자화를 채택하는 경우가 많다.
홍채 식별에 적합한 눈 영상이란 홍채 무늬 패턴의 특징이 선명하게 나타나고 홍채 영역이 눈 영상에 완전히 나타나는 경우의 영상을 말하며, 획득된 눈 영상의 품질에 대한 정확한 판단은 홍채인식 시스템 전체 성능에 영향을 미치는 중요한 요소가 된다. 도 4a는 홍채 식별에 적합한 눈 영상의 예로서, 홍채 패턴이 선명하고 눈꺼풀이나 눈썹 등에 의해 홍채 영역이 방해를 받지 않은, 처리에 매우 적합한 영상이다.
한편, 자동으로 획득된 모든 영상을 인식시스템에 제공할 경우, 불완전한 영상과 품질이 낮은 영상으로 인해 인식 실패의 경우들이 빈번하게 발생하게 된다. 이렇게 인식 실패되는 경우의 영상들을 분석하여 보면 네 가지 부류로 구분할 수 있다.
첫째, 도 4b의 (a)와 같이 눈의 깜빡임이 있은 경우, 둘째 사용자의 움직임으로 인해 동공 중심이 영상의 중앙에서 크게 벗어나, 홍채 영역의 일부가 사라지는 경우(도 4b의 (b)), 셋째 눈꺼풀에 의하여 생기는 그림자의 영향으로 홍채 영역이 불분명하게 나타나는 경우(도 4b의 (c)), 그외 잡영이 심하게 들어간 경우(도면에 도시되지 않음)로 대부분 인식이 실패하게 된다. 따라서, 이러한 영상들을 인식 단계 이전에 적절하게 실시간 처리를 통하여 제외시킴으로써 처리의 효율성과 인식률 향상이 가능하게 된다.
상기한 바와 같은 품질이 좋은 영상과 그렇지 못한 영상과의 판별 조건은 다음 세 가지로 규정할 수 있다(도 5 참조)(303).
① 판별조건 함수 F1 : 깜빡임 탐지
② 판별조건 함수 F2 : 동공의 위치
③ 판별조건 함수 F3 : 에지 수직성분의 분포
입력된 영상은 M x N개의 블록으로 나뉘어져 각 단계 함수에 활용되며 하기의 [표 1]은 입력 영상을 3 x 3 블록으로 분할하는 경우, 각 블록의 번호 매김의 예를 보여준다.
눈꺼풀의 영역은 일반적으로 동공과 홍채 영역보다 밝으므로 하기의 [수학식 1]을 만족할 경우는 깜빡임이 발생한 경우이므로 부적합 영상으로 판정한다(깜빡임 탐지).
눈 영상에서 동공은 화소값이 가장 낮게 나타나는 영역으로, 이 영역이 중심에 위치할수록 동공을 둘러싼 홍채영역 모두가 영상내에 포함될 확률이 높아진다(동공 위치 탐지). 따라서, 하기의 [수학식 2]와 같이 영상을 M x N개의 블록으로 나누고 각 블록의 화소평균이 가장 낮은 블록을 찾은 다음, 블록의 위치에 따라 가중치를 부여한다. 이때, 가중치는 영상의 중심에서 멀어질수록 작아진다.
홍채 영상에서 수직 에지 성분이 많이 나타나는 곳은 동공의 경계와 홍채의 경계이다(에지 성분비 조사). 영상 획득의 다음 단계인 홍채 영역 추출과정에서의 정확한 경계선 탐지가 가능한지, 그림자에 의한 홍채 패턴 화소값의 변화가 크지 않은지를 조사하기 위해서, 하기의 [수학식 3]과 같이 소벨 에지 검출기를 사용하여 탐지된 동공의 위치를 기준으로 좌, 우 영역에 대해 수직 에지 성분을 조사하고 성분 비교 과정을 거친다.
상기 [수학식 3]에서, L, R은 각각 동공 위치의 좌, 우 영역을 나타낸다.
각 판별 조건 함수값을 합산한 것이 영상의 인식과정 활용 적합도([수학식 4] 참조)를 나타내며, 일정시간 획득된 각 동영상 프레임의 순위 매김 기준이 된다(적합성 조사).
상기 [수학식 4]에서, T는 임계치로, 임계치에 따라 적합도의 강도를 조절할 수 있다.
한편, 기준점 검출부(22)에서는 가우시안 필터링(bluring, 윤곽 부드럽게하기, 잡영제거), 확실한 잡영제거(EED : Edge Enhancing Diffusion), 이미지 이진화 기능 등을 통해(304~305), 획득된 영상에서 동공내 임의의 기준점(동공의 위치)을 검출한 후 동공의 실제 중심을 검출한다. 즉, diffusion tensor를 이용한 EED(Edge Enhancing Diffusion) 방법을 통해 에지 잡영을 제거하고, 가우시안 블러링을 하여 홍채 영상을 diffusion시킨 후, 확대 최대 계수법으로 동공의 실제 중심을 검출한다. 이때, diffusion은 이진화 과정에서 적은 양의 bits/pixel로 표현하기 위해서 사용한다. 또한, EED 방법은 에지를 줄이기 위한 방법이다. 또한, 가우시안 블러링(필터링)은 저주파 통과 필터링으로, 영상의 세세한 부분을 제거하게 된다. 이렇게 diffusion시킬 때 이진화 과정의 임계값을 변경해서 실제 동공의 크기를 찾아내고 중심을 찾아내게 된다. 이를 구체적으로 살펴보면 다음과 같다.
첫 번째 전처리 과정으로, 가우시안(gaussian) 필터를 이용하여 홍채 영상의 미세한 모양의 변화에 대한 윤곽을 부드럽게 하고, 홍채 영상내의 잡영을 제거한다(304). 그러나, 너무 큰 gaussian 값을 사용해서는 안된다. 만일, 너무 큰 gaussian 값을 사용하게 되면, 저 해상도에서 dislocation의 문제점이 발생하기 때문이다. 만약, 잡영이 거의 없다면 gaussian의 편차 값을 작게 주던지 혹은 하지 않아도 무방하다.
한편, EED(Edge Enhancing Diffusion) 방법은 국부 에지에서의 방향성을 고려하여, 에지의 방향과 같은 부분은 diffusion을 많이 해주고, 에지의 방향과 수직인 부분은 diffusion을 조금 해준다(305). NADF(Nonlinear Anisotropic Diffusion Filterling)는 Diffusion Filtering의 한 방법이며, EED는 NADF의 대표적인 방법이다.
EED는 원 홍채 영상에서 Gaussian Filtering을 한 홍채 영상을 가지고 diffusion하고, diffusion tensor matrix를 사용하여 홍채 영상의 대비 뿐만 아니라 에지의 방향까지 고려한다.
EED 방법을 구현하기 위해서, 첫 번째 단계로 기존의 scalar diffusivity 대신 diffusion tensor를 사용한다.
Diffusion tensor는 eigenvectors v1, v2를 통하여 구할 수 있다. 이때, v1은 하기의 [수학식 5]와 같이 ∇u와 평행하게 만들고, v2는 하기의 [수학식 6]과 같이 ∇u와 수직이 되게 구성을 한다.
따라서, 에지를 가로지르는 부분에서 smoothing하는 것보다 오히려 에지와 평행한 부분에서 smoothing하기 위해 Eigenvalues λ1과 λ2를 선택한다. Eigenvalues는 하기의 [수학식 7] 및 [수학식 8]에 나타나 있다.
위의 방법에 따라서 diffusion tensor matrix D를 하기의 [수학식 9]와 같이 구할 수 있다.
위 diffusion tensor matrix를 실제 프로그램에서 구현하기 위해서는 v1과 v2의 의미를 정확하게 알아야 한다. 만일, 원래 홍채영상을 Gaussian Filtering한 벡터를 (gx,gy)로 표현하면, 상기 [수학식 5]에서 v1은 원래 홍채영상을 Gaussian Filtering한 것과 평행이 되게 만드는 벡터이므로 v1은 (gx,gy)로 표현할 수 있으며, 상기 [수학식 6]에서 v2는 수직이 되어야 하기 때문에 (gx,gy) 벡터와 v2의 벡터의 내적이 0이 되게 하면 된다. 따라서, v2는 (-gx,gy)로 나타낼 수 있다. , 는 V1과 V2의 transpose matrix이므로 하기의 [수학식 10]과 같이 diffusion tensor D를 다시 쓸 수 있다.
상기 [수학식 10]에서, d는 하기의 [수학식 14]의 diffusivity를 통하여 구할 수 있다. EED 방법과 Perona-Malik Model의 차이점은 크게 2가지가 있다. 첫 번째로는, Perona-Malik Model은 원 홍채영상을 가지고서 diffusion을 한 반면에, EED 방법은 원 홍채영상에서 Gaussian Filtering을 한 홍채영상을 가지고 diffusion을 한다. 두 번째로는, Perona-Malik Model은 scalar - valued diffusivity를 사용하지만, EED는 diffusion tensor matrix를 사용하여 홍채영상의 대비 뿐만 아니라 에지의 방향까지 고려한다.
EED 방법을 구현하기 위한 두 번째 단계로, 상수 K의 값을 설정한다. 여기서, K는 gradient의 절대값의 히스토그램에서 어디까지 누적할 것인가를 나타낸다. 만일, K를 90% 이상되는 매우 높은 값을 사용한다면 홍채영상의 세부구조가 매우 빨리 제거되는 문제점이 발생하게 된다. 만일, 100%라면 홍채영상 전체가 blurring이 되어 dislocation 문제가 발생이 된다. 만일, K의 값이 너무 작으면, 많은 time iteration 후에도 세부 구조들이 계속해서 잔재하게 될 것이다.
EED 방법을 구현하기 위한 세 번째 단계로, EED 방법을 구현하기 위해서는 diffusivity를 계산한다. 이 diffusivity를 계산하기 위해 먼저 원 홍채영상에 Gaussian을 사용하여 gradient를 구한다. 그리고, 구해진 gradient를 통하여 gradient의 크기를 구한다. 에지는 명암도가 급격히 변하는 부분이기 때문에 함수의 변화분(기울기)을 취하는 미분 연산이 윤곽선 추출에 사용될 수 있다. 홍채영상 f(x,y)의 위치 (x,y)점에서의 기울기는 하기의 [수학식 11]과 같은 벡터이다. 위치 (x,y)점에서의 기울기 벡터는 f의 최대 변화율 방향을 가리킨다.
기울기(벡터의 크기) ∇f는 하기의 [수학식 12]와 같다.
이 값은 ∇f의 방향으로 단위 길이당 f(x,y)의 최대 증가율과 같다. 실제에서는 기울기를 절대 값들로 표시된 하기의 [수학식 13]과 같이 근사화하여 많이 사용한다. 이 수식은 계산하기가 훨씬 쉽고, 특히 제한된 하드웨어로 구현하기도 용이하다.
상기 두 번째 단계에서 구했던 K와 gradient의 크기를 이용하여 하기의 [수학식 14]에 설명된 diffusivity를 계산한다.
EED 방법을 구현하기 위한 네 번째 단계로, EED 방법을 구현하기 위해서는 상기 [수학식 10]에서 설명했던 diffusion tensor matrix를 구하고, 하기의 [수학식 15]의 diffusion equation을 계산한다. 먼저, 원 홍채영상의 gradient를 구하고, 다음으로 원홍채영상에 Gaussian을 사용한 홍채영상의 gradient를 구한다. Gaussian을 사용한 gradient의 값이 1이 넘지 않도록 반드시 normalize를 하여야 한다.
Diffusion tensor matrix를 사용하였기 때문에 홍채영상의 대비 뿐만 아니라 에지의 방향까지 고려하여 diffusion을 하게 된다. 에지와 평행한 부분에서는 smoothing을 더욱더 많이 하고 에지를 가로지르는 영역에서는 smoothing을 조금하게 된다. 이렇게 되면, 에지에서 잡영이 많은 경우에 잡영이 섞인 에지를 추출했던 문제를 다소 해결할 수 있다.
상기 두 번째 단계부터 네 번째 단계까지를 최대 time iteration에 도달하기 전까지 반복 처리한다. 위에서 설명하였던 4가지의 단계를 이용하면 원 홍채영상에 잡영이 많은 경우의 문제점, 고정된 K값으로 인하여 scale에 따라 결과를 얻지 못했던 문제점, 에지 부분에서 잡영이 많아서 정확한 에지의 위치에서 에지를 추출하지 못했던 문제점들을 많은 부분 해결할 수 있다.
상기의 [수학식 5]~[수학식 15]에서, ∇u의 의미는 영상의 각 부분 diffusion이다. 영상의 에지 부분에 대해 eigenvector를 통해서 diffusion tensor matrix를 만들고 그것을 divergence시키면 선적분의 형태를 띠게 되어 영상의 윤곽선만 남게 된다.
다른 한편, 홍채 영상의 모양에 대한 영역을 얻기 위해 이진영상으로 변환한다(이미지 이진화)(306). 이진 홍채영상 데이터는 그레이의 홍채영상을 경계값(threshold)을 이용하여 흑과 백의 두 가지 색으로 데이터를 취급하는 데이터라고 할 수 있다.
이진화를 이용한 홍채영상 분할은 대상이 되는 홍채영상의 명도값이나 색도값 등을 임계값 처리하여 수행된다. 예를 들면, 홍채영상의 경우 홍채의 부분(대상물)은 망막의 부분보다 검다.
이미지 이진화시 임계값을 구하기 위해 반복 임계값 결정 방법(Iterative Thresholding)을 사용한다.
상기 반복 임계값 결정 방법은 대략적인 임계값에서 출발하여 점차 반복적으로 이 추정값을 향상시키는 것이다. 여기에는 처음의 임계값을 사용하여 만들어진 이진 홍채 영상이 더 나은 임계값을 선택하는데 쓰인다는 것이 가정되어 있다. 임계값의 변경 절차는 이 기법에서 아주 중요하다.
상기 반복 임계값 결정 방법을 살펴보면, 첫 번째 단계로 임계값의 처음 추정치 T를 정한다. 홍채영상의 평균 밝기는 좋은 출발점이 될 수 있다.
두 번째 단계로, 추정 임계값 T를 이용하여 홍채영상을 2개의 영역 R1과 R2으로 구분한다.
세 번째 단계로, 영역 R1과 R2의 평균 그레이 값 를 구한다.
네 번째 단계로, 새로운 임계값을 하기의 [수학식 16]을 이용하여 결정한다.
다섯 번째 단계로, 평균 그레이 값 이 더 이상 변하지 않을 때까지 상기 두 번째 단계에서 상기 네 번째 단계 까지를 반복 수행한다.
전체 이미지 이진화후에는 데이터가 남는다. 이 데이터를 가지고 내부경계를 검출하고, 외부경계를 검출한다.
이제, 내부경계와 외부경계 탐색 과정(동공 검출 과정, 즉, 경계의 중심좌표 및 반지름 결정 과정이 됨)(307~309)을 살펴보기로 한다.
내부경계 검출부(23)는 동공과 홍채가 접하는 내부경계를 검출한다(307,308). 이를 위해, 로빈슨 콤파스 마스크(Robinson compass Mask)를 이용하여 이진화된 영상을 홍채와 배경(동공)으로 분리하고, DoG(Difference of Gaussian)을 이용하여 윤곽의 강도를 검출하며(윤곽의 강도만 드러나도록), 위 영상의 윤곽선을 Zhang Suen 알고리즘을 이용하여 세션화한 후, 구간이등분선교차 알고리즘으로 중심좌표를 구하고, 확대 최대 계수법을 이용해 반지름을 구한다. 이렇게 구한 중심좌표에서 반시계 방향으로 동공의 반지름까지의 거리를 구한다.
여기서, 로빈슨 콤파스 마스크(Robinson compass Mask)는 윤곽선을 검출하기 위해서 사용한다. 이는 1차 미분이기도 하고 , 대각선 방향 윤곽에 민감한 sobel edge를 좌측으로 회전시켜 8방향의 edge mask를 만드는 3*3 행렬의 형태이다.
또한, DoG(Difference of Gaussian)(2차 미분)는 검출된 윤곽선을 추출하기 위한 것으로, Gaussian smoothing 함수를 바탕으로 image내에 있는 noise를 감소시키며, 다른 값을 갖는 두 개의 Gaussian mask(LoG)를 감산함으로써 마스크의 크기로 인한 많은 계산량을 줄이며, 이는 고주파 통과 필터링 작업(샤프닝이라고도 표현함)이다. 이때, 고주파라 함은, 주위 영상과 밝기 차가 크다는 것을 의미한다. 이 작업을 통해 윤곽을 추출한다.
또한, 세션화는 윤곽선을 한 픽셀의 선으로 만드는 작업이고, 구간이등분선교차 알고리즘으로 중심좌표를 구하고, 확대 최대 계수법을 이용해 반지름을 구한다. 여기서, 원의 형태로 만들고 구간이등분선교차 알고리즘으로 나온 중심값들을 넣어 보아 동공의 형태와 가까운 것을 선택하게 된다.
외부경계 검출부(24)는 홍채와 공막이 접하는 외부경계를 검출한다(307,309). 이를 위해, 구간이등분선교차 알고리즘으로 중심좌표를 구하고, 확대 최대 계수법을 이용해 동공의 반지름 까지의 거리를 구한다. 이때, 영상좌표 변환부(25)에서 직교좌표의 영상을 극좌표로 변환시킬 때 이미지가 깨지는 것을 방지하기 위해 선형보간법을 사용한다.
내부경계 및 외부경계 검출(308,309)을 위해서는, 영상의 에지 추출(경계요소 추출 및 그룹화(세션화, 라벨링))(307)이 필요하다. 영상의 에지 추출이라 함은, 로빈슨 콤파스 마스크(Robinson compass Mask)를 이용하여 이진화된 영상을 홍채와 배경(동공)으로 분리하고, DoG(Difference of Gaussian)를 이용하여 윤곽의 강도만 드러나도록 하여, 위 영상의 윤곽선을 Zhang Suen 알고리즘을 이용하여 세션화하는 과정을 말한다.
에지 추출(Edge Detection) 기법이란, 이미지 분석에서 가장 흔하게 사용되는 연산 중 하나이고 홍채에 대하여 에지를 강화 및 추출하는 알고리즘이다. 에지라는 것은 홍채와 배경의 경계이고, 홍채가 오버랩되는 경계이기도 하다. 화상에서 색이나 농도의 급격한 변화가 있는 부분을 에지(edge)라고 한다. 기술적으로는 Edge Detection이란 Edge Pixels을 찾는 과정이며, Edge Enhancement는 에지가 더 잘 보이도록 하기 위하여 에지와 배경과의 대비를 증가시켜 주는 것이다. Edge Tracing은 에지를 따라가는 과정이다. 또한, Segmentation 과정 중의 하나이다(이미지 영역의 식별에 이용).
에지 추출 과정(307)을 살펴보면, 에지란 농도값이 급격하게 변화하는 부분을 말하므로, 함수의 변화량을 조사하는 미분 연산을 윤곽 추출에 이용한다. 미분에는 1차미분(gradient)과 2차미분(laplacian)이 있다. 또, template-matching에 의한 에지 추출 방법도 있다.
상기 1차미분(gradient)은 홍채의 밝기 변화량을 관찰하는 것으로, 하기의 [수학식 17]과 같이 크기와 방향을 가진 벡터량 G(x,y) = (fx, fy)로 표현된다.
여기서, fx는 x방향의 미분, fy는 y방향의 미분을 의미한다.
디지털 화상에서는 데이터가 일정간격으로 흩어져 나열되어 있으므로 사실적인 의미의 미분 연산은 할 수 없게 된다. 이 때문에 1차 미분식과 2차 미분식 같이 인접 화소 끼리의 차를 취하는 연산으로 미분을 근사한다. 이것을 '차분'이라 한다.
이를 이미지에 적용하기 쉽게 만들어 놓은 것이 Mask 혹은 Operator라고 하는 행렬이다. 각각의 행렬들은 같은 1차미분 연산자 일지라도 에지를 추출하는 정도나 방향 등의 특징을 갖는다. 로빈슨 콤파스 마스크(Robinson compass Mask) 1차 미분 연산자 3x3은 다음과 같다. 이것은 sobel mask를 좌측으로 회전시켜 8방향의 edge mask을 만드는 것으로, 크기와 방향은 최대 edge 값을 갖는 mask의 방향 및 크기로 결정된다.
-1 0 1 -2 0 2 -1 0 1
획득된 영상 영상을 전처리하기 위해서 먼저 영상의 윤곽을 추출해야 한다. 윤곽추출 방법으로는 기울기(gradient)법인 로빈슨 콤파스 마스크(Robinson compass Mask)를 이용해서 배경과 홍채를 분리한다. 영상 f(x,y)의 위치 (x,y)점에서의 기울기는 하기의 [수학식 18]과 같은 벡터로 나타낸다. 위치 (x,y)점에서의 기울기 벡터의 크기(∇f)는 하기의 [수학식 19]와 같다. 그리고, 로빈슨 콤파스 마스크(Robinson compass Mask)에 기반한 미분은 하기의 8방향 마스크 가운데 최대 edge 값을 갖는 마스크로부터 [수학식 20]을 이용하여 주어진다. 여기서, z들은 영상의 임의의 위치에서 마스크에 의해 겹쳐진 화소의 명암도들이다. 에지 방향이란, 에지가 놓여진 방향을 말하는 것인데, 이는 1차 미분 결과로부터 유도될 수 있다. 1차 미분의 결과인 gradient direction에 수직(90)인 방향으로 존재한다고 본다. 즉, gradient direction은 값의 차가 크게 변화하는 방향을 나타내는 것이고, 값이 그렇게 변화하기 위해서는 그 부분에 에지가 있어야 한다. 따라서, 에지는 gradient direction에 수직으로 존재한다. 도 6의 (b)는 (a)의 영상의 윤곽을 추출한 영상이다.
상기 [수학식 20]에서, 아래첨자는 픽셀 부분을 의미한다.
한편, 상기 2차 미분은 주위 밝기와의 차를 관찰하는 것으로, 2차 미분은 1차 미분을 다시 미분하여, 윤곽의 강도만을 검출하는데 사용한다. 즉, 에지의 크기(magnitude)만을 구하고 방향은 구하지 않는다. 2차 미분 연산자는 결과값이 (+)에서 (-)로, (-)에서 (+)로 값이 변화하는 영교차점(zero-crossing)을 찾는 것이 목적이다. 2차미분은 Gaussian smoothing 함수를 바탕으로 image내에 있는 noise를 감소시키며, 다른 값을 갖는 두 개의 Gaussian mask를 감산함으로써 마스크의 크기로 인한 많은 계산량을 줄이는 DoG(Difference of Gaussian) 연산자 마스크를 사용하였다. DoG는 LoG를 근사화하는 것이기 때문에 LoG와 유사한 결과를 나타내기 위한 LoG의 좋은 근사치는 비율()이 1.6일 때이다.
2차원 함수 f(x,y)의 LoG와 DoG는 하기의 [수학식 21] 및 [수학식 22]와 같이 정의된다.
라플라시안 연산자에 의한 에지 검출은 하기의 [수학식 23]과 같은 8방향 라플라시안 마스크를 사용하고, 중심을 중심으로 8방향 값을 사용하여 현재 픽셀값을 결정한다
라플라시안 2차 미분 연산자 3x3은 다음과 같다.
이제, 세션화 과정에 대해 살펴보기로 한다.
세션화는 대상 홍채의 표면을 조금씩 벗겨내어 최종적으로 두께 1을 가지도록 하는 것이다.
세션화는 순차적 처리(sequencial processing) 방법과 병렬적 처리(parallel processing) 방법으로 구분할 수 있다.
순차적 처리 방법은 현재의 처리 결과가 과거의 처리값에 영향을 받음은 물론 미래의 처리 결과에도 영향을 미치는 것으로, 이 방법에서는 대상 화상만 있으면 처리가 가능하다.
병렬적 처리 방법은 현재의 처리 결과가 과거나 미래의 처리 결과에 전혀 영향을 받거나 미치지 않는 것으로서, 추가적으로 대상 화상 크기 만큼의 버퍼가 필요하며, 현재의 관심 화소에 대한 처리 결과를 버퍼에 저장하는 식으로 전체 화상에 대한 한 차례의 처리가 모두 끝난 다음에 버퍼에 저장되어 있는 처리 결과를 원래의 대상 화상위에 덮어 쓰게 된다.
Zhang Suen 세션화 알고리즘은 병렬적 처리 방법의 하나로서, 기본적인 알고리즘은 다음과 같다.
[1루프] 처리대상인 검은 픽셀 I(i,j)에 대해서 다음과 같은 조건을 만족하면 지운다.
① 픽셀 I(i,j)에 대해서 그 주위의 픽셀들의 connectivity가 1이고,
② 픽셀 I(i,j)에 대해서 그 주위의 픽셀들 중 검은 픽셀이 적어도 2개에서 6개 사이에 있어야 하며,
③ 적어도 픽셀 I(i,j+1), I(i-1,j), I(i,j-1)중의 하나는 배경 픽셀 즉 255이어야 하며,
④ 적어도 픽셀 I(i-1,j), I(i+1,j), I(i,j-1)중의 하나는 배경 픽셀 즉 255이어야 한다.
⑤ 조건에 맞으면 픽셀을 제거한다.
[2루프] 처리대상인 검은 픽셀 I(i,j)에 대해서 다음과 같은 조건을 만족하면 지운다.
① 픽셀 I(i,j)에 대해서 그 주위의 픽셀들의 connectivity가 1이고,
② 픽셀 I(i,j)에 대해서 그 주위의 픽셀들 중 검은 픽셀이 적어도 2개에서 6개 사이에 있어야 하며,
③ 적어도 픽셀 I(i-1,j), I(i,j+1), I(i+1,j)중의 하나는 배경 픽셀 즉 255이어야 하며,
④ 적어도 픽셀 I(i,j+1), I(i+1,j), I(i,j-1)중의 하나는 배경 픽셀 즉 255이어야 한다.
⑤ 조건에 맞으면 픽셀을 제거한다.
위의 두 subiteration을 계속하여 더이상 지울 픽셀이 남아 있지 않을 때까지 계속 적용시킨다.
Zhang Suen 알고리즘은 세션화 과정으로, 여기서 지운다는 표현은 그 부분의 픽셀을 세션화를 위해 지운다는 의미이다. 즉, 검정색을 흰색으로 변경시킨다.
연결수는 주위 픽셀이 연결되어 있는가를 알 수 있는 숫자이다. 즉, 1이면 중심픽셀(0번)을 지울 수 있다는 것이다. 검정->흰색 또는 흰색->검정으로 전환되는가를 감시하면 된다. 도 7은 모든 픽셀을 검정에서 흰색으로 변하는가를 검사한 것이다. 주위 픽셀의 수에 관계없이 1이 되어야 한다.
한편, 라벨링이란, 서로 떨어진 홍채를 구별하는 것을 의미한다.
이해를 돕기 위하여 라벨링 과정에 대해 살펴보면, 물체들의 크기나 위치, 방향 등의 특징들을 가지고도 물체를 인식할 수 있다. 이러한 물체 인식을 위하여 [mXn] 크기의 2진화상 B[i,j]가 주어진다. 물체의 위치나 방향 외에 각각의 물체를 구분하기 위하여, 화소들이 서로 연결되어 있는가 또는 떨어져 있는가를 알아야 한다. 한 화소가 다른 화소들에 연결되어 있는지의 여부를 알기 위하여, 4-이웃화소(neighbor)와 8-이웃화소를 정의한다. [i, j] 위치에 있는 화소의 4-이웃화소는[i+1,j], [i-1,j], [i,j+1], [i,j-1]에 있는 화소들로 구성되며, 8-이웃화소는 4-이웃화소 및 [i+1,j+1], [i+1,j-1], [i-1,j+1], [i-1,j-1]에 있는 화소들로 구성된다. 이 [i,j] 위치에 있는 화소의 4-이웃화소를 4-연결도(connectivity)의 이웃화소들이라 하고, 8-이웃화소를 8-연결도의 이웃화소들이라고 한다. 화상 배열에서 서로 이웃하여 있는 화소들의 집합을 연결성분(connected component)이라고 부른다. 컴퓨터 비전에서 가장 흔한 연산 중의 하나는 주어진 화상에서 이러한 연결 성분들을 찾는 것이다. 연결성분들에 속한 화소들은 어떤 한 물체를 나타낼 가능성이 크기 때문이다. 한 연결성분에 같은 라벨(번호; 정수값)을 붙이고, 다른 연결성분에는 다른 번호를 붙이는 처리를 라벨링이라고 한다. 화상에 있는 모든 연결성분들을 찾고, 같은 연결성분에 존재하는 모든 화소들에 하나의 고유한 라벨을 붙여주는 알고리즘을 성분 라벨링 알고리즘(component labeling algorithm)이라고 하며, 회귀(recursive)와 순차(sequential) 알고리즘이 있다. 상기 회귀 알고리즘은 직렬 컴퓨팅에서는 그 계산 시간이 오래 걸리므로, 병렬 컴퓨터에서 많이 사용된다. 상기 순차 알고리즘은 회귀 알고리즘에 비해 계산시간이 짧고 메모리가 적게 들며, 주어진 화상에 대해 2번의 전체 조사(scanning)만으로 계산이 끝난다.
동치 테이블을 이용하여 단 두 번의 루프로 라벨링을 끝낼 수 있다. 단점은 라벨링 번호 자체가 연속적이지 않다는 것이다. 한번 모든 홍채를 검색하여 라벨을 부친다. 라벨을 하다가 다른 라벨을 만나게 되면 동치테이블에 입력한다. 다시 루프를 돌려서 동치테이블의 라벨중 최소치로 다시 라벨한다.
이를 구체적으로 살펴보면, 도 8에 도시된 바와 같이 우선 경계선의 검은 픽셀을 찾는다. 경계점은 중심 픽셀을 기준으로 할 때 주위의 픽셀 중 1-7개의 흰색 픽셀이 있어야만 한다. 고립점도 제외시킨다. 고립점은 주위의 모든 픽셀이 검정색이다. 그 후 라벨링을 한다. 가로방향으로 라벨을 한 다음, 다시 세로로 라벨을 한다. 이렇게 두 방향으로 라벨을 하면 U자형 곡선도 한번에 라벨할 수 있고 시간도 절약할 수 있는 장점을 갖게 된다.
그럼, 내부경계 검출부(23) 및 외부경계 검출부(24)에서 동공 검출을 위한 경계의 중심좌표 및 반지름 결정 과정(동공 검출 과정)을 살펴보기로 한다.
전술한 바와 같이, 동공 검출 과정은 안구영상으로부터 조명(바람직하게는 적외선 조명)으로 인한 광원을 동공내 두 개의 기준점으로 검출한 후(s1), 동공 경계 후보 지점을 결정하여(s2), 중심 후보점을 이용하여 경계 후보지에 가장 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 실시간으로 검출한다(s3).
먼저, 안구영상으로부터 적외선조명으로 인한 광원을 동공내 두개의 기준점으로 검출하는 과정(s1)을 살펴보기로 한다.
동공영역의 위치를 찾기 위한 방법으로, 본 발명에서는 우선 안구영상에 맺힌 조명 성분들의 기하학적인 편차를 구하고, 그들의 평균값을 계산하여 하기의 [수학식 24]와 같은 가우시안(Gaussian) 파형으로 모델링하여 템플릿(template)으로 사용한다.
상기 [수학식 24]에서, x는 템플릿의 가로위치, y는 템플릿의 세로위치, 그리고 σ는 필터의 크기이다.
모델링된 템플릿으로 안구영상의 동공안에 기준점이 선정되도록 템플릿 매칭(template matching)을 수행하여 두 개의 기준점을 검출한다.
안구영상에 있어서 동공 내부의 조명은 유일하게 급격한 그레이-레벨(gray-level)의 변화가 발생하는 부분이므로 안정적인 기준점 추출이 가능이 가능하다.
이제, 동공 경계 후보 지점을 결정하는 과정(s2)을 살펴보기로 한다.
1단계로 상기 두 개의 기준점을 중심으로 하여 +, - X방향 축으로의 선방 파형의 화소값의 변화를 표시하는 프로파일(Profile)을 추출하고, 두 개의 기준점을 지나는 X방향으로 1차원 신호의 2개의 경계후보를 검출하기 위해, 그라디안트(Gradient)에 해당하는 경계 후보 마스크 h(1),h(2)를 생성하고, 프로파일과 경계후보 마스크의 컨볼루션(convolution)을 이용하여, 경계후보 파형(X(n))을 생성하여 경계후보지점을 결정한다.
2단계로는 교차하는 두 개의 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선상에서 1단계와 동일한 방법으로 또 다른 동공 경계 후보지점을 결정한다.
한편, 중심 후보점을 이용하여 경계 후보지에 가장 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하는 과정(s3)을 살펴보면 다음과 같다.
전단계에서 결정한 후보지점 들로부터 서로 가장 가깝게 이웃하는 후보지점 사이를 지나는 직선들의 이등분 중심점을 기준으로 한 수직선들이 교차하는 중심 후보점을 이용하여 경계 후보지에 가장 가까운 원의 반지름과 중심의 좌표를 구하는 방법으로, 이 방법은 원 성분 형상을 찾기 위한 Hough Transform을 응용한 것이다.
원 상의 임의의 두 점 A, B를 생각할 때 이 두 점을 이은 직선(직선 AB)의 이등분 점을 C라고 하자. 이 점 C를 지나고 직선 AB에 수직한 직선은 항상 원의 중심(점 O)을 지나게 된다. 이 직선 OC의 방정식은 하기의 [수학식 25]와 같이 표현될 수 있다.
원을 이루는 연결 요소들의 그룹의 특성과 위치를 알기 위해서 그 그룹의 속성으로서 중심 좌표를 사용하게 되는데, 눈 영상의 홍채 내부 경계는 이심 정도가 크며 잡영에 의해서 경계부가 방해를 받으므로 기존의 원형 프로젝션을 구하는 방법으로는 부정확한 동공의 중심을 초래하는 문제가 있으나, 이 방법은 거리가 고정된 두 개의 광원 이용하므로 이등분 수직선상의 중심 후보 계수 분포가 원의 중심을 결정하기에 충분한 자격을 갖추고 있음을 알 수 있다. 따라서, 이러한 중심 후보 중에서 가장 많이 수직선이 일치하는 점을 원의 중심으로 결정한다(도 9 참조).
이러한 방법으로 원의 중심을 추출한 후, 다음으로는 반지름을 결정한다. 기존의 반지름의 결정 방법 가운데 평균법이 있는데, 이는 결정된 중심에서 원을 구성하는 그룹 요소들의 모든 거리들의 평균을 구하는 것이다. Daugman의 방법이나 Groen의 방법이 이것과 비슷한 종류라고 볼 수 있는데, 이것은 영상에 반사광 등의 잡영이 많이 분포해 있을 경우 그런 잡영에 의해서 원둘레 성분을 왜곡해서 인식하게 되며 이런 왜곡이 반지름에 영향을 주게 된다.
이에 비해, 확대 최대 계수법은 작은 범위에서 큰 범위로 점진적으로 확대시켜나가는 것으로서, 첫 단계로서 중심과 해당 수직선의 경계후보 지점 사이의 픽셀 간 거리 중 값이 더 큰 것을 채택하고, 다음 단계로서 여기서 채택된 거리범위 이상의 경계후보지점에서 위와 동일한 방법을 적용해서 범위를 좁힌다. 이렇게 함으로써, 최종적으로 한 정수 값을 찾아 이 원을 대표할 수 있는 반지름을 얻게 되는데, 이 방법은 그 주변 환경으로 인해 홍채근육의 수축 및 확장 그리고 좌우회전으로 인해 동공이 방사방향으로 변형되는 분포까지 고려할 수 있어 안정되고 동일한 홍채대역의 내부경계선을 추출할 수 있게 하는 장점을 갖는다(도 10 참조).
상기 [수학식 26]의 방정식을 이용하여 일단 반지름과 x좌표의 점들을 이용해 y의 좌표를 구한 후, 이미지 상에 검정 픽셀이 존재하면 중심 위치를 누적시킨후 누적된 최대 위치를 검색 중심, 반지름 값으로 원을 찾아낸다(확대 최대 계수법).
구간이등분선교차 알고리즘을 이용하여 동공의 중심좌표를 구한 후, 동공은 종류마다 흘러내리는 정도가 달라 곡률도 달라지게 되므로 동공의 곡률을 측정하기 위해서 위와 같이 확대 최대 계수법을 이용하여 반지름을 구하고, 중심점에서 반시계 방향으로 외곽선(동공의 반지름)까지의 거리를 구한다. 그리고, x축을 회전각으로 하고 y축은 중심에서 외곽선(동공의 반지름)까지의 거리로 해서 그래프로 나타낸다(경계검출). 그리고, 영상의 특성을 알아보기 위해서 그래프로부터 곡률의 최대점과 최소점을 찾고 곡률간의 최대길이와 평균길이를 계산한다.
도 11은 영상을 영상 캡쳐했을 때 원형인 경우와 곡률이 있는 경우를 그래프로 나타낸 것이다. 영상이 원형인 경우 도 11에 도시된 바와 같이 중심에서 외곽선까지의 거리가 같으므로 y값이 일정한 일직선 그래프가 그려지고 곡률이 생기지 않으므로 곡률의 최대점과 최소점은 r이 된다. 이러한 경우 드레이프성이 약하다고 한다. 그리고, 영상이 흘러내려 있으면 중심에서 외곽선까지의 거리가 변하게 되므로 y값이 변하여 곡률이 있는 그래프가 그려지게 된다. 도 11의 영상이 별 모양인 경우, 곡률이 4개이며 최대점은 r이고 최소점은 a가 된다.
원형도는 영상이 원에 근접한 정도를 나타내는 수치로 원형도가 '1'에 가까우면 드레이프성이 약하고 '0'에 가까워질수록 드레이프성이 크다. 원형도를 계산하기 위해서는 영상의 둘레의 길이와 면적을 알아야 한다. 영상의 둘레길이는 영상외곽주변 각 화소들에 대한 화소간 거리의 합이다. 외곽 경계선 화소가 수직 또는 수평으로 서로 맞닿아 있는 경우, 화소간 거리는 1단위이며, 화소가 대각 방향으로 연결되어 있는 경우 화소간 거리는 1.414단위이다. 그리고, 영상의 면적은 영상의 외곽선 내부의 화소들의 총 개수로서 측정한다. 하기의 [수학식 27]은 영상의 원형도를 구하는 공식이다.
이와 같이 영상의 에지 추출 과정(307)을 통해 내부경계선을 확정하고, 구간이등분선교차 알고리즘을 통해서는 동공의 실제 중심점을 구한 후 확대 최대 계수법을 통해서 동공을 완전한 원형으로 간주했을 때의 반지름(r)을 구하고, 실제 중심점에서 내부경계선 까지의 거리를 반시계 방향으로 측정하며 도 11과 같은 데이터를 생성한다(내부경계 검출부(23) 및 외부경계 검출부(24)에서 수행함).
상기의 과정에서, 이미지 이진화 과정(306)부터 내부경계 검출 과정(308)까지의 상기의 과정을 순차적으로 정리해 보면, "(EED) → 동공내부/외부간 이진화 → 영상 에지 추출 → 구간이등분선교차 알고리즘 → 확대 최대 계수법 → 내부경계 데이터 생성 → (영상좌표 변환)" 과정을 수행한다.
한편, 외부경계 검출 과정(309)은 내부경계 검출 필터링(Robinson compass mask, DoG, Zhang Suen)과 동일한 방법으로 동공과 홍채의 경계를 찾는다. 이때, 픽셀값의 차이가 최대가 되는 지점을 외부경계로 한다. 이때, 선형보간법을 사용하는데, 이는 이동, 회전, 확대, 축소시 이미지가 깨지는 것을 방지하기 위해 사용하고, 세션화후 외부경계를 하나의 원형으로 만들기 위해 사용한다.
외부경계 검출 과정(309)에서도 정확한 중심과 반지름을 얻기 위해서 구간이등분선교차 알고리즘, 확대 최대 계수법 알고리즘을 사용한다. 외부경계는 명암의 차이가 내부경계보다 명확하지 않기 때문에 선형보간법을 사용한다.
외부경계 검출 과정(309)을 상세히 살펴보면 다음과 같다.
홍채경계는 두껍고 블러되어 있기 때문에 경계지점을 정확히 찾아내기가 힘들다. 경계검출기는 원주의 최대 밝기변화 지점을 홍채경계로써 정의한다. 홍채의 중심은 동공의 중심을 기준으로 탐색할 수 있으며, 홍채반지름은 고정 초점 카메라에서의 홍채반지름이 거의 일정하다는 것에 기반하여 탐색할 수 있다.
영상에 대하여 내부경계 검출 필터링과 동일한 방법으로 동공과 홍채영역의 경계를 찾은 후 검출된 내부경계로부터 전후 양방향으로 진행하며, 픽셀값의 차이를 확인하여 그 차이가 최대가 되는 지점을 찾아 외부경계를 검출한다.
이때, 전술한 바와 같이 선형보간법을 이용한 변환(이동, 회전, 확대, 축소)이 사용된다(도 12 참조).
도 12에 도시된 바와 같이, 이미지를 확대, 축소 등 여러 가지로 변환하게 되면 픽셀의 좌표가 1대1로 대응되지 않기 때문에 역변환을 통하여 이를 보완한다. 이때, 변환된 이미지 중 대응되지 않는 점들은 원 이미지의 픽셀을 참고하여 나타낸다.
선형보간법은 도 13에 도시된 바와 같이 x, y 좌표의 가까운 정도에 따라서 4개의 픽셀을 참고하여 픽셀을 결정한다. p, q를 이용하여 p(q*수식+(1-q)*수식)+q(p*수식+(1-p)*수식)로 처리한다. 선형보간법을 이용하면 이미지의 깨짐을 많이 방지할 수 있다.
변환은 보통 3가지(이동, 축소 확대, 회전 변환)로 나누게 된다.
이동은 비교적 쉬운 변환에 속한다. 하기의 [수학식 28]과 같이 정방향 이동은 상수를 빼면 되고 역방향 이동은 상수를 더하면 된다.
하기의 [수학식 29]에서와 같이, 확대의 경우, 임의의 상수로 나누어 준다. 이는 결과적으로 x, y가 확대되는 결과를 가져온다. 또한, 축소의 경우는 상수를 곱해준다.
회전의 경우에는 하기의 [수학식 30]과 같이 sin과 cos 함수를 가진 회전 변환을 이용한다.
이를 다시 수식으로 전개하면, 하기의 [수학식 31]과 같이 역변환하는 수식이 나오게 된다.
상기의 과정에서, 이미지 이진화 과정(306)부터 외부경계 검출 과정(309)까지의 상기의 과정을 순차적으로 정리해 보면, "(EED) → 홍채내부/외부간 이진화 → 영상 에지 추출 → 구간이등분선교차 알고리즘 → 확대 최대 계수법 → 홍채 중심점 탐색 → 홍채 반지름 탐색 → 외부경계 데이터 생성 → (영상좌표 변환)" 과정을 수행한다.
이제, 영상좌표 변환부(25)에서 직교좌표계를 극좌표계로 변환하는 과정(310)에 대해 살펴보기로 한다. 이 과정에서는 도 14에 도시된 바와 같이 분리된 홍채 패턴 영상을 직교좌표계로부터 극좌표계(원형 동공 경계의 중심이 원점)로 변환한다. 이때, 분리되었다 함은, 홍채 영역, 즉 도넛 형태를 말한다.
홍채섬유와 층은 구조와 연결상태의 결함을 반영한다. 구조는 기능에 영향을 미치고 통합성을 반영하기 때문에 조직은 기관의 저항력과 유전적 소인을 나타낸다. 관련징후로는 열공(Lacunae), 음와(Crypts), 결손징후(Defect signs), 조직이완(Rarifition) 등이 있다.
이와 같은 홍채학의 임상근거에 기준한 홍채의 무늬를 특징점으로 사용하기 위해 영상분석대역 정의부(26)에서는 홍채의 분석대역을 다음과 같이 나눈다. 즉, 홍채학의 임상근거에 기준하여 13개 섹터로 구분한다.
즉, 시계의 12시 방향을 기준으로 하여 좌우 6도(섹터1), 이어서 시계방향으로 24도(섹터2), 42도(섹터3), 9도(섹터4), 30도(섹터5), 42도(섹터6), 27도(섹터7), 36도(섹터8), 18도(섹터9), 39도(섹터(10), 27도(섹터11), 24도(섹터12), 36도(섹터13)과 같이 대역을 나누며, 이와 같이 각 섹터들을 동공을 중심으로 4개의 환상대역으로 나눈다. 따라서, 각 섹터는 동공을 중심으로부터 홍채의 외부경계 방향으로 4개의 환상대역에 따라서 섹터1-4, 섹터1-3, 섹터1-2, 섹터터1-1로 나뉘어진다.
여기서, 1섹터는 1byte를 의미하며, 나누어진 영역안에 홍채 영역 비교 데이터들을 모아서 따로 저장해 두어, 나중에 유사도와 안정도를 판별하는 기준으로 사용된다.
2차원 좌표계를 살펴보면 다음과 같다.
Cartesian Coordinate는 도 15a에 도시된 바와 같이 평면상의 1점의 위치를 표시하는데 있어 가장 대표적인 좌표계이다. 평면위에 한 점 O을 원점으로 정하고, O을 지나고 서로 직교하는 두 수직직선 XX', YY'를 좌표축으로 삼는다. 평면상의 한 점 P위의 위치는 P를 지나며, X, Y축에 평행한 뒤 직선이 X, Y축과 만나는 의 좌표축상 선분 = x, 선분 = y로 나타낼 수 있다. 측 평면상 한 점 P의 위치는 두 개의 실수의 순서쌍 (x, y)에 대응하며, 역으로 순서쌍 (x,y)가 주어지면 두 좌표축으로부터 P의 위치가 결정된다.
2차원 극좌표(Plane Polar Coordinate)는 도 15b에 도시된 바와 같이 평면상 한 점과 원점을 연결한 선분의 길이와 원점을 지나는 기준선과 그 선분이 이루는 각으로 표현되는 좌표이다. 극각 θ는 수학적 좌표계에서는 반시계방향으로 +로 하지만, 일반 측량에서는 방위각 등과 같이 통상 시계방향을 +로 한다.
도 15b에서, θ는 Polar angle, O은 pole, OX는 Initial line or Polar axis을 의미한다.
Cartesian Coordinate(x,y)와 Plane Polar Coordinate(r,θ)의 관계는 하기의 [수학식 32]와 같다.
이제, 영상 평활화 과정(311) 및 영상 정규화 과정(312)에 대해서 살펴보기로 한다.
영상 정규화부(28)에서는 저차원 모멘트를 사용하여 평균 크기로 정규화하는데(312), 정규화를 하기 전에 영상 평활화부(27)에서 스케일 스페이스 필터링을 통해 영상을 평활화(smoothing)한다(311). 어떤 영상의 명암값 분포가 빈약할 때 히스토그램 평활화에 의한 영상처리에 의해 향상될 수 있다. 따라서, 영상 평활화는 영상의 인접한 픽셀간의 명암 분포 차이를 분명하게 하기 위해 사용하며, 영상 평활화 과정에서 스케일 스페이스 필터링이 수행된다. 스케일 스페이스 필터링은 가우시안 함수에 스케일 상수를 결합한 형태로서, 정규화후 크기에 불변한 저니크 모멘트를 만들기 위해서 사용한다.
먼저, 정규화 과정(312)에 대해 살펴보고, 이후 영상 평활화(스케일 스페이스 필터링, 최적 스케일 선택) 과정(311)을 살펴보기로 한다.
정규화 과정(312)은 입력된 홍채 영상의 후처리를 수행하기 전에 반드시 수행되어야 한다. 정규화란, 홍채영상의 크기를 통일하고 위치를 규정하며, 획의 굵기를 조절하는 등 홍채영상의 규격화처리를 말한다.
홍채영상들은 또한 토폴로지적 특징(Topological Features)들에 의해서 특성화될 수 있다. 이것들은 영상의 탄성적 변형들(elastic deformations)에도 변하지 않는 특징들로서 정의된다. 토폴로지적 불변성은 다른 영역들을 연결하거나 분리하는 것을 제외한다. 이진 영역들을 위하여 토롤로지적 특징들은 한 영역속에 있는 구멍들의 수와 만입들 및 돌출들의 수를 포함한다.
구멍들 보다 더 정확한 표현은 하나의 홍채분석대역 내부에 있는 부분영역들(subregions)이다. 이것은 영역들이 순환적(recursively)으로 나타날 수 있기 때문이다. 즉, 홍채분석대역들은 부분영역들을 포함할 수 있는 부분영역들을 포함할 수 있다. 이와 같은 토폴로지의 구별능력을 설명하기 위한 간단한 예는 수문자(alphanumeric) 심볼들에서 분명하다. 심볼들 0과 4는 하나의 부분영역을 가지며, B와 8은 두 개의 부분영역들을 갖는다.
모멘트들의 평가는 영상 분석의 체계적인 방법을 나타낸다. 가장 흔하게 사용되는 홍채영역 속성들은 가장 낮은 차수의 세 모멘트들로부터 계산된다. 따라서, 면적은 0차 모멘트에 의해서 주어지며, 영역-내부 픽셀들의 총 수를 나타낸다. 1차 모멘트들로부터 결정되는 질량중심(centroid)은 형상 위치의 측도를 제공한다. (비 원형) 영역의 방향운동은 차 모멘트들로부터 결정되는 주축들(principal axes)로부터 결정된다.
이들 낮은 차수 모멘트들의 지식은 중심 모멘트들, 정규화된 중심 모멘트들(central moments), 그리고 모멘트 불변량(invariants)의 평가를 허용한다. 이들 양들은 모양의 위치, 크기 그리고 회전에 독립적인 모양 속성들을 전달하며, 따라서 위치, 크기 그리고 방향운동이 형상 독자성(identity)에 관계하지 않을 때 형상 인식과 정합을 위하여 유용하다.
모멘트 분석은 홍채형상영역 내부 픽셀들에 기초할 것이며, 그래서 홍채형상영역의 내부 픽셀들 전부를 집계하기 위한 홍채형상영역 성장(growing)이나 채움(filling) 과정이 미리 필요한 단계이다. 모멘트 분석은 홍채형상 내부영역 윤곽선에 기초하며, 이것은 윤곽선의 검출을 요구한다.
홍채분석대역의 이진 영상(홍채형상)들을 위하여 영역 내부 픽셀들은 값1(ON)로 할당되고, 이진 영역(홍채형상영역)의 모멘트들 mpq의 정의는 하기의 [수학식 33]과 같다. : 영역 기반 모멘트들(Region-Based Moments)
2차원 홍채 분석대역 형상 f(x,y)에 대해 (p+q)th차 정규모멘트는 하기의 [수학식 33]과 같이 정의된다. 이때, (p=0, q=0) 이면 0차 정규 모멘트는 하기의 [수학식 34]와 같이 정의되므로 홍채분석대역 형상이 차지하고 있는 화소(pixel)수를 나타낸다. 따라서, 면적의 측도를 제공한다. 일반적으로, 형상의 화소수는 형상의 크기를 나타낸다고 볼 수 있으나, 이는 이진화 과정에서의 threshold에 의해 크게 영향을 받는다. 같은 크기의 형상이라 하더라도 낮은 값으로 이진화하여 얻어진 홍채형상은 윤곽의 굵기가 굵어지고, 높은 값으로 이진화하여 얻어진 홍채형상은 윤곽의 굵기가 얇아져 화소의 수는 0차 모멘트 값에서는 큰 차이가 발생할 수 있다.
(모멘트들과 정점 좌표들)
더 일반적으로 모멘트들 mij의 정의는 픽셀 위치들과 픽셀값들을 참조한다([수학식 35] 참조).
이진의 간단하게 연결된(그러나, 꼭 convex일 필요는 없는) 홍채형상의 내부영역 윤곽(bounding region contour)를 정의한 정점 좌표들에 의해서 최대 2차(quadratic order) 까지의 모멘트 표현식들을 쉽게 유도할 수 있다. 따라서, 만일 한 region contour의 다각형(polygonal) 표현이 이용 가능하다면, 면적 질량중심 및 주축들의 방향운동은 상기 [표 2]에서 주어진 식들로부터 쉽게 계산될 것이다.
가장 낮은 차수 모멘트인 m00는 단순히 홍채분석대역 형상 내부에 있는 픽셀들의 합을 나타내며, 따라서 면적의 측도를 제공한다. 이것은 만일 분석대역의 홍채형상이 홍채영상 속에 있는 다른 형상들보다 특별히 더 크거나 더 작다면 형상기술자로서 유용하다. 그러나, 면적은 주어진 형상이 그림의 스케일, 관찰자로부터 형상의 거리 그리고 시각(perspective)에 의존하여 형상의 더 작은 부분이나 더 큰 부분을 차지할 것이기 때문에 무분별하게 사용되어서는 안된다.
홍채형상에서 면적에 의해서 정규화되는 x와 y에서의 1차 모멘트들은 x 및 y질량 중심(centroid)의 좌표들을 산출한다. 이것들은 홍채형상영역의 평균위치를 결정한다. 홍채 형상 분할 과정을 거쳐 한 형상의 모든 형상들이 동일한 레이블을 갖게 한 다음 홍채형상의 상하 경계선을 각각 A와 B, 좌우 경계선을 각각 L과 R이라 하면, 하기의 [수학식 36]과 같이 질량 중심들을 나타낼 수 있다.
중심 모멘트들 μpq는 위치에 대해서 정규화되는 홍채형상영역의 기술자들을 나타낸다.
그것들은 하기의 [수학식 37]과 같이 질량중심 위치의 견지에서 정의된다.
보통 중심 모멘트들은 또한 정규화된 중심 모멘트를 산출하기 위해서 하기의 [수학식 38]과 같이 0차 모멘트에 대해서 정규화된다.
가장 흔하게 사용되는 정규화된 중심 모멘트는 x와 y에서의 1차 중심 모멘트인 μ11이다. 이것은 원형 영역 모양으로부터의 편차의 측도를 제공한다. 즉, 0에 가까운 값은 원형에 가까운 영역을 기술하며, 더 큰 값을 갖는 것은 점점 더 비원형이 된다. principal major 및 minor 축들은 영역의 관성 모멘트가 각각 최대와 최소인 질량중심을 통과하는 축들이 되도록 정의된다. 그것들의 방향들은 하기의 [수학식 39]에서와 같은 표현에 의해서 주어진다.
방향의 평가는 거의 원형 형상의 배향을 결정하기 위한 독립적인 방법을 주로 제공한다. 따라서, 그것은 예를 들어서 모양이 시간에 따라서 변하는 형상들을 위하여 변형된 윤곽선들의 배향 운동(orientation motion)을 모니터링하기 위한 적절한 파라미터이다.
상기 정규화된 그리고 중심 정규화된 모멘트들은 스케일(면적)과 이동(위치)에 대해서 정규화되었다. 배향에 관한 정규화는 모멘트 불변량들의 페밀리에 의해서 제공된다. 하기의 [표 3]은 정규화된 중심 모멘트들로부터 계산되는 것으로서 첫 번째 네 개의 모멘트 불변량들을 보여준다.
(중심 모멘트들과 모멘트 불변량들)
홍채분석대역에 있는 가능한 형상들의 리스트는 영역 분할(region segmentation)에 기초하여 확립되며, 모멘트 불변량들이 각각을 위하여 계산된다. 시험에서 관심의 대상인 형상들을 다른 형상들로부터 효과적으로 구분하는 그러한 불변량들만이 존속된다. 스케일이 조정되거나 이동되거나 회전된 이들 형상들을 갖는 비슷한 그림은 비슷한 값들을 결과화 할 것이다(이산화(discretization) 에러에 기인하는 작은 차이들을 가지고).
홍채영상 크기 변화를 스케일 스페이스 변화로 모델링할 경우, 모멘트를 평균 크기로 정규화하면, 크기에 불변 특성을 갖는 저니크 모멘트를 만들 수 있다.
극좌표로 변환한 홍채 영상을 대상으로 일정한 각도내의 반경을 증가시키며, 동일 반경을 가진 홍채 형상의 1차원 윤곽에 대한 영역을 얻기 위해 이진영상으로 변환한다.
일정한 각도내의 반지름별 분할 홍채분석대상 형상의 1차원 윤곽(curvature)의 모든 픽셀 그레이 값의 빈도수를 누적한 히스토그램을 추출한다. 일반적으로 컴퓨터에서 처리되어 질 수 있는 불연속적인 신호에 대해서 스케일 스페이스 이론을 구현하기 위해서는 적분의 사각형 규칙을 이용하여 연속적(continuous)식을 이산(discrete)식으로 바꾸어 주어야 한다.
F를 가우시안 커널을 사용한 스케일 스페이스 영상의 한 평활화된 곡선이라 할 때, 임의의 스케일 τ에 있어서 F의 1차 도함수인 ∂F/∂x의 제로교차점은 스케일 τ의 평활화된 곡선의 지역 극소값이나 극대값이 된다. 그리고, F의 2차 도함수인 ∂2F/∂x2의 제로교차점은 스케일 τ의 1차 도함수의 지역 극소값이나 극대값이 된다. 이 기울기의 극값은 원함수의 입장에서는 변곡점에 해당된다. 도함수의 극점과 제로교차점과의 관계는 도 16에 도시된 바와 같다.
도 16에서, (a)을 스케일 스페이스 영상의 임의의 스케일 값에서의 평활화된 곡선이라 할 때, 함수 F(x)는 3개의 극대점과 2개의 극소점을 가지고 있다. 이 점들을 함수 F(x)의 1차 도함수에 대한 제로교차점은 (b)와 같이 나타난다. 도 16 (b)의 제로교차점 a, c, e는 극대점을 가리키고, b, d는 극소점을 가리킨다. 또한, 도 16 (c)는 F(x)의 2차 도함수로서 f, g, h, I 4개의 제로교차점을 가지고 있다. f 와 h는 1차 도함수의 극소값임과 동시에 밸리구간의 시작위치이다.
이와 반대로, g와 i 는 1차 도함수의 극대값임과 동시에 피크구간의 시작 위치이다. 여기서, 관심이 있는 구간은 g에서 h 까지의 구간인데, 왜냐하면 구간 [g,h]가 원 함수에서 피크구간을 감지하기 때문이다. 이렇게 피크구간을 감지하는 [g,h]의 g는 왼쪽 그레이 값이고 2차 도함수의 제로교차점이며, 1차 도함수의 부호가 양수인 반면, h는 오른쪽 경계 그레이 값이면서 2차 도함수의 제로교차점이며 1차 도함수의 부호가 음수이다. 홍채형상은 2차 도함수의 제로교차점을 묶음으로 그려 질 수 있다. 도 16 (a)의 피크와 밸리구간이 도 17에 나와 있다. 도 17에서의 'p'는 피크구간을, 'v'는 밸리구간을, '+'는 2차 도함수의 부호가 양수에서 음수로 변함을, '-'는 2차 도함수의 부호가 음수에서 양수로 변함을 의미한다. '+'의 위치에서 '-'의 위치 까지를 묶어 피크구간을 감지함으로서 일련의 제로 윤곽선을 얻을 수 있다.
이렇게 2차 도함수의 제로교차점들의 윤곽선이면서 평활화된 신호의 변곡점들의 모습과 운동을 표시하는 홍채곡률(contour)형상이 그려질 수 있다. 이 홍채곡률형상은 전 스케일에 걸쳐 원신호의 질적 표현을 제공한다. 이 곡률형상을 이용하여 홍채분석대상 형상의 1차원 윤곽 스케일의 제로교차점에서 나타나는 사건들을 탐지할 수 있고 세밀한 스케일로 내려가면서 나타나는 제로교차점들을 추적함으로써 이들을 지역화할 수 있다. 곡률형상의 제로 윤곽선은 아치를 형성하고 있으며, 위로는 닫혀있고 아래로는 열려있다. 또한, 제로 윤곽선의 정점에서는 서로 반대 부호로서 교차한다. 이는 제로 교차점이 스케일이 감소하면서 사라지지 않는다는 것을 의미한다.
스케일 스페이스 필터링은 홍채분석대역 형상의 1차원 윤곽 픽셀 그레이값 히스토그램을 평활화하는 필터의 크기를 연속적인 파라메터로 취급함으로써 스케일의 문제를 표현하는 방법이다. 스케일 스페이스 필터링에서 사용되는 필터는 가우시안(Gaussian) 함수에 스케일 상수를 결합한 형태로 스케일 상수(분포의 표준편차)의 변화에 따라 필터의 크기가 결정된다(하기의 [수학식 40] 참조).
상기 [수학식 40]에서, Ψ={(x(u), y(u), u∈[0,1]}에 의해서 특징된다(다만, u는 홍채영상의 속성값을 명도값(gray level)으로 하고 , 임계값 T를 이용하여 이진화한 홍채영상 기술자이다). 그리고, f(x,y)는 입력 홍채분석대상 형상의 1차원 윤곽 픽셀 그레이값 히스토그램, g(x,y,τ)는 가우시안 함수, (x,y,τ)는 스케일 스페이스 평면이다.
스케일 스페이스 필터링은 스케일 상수 τ가 증가할수록 입력으로 들어오는 2차원 영상의 넓은 지역을 평활화하는 효과가 있다. F(x,y,τ)에 대한 2차 미분은 하기의 [수학식 41]에서와 같이 f(x,y)에 g(x,y,τ)를 이차 미분한 함수인 ∇2g(x,y,τ)를 적용함으로써 쉽게 얻을 수 있다.
스케일 스페이스 필터링은 스케일 상수 τ가 커질수록 g(x,y,τ)도 따라 커지기 때문에 하나의 스케일 스페이스 영상을 얻는데에 상당한 시간이 소요된다. 따라서, 하기의 [수학식 42]에서와 같이 h1, h2로 나누어 적용하면 이러한 문제점을 개선할 수 있다.
따라서, F(x,y,τ)에 대한 2차 미분은 하기의 [수학식 43]과 같이 표현할 수 있다.
미분한 ∇2g(x,y,τ)를 적용하여 얻어진 결과에서 그 결과 값이 음수가 되는 영역은 2차원 히스토그램에 대한 스케일 스페이스 필터링은 스케일 상수 τ가 작아질수록 의미없는 peak을 생성하여 peak의 개수가 많아지는 반면, τ가 40 정도가 되면 필터의 크기가 2차원 히스토그램을 거의 포함하게 되며 생성된 peak들도 여러 개의 peak들이 합쳐진 형태로 나타나기 때문에 그 이상의 스케일에 대한 스케일 스페이스 필터링은 2차원 히스토그램의 두드러진 peak를 찾는데는 아무런 영향을 주지 않는다. 또한, ∇2g(x,y,τ)는 x와 y 값이 |3τ|보다 큰 지점에서는 연산결과에 영향을 미치지 않는 아주 작은 값을 가지므로 ∇2g(x, y, τ)를 -3τ에서 3τ사이의 범위에서 계산한다. 스케일 스페이스 영상(scale space image)을 이차 미분해서 peak 부분을 추출한 영상을 peak image라 한다.
그럼, 최적 스케일 자동 선택 과정을 살펴보기로 한다.
2차원 히스토그램의 두드러진 peak가 모두 존재하면서 히스토그램의 모양을 가장 잘 나타내는 peak 영상으로 선택되고, 그 때의 스케일 상수 값을 그래프 구조를 검색하여 최적 스케일을 결정한다. peak의 변화는 다음 네 가지 경우 중 하나로 나타난다.
① 새로운 peak부분이 생성되는 경우
② 하나의 peak부분에서 여러 개의 peak부분이 분할되는 경우
③ 여러 개의 peak 부분들이 합쳐져 새로운 peak부분이 생성되는 경우
④ peak부분의 모양만 변화하는 경우
그래프 구조에서 peak 정보는 노드로 표현하고, 인접한 두 peak 영상의 peak들 사이의 관계는 방향성 peak로 나타내는데, 각 노드에는 peak가 시작되는 스케일 상수값과 카운터를 두어 해당 peak가 얼마 만큼의 스케일 범위에서 연속적으로 나타나는가를 기록하여 두드러진 peak가 공존하는 스케일의 범위를 결정하는데 이용한다.
그래프 구조는 먼저 시작노드를 생성하고 스케일 상수 40에 해당하는 peak 영상내에 존재하는 peak들에 대한 노드를 생성하고, peak의 변화가 ①, ②, ③에 해당되는 경우는 새로운 노드를 생성하여 새로운 노드가 시작되는 시작 스케일을 기록하고 카운터를 시작한다. ④ 그래프구조가 완성되면 시작노드에서 종단노드에 이르는 모든 경로를 검색하여 각 경로마다 두드러진 peak의 스케일 범위를 찾는다. 새로운 peak가 생성되는 경우는 이전 단계의 peak 영상에서는 골(valley)에 해당하던 영역이 스케일의 변화에 따라 peak가 된 경우이다. 만약, 어떤 경로에 새로 생성된 peak 하나만 존재하는데 peak로 나타나는 스케일의 범위보다 골(valley)로 나타나는 범위가 크다면 두드러진 peak로 간주할 수 없으므로, 이 경로에 대해서는 두드러진 peak의 스케일 범위를 찾지 않는다. 각 경로의 스케일의 범위가 중첩되는 범위를 가변 범위로 결정하고, 가변 범위 중 가장 작은 스케일 상수를 최적 스케일로 결정한다(도 18 참조).
이제, 형상기술자 추출 과정(313)에 대해서 살펴보기로 한다.
형상기술자 추출부(29)는 스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 저니크(Zernike) 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출한다. 이때, 형상기술자로는 8차까지의 저니크(Zernike) 모멘트의 절대값 24개를 사용한다. 여기에서는 크기와 조명에 민감한 단점을 스케일 스페이스 개념과 스케일 도입으로 해결한 것이다.
전처리 과정에서 얻어진 정규화된 홍채곡률형상에 대해서 저니크 모멘트를 이용하여 형상기술자를 추출한다. 저니크 모멘트는 홍채곡률형상의 내부영역을 토대로 특징량을 추출하기 때문에 경계선 패턴의 형상으로 검색하는 방법들의 많은 단점을 극복할 수 있고, 회전 불변 및 잡영에 강인하기 때문에 패턴 인식 시스템에 널리 사용되어 왔다. 또한, 영상 정규화 알고리즘에서의 약점인 회전에 불변하지 않은 특징을 보완해 준다. 본 발명에서는 정규화된 홍채곡률형상으로부터 형상 정보를 추출하기 위한 형상기술자로는 0차 모멘트 값을 제외한 8차까지의 저니크 모멘트의 절대값 24개를 사용하였다. 또한, 이동과 스케일 정규화는 두 개의 저니크 모멘트 A00와 A11에 영향을 미친다. 모든 정규화된 영상에서는 임이 나타난다. 이와 같이 │A00│와 │A11│는 모든 정규화된 영상에서 같으므로, 이 모멘트들은 영상표현의 특징 벡터로부터 제외된다. 0차 모멘트는 형상의 면적으로서 크기에 불변한 특징량을 얻기 위해 사용된다. 영상 크기 변화를 스케일 스페이스 변화로 모델링하여, 모멘트를 평균 크기로 정규화함으로써, 크기에 불변 특성을 갖는 저니크 모멘트를 만들 수 있다.
저니크 모멘트에 대해 간단히 설명하면 다음과 같다.
2차원 영상 f(x, y)의 저니크 모멘트는 하기의 [수학식 45]와 같이 정의되는 2차 복소 모멘트이다. 저니크 모멘트(Zernike moments)는 회전에 무관한 특징을 갖는 변환으로 알려져 있다.
저니크 모멘트는 인 단위원 내에서 완전히 직교(orthogonal)하는 복소수 다항식 집합(complex polynominal set)으로 정의된다. 저니크 다항식의 집합은 하기의 [수학식 44]와 같이 정의된다.
저니크 모멘트 값을 위한 기저함수는 하기의 [수학식 45]이며, 회전축(θ)과 거리축(ρ) 저니크 모멘트의 기저함수 인 단위원 내에서 정의되는 복소 함수이고, 에서 정의되는 직교 방사 다항식이다.
여기서, 는 하기의 [수학식 45]와 같이 정의된다.
즉, 차수 n을 m번 반복하는 ρn, ρn-2, ..., 를 만족해야 한다. 이때, , (x축과 벡터 사이의 각도)이다.
Rnm(ρ)은 Rnm(x,y)의 , 극좌표이다.
여기서, 와 같다.
이 파라미터(n,m)과 함께 s차수인 Jacobi 다항식이라는 조건하에 이다. Jacobi 다항식의 재귀적 공식은 Rnm(ρ)을 산출하기 위해 사용되었고, 저니크 다항식을 룩업테이블(Look-up table)없이 실시간으로 계산하기 위한 것이다.
일정한 각도내의 반지름별 분할 홍채분석대상 형상을 스케일 스페이스 필터에 의해 구하여진 홍채곡률형상 f(x,y)에 대한 저니크 모멘트는 저니크 직교기저함수(orthogonal basis function), 즉 저니크 복소다항식 Vnm(x,y)에 대한 f(x,y)의 투영(projection)이므로, 차수 n을 m번 반복하는 ρn, ρn-2, ..., 를 만족하는 n차의 저니크 모멘트는 연속이 아닌 이산함수에 적용하면, 하기의 [수학식 47]과 같이 저니크 모멘트에 의해 산출되는 복소수(complex number)이다.
상기 [수학식 47]의 에서, *는 Vnm(x,y)로 투영한 것을 의미하는 켤레복소수(complex conjugate)를 의미하므로, 하기의 [수학식 48]이 성립된다.
상기 [수학식 48]에서, VR과 VI는 기본함수 의 실수와 허수 부분을 나타낸다.
홍채곡률형상 f(x,y)의 저니크 모멘트 값이 Anm이라면 회전된 신호([수학식 49])의 저니크 모멘트 값은 하기의 [수학식 50] 및 [수학식 51]과 같이 정의된다.
결과적으로, 절대값을 구할 경우 하기의 [수학식 52]와 같이 회전된 신호의 저니크 모멘트의 절대값은 기준 영상의 저니크 모멘트의 절대값과 동일하다.
저니크 모멘트 값의 절대값은 회전에 관계없는 특징을 갖게 된다.
실제에 있어서 모멘트의 계산 차수가 너무 낮으면 패턴을 잘 분류할 수 없으며, 너무 높으면 계산량이 많아진다. 차수를 8까지 계산하는 것은 실용 가능한 절충 방안이다([표 4] 참조).
저니크 모멘트는 직교 방사 다항식을 이용해 계산되기 때문에, 자체 회전 불변 특성이 있다. 특히, 저니크 모멘트는 홍채영상 표현 능력, 정보 중복도, 잡영특성이 다른 모멘트에 비해 우수하다. 그러나, 저니크 모멘트는 크기와 조명에 민감한 단점이 있다. 크기 문제는 모델 DB에 스케일 스페이스 개념을 도입하여 해결한다. 피라미드 방법은 리샘플링에 의해 홍채영상내 구조가 깨지지만 스케일 스페이스는 가우시안을 이용하기 때문에 피라미드 방법을 이용하는 경우보다 우수한 특징점 추출 특성을 갖는다. 다른 실례로, 저니크 모멘트를 변형시켜 이동, 회전 및 스케일(크기)에 불변인 특징을 추출할 수 있다([수학식 53] 참조). 즉, 영상 평활화에서 스케일 스페이스를 도입했고, 그것을 정규화하였기 때문에 크기에 대해서 robust하게 된다.
상기 변형된 회전 불변 변환은 저주파를 강조하는 효과를 내는 특성을 갖는다. 한편, 지역 조명 변화를 하기의 [수학식 54]와 같이 스케일 조명 변화로 모델링할 경우, 모멘트를 평균 밝기(Z00)로 정규화하면, 하기의 [수학식 55]와 같은 조명에 불변 특성을 갖는 저니크 모멘트를 만들 수 있다.
하기의 [수학식 55]는 홍채 영상정보 f(x,y)를 저니크 모멘트에 적용한 후(Z(f(x,y)), 평균밝기()로 나눔으로써 스케일 조명 변화시킨다.
여기서, f(x,y)는 홍채영상을, 는 새로운 밝기 홍채영상, 은 지역 조명 변화율, 은 평균밝기(평활화된 영상의 평균 밝기), Z는 저니크 모멘트 연산자를 나타낸다.
이러한 특성을 이용하여 입력된 홍채가 이동, 스케일 및 회전에 의하여 변형되었다 할 경우에도 인간의 시각적 특성과 유사하게 변형된 홍채 영상을 검색할 수 있다. 즉, 형상기술자 추출부(29)에서는 주지한 바와 같이 입력 영상의 특징을 추출하게 되며, 참조값 저장부(도 1의 홍채패턴 등록부(14))(30)에서는 이를 홍채 데이터베이스(15)에 저장한다(314,315).
다음으로, 질의 영상이 입력될 경우(316) 홍채 패턴 추출부(특히, 형상기술자 추출부(29))(13)에서 주지한 바와 같은 동작으로 형상기술자들을 추출하게 되고, 홍채 패턴 검증부(16)에서는 홍채 데이터베이스(15)의 형상기술자들과 상기 추출한 질의 영상의 형상기술자들을 비교하여(317) 최소의 거리를 내는 영상을 찾고 그 최소 거리를 갖는 영상들을 출력함으로써, 사용자는 검색된 홍채 영상을 신속하게 볼 수 있다.
그럼, 마지막으로 참조값 저장 및 등록 과정(314,315), 영상인식 및 검증 과정(317)을 살펴보기로 한다.
참조값 저장부(도 1의 홍채패턴 등록부(14))(30)에서는 저니크 모멘트의 안정도(저니크 모멘트의 4방향 표준편차인 민감도에 관계) 및 유클리드 거리의 유사도를 따져 템플릿 형태로 분류(홍채곡률형상 f(x,y)의 영상패턴을 저니크 복소다항식 Vnm(x,y)에 대하여 25개의 공간상으로 투영(템플릿)해서 분류) 저장한다. 이때, 안정도는 현재 입력된 영상의 특징점의 위치가 기존 영상과의 비교를 통해서 얻어지고, 단순히 한 점의 위치 비교라고 할 수 있다. 그리고, 유사도는 면적의 거리 비교라고 할 수 있다. 저니크(Zernike) 모멘트의 인자들이 많기 때문에 단순 면적이라 할 수는 없지만, 그러한 인자들을 템플릿이라 한다. 기존 영상은 영상분석대역을 정의할 때 샘플 데이터를 수집한다. 이를 통해 유사도와 안정도를 비교한다.
영상인식 및 검증부(도 1의 홍채패턴 검증부(16))(31)에서는 인식부분에서 참조값(홍채인식에서 기존의 등록 데이터)과 홍채 영상(현재 검증하고 있는 영상)의 저니크 모멘트의 안정도 및 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 유사한 홍채 영상을 인식하고, LS(Least Square), LmedS(Least median of Suare) 기법을 결합하여 정합 검증한다. 이때, Minkowsky Mahalanbis 거리를 이용해 판단한다.
본 발명은 인간이 홍채를 인식할 때 의식적으로 특징점에 집중한다는 생물학적 사실에 근거하여 회전에 강한 저니크 모멘트를 변경하여 국부 크기 및 조명 변화에 불변성을 갖는 특징량 추출 방법에 적합한 새로운 유사도 측정 방법을 특징으로 한다.
홍채인식 시스템은 크게 특징량 추출 부분과 특징량 매칭 부분으로 구성된다.
오프라인 부분에서는 기존에 등록된 모델 홍채형상에 대해 스케일 스페이스에서 추출한 특징점을 중심으로 저니크 모멘트를 생성한다. 실시간 인식 부분에서는 특징점으로부터 생성한 저니크 모멘트와 모델간에 확률적 특징량 매칭을 통해 유사한 홍채를 인식하고, LS(least square)와 LmedS(least median of square) 기법을 결합하여 홍채인식을 정합 검증한다.
그럼, 우선 확률 이론에 따라 특징량을 매칭해서 입력된 홍채 영상을 템플릿 분류하는 과정을 살펴보기로 한다.
본 발명에서 제안하는 확률적 홍채인식은 저니크 모멘트의 안정도, 특징량 사이의 유사도 개념을 각 가설에 확률적으로 반영하여 홍채를 인식하는 방법이다.
기본 표기는 다음과 같다.
입력 영상을 S, 모델 집합을 M={Mi}, I=1,2,…NM, NM은 모델의 개수, 입력 영상 S의 저니크 모멘트 집합 Z={Zi}, i = 1,2,…, NS,, 여기서 Zi는 특징점 Ci에서 계산된 하나의 저니크 모멘트를 나타내고, NS는 입력 영상 S의 저니크 모멘트 개수를 나타낸다. 입력 영상의 i번째 저니크 모멘트(Zi)에 대응하는 모델 영상의 저니크 모멘트는 이고, NC는 대응 저니크 모멘트의 개수를 나타낸다.
확률적 홍채인식은 입력 영상에 대해 하기의 [수학식 56]과 같이 입력 영상 S가 들어왔을 때 확률이 최대가 되게 하는 모델 Mi을 찾는 것과 같다.
입력 영상의 저니크 모멘트에 대응하는 후보 모델 저니크 모멘트들로부터 하기의 [수학식 57]과 같은 가설을 만들 수 있다.
여기서, NH는 입력영상에 대응하는 모델 저니크 모멘트의 곱집합의 원소 개수와 같다. 전체 가설 집합은 하기의 [수학식 58]과 같이 표현할 수 있다.
가설 H는 입력 영상 S로부터 추출한 특징량의 대응 후보로 구성되므로 S를 가설 H로 대체할 수 있다. 또한, Bayes 이론을 상기 [수학식 56]에 적용하면 하기의 [수학식 59]와 같이 표현된다.
모든 홍채가 발생할 확률이 동일하고, 각 홍채가 서로 독립이라고 가정하면, 상기 [수학식 59]는 하기의 [수학식 60]과 같이 표현할 수 있다.
상기 [수학식 60]에서, 분모항은 전확률 이론(theorem of total probability)에 의해 과 같다.
상기 [수학식 60]에서 제일 중요한 부분은 를 구하는 것이다. 이 확률을 정의하기 위해 도 19와 같이 기존의 유사도 개념과 새롭게 제안한 안정도 개념을 이용한다.
선험 확률 는 안정도()와 유사도()가 동시에 높을 때 크게 되어야 한다. 안정도는 특징점의 불완전성을 반영하는 인자이고, 유사도는 특징량 사이의 유클리드 거리에 의해 결정되는 인자이다. 이 두 인자가 동시에 성립할 때, 안정적이고 유사도 높은 특징량을 찾을 수 있다.
먼저, 안정도()에 대해 보다 상세하게 살펴보기로 한다.
저니크 모멘트의 안정도는 특징점 위치 변화에 대한 저니크 모멘트의 민감도에 반비례한다. 저니크 모멘트의 민감도는 도 20과 같은 모멘트의 중심위치에 대해 4가지 방향으로부터 구한 저니크 모멘트의 표준편차를 의미한다.
저니크 모멘트의 민감도는 하기의 [수학식 61]과 같이 표현된다. 안정도는 이 민감도에 반비례한다. 민감도가 낮을수록 특징점의 위치 오차에 대해 더 안정된 특징량을 갖는다.
이제, 유사도()에 대해 보다 상세하게 살펴보면 다음과 같다.
입력 저니크 모멘트에 대응하는 모델 특징량과의 유크리드 거리가 가까울수록 유사도()의 값이 비례하여 커진다. 따라서, 유사도는 하기의 [수학식 62]와 같은 관계에 있다.
정규화 등 전처리 과정을 완성한 후 패턴(템플릿트)을 분류(classification)하여야만 최종적으로 인식결과를 얻을 수 있다(하기의 [수학식 63]).
n=0,1,…, 8 m=0,1,…, 8 일때 홍채곡률형상 f(x,y)의 영역패턴을 저니크 복소다항식 Vnm(x,y)에 대하여 25개의 공간상으로 투영한 후 X=(x1,x2,…., xm) G=(g1,g2,….,gm)를 등록 데이터베이스내의 하나의 템플릿으로 분류하여 저장하면, 홍채형상인식에 자주 사용되는 거리는 Minkowsky Mahalanbis 거리로 분류된다.
상기 [수학식 64]에서 xi는 DB 내의 영상의 i번째 저니크 모멘트의 크기, gi는 질의 이미지의 i번째 저니크 모멘트의 크기이다.
여기서, q=25를 이용하여 사전의 원형과의 Minkowsky 거리가 오차 허용범위에서 제일 근접한 원형을 그에 대응되는 홍채영상이라고 판단한다. 일정한 오차 범위 내에서 근접한 원형을 찾을 수 없으면 사전에 학습된 원형이 없는 것으로 취급한다. 설명의 편리를 도모하고자 간단하게 사전에 두 홍채영상밖에 없으며 인식하려는 입력 패턴은 회전된 이 두 홍채영상의 1차, 2차 ZMM을 2차원 평면에 표시하면 도 21에서 보여 주는 바와 같이 위치 a와 위치 b에 놓여 있다. ZMM 계산한 결과 위치 a점, b점 사이의 Euclidean 거리 da'a, da'b를 하기의 [수학식 65](q=1일때의 절대거리(Absolute distance))로 각각 구해 본 결과 da'a〈da'b과 da'a〈△이 된다. 그러므로, 회전된 것으로 볼 수 있다. 그러나, 같은 전체 홍채영상라면 일정한 오차 범위내에서 ZMM은 같다.
홍채 영상의 검색을 위해 질의 영상과 홍채 데이터베이스(15)내의 영상들에 대해 각각 형상기술자를 추출하여 그 형상기술자 값을 이용하여 검색한다. 본 발명에서는 질의 영상과 홍채 데이터베이스(15)내의 영상과의 거리 D는 하기의 [수학식 66](q=2일때의 Euclidean 거리)에 의해 구해지고, 유사도 S는 하기의 [수학식 67]을 사용하여 측정한다.
한편, 유사도 S는 정규화 과정을 거쳐 0과 1 사이의 값을 얻을 수 있다.
따라서, 선험확률 는 앞에서 정의한 안정도, 유사도를 결합시켜 하기의 [수학식 68]과 같이 정의할 수 있다.
여기서, 각 대응쌍에 대한 확률값은 하기의 [수학식 69]와 같이 정의한다.
여기서, NS는 입력 영상의 특징량 개수를 나타내고, 는 정규화 인자로 유사도 문턱치와 안정도 문턱치의 곱으로 표현된다. 또한, 은 대응 모델 특징량이 조건을 만족하지 않을 경우 부여하는 값이다. 본 실시예에서는 0.2로 설정하였다. 대응쌍 후보는 특징량 개수에 대해 로그 검색 시간을 갖는 ANN(approximate nearest neighbor) 검색 알고리즘을 사용한다.
이제, 확률을 높이는 해를 찾기 위한 LS, LmedS를 이용해 기존 데이터들과 검증하는 과정을 살펴보기로 한다.
입력 영상과 모델 영상 사이의 대응쌍 매칭을 통해 인식한 홍채가 옳은지 그른지를 검증한다. 검증을 통해 홍채의 최종 자세도 알 수 있다. 정확한 대응쌍을 찾기 위해 확률적 홍채인식에 사용한 유사도와 안정도를 이용하여 일차로 필터링하고 지역 공간 매칭을 통해 이상점(outlier)을 최소화한다.
도 22는 면적비(area ratio)를 이용한 지역 공간 매칭 방법을 간단히 나타낸 것이다. 대응하는 연속 네 점에 대해 모델에서 , 입력 영상에 대해서 를 구하여 두 값의 비가 허용값을 넘게 되면 네 번째 쌍을 제거한다. 이때, 앞의 세 쌍은 매칭되었다고 가정한다.
이렇게 구한 대응쌍으로부터 호모그래피를 구한다. 이때, 랜덤하게 선택한 최소 세 쌍의 대응점으로부터 LS(least square) 방법으로 호모그래피를 계산한다. 이상치(outlier)가 최소가 되게 하는 호모그래피를 초기값으로 하여 LmedS(least median of square)로 호모그래피를 최적화시킨다. 최종적으로, 호모그래피를 이용하여 모델을 입력 영상에 정렬(align)시킨다. 이상치(outlier)가 50%를 넘으면 정렬에 실패한 것으로 본다. 입력 영상과 옳은 모델과의 매칭 수가 다른 모델과의 매칭 수보다 많을수록 인식 능력이 좋다. 이러한 특성을 고려해 변별인자(discriminative factor) 개념을 제안한다. 변별인자 DF는 하기의 [수학식 70]과 같이 정의된다.
여기서, NC는 입력 영상에 있는 홍채와 같은 모델과의 대응쌍 개수를 나타내고, ND는 다른 모델과의 대응쌍 개수를 나타낸다.
DF는 인식 시스템의 내부 변수를 정하는데 있어서 중요한 척도가 된다. 가우시안 잡영(표준편차 5)이 있는 영상에 대해서 DF가 최고가 되는 저니크 모멘트 차수는 20차로 나왔다. 또한, 특징점을 중심으로 하는 지역 영상의 크기가 21x21일 때 DF값이 최고가 되었다.
시스템 인식(identification), 채널 등화(equalization) 등의 잡영의 통계적 특성을 알 수 있을 경우의 적응필터는 유한임펄스응답(FIR)의 형태를 갖는 선형필터로서 전송 채널이 선형적이고 잡영이 가산성 가우시안 잡영일 경우 메디안 필터와 같은 비선형 고정 필터에 유리하다. 그러나, 한 영상신호와 같은 비정체(non-stationary) 환경에서 선형필터는 홍채영상의 경계부분을 왜곡시켜 상을 흐리게 하는 단점을 지니고 있다. 이러한 선형필터의 한계점을 극복하기 위하여 많은 비선형 적응 필터들이 제안되었다.
비선형 필터들 중 가장 널리 사용되고 있는 것이 순서 통계학(order statistic)의 L-추정자(estimator)에 기초를 두고 있는 L-필터이며, 이의 출력은 입력들을 크기순으로 분류(sorting)한 순서통계량(order statistic)의 선형조합으로 정의된다. L-필터는 각 순서통계량의 선형 조합 계수(Coefficient)들을 모두 일정한 값으로 정함으로써 이동 평균 필터와 같은 선형필터의 특성을 나타내며 중간값(median)의 계수를 1로 정하고 이를 제외한 다른 순서 통계량의 계수를 모두 0으로 정함으로써 널리 알려진 메디안 필터와 같은 동작을 한다. 평균자승오차(mean of squared error)의 측면에서 각 종류의 잡영에 대한 최적의 L-필터계수를 "Bovik"이 제시하였다. 이러한 최적 필터는 잡영의 통계적 특성을 알 수 있는 경우에 유용하다.
L-필터의 이러한 다양성으로 인해 통계적 특성을 알 수 없는 잡영이거나 또는 통계적 특성이 시간적으로 변화하는 잡영에 대해 최적의 필터계수를 자기 스스로 설계되어 가는 비선형 적응 필터의 기본구조로서 L-필터를 많이 사용하며, 여기에 LMS과 같은 선형 적응 알고리즘을 채택한 많은 비선형 적응 필터들이 제안되었다. 이러한 선형 적응 알고리즘들은 평균이 0인 가산성 백색잡영들이 원신호에 더해진 경우에 대하여 필터 출력과 원신호의 평균자승오차나 자승오차합(sum of squared error)을 최소로 하는 평균자승추정(MSE estimate)이나 최소자승추정(least square estimate)을 기초로 하여 유도되었다. 그러므로, 잡영의 평균이 0이 아닌 경우이거나 잡영이 임펄스형인 경우에 잘 동작하지 못한다는 단점이 있다.
본 발명에서는 기존의 적응 알고리즘들에서 사용한 추정방법과는 달리 Robust 통계학의 순위추정(rank estimates)을 기초로 하여 steepest descent 방법을 사용한 새로운 비선형 적응 알고리즘을 제안하였다. 또한, 평균 및 평균제곱의 견지에서 이의 수렴함을 증명하고 수렴 조건에 관한 해석을 시도하였으며, steepest descent 방법에 필연적으로 존재하며 수렴속도와 수렴후 정상상태의 오차를 결정하는 수렴비는 비선형적인 추정에 의한 가변적인 값을 제시하였다. 제안한 필터는 신호의 순위(rank)를 이용하여 추정하기 때문에 평균자승추정 및 최소자승추정에 비해 이상점(outlier)의 영향을 적게 받는 성질을 지니고 있어 임펄스형의 잡영에 대한 적용이 유리하다고 할 수 있다. 또한, 신호에 임의의 바이어스가 존재하는 경우라도 순위는 변동없기 때문에 영상신호와 같이 평균이 0이 아닌 신호의 처리에 유리하다 할 수 있다.
최적의 계수벡터를 구하기 위한 방법으로 많이 사용되는 비용함수로는 평균자승오차와 자승오차합, 절대값오차합 등이 있으나, 본 발명에서는 순위추정에 의해 최적의 계수벡터 W를 구하기 위하여 비용함수로서 하기의 [수학식 71]과 같은 Jaeckel이 제안한 오차분산측정(Dispersion measures of residuals)을 도입한다.
여기서, N은 전체 데이터의 개수이며, E는 오차벡터이다. Ri는 e(1), e(2), ..., e(N)의 오름차순정렬 중 e(i)의 순위(Rank)이며, a(ㆍ)는 score 함수로서 본 실시예에서는 Wilcoxon score 함수 를 사용한다. Jaeckel의 오차분산측정 D(W)는 non-negative이며 연속이고 아래로 볼록(lower convex)함수이므로 비용함수의 특성을 만족한다.
계수벡터 W의 함수로서 D(W)는 음이 아닌 연속의 하향 볼록 함수로 최소값이 존재하며, Jaeckel의 순위 추정치는 D(W)를 최소화하는 값이다. 또한, 오차의 함수 측면에서 D(E)는 기함수이고 오차의 평균값에 영향을 받지 않는 location invariant한 특성을 지니며 오차에 대한 일차함수의 특성을 가지므로, 오차에 대한 이차함수의 특성을 가지는 오차자승합이나 평균오차자승에 비해 다른 오차들의 통계적 특성과 거리가 먼 이상점(outlier)에 영향을 적게 받는 강인한(robust) 특성을 갖는다.
상기 [수학식 71]의 최소값을 구하기 위한 경사도(gradient) 벡터는 하기의 [수학식 73]과 같이 D(W)의 편미분의 음이며 회귀 순위통계량(regression rank statistic)을 의미한다.
상기 [수학식 73]은 비선형 방정식으로서, 최소자승법의 정규방정식과 유사하며, 회귀 순위 통계량의 이산적인 특성으로 인해 0으로 근사화된다.
상기 [수학식 73]은 비선형 방정식이기 때문에 이를 직접적인 방법으로 해를 구하는 것은 매우 어려우며, 또한 이를 적응 알고리즘으로 구현하기 위해서는 매 시간마다 필터계수 W를 갱신하는 규칙을 적용하여야 한다. 따라서, 본 발명에서는 처리하는 값을 중심으로 T=2P+1개 크기의 오차 창(window)을 설정하고, 이들 오차 창내의 순시(instantaneous) 신호들로부터 에러벡터를 구한 후 steepest descent 방법으로 에러벡터의 오차분산측정이 최소화가 되도록 W(n)를 구하는 방법을 제안한다. 즉, 시간 n에서의 에러벡터 E(n)를 하기의 [수학식 74]와 같이 정의한다.
여기서, M은 L-필터의 크기로 홀수의 정수이며, M=2L+1로 나타낸다. 또한, X(n)는 입력 {x(n-L), x(n-L+1),…, x(n-1), x(n), x(n+1),…, x(n+L-1), x(n+L)}를 오름차순으로 정렬한 순서통계량 x<1>(n) < x<2>(n) < ... < x<M>(n)을 구성요소로 하는 Mx1 입력벡터이며, Ri는 e-P(n), ..., e0(n), ..., eP (n)의 오름차순정렬 중 ei(n)의 순위(Rank)이다. 순시 에러벡터의 순시 분산측정은 하기의 [수학식 75]와 같이 구해진다.
상기 [수학식 75]를 상기 [수학식 73]에 적용할 경우 D(W)가 W(n)에 대하여 미분 가능하므로 순시 경사도 벡터는 하기의 [수학식 76]과 같이 된다.
상기 [수학식 71]을 steepest descent 방법에 적용하면 하기의 [수학식 77]과 같이 L-필터계수를 갱신하는 순환식을 구할 수 있다.
여기서, u(n)은 수렴비로서 이것은 상수 또는 변수로 설정된다.
상기 [수학식 76] 및 [수학식 77]로 표현된 제안한 비선형 적응 알고리즘은 순위추정을 사용하기 때문에, 기존의 적응 알고리즘의 신호나 잡영에 관한 확률분포 또는 특성을 미리 알고 있다는 가정하에서 제한된 조건으로부터 해를 구하는 방법과는 달리 제안한 알고리즘을 표현하는 수식들에는 신호나 잡영의 확률분포함수나 통계적 특성이 모수(parameter)로 존재하지 않는다. 따라서, 제안한 알고리즘은 신호나 잡영에 보다 강인한 성질을 지니게 된다.
이와 같이 본 발명은 상기와 같이 홍채를 인식할 때 저니크 모멘트를 사용하여 불변성을 갖는 특징량 추출 및 이에 적합한 유사도 측정 방법을 특징으로 하여 유사 단위그룹 데이터베이스 구축과 유사 그룹검색을 함으로써 검색의 속도를 개선시킬 뿐만 아니라, 정합 검색의 정밀도를 개선시키기 위해 단위그룹내의 비유사도 측정으로 데이터베이스 구축 및 검색하는 방법을 또 하나의 특징으로 한다.
골격(skeleton)을 사용한 형상기술자는 주어진 홍채영상형상으로부터 인간의 인식에서 가장 기초가 되는 선을 추출하고, 추출된 선을 간략화함으로써 간략화된 선을 형상기술자로써 표현한다. 특히, 이와 같은 형상기술자 추출 방법에 따르면, 에지 부분 보다는 골격을 추출함으로써 기술자를 가능한 한 간략화하는 것이 가능하다.
본 발명의 다른 실시예에 따르면, 형상기술자 추출부(29)에서는 입력된 홍채영상으로부터 골격을 추출하고, 추출된 골격을 기초로 픽셀들의 연결을 수행함으로써 직선들의 목록을 구한 후, 직선들의 목록을 정규화함으로써 얻은 정규화된 직선 목록을 형상기술자로써 설정한다.
형상기술자 추출 방법에서는, 먼저 홍채형상을 입력받아, 입력된 홍채형상에 대하여 거리변환(distance transform)을 수행함으로써 거리맵을 구한다. 이때, 거리맵을 얻기 위한 거리 변환은 홍채형상 영역 내부의 각 점들을 배경으로부터 최단거리의 값으로 나타내는 함수를 사용한다. 다음으로, 거리맵 상에서 골격을 추출한다. 거리맵의 국부 최대가 골격을 이루는 점이라는 것은 잘 알려져 있다. 거리맵을 얻기 위한 거리 변환(distance transform)은 홍채형상 영역 내부의 각 점들을 배경으로부터 최단 거리의 값으로 나타내는 함수를 기초로 한다. 본 발명에서는, 거리 변환에 의하여 거리맵의 국부 최대에 해당하는 부분을 골격으로써 설정한다. 거리맵으로부터 국부 최대를 얻기 위해서, 네 방향의 국부 최대 검출 마스크를 사용한다. 하기의 [표 5] ~ [표 8]은 0, 45, 90, 135 도의 국부 최대 검출 마스크를 정리 한 것이다. 즉, [표 5]는 0도의 방향에 해당하는 마스크이다. 또한, [표 6]은 45도의 방향에 해당하는 마스크이다. 또한, [표 7]은 90도의 방향에 해당하는 마스크이다. 또한, [표 8]은 135도의 방향에 해당하는 마스크이다.
-33 -17 100 -17 -33 -33 -17 100 -17 -33 -33 -17 100 -17 -33 -33 -17 100 -17 -33 -33 -17 100 -17 -33
100 -15 -25 -35 -45 -15 100 -15 -25 -35 -25 -15 100 -15 -25 -35 -25 -15 100 -15 -45 -35 -25 -15 100
-33 -33 -33 -33 -33 -17 -17 -17 -17 -17 100 100 100 100 100 -17 -17 -17 -17 -17 -33 -33 -33 -33 -33
-45 -35 -25 -15 100 -35 -25 -15 100 -15 -25 -15 100 -15 -25 -15 100 -15 -25 -35 100 -15 -25 -35 -45
이제, 상기 마스크들을 사용하여 콘벌루션을 수행한다. 그 결과, 크기가 가장 큰 결과의 방향에 해당하는 라벨을 방향맵(direction map)과 크기맵(magnitude map)에 기록한다. 이로써, 홍채이진 형상으로부터 거리 변환을 통하여 얻어진 거리맵에서 국부 최대를 얻음으로써, 골격을 추출한다.
이후, 추출된 골격을 Zhang Suen 알고리즘을 사용하여 세션화(thinning)한다. 세션화는 예를 들어 방향맵에서 해당 방향의 90도 회전된 방향에서 크기가 가장 큰 픽셀만 남기고 나머지 픽셀들은 제거함으로써 수행될 수 있다.
다음으로, 세션화된 골격내의 각 픽셀들의 연결에 의하여 직선들을 추출한다. 즉, 세션화된 골격내의 각 픽셀들을 하나의 방향을 따라 연결하고 그 시작점과 끝점에 대한 목록을 작성함으로써 직선을 추출한다. 본 발명에서는 상기 [표 5]~[표 8]에서 제시한 네가지 방향의 방향맵을 사용하며, 방향맵에서 동일한 라벨을 가지는 픽셀들끼리 연결하여 각각의 선 세그멘트들의 시작점과 끝점에 대한 목록을 작성한다.
이어서, 추출된 직선들의 직선 병합에 의하여 직선들의 목록을 얻는다. 즉, 얻어진 직선들의 목록으로부터 각 직선들 사이의 각도, 거리, 및 직선의 길이에 대한 임계치를 변화시키면서 직선 병합을 수행한다. 상기 직선 병합은 남은 직선들의 개수가 소정의 개수 이하가 될 때까지 반복된다.
이제, 각 직선들의 끝점 사이의 최대 거리에 대하여 직선의 목록을 정규화함으로써 얻은 직선 목록을 형상기술자로서 추출하게 되며, 참고값 저장부 (도 1의 홍채패턴 등록부(14))(30)에서는 이를 홍채 데이터베이스(15)에 저장한다(314,315).
다음으로, 질의 영상이 입력될 경우(316), 홍채 패턴 추출부(특히, 형상기술자 추출부(29))(13)에서 주지한 바와 같은 동작으로 직선목록 형상기술자들을 추출하게 되고, 홍채 패턴 검증부(16)에서는 홍채 데이터베이스(15)의 직선목록 형상기술자들과 상기 추출한 질의 형상의 직선목록 형상기술자들을 비교하여(317) 직선들의 끝점들 사이의 거리를 측정하고, 측정된 거리의 최소 값의 합을 비유사도 값으로 설정하여, 결과 값이 작은 것을 두 홍채영상이 유사한 것으로 결정하여 출력함으로써, 사용자는 정확히 정합 검색된 홍채 영상을 볼 수 있다.
상기의 비유사도 홍채패턴 검증부(16)을 살펴보면 다음과 같다. 같은 비유사도 특정 함수는 N, D1k 및 D2k가 각각, 하기의 [수학식 78] 내지 [수학식 80]이라 할 때, [수학식 81]과 같다.
여기서, Q│는 검색하고자 하는 직선, M은 검색되는 직선, S는 직선의 시작점, E│는 직선의 끝점, NQ은 질의 영상의 형상기술자가 가지는 직선의 총 개수, NM는 검색되는 영상의 형상기술자가 가지는 직선의 총 개수를 나타낸다.
상기 [수학식 81]을 참조하면, 상기 [수학식 79]와 [수학식 80]에 따라 측정된 직선들 사이의 거리의 최소값이 합이 두 기술자의 비유사도로써 설정된다. 즉, 상기 [수학식 81]의 결과값이 작을수록 두 물체가 유사한 것으로 결정된다. 또한, 일정한 회전 각도 간격으로 상기와 같은 측정을 실시함으로써 회전에 따라 변하지 않는 값을 얻는 것도 가능하다. 따라서, 상기 골격(skeleton)을 사용한 직선기반 형상기술자 추출 방법은 동일한 카테고리내의 데이터 집합에서 국부적인 움직임을 추출하는데 있어서 유리함을 알 수 있다. 동일한 물체의 부분적인 움직임을 검출함에 있어서 유리한 이유는 본 발명의 형상기술자 추출 방법에 따라 추출된 형상기술자는 영상내에 포함되어 있는 형상의 대략적인 모습에 대한 정보를 그대로 가지고 있기 때문으로 이해될 수 있다.
상기한 바와 같은 본 발명의 실시예에 따라 홍채인식 시스템의 성능 평가 결과를 살펴보면 다음과 같다.
본 홍채인식 시스템의 성능을 평가하기 위해서는 충분한 수의 홍채영상이 필요하게 된다. 또한, 특정 개인에 대하여 등록 및 인식이 필요하기 때문에 필요한 영상의 수는 더욱 증가하게 된다. 홍채영상의 개수 뿐만 아니라, 성별, 연령별, 안경착용 여부 등의 다양한 환경에서의 인식에 대한 실험 역시 매우 중요하기 때문에, 인식 실험에 의한 성능평가를 위해서는 영상획득에 대한 치밀한 사전계획이 필요하다.
본 실시예에서는 홍채인식 시스템 전체 과정 중에서 카메라로부터 획득된 350명의 영상을 사용하였다. 각 사용자로부터 등록을 위한 좋은 영상(FAR용) 좌, 우측 700개와 FRR 테스트를 위한 50명으로부터의 좌, 우측의 영상 1000개를 획득하여 인식 실험에 사용한 데이터는 총 1,7000개이다. 그러나, 시간의 변화에 따른 영상 획득 및 다양한 환경의 변화에 따른 영상획득에 대해서는 좀더 고려의 대상이 된다. 하기의 [표 9]는 성능평가에 사용된 데이터를 정리한 것이다.
전처리 과정은 홍채인식 시스템의 성능을 결정짓는 매우 중요한 절차라고 할 수 있다. 따라서, 본 발명에서 제안하는 전처리 과정에 포함되어 있는 영상의 선택은 적합한 영상이 획득되지 않을 시 사용자로 하여금 다시 카메라 앞에 설 수 있도록 하여 다소 사용자로 하여금 불편함을 초래할 수 있지만, 개인을 정확하게 식별해 낼 수 있는 정밀한 시스템을 구성하는 데에는 반드시 필요한 과정이라고 할 수 있을 것이다. 또한, 전처리 과정에서 홍채영역을 제외한 불필요한 영역이 추출되어 다음 과정인 특징추출에서 이러한 영상이 사용된다면 인식 성능에 많은 영향이 미칠 것이다. 따라서, 전처리 과정에서의 높은 성능 유지는 홍채인식 시스템 전체 과정에서 차지하는 비중이 매우 크다고 할 수 있다. 먼저, 실험대상에 대하여 영상 선택 과정에서 선별적으로 선택한 영상에 대한 동공의 경계를 검출해내는 정도를 시험하여 보았다.
실험의 결과로서, 영상 선택 과정을 거치지 않고 홍채 추출 과정이 진행된 영상은 경계 검출 단계에서 오류가 발생함을 알 수 있었다. 그러나, 영상 선택과정에서 선별적으로 선택된 영상은 홍채 추출 과정에서 오류없이 영역 분리가 진행됨을 보였다. 이는 영상 선택 과정이 전처리 과정에 포함됨으로써, 보다 정교한 전처리 수행이 가능하게 되었음을 알 수 있었다.
하기의 [표 10]은 영상 선택 과정에서의 각 단계별 평균 처리시간을 나타내며, 하기의 [표 11]은 영상 선택 과정에서 실험대상 전체 데이터에 대하여 성공률을 보여준다. 그리고, [표 12]는 모든 데이터에 대한 경계선 추출률을 보여준다.
일반적으로 생체인식 시스템의 성능은 두 가지 오류율에 의해 평가되어 질 수 있다. 두 가지 오류율은 오 거부율(FRR : False Reject Rate)과 오 인식률(FAR : False Accept Rate)이며, FRR은 본인이 본인의 데이터에 대하여 인증을 시도할 경우 실패할 확률을 말하며, FAR은 타인이 본인의 데이터에 대하여 인증을 시도할 경우 성공할 확률을 말한다(하기의 [수학식 82] 참조). 즉, 생체인식 시스템 성능이 최고의 신뢰도를 제공하기 위해서는 등록되어 있는 본인이 인증을 시도할 경우에는 항상 정확하게 인식을 할 수 있어야 하며, 등록되어 있지 않은 타인이 본인에 대하여 본인이라고 인증을 시도할 경우에는 항상 거부를 할 수 있어야 한다. 이러한 일반적인 생체인식 시스템의 성능은 홍채인식 시스템에도 동일하게 적용 가능하다고 할 수 있다.
홍채인식 시스템의 응용 분야에 따라 두 가지 오류율을 선택적으로 조정하는 것이 가능하다고 할 수 있지만, 일반적으로 두 가지 오류율을 동시에 감소시키는 것이 홍채인식 시스템 성능 향상의 목표라고 할 수 있을 것이다.
이 두 가지 오류율을 산출하는 과정은 다음과 같다.
먼저, 동일한 사람으로부터 획득되어진 홍채영상들에 대하여 유사도 측정방법을 사용하여 거리를 구한 후, 거리에 대한 빈도수의 분포도를 구한다. 이를 동일인에 대한 분포도(Authentic)라 부른다. 한편, 타인간의 홍채영상들을 앞서와 동일한 방법을 사용하여 분포도를 구하는데, 이를 타인에 대한 분포도(Imposter)라 부른다. 구해진 두 분포도를 중심으로 FRR과 FAR을 최소로 하는 경계값을 구하게 되며, 이를 임계치(Threshold)라 부른다. 이상의 과정은 학습 데이터를 활용한다. 분포도에 따른 오 거부율(FRR) 및 오 인식률(FAR)은 도 23에 도시된 바와 같다.
다음은 실제적으로 홍채인식 시스템에 대하여 두 가지의 오류율을 구하는 과정을 설명한다.
학습에 사용되어지지 않은 동일한 사용자의 홍채영상에 대하여 학습되어 있는 데이터와의 거리를 구하여 임계치보다 거리값이 작을 경우에는 동일한 사용자로 판단하여 인증을 하게 된다. 그러나, 임계치보다 거리값이 클 경우에는 동일하지 않은 사람으로 판단하여 거부를 하게 된다. 이 과정을 반복하여 동일한 사람에 대하여 동일하지 않은 사용자로 판단되는 횟수에 대한 전체 시행횟수의 비율을 FRR로써 산출하게 된다.
FAR은 학습에 사용되어지지 않은 사용자를 학습된 데이터와 비교하여 인증을 하도록 시도하는 것으로서, 등록되어 있는 본인과 인증을 시도하는 타인을 비교하는 것이다. 이 과정에서 역시 임계값을 기준으로 인증과 거부를 수행하게 되는데, 임계값보다 거리값이 작으면 동일한 사람으로 판단하게 되며, 거리값이 임계값보다 크면 타인으로 판단하게 되며, 타인을 본인으로 판단하는 횟수에 대한 전체 시행횟수의 비율을 구하게 된다. 이를 FAR이라고 한다.
이러한 배경을 중심으로 본 발명에서 개발된 시스템의 성능을 평가하기 위하여 FRR과 FAR을 구하였으며, 이는 전처리 과정에서 선별되어진 데이터에 대하여 적용한 것이다.
상기에서, 동일한 사람으로부터 획득되어진 홍채 영상들에 대한 거리 분포(Authentic 분포)와 타인간의 홍채 영상들에 대한 거리 분포(Imposter 분포)를 살펴보면 다음과 같다.
동일한 사람으로부터 획득되어진 홍채영상들에 대하여 유사도 측정방법을 사용하여 거리를 구한 후, 거리에 대한 빈도수의 분포도를 구한다. 이를 동일인에 대한 분포도(Authentic)라 부르며, 실험에 사용된 데이터 집합을 사용하여 구해진 분포도가 도 24에 나타나 있다. 도 24에서, x축은 거리를 나타내며, y축은 빈도수를 나타낸다.
도 25는 타인간의 홍채영상들 사이의 거리를 구하여 분포도를 나타낸 것이며, x축은 거리를, y축은 빈도수를 나타낸다.
이제, 상기 Authentic 분포와 Imposter 분포도에 따라 적절한 임계치를 결정한다.
일반적으로 임계치에 따라 FRR과 FAR이 달라질 수 있으며, 응용분야에 따라 다소 조정이 가능하다고 할 수 있다. 그러나, 이러한 임계치의 조정은 매우 신중하게 선택되어야 한다.
도 26은 두 분포(Authentic 분포, Imposter 분포)를 동시에 보여둔다.
다음은 이러한 분포를 바탕으로 임계치를 결정하게 되며, 실제적인 응용 시스템에서는 미지의 데이터에 대하여 임계값을 기준으로 인증과 거부를 수행하게 된다. EER 임계치를 결정하는 식은 하기의 [수학식 83]와 같고, 도 27은 EER에 따른 임계치 설정 결과를 보여준다.
본 발명에서는 획득된 홍채 데이터에 대하여 학습 데이터와 테스트 데이터로 구분을 하였으며, 임계치 108에 대한 실험결과는 하기의 [표 13]과 같다.
한편, 등록 과정에서 소요되는 시간은 약 5~6초이며, 인증과정은 약 1~2초가 소요된다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
상기한 바와 같은 본 발명은, 홍채 인식 시스템에서 보다 효율적으로 홍채 인식에 적합한 영상을 획득할 수 있어 처리 시간의 단축과 동시에 인식기의 인식 성능을 높일 수 있는 효과가 있다.
또한, 본 발명은 동공과 홍채의 경계를 빠르고 정확하게 찾을 수 있고, 영상의 크기변화, 기울어짐, 이동에 대한 문제를 해결함으로써 더욱 고유한 특징을 추출할 수 있으며, 인간의 인식능력과 같은 이동, 스케일, 회전에 관계없이 저니크 모멘트를 사용함으로써 텍스쳐(홍채 형상)를 신속하고 정확하게 검색할 수 있는 효과가 있다.
또한, 본 발명은 참조값과 입력된 영상의 저니크 모멘트의 안정도, 특징량 사이의 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 입력 영상에 있는 물체를 인식하고 LS와 LmedS 기법을 결합하여 특정 개인을 구별해낼 수 있도록 함으로써, 살아있는 사람의 홍채를 빠르고 명확하게 구별할 수 있는 효과가 있다.
도 1 은 본 발명에 따른 홍채 특징 추출 장치 및 그를 이용한 홍채인식 시스템의 일실시예 구성도,
도 2 는 본 발명에 따른 상기 도 1의 홍채 특징 추출 장치 및 그를 이용한 홍채인식 시스템의 일실시예 상세 구성도,
도 3 은 본 발명에 따른 홍채 특징 추출 방법 및 그를 이용한 홍채인식 방법에 대한 일실시예 흐름도,
도 4a 는 홍채인식에 적합한 홍채 영상 예시도,
도 4b 는 홍채인식에 사용되기 부적절한 홍채 영상 예시도,
도 5 는 본 발명에 따른 영상 획득부에서의 영상 선택 과정을 나타낸 일실시예 설명도,
도 6 은 본 발명의 실시예에 따라 1차 미분 연산자에 의한 에지 검출 과정을 나타낸 설명도,
도 7 은 본 발명의 실시예에 따라 세션화를 위한 연결수화하는 과정을 나타낸 설명도,
도 8 은 본 발명의 실시예에 따라 경계연결을 위한 이웃화소의 특징분률을 나타낸 설명도,
도 9 및 도 10 은 본 발명의 실시예에 따라 동공중심 및 반지름 결정 과정을 나타낸 설명도,
도 11 은 본 발명의 실시예에 따라 영상에서 영상의 모형과 곡률 그래프를 나타낸 설명도,
도 12 는 본 발명의 실시예에 따라 선형보간법을 이용한 변환 과정을 나타낸 설명도,
도 13 은 본 발명의 실시예에 따라 선형보간법을 나타낸 설명도,
도 14 는 본 발명의 실시예에 따라 직교좌표의 극좌표 변환 과정을 나타낸 설명도,
도 15a 및 15b 는 본 발명의 실시예에 따라 평면직교좌표 및 평면극좌표를 나타낸 설명도,
도 16 은 본 발명의 실시예에 따라 1,2차 도함수의 제로 교차점 관계를 나타낸 설명도,
도 17 은 본 발명의 실시예에 따라 제로 교차점 묶기를 나타낸 설명도,
도 18 은 본 발명의 실시예에 따라 2D 히스토그램의 노드 구조와 그래프 구조를 나타낸 설명도,
도 19 는 본 발명의 실시예에 따라 선험 확률 부여시 고려사항을 나타낸 설명도,
도 20 은 본 발명의 실시예에 따라 저니크 모멘트의 민감도를 나타낸 설명도,
도 21 은 본 발명의 실시예에 따라 입력영상의 1,2차 ZMM을 2차원 평면에 나타낸 예시도,
도 22 는 본 발명의 실시예에 따라 지역 공간 매칭 방법을 나타낸 설명도,
도 23 은 본 발명의 실시예에 따라 분포도에 따른 오 거부율(FRR) 및 오 인식율(FAR)을 나타낸 설명도,
도 24 는 본 발명의 실시예에 따라 동일한 사람의 홍채에 대한 거리 분포도를 나타낸 설명도,
도 25 는 본 발명의 실시예에 따라 타인의 홍채에 대한 거리 분포도를 나타낸 설명도,
도 26 은 본 발명의 실시예에 따라 Authentic 분포와 Imposter 분포를 동시에 보여주는 설명도,
도 27 은 본 발명의 실시예에 따라 임계치(EER)의 결정을 나타낸 설명도이다.
* 도면의 주요 부분에 대한 부호 설명
21 : 영상 획득부 22 : 기준점 검출부
23 : 내부경계 검출부 24 : 외부경계 검출부
25 : 영상좌표 변환부 26 : 영상분석대역 정의부
27 : 영상 평활화부 28 : 영상 정규화부
29 : 형상기술자 추출부 30 : 참조값 저장부
31 : 영상인식 및 검증부

Claims (44)

  1. 홍채인식을 위한 동공 검출 방법에 있어서,
    안구 영상으로부터 조명으로 인한 광원을 동공내 두 개의 기준점으로 검출하는 기준점 검출단계;
    상기 두 개의 기준점을 지나는 직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제1 경계후보지점 결정단계;
    교차하는 두 개의 홍채와 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제2 경계후보지점 결정단계; 및
    상기 결정한 후보지점들로부터 서로 가깝게 이웃하는 후보지점 사이를 지나는 직선들의 이등분 중심점을 기준으로 한 수직선들이 교차하는 중심 후보점을 이용하여 경계 후보지에 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하는 동공영역 검출단계
    를 포함하는 홍채인식을 위한 동공 검출 방법.
  2. 제 1 항에 있어서,
    상기 기준점 검출단계는,
    안구 영상에 맺힌 조명 성분들의 기하학적인 편차를 구하고, 그들의 평균값을 계산하여 가우시안 파형으로 모델링하여, 모델링된 템플릿으로 안구 영상의 동공안에 기준점이 선정되도록 템플릿 매칭을 수행하여 두 개의 기준점을 검출하는 것을 특징으로 하는 홍채인식을 위한 동공 검출 방법.
  3. 제 1 항에 있어서,
    상기 제1 경계후보지점 결정단계는,
    상기 두 개의 기준점을 중심으로 하여 +, - X방향 축으로의 선방 파형의 화소값의 변화를 표시하는 프로파일(Profile)을 추출하고, 두 개의 기준점을 지나는 X방향으로 1차원 신호의 2개의 경계후보를 검출하기 위해, 기울기에 해당하는 경계 후보 마스크를 생성하고, 프로파일과 경계후보 마스크의 컨볼루션을 이용하여, 경계후보 파형을 생성하여 경계후보지점을 결정하는 것을 특징으로 하는 홍채인식을 위한 동공 검출 방법.
  4. 제 3 항에 있어서,
    상기 제2 경계후보지점 결정단계는,
    교차하는 두 개의 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선상에서 상기 제1 경계후보지점 결정단계와 동일한 방법으로 또 다른 동공 경계 후보지점을 결정하는 것을 특징으로 하는 특징으로 하는 홍채인식을 위한 동공 검출 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 동공은 곡률이 다르므로 확대 최대 계수법을 이용하여 반지름을 구하고, 구간이등분선교차 방법을 이용하여 동공의 중심좌표를 구한 후 중심점에서 반시계 방향으로 동공의 반지름까지의 거리를 구하며, x축을 회전각으로 하고 y축을 동공의 반지름까지의 거리로 해서 그래프로 나타내어 정확한 경계 검출을 하는 것을 특징으로 하는 홍채 인식을 위한 동공 검출 방법.
  6. 홍채인식을 위한 형상기술자 추출 방법에 있어서,
    스케일 스페이스 및/또는 스케일 조명에서 홍채 특징을 추출하는 단계;
    상기 추출된 특징을 저차원 모멘트를 사용해 모멘트를 평균 크기 및/또는 밝기로 정규화하여 크기 및/또는 조명에 불변한 저니크 모멘트를 생성하는 저니크 모멘트 생성단계; 및
    상기 저니크 모멘트를 이용하여 회전 불변 뿐만 아니라, 크기 및/또는 조명에 강인한 형상기술자를 추출하는 형상기술자 추출단계
    를 포함하는 홍채인식을 위한 형상기술자 추출 방법.
  7. 제 6 항에 있어서,
    상기 형상기술자를 이용하여 인덱싱된 유사 홍채형상 그룹단위 데이터베이스를 구축하고, 이로부터 질의 영상과 유사한 홍채 형상기술자를 갖는 인덱스 홍채형상그룹을 검색하는 단계
    를 더 포함하는 홍채인식을 위한 형상기술자 추출 방법.
  8. 홍채인식을 위한 형상기술자 추출 방법에 있어서,
    입력된 홍채영상으로부터 골격을 추출하는 단계;
    상기 추출된 골격을 세션화(thinning)하여 세션화된 골격내의 각 픽셀들을 연결하여 직선들을 추출하고, 추출된 직선들의 직선 병합에 의하여 직선들의 목록을 구하는 단계; 및
    직선들의 목록을 정규화함으로써 얻은 정규화된 직선목록을 형상기술자로서 설정하는 단계
    를 포함하는 홍채인식을 위한 형상기술자 추출 방법.
  9. 제 8 항에 있어서,
    직선기반의 상기 형상기술자를 사용하여, 인덱싱된 유사 홍채형상 단위그룹내의 비유사도를 측정하여 비유사한 형상기술자 단위로 홍채 형상 데이터베이스를 구축하고, 이로부터 질의 영상과 정합한 홍채형상을 검색하는 검색단계
    를 더 포함하는 홍채인식을 위한 형상기술자 추출 방법.
  10. 제 9 항에 있어서,
    상기 검색단계는,
    상기 홍채 형상 데이터베이스의 직선목록 형상기술자들과 상기 추출한 질의 형상의 직선목록 형상기술자들을 비교하여 직선들의 끝점들 사이의 거리를 측정하고, 측정된 거리의 최소값의 합을 비유사도 값으로 설정하여, 결과값이 작은 것을 두 홍채영상이 유사한 것으로 결정하여 출력하는 것을 특징으로 하는 형상기술자 추출 방법.
  11. 홍채 특징 추출 장치에 있어서,
    입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득수단;
    획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출수단;
    동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출수단;
    분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환수단;
    홍채학의 임상근거에 기준한 홍채의 무늬를 특징점으로 사용하기 위해 홍채 상내의 분석대역을 분류하기 위한 영상분석대역 정의수단;
    영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화수단;
    평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화수단; 및
    스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출수단
    을 포함하는 홍채 특징 추출 장치.
  12. 제 11 항에 있어서,
    상기 저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장수단
    을 더 포함하는 홍채 특징 추출 장치.
  13. 제 12 항에 있어서,
    상기 참조값 저장수단에는,
    스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 생성된 저니크(Zernike) 모멘트가 참조값으로 저장되는 것을 특징으로 하는 홍채 특징 추출 장치.
  14. 제 11 항 내지 제 13 항 중 어느 한 항에 있어서,
    상기 영상획득수단은,
    입력 영상에 대해 디지털화 및 양자화한 후, 깜빡임 탐지, 동공의 위치, 에지 수직성분의 분포를 포함한 영상 선택 과정을 통해 홍채인식에 적합한 안구영상을 획득하는 것을 특징으로 하는 홍채 특징 추출 장치.
  15. 제 14 항에 있어서,
    상기 기준점 검출수단은,
    확산(diffusion) 필터를 이용한 EED(Edge Enhancing Diffusion) 방법을 통해 에지 잡영을 제거하고, 가우시안 블러링을 하여 홍채 영상을 확산시킨 후, 반복적으로 임계값을 변경하여 확대 최대 계수법으로 동공의 실제 중심을 검출하는 것을 특징으로 하는 홍채 특징 추출 장치.
  16. 제 15 항에 있어서,
    상기 EED 방법은,
    국부 에지에서의 방향성을 고려하여, 에지의 방향과 같은 부분은 확산(diffusion)을 많이 해주고, 에지의 방향과 수직인 부분은 확산(diffusion)을 조금 해주는 것을 특징으로 하는 홍채 특징 추출 장치.
  17. 제 15 항에 있어서,
    상기 경계검출수단은,
    안구영상의 홍채 부분과 동공 부분 사이의 동공 경계를 검출하고, 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하며, 동공 경계와 꼭 동심을 이루지는 않는 호(arc)를 사용해 상의 홍채 부분과 공막(sclera) 부분 사이의 외부영역을 검출하는 것을 특징으로 하는 홍채 특징 추출 장치.
  18. 제 15 항에 있어서,
    상기 경계검출수단은,
    반복적 임계값 변경을 통해 실시간으로 동공을 검출하며, 동공은 곡률이 다르므로 확대 최대 계수법을 이용하여 반지름을 구하고, 구간이등분선교차 방법을 이용하여 동공의 중심좌표를 구한 후 중심점에서 반시계 방향으로 동공의 반지름까지의 거리를 구하며, x축을 회전각으로 하고 y축을 동공의 반지름까지의 거리로 해서 그래프로 나타내어 정확한 경계검출을 하는 것을 특징으로 하는 홍채 특징 추출 장치.
  19. 제 14 항에 있어서,
    상기 분석대역은,
    눈꺼풀, 속눈썹 혹은 조명기로부터의 거울 반사에 의해 차단될 수 있는 홍채 상의 임의의 선택 부분들이 포함되지 않은 인식에 적합한 영상의 분석대역을 의미하며, 시계의 12시방향을 기준으로 하여 좌우6도(섹터1), 이어서 시계방향으로 24도(섹터2), 42도(섹터3), 9도(섹터4), 30도(섹터5), 42도(섹터6), 27도(섹터7), 36도(섹터8), 18도(섹터9), 39도(섹터(10), 27도(섹터11), 24도(섹터12), 36도(섹터13)와 같이 대역을 나누며, 이와 같이 각 섹터들을 동공을 중심으로 4개의 환상대역으로 나눠, 각 섹터가 동공을 중심으로부터 홍채의 외부경계 방향으로 4개의 환상대역에 따라서 섹터1-4, 섹터1-3, 섹터1-2, 섹터1-1로 나뉘어지는 것을 특징으로 하는 홍채 특징 추출 장치.
  20. 제 18 항에 있어서,
    상기 영상 평활화수단은,
    동공을 중심으로 동일 반지름상의 1차원 홍채영상패턴에 대해 가우시안 커널을 사용하여 홍채영상의 크기 변화에도 동일한 패턴을 제공하는 1차원 스케일 스페이스 필터링을 적용한 후, 영점통과 지점인 에지를 구하고, 겹치는 회선 윈도우를 이용하여 이를 누적시켜 다시 홍채 특징을 2차원으로 추출되게 함으로써, 홍채 코드 생성시 데이터 크기를 줄이는 것을 특징으로 하는 홍채 특징 추출 장치.
  21. 제 20 항에 있어서,
    상기 영상 정규화수단은,
    크기에 불변한 특징량을 얻기 위해 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화함으로써, 회전에는 불변하나 크기와 조명에 민감한 저니크 모멘트가 크기에 불변 특성을 갖는 저니크 모멘트를 만들 수 있게 하고, 지역 조명 변화를 스케일 조명 변화로 모델링할 경우 모멘트를 평균 밝기로 정규화하여 조명에 불변 특성을 갖는 저니크 모멘트를 만들 수 있게 하는 것을 특징으로 하는 홍채 특징 추출 장치.
  22. 홍채인식 시스템에 있어서,
    입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득수단;
    획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출수단;
    동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출수단;
    분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환수단;
    홍채학의 임상근거에 기준한 홍채의 무늬를 특징점으로 사용하기 위해 홍채 상내의 분석대역을 분류하기 위한 영상분석대역 정의수단;
    영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화수단;
    평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화수단;
    스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출수단;
    저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장수단; 및
    상기 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 홍채 영상을 인식하기 위한 검증수단
    을 포함하는 홍채인식 시스템.
  23. 제 22 항에 있어서,
    상기 검증수단은,
    상기 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 특징량 사이의 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 입력 영상에 있는 물체를 인식하되, LS(Least Square)와 LmedS(Least media of Square) 기법을 결합하여 개인의 홍채를 빠르고 명확하게 구별할 수 있는 것을 특징으로 하는 홍채인식 시스템.
  24. 제 22 항에 있어서,
    상기 검증수단은,
    이상치(outlier)를 얻기 위해 제공된 입력영상의 모멘트를 확률적 물체인식에 사용한 유사도와 안정도를 이용하여 일차로 필터링하고 저장하였던 참조값 모멘트와 지역공간 매칭을 하고, 이경우 이상치(outlier)는 시스템이 대상자의 신원을 확립, 확인 또는 부인(disconfirm)하고, 그 결정에 대한 확신 레벨을 산출하는 것을 허용하며, 이 과정의 인식율은 입력영상과 옳은 모델과의 매칭수가 다른 모델과의 매칭수 보다 많을수록 인식능력이 좋은 변별인자(DF)를 통해 알 수 있는 것을 특징으로 하는 홍채인식 시스템.
  25. 제 22 항 내지 제 24 항 중 어느 한 항에 있어서,
    상기 형상기술자를 추출함에 있어서,
    디지털 카메라를 통해 홍채인식에 적합한 안구영상을 획득하고, 동공내 기준점을 검출한 후, 안구영상과 동공 부분 사이의 동공 경계를 정의하고, 동공 경계와 꼭 동심을 이루지는 않는 호(arc)를 사용해 상의 홍채 부분과 공막(sclera) 부분 사이의 다른 원형 경계를 정의하며,
    분석대역들내에 있는 홍채 영상 부분은 극좌표 변환 과정을 거쳐 동공을 중심으로 동일 반지름상의 1차원 홍채영상패턴에 대해 가우시안 커널을 사용하여 홍채영상의 크기 변화에도 동일한 패턴을 제공하는 1차원 스케일 스페이스 필터링을 적용한 후, 영점통과 지점인 에지를 구하고, 겹치는 회선 윈도우를 이용하여 이를 누적시켜 다시 홍채 특징을 2차원으로 추출되게 함으로써, 홍채 코드 생성시 데이터 크기를 줄이며,
    크기에 불변한 특징량을 얻기 위해 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화함으로써, 회전에는 불변하나 크기와 조명에 민감한 저니크 모멘트가 크기에 불변 특성을 갖는 저니크 모멘트를 만들고, 지역 조명 변화를 스케일 조명 변화로 모델링할 경우 모멘트를 평균 밝기로 정규화하여 조명에 불변 특성을 갖는 저니크 모멘트를 만드는 것을 특징으로 하는 홍채인식 시스템.
  26. 홍채 특징 추출 장치에 적용되는 홍채 특징 추출 방법에 있어서,
    입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득단계;
    획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출단계;
    동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출단계;
    분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환단계;
    영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화단계;
    평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화단계; 및
    스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출단계
    를 포함하는 홍채 특징 추출 방법.
  27. 제 26 항에 있어서,
    저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장단계
    를 더 포함하는 홍채 특징 추출 방법.
  28. 제 26 항 또는 제 27 항에 있어서,
    상기 홍채 상내에서의 분석대역(눈꺼풀, 속눈썹 혹은 조명기로부터의 거울 반사에 의해 차단될 수 있는 홍채 상의 임의의 선택 부분들이 포함되지 않은 인식에 적합한 영상의 분석대역)을 정의하고,
    분석대역은 시계의 12시방향을 기준으로 하여 좌우6도(섹터1), 이어서 시계방향으로 24도(섹터2), 42도(섹터3), 9도(섹터4), 30도(섹터5), 42도(섹터6), 27도(섹터7), 36도(섹터8), 18도(섹터9), 39도(섹터(10), 27도(섹터11), 24도(섹터12), 36도(섹터13)와 같이 대역을 나누며, 이와 같이 각 섹터들을 동공을 중심으로 4개의 환상대역으로 나눠, 각 섹터가 동공을 중심으로부터 홍채의 외부경계 방향으로 4개의 환상대역에 따라서 섹터1-4, 섹터1-3, 섹터1-2, 섹터1-1로 나뉘어지는 것을 특징으로 하는 홍채 특징 추출 방법.
  29. 제 26 항 또는 제 27 항에 있어서,
    상기 영상획득단계는,
    입력 영상에 대해 디지털화 및 양자화한 후, 깜빡임 탐지, 동공의 위치, 에지 수직성분의 분포를 포함한 영상 선택 과정을 통해 홍채인식에 적합한 안구영상을 획득하는 것을 특징으로 하는 홍채 특징 추출 방법.
  30. 제 29 항에 있어서,
    상기 기준점 검출단계는,
    확산(diffusion) 필터를 이용한 EED(Edge Enhancing Diffusion) 방법을 통해 에지 잡영을 제거하고, 가우시안 블러링을 하여 홍채 영상을 확산시킨 후, 반복적으로 임계값을 변경하여 확대 최대 계수법으로 동공의 실제 중심을 검출하는 것을 특징으로 하는 홍채 특징 추출 방법.
  31. 제 30 항에 있어서,
    상기 EED 방법은,
    국부 에지에서의 방향성을 고려하여, 에지의 방향과 같은 부분은 확산(diffusion)을 많이 해주고, 에지의 방향과 수직인 부분은 확산(diffusion)을 조금 해주는 것을 특징으로 하는 홍채 특징 추출 방법.
  32. 제 29 항에 있어서,
    상기 경계검출단계는,
    안구영상의 홍채 부분과 동공 부분 사이의 동공 경계를 검출하고, 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하며, 동공 경계와 꼭 동심을 이루지는 않는 호(arc)를 사용해 상의 홍채 부분과 공막(sclera) 부분 사이의 외부영역을 검출하되,
    반복적 임계값 변경을 통해 실시간으로 동공을 검출하며, 동공은 곡률이 다르므로 확대 최대 계수법을 이용하여 반지름을 구하고, 구간이등분선교차 방법을 이용하여 동공의 중심좌표를 구한 후 중심점에서 반시계 방향으로 동공의 반지름까지의 거리를 구하며, x축을 회전각으로 하고 y축을 동공의 반지름까지의 거리로 해서 그래프로 나타내어 정확한 경계검출을 하는 것을 특징으로 하는 홍채 특징 추출 방법.
  33. 제 32 항에 있어서,
    상기 영상 평활화단계는,
    동공을 중심으로 동일 반지름상의 1차원 홍채영상패턴에 대해 가우시안 커널을 사용하여 홍채영상의 크기 변화에도 동일한 패턴을 제공하는 1차원 스케일 스페이스 필터링을 적용한 후, 영점통과 지점인 에지를 구하고, 겹치는 회선 윈도우를 이용하여 이를 누적시켜 다시 홍채 특징을 2차원으로 추출되게 함으로써, 홍채 코드 생성시 데이터 크기를 줄이는 것을 특징으로 하는 홍채 특징 추출 방법.
  34. 제 33 항에 있어서,
    상기 영상 정규화단계는,
    크기에 불변한 특징량을 얻기 위해 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화함으로써, 회전에는 불변하나 크기와 조명에 민감한 저니크 모멘트가 크기에 불변 특성을 갖는 저니크 모멘트를 만들 수 있게 하고, 지역 조명 변화를 스케일 조명 변화로 모델링할 경우 모멘트를 평균 밝기로 정규화하여 조명에 불변 특성을 갖는 저니크 모멘트를 만들 수 있게 하는 것을 특징으로 하는 홍채 특징 추출 방법.
  35. 홍채인식 시스템에 적용되는 홍채인식 방법에 있어서,
    입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득단계;
    획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출단계;
    동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출단계;
    분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환단계;
    영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화단계;
    평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화단계;
    스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출단계;
    저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장단계; 및
    상기 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 홍채 영상을 인식하기 위한 검증단계
    를 포함하는 홍채인식 방법.
  36. 제 35 항에 있어서,
    상기 검증단계는,
    LS(Least Square)와 LmedS(Least media of Square) 기법을 결합하여 개인의 홍채를 빠르고 명확하게 구별하되,
    이상치(outlier)를 얻기 위해 제공된 입력영상의 모멘트를 확률적 물체인식에 사용한 유사도와 안정도를 이용하여 일차로 필터링하고 저장하였던 참조값 모멘트와 지역공간 매칭을 하고, 이경우 이상치(outlier)는 시스템이 대상자의 신원을 확립, 확인 또는 부인(disconfirm)하고, 그 결정에 대한 확신 레벨을 산출하는 것을 허용하며, 이 과정의 인식율은 입력영상과 옳은 모델과의 매칭수가 다른 모델과의 매칭수 보다 많을수록 인식능력이 좋은 변별인자(DF)를 통해 알 수 있는 것을 특징으로 하는 홍채인식 방법.
  37. 홍채인식을 위한 동공 검출을 위하여, 프로세서를 구비한 동공 검출 장치에,
    안구 영상으로부터 조명으로 인한 광원을 동공내 두 개의 기준점으로 검출하는 기준점 검출기능;
    상기 두 개의 기준점을 지나는 직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제1 경계후보지점 결정기능;
    교차하는 두 개의 홍채와 동공의 경계 후보지점 사이의 거리를 이등분하는 중심점을 기준으로 한 수직선과 교차하는 안구 영상의 홍채와 동공 사이의 경계 후보지점을 결정하는 제2 경계후보지점 결정기능; 및
    상기 결정한 후보지점들로부터 서로 가깝게 이웃하는 후보지점 사이를 지나는 직선들의 이등분 중심점을 기준으로 한 수직선들이 교차하는 중심 후보점을 이용하여 경계 후보지에 가까운 원의 반지름과 중심의 좌표를 구하여 동공의 위치와 크기를 결정하여 동공 영역을 검출하는 동공영역 검출기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  38. 홍채인식을 위한 형상기술자 추출을 위하여, 프로세서를 구비한 형상기술자 추출 장치에,
    스케일 스페이스 및/또는 스케일 조명에서 홍채 특징을 추출하는 기능;
    상기 추출된 특징을 저차원 모멘트를 사용해 모멘트를 평균 크기 및/또는 밝기로 정규화하여 크기 및/또는 조명에 불변한 저니크 모멘트를 생성하는 저니크 모멘트 생성기능; 및
    상기 저니크 모멘트를 이용하여 회전 불변 뿐만 아니라, 크기 및/또는 조명에 강인한 형상기술자를 추출하는 형상기술자 추출기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  39. 제 38 항에 있어서,
    상기 형상기술자를 이용하여 인덱싱된 유사 홍채형상 그룹단위 데이터베이스를 구축하고, 이로부터 질의 영상과 유사한 홍채 형상기술자를 갖는 인덱스 홍채형상그룹을 검색하는 기능
    을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  40. 홍채인식을 위한 형상기술자 추출을 위하여, 프로세서를 구비한 형상기술자 추출 장치에,
    입력된 홍채영상으로부터 골격을 추출하는 기능;
    상기 추출된 골격을 세션화(thinning)하여 세션화된 골격내의 각 픽셀들을 연결하여 직선들을 추출하고, 추출된 직선들의 직선 병합에 의하여 직선들의 목록을 구하는 기능; 및
    직선들의 목록을 정규화함으로써 얻은 정규화된 직선목록을 형상기술자로서 설정하는 기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  41. 제 40 항에 있어서,
    직선기반의 상기 형상기술자를 사용하여, 인덱싱된 유사 홍채형상 단위그룹내의 비유사도를 측정하여 비유사한 형상기술자 단위로 홍채 형상 데이터베이스를 구축하고, 이로부터 질의 영상과 정합한 홍채형상을 검색하는 기능
    을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  42. 홍채인식을 위한 홍채 특징 추출을 위하여, 프로세서를 구비한 홍채 특징 추출 장치에,
    입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득기능;
    획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출기능;
    동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출기능;
    분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환기능;
    영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화기능;
    평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화기능; 및
    스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  43. 제 42 항에 있어서,
    저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장기능
    을 더 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  44. 프로세서를 구비한 홍채인식 시스템에,
    입력 영상에 대해 디지털화 및 양자화한 후, 홍채인식에 적합한 영상을 획득하기 위한 영상획득기능;
    획득된 영상에서 동공내 임의의 기준점을 검출한 후 동공의 실제 중심을 검출하기 위한 기준점 검출기능;
    동공과 홍채가 접하는 내부경계 및 홍채와 공막이 접하는 외부경계를 검출하여 홍채 영역만을 분리하기 위한 경계검출기능;
    분리된 홍채 패턴 영상을 직교좌표에서 극좌표로 변환하여, 좌표계의 원점이 원형 동공 경계의 중심으로 정의하기 위한 영상좌표 변환기능;
    영상의 인접간 픽셀간의 명암 분포 차이를 분명하게 하기 위하여, 홍채 상내의 분석대역을 중심으로 스케일 스페이스 필터링을 통해 영상을 평활화하기 위한 영상 평활화기능;
    평활화된 영상을 저차원 모멘트를 사용하여 모멘트를 평균 크기로 정규화하기 위한 영상 정규화기능;
    스케일 스페이스 및 스케일 조명에서 추출한 특징점을 중심으로 저니크(Zernike) 모멘트를 생성하고, 상기 저니크 모멘트를 이용하여 회전 불변 및 잡영에 강인한 형상기술자를 추출하기 위한 형상기술자 추출기능;
    저니크 모멘트의 안정도 및 유클리드 거리의 유사도를 비교하여 템플릿 형태로 분류 저장하기 위한 참조값 저장기능; 및
    상기 참조값(템플릿)과 현재 검증 대상자의 홍채 영상의 저니크 모멘트의 안정도, 유사도를 확률적으로 반영한 모델 사이의 특징량 매칭을 통해 홍채 영상을 인식하기 위한 검증기능
    을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020040071432A 2003-09-08 2004-09-07 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 Ceased KR20050025927A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20030062537 2003-09-08
KR1020030062537 2003-09-08

Publications (1)

Publication Number Publication Date
KR20050025927A true KR20050025927A (ko) 2005-03-14

Family

ID=36640493

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040071432A Ceased KR20050025927A (ko) 2003-09-08 2004-09-07 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법

Country Status (3)

Country Link
US (1) US20060147094A1 (ko)
KR (1) KR20050025927A (ko)
WO (1) WO2005024708A1 (ko)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100924232B1 (ko) * 2007-12-10 2009-11-02 아이리텍 잉크 직교좌표 및 극좌표 이미지변환을 위한 가중픽셀보간방법
US7869626B2 (en) 2006-09-18 2011-01-11 Electronics And Telecommunications Research Institute Iris recognition method and apparatus thereof
KR101010927B1 (ko) * 2008-11-26 2011-01-25 서울대학교산학협력단 전산화단층촬영을 이용한 가상대장내시경에서 자동화된 용종 검출 방법과 이를 이용한 용종 검출 시스템
KR101068937B1 (ko) * 2009-11-18 2011-09-29 숭실대학교산학협력단 기능성 게임의 개인화된 학습경로 생성방법
KR101102747B1 (ko) * 2006-04-07 2012-01-05 에섹스 피에이 엘엘씨 생체인식 식별
KR101101142B1 (ko) * 2009-12-31 2012-01-05 서강대학교산학협력단 비제한적 환경에서의 홍채 인식 시스템 및 방법
KR101222125B1 (ko) * 2010-03-08 2013-01-14 창원대학교 산학협력단 영상 처리 방법 및 장치
KR101387775B1 (ko) * 2013-02-14 2014-04-21 인하대학교 산학협력단 강화학습을 이용한 눈동자 추적 시스템 및 그 추적 방법
WO2015060869A1 (en) * 2013-10-25 2015-04-30 Intel Corporation Dynamic optimization of light source power
WO2015199354A1 (ko) * 2014-06-24 2015-12-30 주식회사 이리언스 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치
KR101582800B1 (ko) * 2014-09-02 2016-01-19 재단법인 실감교류인체감응솔루션연구단 적응적으로 컬러 영상 내의 에지를 검출하는 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR20160061690A (ko) * 2014-11-24 2016-06-01 현대자동차주식회사 눈 검출장치 및 방법
KR20170036764A (ko) * 2014-07-24 2017-04-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 동공 검출
US9633259B2 (en) 2014-10-10 2017-04-25 Hyundai Motor Company Apparatus and method for recognizing iris
WO2017183830A1 (ko) * 2016-04-22 2017-10-26 아이리텍 잉크 홍채템플릿 분산 저장 및 매칭을 이용한 홍채인식 보안 강화 방법 및 장치
KR20180057646A (ko) * 2015-09-11 2018-05-30 아이베리파이 인크. 바이오메트릭 시스템들을 위한 안구-혈관 및 얼굴 인식을 위한 이미지 및 피쳐 품질, 이미지 강화 및 피쳐 추출, 및 얼굴 및/또는 서브-얼굴 정보와 안구-혈관의 융합
WO2018128241A1 (ko) * 2017-01-09 2018-07-12 주식회사 쓰리이 홍채 패턴 코드화 방법
CN109460770A (zh) * 2018-09-06 2019-03-12 徐庆 图像特征描述符提取方法、装置、计算机设备和存储介质
CN109886069A (zh) * 2018-12-21 2019-06-14 深圳动保科技有限公司 基于动物管理系统的虹膜识别获取装置及使用该装置流程
KR102032487B1 (ko) * 2018-05-29 2019-10-15 상명대학교산학협력단 시각 피로 측정 장치 및 방법
CN110751064A (zh) * 2019-09-30 2020-02-04 四川大学 基于图像处理的眨眼次数分析方法和系统
KR20200049936A (ko) * 2018-10-29 2020-05-11 상명대학교산학협력단 생체 인식 장치 및 방법
CN112101199A (zh) * 2020-09-15 2020-12-18 西安艾瑞生物识别科技有限公司 一种基于深度学习的长距离虹膜识别方法
KR20230081189A (ko) * 2021-11-30 2023-06-07 주식회사 디엔 스마트폰을 이용한 동공반응 검사방법
CN120726632A (zh) * 2025-08-22 2025-09-30 中国科学院光电技术研究所 一种基于区域生长算法的高动态条纹星象检测方法和装置

Families Citing this family (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8064647B2 (en) * 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US8098901B2 (en) * 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8049812B2 (en) * 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8705808B2 (en) * 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8442276B2 (en) * 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
KR100629550B1 (ko) * 2004-11-22 2006-09-27 아이리텍 잉크 다중스케일 가변영역분할 홍채인식 방법 및 시스템
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
GB0603411D0 (en) * 2006-02-21 2006-03-29 Xvista Ltd Method of processing an image of an eye
AU2007220010B2 (en) 2006-03-03 2011-02-17 Gentex Corporation Single lens splitter camera
WO2008019168A2 (en) * 2006-03-03 2008-02-14 Honeywell International, Inc. Modular biometrics collection system architecture
WO2008016724A2 (en) * 2006-03-03 2008-02-07 Honeywell International, Inc. An iris recognition system having image quality metrics
US8014571B2 (en) * 2006-05-15 2011-09-06 Identix Incorporated Multimodal ocular biometric system
JP2007319174A (ja) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd 撮影装置およびそれを用いた認証装置
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
CN100351851C (zh) * 2006-07-11 2007-11-28 电子科技大学 基于数学形态学和概率统计的虹膜定位方法
US7738692B2 (en) * 2006-07-20 2010-06-15 Taiwan Semiconductor Manufacturing Co., Ltd. Methods of determining quality of a light source
GB0616293D0 (en) 2006-08-16 2006-09-27 Imp Innovations Ltd Method of image processing
US8121356B2 (en) 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US8170293B2 (en) * 2006-09-15 2012-05-01 Identix Incorporated Multimodal ocular biometric system and methods
US8433103B2 (en) * 2006-09-15 2013-04-30 Identix Incorporated Long distance multimodal biometric system and method
US7970179B2 (en) * 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
TW200816060A (en) * 2006-09-29 2008-04-01 Univ Nat Chiao Tung Iris recognition method
JP4996904B2 (ja) * 2006-10-04 2012-08-08 株式会社日立製作所 生体認証システム、登録端末、認証端末、及び認証サーバ
US7809747B2 (en) * 2006-10-23 2010-10-05 Donald Martin Monro Fuzzy database matching
US9846739B2 (en) 2006-10-23 2017-12-19 Fotonation Limited Fast database matching
US20080161674A1 (en) * 2006-12-29 2008-07-03 Donald Martin Monro Active in vivo spectroscopy
US8036466B2 (en) * 2007-01-17 2011-10-11 Donald Martin Monro Shape representation using cosine transforms
US8055074B2 (en) * 2007-01-17 2011-11-08 Donald Martin Monro Shape representation using fourier transforms
US8103115B2 (en) * 2007-02-26 2012-01-24 Sony Corporation Information processing apparatus, method, and program
US8023699B2 (en) * 2007-03-09 2011-09-20 Jiris Co., Ltd. Iris recognition system, a method thereof, and an encryption system using the same
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
DE602008002276D1 (de) 2007-04-26 2010-10-07 St Microelectronics Rousset Lokalisierungsverfahren und -vorrichtung einer menschlichen Iris in einem Bild
FR2915604B1 (fr) * 2007-04-26 2010-11-05 St Microelectronics Rousset Procede et dispositif de localisation d'un iris humain dans une image.
US20120239458A9 (en) * 2007-05-18 2012-09-20 Global Rainmakers, Inc. Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer
DE102007035873A1 (de) * 2007-07-28 2009-01-29 Perner, Petra, Dr.-Ing. Verfahren und Anordnung zur automatischen Erkennung und Interpretation der Irisstruktur als eine Zustandsbestimmung einer Person
WO2009041963A1 (en) * 2007-09-24 2009-04-02 University Of Notre Dame Du Lac Iris recognition using consistency information
US20090092283A1 (en) * 2007-10-09 2009-04-09 Honeywell International Inc. Surveillance and monitoring system
WO2009102940A1 (en) * 2008-02-14 2009-08-20 The International Performance Registry, Llc System and method for animal identification using iris images
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
JP4513898B2 (ja) * 2008-06-09 2010-07-28 株式会社デンソー 画像識別装置
US8644565B2 (en) * 2008-07-23 2014-02-04 Indiana University Research And Technology Corp. System and method for non-cooperative iris image acquisition
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8081254B2 (en) * 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8725751B1 (en) * 2008-08-28 2014-05-13 Trend Micro Incorporated Method and apparatus for blocking or blurring unwanted images
JP5056695B2 (ja) * 2008-09-24 2012-10-24 富士ゼロックス株式会社 類似画像提示装置及びプログラム
US8054170B1 (en) * 2008-09-30 2011-11-08 Adobe Systems Incorporated Characterizing and representing images
CN101727574A (zh) * 2008-10-17 2010-06-09 深圳富泰宏精密工业有限公司 虹膜识别系统及方法
US8280119B2 (en) * 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8581838B2 (en) * 2008-12-19 2013-11-12 Samsung Electronics Co., Ltd. Eye gaze control during avatar-based communication
WO2010129074A1 (en) * 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
JP5365214B2 (ja) * 2009-01-22 2013-12-11 日本電気株式会社 画像処理装置、生体認証装置、画像処理方法及びプログラム
US8577095B2 (en) * 2009-03-19 2013-11-05 Indiana University Research & Technology Corp. System and method for non-cooperative iris recognition
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) * 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8655084B2 (en) * 2009-06-23 2014-02-18 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Reno Hand-based gender classification
TWI411968B (zh) * 2009-12-31 2013-10-11 Via Tech Inc 圖像特徵計算方法以及圖像檢索方法
JP2013518319A (ja) * 2010-01-22 2013-05-20 イリテック インコーポレイテッド 虹彩サイズの異なる複数の虹彩イメージを用いた虹彩認識装置及び方法
US8520903B2 (en) * 2010-02-01 2013-08-27 Daon Holdings Limited Method and system of accounting for positional variability of biometric features
US8577094B2 (en) 2010-04-09 2013-11-05 Donald Martin Monro Image template masking
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
CN102376087B (zh) * 2010-08-17 2014-12-03 富士通株式会社 检测图像中的对象的装置和方法、分类器生成装置和方法
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
US8612441B2 (en) * 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
CN102184543B (zh) * 2011-05-16 2013-03-27 苏州两江科技有限公司 一种人脸眼睛定位和距离测算的方法
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
JP2013048717A (ja) * 2011-08-31 2013-03-14 Sony Corp 画像処理装置及び方法、記録媒体、並びにプログラム
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8942434B1 (en) * 2011-12-20 2015-01-27 Amazon Technologies, Inc. Conflict resolution for pupil detection
US9910490B2 (en) 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
US8860660B2 (en) * 2011-12-29 2014-10-14 Grinbath, Llc System and method of determining pupil center position
US9684697B1 (en) * 2012-01-05 2017-06-20 Google Inc. Ranking search results
US8984622B1 (en) * 2012-01-17 2015-03-17 Amazon Technologies, Inc. User authentication through video analysis
EP2857939B1 (en) * 2012-05-25 2018-08-29 National University Corporation Shizuoka University Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
US9317113B1 (en) 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
CN102693421B (zh) * 2012-05-31 2013-12-04 东南大学 基于sift 特征包的牛眼虹膜图像识别方法
US9122926B2 (en) * 2012-07-19 2015-09-01 Honeywell International Inc. Iris recognition using localized Zernike moments
US9854159B2 (en) * 2012-07-20 2017-12-26 Pixart Imaging Inc. Image system with eye protection
TWI471808B (zh) * 2012-07-20 2015-02-01 Pixart Imaging Inc 瞳孔偵測裝置
US9589184B1 (en) * 2012-08-16 2017-03-07 Groupon, Inc. Method, apparatus, and computer program product for classification of documents
US20140085198A1 (en) 2012-09-26 2014-03-27 Grinbath, Llc Correlating Pupil Position to Gaze Location Within a Scene
US8942515B1 (en) * 2012-10-26 2015-01-27 Lida Huang Method and apparatus for image retrieval
US9230158B1 (en) 2012-12-18 2016-01-05 Amazon Technologies, Inc. Fraud detection for facial recognition systems
US9070015B2 (en) * 2013-02-07 2015-06-30 Ittiam Systems (P) Ltd. System and method for iris detection in digital images
US9094576B1 (en) 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
CN103310196B (zh) * 2013-06-13 2017-12-01 黑龙江大学 感兴趣区域与方向元素的手指静脉识别方法
CN104346621A (zh) * 2013-07-30 2015-02-11 展讯通信(天津)有限公司 创建眼睛模板及检测眼睛状态的方法与装置
KR102025184B1 (ko) * 2013-07-31 2019-09-25 엘지디스플레이 주식회사 데이터 변환 장치 및 이를 이용한 디스플레이 장치
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US9582716B2 (en) * 2013-09-09 2017-02-28 Delta ID Inc. Apparatuses and methods for iris based biometric recognition
CN104463080A (zh) * 2013-09-16 2015-03-25 展讯通信(天津)有限公司 人眼状态的检测方法
JP6322986B2 (ja) * 2013-12-09 2018-05-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR20150070802A (ko) * 2013-12-17 2015-06-25 현대자동차주식회사 동공 검출 장치 및 동공 검출 방법
WO2015113479A1 (zh) * 2014-01-28 2015-08-06 北京中科虹霸科技有限公司 一种具有人机交互机制的移动终端虹膜识别装置和方法
JP2016028669A (ja) * 2014-07-23 2016-03-03 株式会社Jvcケンウッド 瞳孔検出装置、および瞳孔検出方法
US10235582B2 (en) * 2014-08-08 2019-03-19 Gemalto Sa Automated examination and processing of biometric data
TWI603293B (zh) * 2014-10-13 2017-10-21 由田新技股份有限公司 眨眼偵測方法及裝置
US20160110599A1 (en) * 2014-10-20 2016-04-21 Lexmark International Technology, SA Document Classification with Prominent Objects
JP6455832B2 (ja) * 2014-12-02 2019-01-23 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation バーコード検出方法、バーコード検出システムおよびそのためのプログラム
US9704038B2 (en) 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
JP6480586B2 (ja) * 2015-07-29 2019-03-13 京セラ株式会社 画像処理装置、撮像装置、運転者監視システム、移動体、および画像処理方法
KR102812176B1 (ko) 2015-08-21 2025-05-22 매직 립, 인코포레이티드 눈 포즈 측정을 사용한 눈꺼풀 형상 추정
KR102726941B1 (ko) 2015-08-21 2024-11-05 매직 립, 인코포레이티드 눈꺼풀 형상 추정
US9830708B1 (en) * 2015-10-15 2017-11-28 Snap Inc. Image segmentation of a video stream
US10163010B2 (en) * 2015-10-16 2018-12-25 Magic Leap, Inc. Eye pose identification using eye features
US10043075B2 (en) * 2015-11-19 2018-08-07 Microsoft Technology Licensing, Llc Eye feature identification
CN105930762A (zh) * 2015-12-02 2016-09-07 中国银联股份有限公司 一种眼球跟踪的方法及装置
CN105574858B (zh) * 2015-12-14 2019-08-23 沈阳工业大学 基于二阶段蚁群算法提取卷缩轮的方法
US10401625B2 (en) * 2015-12-28 2019-09-03 Facebook Technologies, Llc Determining interpupillary distance and eye relief of a user wearing a head-mounted display
JP2019506694A (ja) 2016-01-12 2019-03-07 プリンストン・アイデンティティー・インコーポレーテッド 生体測定分析のシステムおよび方法
CN108701237B (zh) * 2016-01-15 2022-01-18 英卓美特公司 用于跨越多个组装单元自动生成公共测量的方法
IL272891B2 (en) 2016-01-19 2023-09-01 Magic Leap Inc Collection, selection and combination of an eye image
EP3485425B1 (en) 2016-07-14 2023-08-23 Magic Leap, Inc. Deep neural network for iris identification
CN109661194B (zh) 2016-07-14 2022-02-25 奇跃公司 使用角膜曲率的虹膜边界估计
US9916501B2 (en) * 2016-07-22 2018-03-13 Yung-Hui Li Smart eyeglasses with iris recognition device
AU2017317599B2 (en) 2016-08-22 2021-12-23 Magic Leap, Inc. Augmented reality display device with deep learning sensors
JP6751324B2 (ja) * 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
EP3523751A4 (en) 2016-10-04 2020-05-06 Magic Leap, Inc. EFFICIENT DATA ARRANGEMENTS FOR CONVOLUTIONAL NEURAL NETWORKS
IL285121B2 (en) 2016-11-15 2023-04-01 Magic Leap Inc A deep learning system for discovering a cube
IL308490A (en) 2016-12-05 2024-01-01 Magic Leap Inc Virtual user input controls in a mixed reality environment
KR102806357B1 (ko) * 2016-12-20 2025-05-15 삼성전자주식회사 홍채 인식 기능 운용 방법 및 이를 지원하는 전자 장치
US10275648B2 (en) * 2017-02-08 2019-04-30 Fotonation Limited Image processing method and system for iris recognition
US10657376B2 (en) 2017-03-17 2020-05-19 Magic Leap, Inc. Room layout estimation methods and techniques
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
WO2019022849A1 (en) 2017-07-26 2019-01-31 Magic Leap, Inc. FORMATION OF A NEURONAL NETWORK WITH REPRESENTATIONS OF USER INTERFACE DEVICES
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
US10719951B2 (en) 2017-09-20 2020-07-21 Magic Leap, Inc. Personalized neural network for eye tracking
EP3704592A4 (en) 2017-10-26 2022-03-16 Magic Leap, Inc. GRADIENT NORMALIZATION SYSTEMS AND METHODS FOR ADAPTIVE LOSS BALANCING IN DEEP MULTITASKING NETWORKS
CN107833251B (zh) * 2017-11-13 2020-12-04 京东方科技集团股份有限公司 瞳孔定位装置和方法、虚拟现实设备的显示驱动器
US11166080B2 (en) 2017-12-21 2021-11-02 Facebook, Inc. Systems and methods for presenting content
CN108053444B (zh) * 2018-01-02 2021-03-12 京东方科技集团股份有限公司 瞳孔定位方法及装置、设备和存储介质
CN110032271B (zh) * 2018-01-12 2020-07-24 京东方科技集团股份有限公司 对比度调节装置及其方法、虚拟现实设备及存储介质
CN108288057B (zh) * 2018-04-13 2023-12-08 中北大学 一种移动式家禽生命信息检测装置
WO2019204765A1 (en) * 2018-04-19 2019-10-24 Magic Leap, Inc. Systems and methods for operating a display system based on user perceptibility
FR3081072B1 (fr) * 2018-05-09 2020-04-17 Idemia Identity & Security France Procede de reconnaissance biometrique a partir des iris
CN110674828B (zh) * 2018-07-03 2023-05-16 柯鑫 一种归一化眼底图像的方法和装置
CN108844961A (zh) * 2018-08-01 2018-11-20 佛山科学技术学院 一种温控器壳体视觉检测系统及方法
CN109213325B (zh) * 2018-09-12 2021-04-20 苏州佳世达光电有限公司 眼势特征采集方法及眼势辨识系统
US11003936B2 (en) * 2019-06-14 2021-05-11 Tobii Ab Method and system for controlling an eye tracking system
CN110390649B (zh) * 2019-07-16 2023-03-24 西安石油大学 一种用于油气管道焊缝图像降噪的方法
WO2021034931A1 (en) * 2019-08-20 2021-02-25 Biotrillion, Inc. Systems and methods for evaluating pupillary response
CN110929084B (zh) * 2019-12-17 2023-04-11 徐庆 一种图像形状特征描述符的获取方法及装置
TWI775356B (zh) * 2021-03-19 2022-08-21 宏碁智醫股份有限公司 用於眼底圖的影像前處理方法及影像處理裝置
CN113902798B (zh) * 2021-10-22 2024-10-25 中科山石科技(深圳)有限公司 彩色虹膜识别的瞳孔快速定位方法
CN116152139A (zh) * 2021-11-19 2023-05-23 北京眼神智能科技有限公司 美瞳检测和虹膜识别方法、装置、可读存储介质及设备
CN114093018B (zh) * 2021-11-23 2023-07-07 河南省儿童医院郑州儿童医院 一种基于瞳孔定位的视力筛查设备及系统
WO2023120754A1 (ko) * 2021-12-21 2023-06-29 엘지전자 주식회사 메타버스 기반의 가상화 영상 제공 시스템 및 그 방법
CN114494750B (zh) * 2022-02-11 2024-04-02 辽宁师范大学 基于正交v-系统变换的计算机辅助甲骨缀合方法
CN115482267A (zh) * 2022-08-26 2022-12-16 昆山丘钛光电科技有限公司 基于圆形物体的圆心定位方法、装置、设备及介质
CN115471557B (zh) * 2022-09-22 2024-02-02 南京博视医疗科技有限公司 单目相机图像目标点三维定位方法、瞳孔定位方法及装置
CN116740068B (zh) * 2023-08-15 2023-10-10 贵州毅丹恒瑞医药科技有限公司 一种白内障手术用智能导航系统
US20250090091A1 (en) * 2023-09-20 2025-03-20 Brightermd Llc Application based determination of a degree of inebriation
CN118247833A (zh) * 2024-04-09 2024-06-25 江苏海洋大学 一种利用相似特征结构进行虹膜保护方法
CN119960605B (zh) * 2025-04-10 2025-07-15 国科大杭州高等研究院 一种基于事件传感器的近眼注视点追踪方法、装置及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6325765B1 (en) * 1993-07-20 2001-12-04 S. Hutson Hay Methods for analyzing eye
US5891132A (en) * 1996-05-30 1999-04-06 Chiron Technolas Gmbh Opthalmologische Systeme Distributed excimer laser surgery system
JP3315648B2 (ja) * 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
KR100320465B1 (ko) * 1999-01-11 2002-01-16 구자홍 홍채 인식 시스템
KR100397750B1 (ko) * 2000-03-24 2003-09-13 김회율 홍채 인식을 위한 실시간 동공 검출 방법
KR20020011529A (ko) * 2000-08-02 2002-02-09 송문섭 주파수 평면 분할 특징값과 저니크 변환을 이용한 영상의특징추출 방법/장치 및 그를 이용한 영상 검색 방법 및 장치

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101102747B1 (ko) * 2006-04-07 2012-01-05 에섹스 피에이 엘엘씨 생체인식 식별
US7869626B2 (en) 2006-09-18 2011-01-11 Electronics And Telecommunications Research Institute Iris recognition method and apparatus thereof
KR100924232B1 (ko) * 2007-12-10 2009-11-02 아이리텍 잉크 직교좌표 및 극좌표 이미지변환을 위한 가중픽셀보간방법
KR101010927B1 (ko) * 2008-11-26 2011-01-25 서울대학교산학협력단 전산화단층촬영을 이용한 가상대장내시경에서 자동화된 용종 검출 방법과 이를 이용한 용종 검출 시스템
KR101068937B1 (ko) * 2009-11-18 2011-09-29 숭실대학교산학협력단 기능성 게임의 개인화된 학습경로 생성방법
KR101101142B1 (ko) * 2009-12-31 2012-01-05 서강대학교산학협력단 비제한적 환경에서의 홍채 인식 시스템 및 방법
KR101222125B1 (ko) * 2010-03-08 2013-01-14 창원대학교 산학협력단 영상 처리 방법 및 장치
KR101387775B1 (ko) * 2013-02-14 2014-04-21 인하대학교 산학협력단 강화학습을 이용한 눈동자 추적 시스템 및 그 추적 방법
US9736373B2 (en) 2013-10-25 2017-08-15 Intel Corporation Dynamic optimization of light source power
WO2015060869A1 (en) * 2013-10-25 2015-04-30 Intel Corporation Dynamic optimization of light source power
WO2015199354A1 (ko) * 2014-06-24 2015-12-30 주식회사 이리언스 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치
KR20160000531A (ko) * 2014-06-24 2016-01-05 주식회사 이리언스 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치
KR20170036764A (ko) * 2014-07-24 2017-04-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 동공 검출
KR20220143171A (ko) * 2014-07-24 2022-10-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 동공 검출
KR101582800B1 (ko) * 2014-09-02 2016-01-19 재단법인 실감교류인체감응솔루션연구단 적응적으로 컬러 영상 내의 에지를 검출하는 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US9633259B2 (en) 2014-10-10 2017-04-25 Hyundai Motor Company Apparatus and method for recognizing iris
KR20160061690A (ko) * 2014-11-24 2016-06-01 현대자동차주식회사 눈 검출장치 및 방법
US10268887B2 (en) 2014-11-24 2019-04-23 Hyundai Motor Company Apparatus and method for detecting eyes
KR20190038685A (ko) * 2015-09-11 2019-04-08 아이베리파이 인크. 바이오메트릭 시스템들을 위한 안구-혈관 및 얼굴 인식을 위한 이미지 및 피쳐 품질, 이미지 강화 및 피쳐 추출, 및 얼굴 및/또는 서브-얼굴 정보와 안구-혈관의 융합
KR20180057646A (ko) * 2015-09-11 2018-05-30 아이베리파이 인크. 바이오메트릭 시스템들을 위한 안구-혈관 및 얼굴 인식을 위한 이미지 및 피쳐 품질, 이미지 강화 및 피쳐 추출, 및 얼굴 및/또는 서브-얼굴 정보와 안구-혈관의 융합
WO2017183830A1 (ko) * 2016-04-22 2017-10-26 아이리텍 잉크 홍채템플릿 분산 저장 및 매칭을 이용한 홍채인식 보안 강화 방법 및 장치
US11126841B2 (en) 2017-01-09 2021-09-21 3E Co. Ltd. Method for coding iris pattern
WO2018128241A1 (ko) * 2017-01-09 2018-07-12 주식회사 쓰리이 홍채 패턴 코드화 방법
KR102032487B1 (ko) * 2018-05-29 2019-10-15 상명대학교산학협력단 시각 피로 측정 장치 및 방법
CN109460770A (zh) * 2018-09-06 2019-03-12 徐庆 图像特征描述符提取方法、装置、计算机设备和存储介质
CN109460770B (zh) * 2018-09-06 2021-12-14 徐庆 图像特征描述符提取方法、装置、计算机设备和存储介质
KR20200049936A (ko) * 2018-10-29 2020-05-11 상명대학교산학협력단 생체 인식 장치 및 방법
CN109886069A (zh) * 2018-12-21 2019-06-14 深圳动保科技有限公司 基于动物管理系统的虹膜识别获取装置及使用该装置流程
CN109886069B (zh) * 2018-12-21 2023-12-15 深圳动保科技有限公司 基于动物管理系统的虹膜识别获取装置及使用该装置获取方法
CN110751064A (zh) * 2019-09-30 2020-02-04 四川大学 基于图像处理的眨眼次数分析方法和系统
CN112101199A (zh) * 2020-09-15 2020-12-18 西安艾瑞生物识别科技有限公司 一种基于深度学习的长距离虹膜识别方法
KR20230081189A (ko) * 2021-11-30 2023-06-07 주식회사 디엔 스마트폰을 이용한 동공반응 검사방법
CN120726632A (zh) * 2025-08-22 2025-09-30 中国科学院光电技术研究所 一种基于区域生长算法的高动态条纹星象检测方法和装置

Also Published As

Publication number Publication date
US20060147094A1 (en) 2006-07-06
WO2005024708A1 (en) 2005-03-17

Similar Documents

Publication Publication Date Title
KR20050025927A (ko) 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
Burge et al. Ear biometrics
Sun et al. Improving iris recognition accuracy via cascaded classifiers
Ali et al. An iris recognition system to enhance e-security environment based on wavelet theory
CN101317183B (zh) 在获取的眼睛的图像中定位表示虹膜的像素的方法
KR102554391B1 (ko) 홍채 인식 기반 사용자 인증 장치 및 방법
CN101317184A (zh) 在图像中提取虹膜特征的方法
KR20030046007A (ko) 개인 식별을 위한 홍채 영상의 처리 및 인식방법과 시스템
Puhan et al. Efficient segmentation technique for noisy frontal view iris images using Fourier spectral density
Chirchi et al. Iris biometric recognition for person identification in security systems
KR20030066512A (ko) 노이즈에 강인한 저용량 홍채인식 시스템
Gupta et al. Iris recognition system using biometric template matching technology
Sallehuddin et al. Score level normalization and fusion of iris recognition
Mohammed et al. Conceptual analysis of Iris Recognition Systems
Sallehuddin et al. A survey of iris recognition system
Ibitayo et al. Development Of Iris Based Age And Gender Detection System
KR100338807B1 (ko) 그룹화된 얼굴 영상들과 그물망 형태의 탐색 영역을 이용한 얼굴 검출 방법 및 그 장치
Lee et al. Iris recognition using local texture analysis
Sahmoud Enhancing iris recognition
Mehrotra Iris identification using keypoint descriptors and geometric hashing
Chang New multi-biometric approaches for improved person identification
Vincy et al. Recognition technique for ATM based on iris technology
Roja et al. Iris recognition using orthogonal transforms
Lawal et al. Development of a Two-Level Segmentation System for Iris Recognition Using Circular and Linear Hough Transform Algorithm
UDROIU et al. USABLE SECURITY IN BIOMETRIC AUTHENTICATION SYSTEMS

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20040907

PG1501 Laying open of application
N231 Notification of change of applicant
PN2301 Change of applicant

Patent event date: 20050516

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20090513

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20040907

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20101230

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20110829

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20101230

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I