[go: up one dir, main page]

WO2013048160A1 - 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 - Google Patents

얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
WO2013048160A1
WO2013048160A1 PCT/KR2012/007844 KR2012007844W WO2013048160A1 WO 2013048160 A1 WO2013048160 A1 WO 2013048160A1 KR 2012007844 W KR2012007844 W KR 2012007844W WO 2013048160 A1 WO2013048160 A1 WO 2013048160A1
Authority
WO
WIPO (PCT)
Prior art keywords
face image
keypoints
face
identification symbol
keypoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2012/007844
Other languages
English (en)
French (fr)
Inventor
이형수
제홍모
강봉남
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olaworks Inc
Original Assignee
Olaworks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olaworks Inc filed Critical Olaworks Inc
Priority to CN201280047273.0A priority Critical patent/CN103988228B/zh
Priority to EP12836564.0A priority patent/EP2763102A4/en
Priority to JP2014531737A priority patent/JP5798691B2/ja
Priority to US14/129,602 priority patent/US9208375B2/en
Publication of WO2013048160A1 publication Critical patent/WO2013048160A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Definitions

  • the present invention relates to a face recognition method, an apparatus, and a computer readable recording medium for executing the method. More specifically, the present invention performs face recognition based on keypoints extracted at predetermined positions of an input image in order to apply a scale invariant feature transformation (SIFT) method to face recognition so as to exhibit better performance.
  • SIFT scale invariant feature transformation
  • a facial recognition method, apparatus, and a computer readable recording medium for executing the method which allow for highly accurate recognition by reflecting a change in a face image.
  • Biometric technology is a technology for recognizing body features such as fingerprints, faces, irises, and veins that are different for each individual. Such physical features can not be stolen or copied by others like keys or passwords, and can be used in security because there is no risk of being changed or lost.
  • the dual face recognition technology includes a technology for identifying a face in a detected face region after detecting a face region in a video or photo image, so that the face recognition technology can be used not only in the security field but also in various applications in accordance with the smartphone era. Can be.
  • the face recognition technology is a technology for identifying a face by using feature point positions in a detected face image.
  • the feature points include eye points, both eyes of each eye, both ends and midpoints of eyebrows, and both ends of lips. Can be.
  • the method using Scale Invariant Feature Transformation which shows excellent recognition performance for object recognition, has a limitation in application because it does not show good performance for face recognition.
  • SIFT Scale Invariant Feature Transformation
  • the face image can be transformed without being different from the object, and even the face of the same person has a large change according to the viewing direction, so the position of the feature point is also changed. SIFT method does not recognize the face in consideration of such a change. Because you can not.
  • the distance-based or region-based matching methods commonly used in descriptor-based matching methods exhibit poor performance in face images with large lighting or poses. Therefore, in order to apply the SIFT method, which has been used for object recognition, to face recognition, there is a need to solve the above problems.
  • the object of the present invention is to solve all the above-mentioned problems.
  • the present invention can improve the face recognition performance by recognizing the face with reference to the descriptors of the keypoints extracted at each of the predetermined position of the input face image and the pre-stored face image to solve the problems of the prior art.
  • the purpose can improve the face recognition performance by recognizing the face with reference to the descriptors of the keypoints extracted at each of the predetermined position of the input face image and the pre-stored face image to solve the problems of the prior art.
  • an identification symbol is assigned to all keypoints of the input face image, and the most allocated identification symbol is assigned as the identification symbol of the input face image, so that a good face recognition performance can be exhibited even when the input face image is changed. For another purpose.
  • a keypoint setting step of setting a keypoint at predetermined positions of the input face image (b) a keypoint descriptor extraction step of extracting a descriptor of each of the keypoints, and (c) the input The input face using descriptors of each of the first keypoints obtained from the face image and descriptors of keypoints in the designated area including a second keypoint of each of the prestored face images corresponding to the first keypoint obtained from the input face image.
  • a face recognition method including a matching step of determining whether to match an image with the previously stored face images.
  • a keypoint position setting unit for setting a keypoint at predetermined positions of an input face image
  • a keypoint descriptor extracting unit for extracting a descriptor of each of the keypoints, and first keypoints obtained from the input face image
  • a face recognition apparatus including a matching unit to determine whether to match.
  • the apparatus may further include a face detector for detecting a face from an input image, and a normalizer for generating the face image by normalizing the detected face image to a face image having a predetermined size.
  • an identification symbol is assigned to each of the first keypoints, and the most-assigned identification symbol is determined. And an identification symbol of the face image.
  • a grid block is formed in the face image, the grid block is formed as the designated area, or a peripheral block around the second key point corresponding to the first key point obtained from the face image is designated as the designated area. It characterized in that it is set to.
  • the face is recognized to accurately recognize the face by reflecting the change in the face image. can do.
  • the distance between the descriptor of each keypoint of the input face image and each of the descriptors of the keypoint of the peripheral area of each corresponding keypoint of all pre-stored face images is compared to assign an identification symbol of the closest keypoint, Since the identification symbol of the input face image is assigned by voting identification symbols assigned to all keypoints of the input face image, a good recognition performance can be obtained even when the face image does not coincide with some regions due to a change in lighting or pose.
  • FIG. 1 is a block diagram illustrating a configuration of a face recognition apparatus using SIFT technology according to an embodiment of the present invention.
  • FIG. 2 illustrates an operation of each block of the face recognition apparatus of FIG. 1.
  • FIG. 3 is a diagram for describing an operation of an embodiment of the matching unit of FIG. 1.
  • the present invention is not only used for a face recognition device using SIFT technology, but also for a face recognition device using technologies such as SURF (Speeded Up Robust Features), LESH (Local Energy based Shape Histogram), GLOH (Gradient Location and Orientation Histograms), etc.
  • SURF Speeded Up Robust Features
  • LESH Local Energy based Shape Histogram
  • GLOH Gradient Location and Orientation Histograms
  • FIG. 1 is a block diagram illustrating a configuration of a face recognition apparatus using SIFT technology according to an embodiment of the present invention.
  • the face recognition apparatus 100 may include a face detector 110, a normalizer 110, a keypoint position setter 130, a keypoint descriptor extractor 140, and a matcher 150. Can be.
  • the face detector 110 may detect a face from an input image including the face.
  • the face detector 110 may detect an eye, for example, to detect a face, and additionally detect an eyebrow, a nose, a mouth, and the like.
  • the reason for the detection may be for arranging the input face image in the same direction as the stored face image.
  • the normalizer 120 may normalize the detected face image to a gray image having a predetermined size.
  • the keypoint position setting unit 130 may set keypoints at fixed positions of the normalized face image.
  • the keypoint descriptor extracting unit 140 may extract descriptors of each of the keypoints by calculating a gradient magnitude and an orientation at each image sample point in the area near each of the keypoints at each of the keypoints.
  • the method of extracting the descriptors of each of the keypoints was developed by D. Lowe and described in the article "Distinctive image features from scale-invariant Keypoints" published in the International Journal of Computer Vision, Volume 60, Issue 2. Reference may be made to, but is not limited to, and may be implemented by various methods.
  • the matching unit 150 may determine the descriptors of each of the keypoints obtained from the normalized face image of the input image and the input image (eg, the normalized input face image) in a DB (a database of various face images for face recognition).
  • the matching between the input face image and the pre-stored face images may be determined using descriptors of keypoints in a designated area including a keypoint of each of the pre-stored face images corresponding to the obtained keypoint.
  • the matching unit 150 includes a descriptor of each keypoint obtained from the normalized face image of the input image and a keypoint of each of the prestored face images corresponding to the keypoint obtained from the normalized face image of the input image.
  • an identification symbol ID is assigned to each of the keypoints obtained from the normalized face image of the input image.
  • the most-assigned identification symbol may be assigned as the identification symbol of the normalized face image of the input image.
  • the face is detected and normalized to a gray image having the same size as the input face image, and the same positions as the positions of the key points preset in the normalized input face image, similarly to the input image.
  • Keypoints can be set in the scheme, and descriptors of the set keypoints can be extracted and stored in advance.
  • the face detector 110 and the normalizer 120 may not be necessary.
  • the face detector 110 and the normalizer 120 may be omitted. have.
  • FIG. 2 illustrates an operation of each block of the face recognition apparatus of FIG. 1.
  • (a) is an input image
  • (b) is a face image detected by the face detector 110
  • (c) is a face image normalized by the normalizer 120
  • (d) is a keypoint extractor
  • K1 represents a descriptor extracted from the first keypoint
  • kM represents a descriptor extracted from the Mth keypoint.
  • (f) indicates that the input face image IN is recognized as the same face as the previously stored face image S1 by detecting a change in the face image by the matching unit 150.
  • FIG. 3 is a view illustrating an operation of an embodiment of the matching unit of FIG. 1, (a) key points of a normalized input face image IN, and (b) normalized prestored M face images S1 to S.
  • FIG. SM key points are shown.
  • g11 to gij represent grid blocks of 4 ⁇ 4 size, for example, of face images IN and S1 to SM
  • f1 to f16 represent 16 key points in each of the grid blocks g11 to gij.
  • the number of points per block is 16, but it is of course not limited thereto.
  • the matching unit 150 of FIG. 1 is a descriptor of the key point f1 of the grid block g11 of the input face image IN and keypoints of each of the grid blocks g11 of the pre-stored face images S1 to SM.
  • the present invention is not limited thereto, and assigns the identification symbol of the pre-stored face image including the key point having the closest distance to the key point f1 of the input face image IN.
  • the keypoints f2 are described using descriptors of the keypoint f2 of the grid block g11 and descriptors of the keypoints f1 to f16 of the grid blocks g11 of the pre-stored face images S1 to SM. And f1, f2 and f2, ..., f2 and f16, respectively, and calculates the distance between the keypoints f2 of the input face image IN. Assign to In this manner, identification of one of the identification symbols of the pre-stored face images S1 to SM for each of the keypoints f1 to f16 of each of the grid blocks g11 to gij of the input face image IN is performed. Allow symbols to be assigned.
  • one of the identification symbols of the pre-stored face images S1 to SM is assigned to each of the key points f1 to f16 of the input face image IN, but each of the input face images IN is assigned.
  • the distance of each keypoint is calculated using descriptors of keypoints and descriptors of keypoints in grid blocks of all pre-stored face images S1 to SM corresponding to the grid block including each keypoint of the input face image IN.
  • An identification symbol of a pre-stored face image including a keypoint having the closest distance is assigned as an identification symbol of a keypoint to each of the keypoints f1 to f16 of each of the grid blocks g11 to gij of the input face image IN. can do.
  • the matching unit 150 may vote identification symbols assigned to all keypoints of the input face image IN, in which case one of the identification symbols of the previously stored face images S1 to SM is voted on.
  • An identification symbol may be assigned to the input face image IN. That is, the identification symbol most allocated among the identification symbols assigned to all the keypoints of the input face image IN may be assigned as the identification symbol of the input face image IN. In this case, the most frequently assigned identification symbol may be selected for each grid block and then the most selected identification symbol may be assigned as the identification symbol of the input face image IN when viewed as a whole image, but the present invention is not necessarily limited thereto.
  • the face of the input face image IN is finally recognized as the same as the face of the pre-stored face image having the same identification symbol as the assigned identification symbol.
  • FIG. 4 is a view for explaining an operation of another embodiment of the matching unit of FIG. 1, (a) key points of a normalized input face image IN, and (b) normalized prestored M face images S1 to S.
  • FIG. SM key points are shown.
  • f11 to flk represent key points of each of the face images IN and S1 to SM
  • N1 to N3 respectively represent key points f22, f35, ..., f (l-1) (k-2).
  • 3x3 neighboring blocks designating neighboring regions of the neighboring blocks, and neighboring blocks may be designated for all keypoints.
  • the peripheral area is referred to as a 3x3 size in FIG. 4, it is not limited thereto.
  • the matching unit 150 of FIG. 1 selects descriptors of the keypoint f22 of the input face image IN and descriptors of the keypoints in the peripheral block N1 of the keypoint f22 of each of the pre-stored face images S1 to SM.
  • the distance between each of the keypoints is calculated to allocate an identification symbol of a pre-stored face image including the keypoint having the closest distance.
  • descriptors are used to calculate the distance between each of the keypoints and assign an identification symbol of a pre-stored face image containing the keypoint with the closest distance. That is, one of the identification symbols of the pre-stored face images S1 to SM is assigned to each of the key points f11 to flk of the input face image IN, but each of the input face images IN is assigned.
  • the distance between each of the keypoints is determined using the descriptor of the keypoint and the descriptors of the keypoints of the neighboring blocks of all the stored face images S1 to SM including the keypoint of the position corresponding to each keypoint of the input face image IN.
  • the identification symbol of the pre-stored face image including the key point having the closest distance is allocated to the identification symbol of the key point of the input face image IN.
  • the matching unit 150 votes the identification symbols assigned to all keypoints of the input face image IN, thereby identifying the identification symbols of the face images S1 to SM previously stored in the input face image IN.
  • One of these identifiers will be assigned. That is, the identification symbol most allocated among the identification symbols assigned to all the keypoints of the input face image IN may be assigned as the identification symbol of the input face image IN. In this case, after selecting the most allocated identification symbol for each neighboring block, the most selected identification symbol may be assigned as the identification symbol of the input face image IN when viewed as a whole image, but it is not necessarily limited thereto.
  • the face of the input face image IN is finally recognized as the same as the face of the pre-stored face image having the same identification symbol as the assigned identification symbol.
  • the matching unit 150 of the present invention assigns the identification symbol to all keypoints of the input face image IN, and inputs the most allocated identification symbol by voting the identification symbols assigned to all the keypoints. It is assigned as the identifying symbol of (IN).
  • keypoints of the input face image IN may be expressed in terms of first keypoints
  • keypoints of previously stored face images S1 through SM may be expressed in terms of second keypoints. It is to be noted that the same terms are used in the claims below.
  • Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the computer-readable recommended recording medium may be those specially designed and constructed for the present invention, or may be those known and recommended to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks. optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 얼굴 인식 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. 본 발명의 일 태양에 따르면, (a) 입력 얼굴 이미지의 정해진 위치들에 키포인트를 설정하는 키포인트 설정 단계; (b) 상기 키포인트들 각각의 기술자를 추출하는 키포인트 기술자 추출 단계; 및 (c) 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트들 각각의 기술자들과 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 기저장된 얼굴 이미지들 각각의 제2키포인트를 포함하는 지정된 영역 내의 키포인트들의 기술자들을 이용하여 상기 입력 얼굴 이미지와 상기 기저장된 얼굴 이미지들의 매칭 여부를 판단하는 매칭 단계를 포함하는 얼굴 인식 방법이 제공된다.

Description

얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
본 발명은 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 관한 것이다. 보다 구체적으로, 본 발명은 SIFT(Scale Invariant Feature Transformation) 등의 방식을 얼굴 인식에 적용하여 보다 좋은 성능을 나타낼 수 있도록 하기 위하여 입력 이미지의 정해진 위치에서 추출된 키포인트들에 기초하여 얼굴 인식을 수행함으로써 얼굴 이미지의 변화를 반영하여 정확도 높은 인식을 가능하게 해 주는 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
생체 인식 기술은 개인마다 다른 지문, 얼굴, 홍채, 정맥 등의 신체 특징을 인식하는 기술이다. 이와 같은 신체 특징은 열쇠나 비밀번호처럼 타인에게 도용이나 복제될 수 없으며, 변경되거나 분실할 위험성이 없어 보안 분야 등에 활용될 수도 있다. 이중 얼굴 인식 기술은 비디오 혹은 사진 이미지에서 얼굴 영역을 검출한 후 검출된 얼굴 영역에 포함된 얼굴의 신원을 식별하는 기술을 포함하므로, 보안 분야뿐만 아니라 스마트폰 시대에 발맞추어 다양한 애플리케이션 등에도 활용될 수 있다.
구체적으로, 얼굴 인식 기술은 검출된 얼굴 이미지에서 특징점 위치를 이용하여 얼굴을 식별하는 기술로서, 특징점에는 눈의 중점, 각 눈의 양 끝점, 눈썹의 양 끝점 및 중점, 입술의 양 끝점 등이 포함될 수 있다.
얼굴 인식 기술은 전통적으로 주성분 분석(PCA; Principal Component Analysis)를 이용한 방법, 및 국부 기술자 분석(LDA; Local Descriptor Analysis)를 이용한 방법 등과 같은 통계적인 방법들이 사용되었으나, 얼굴의 국부적 영역에서 추출된 특징 정보가 조명이나 포즈와 같은 얼굴의 변화에 더 강인하기 때문에 최근에는 국부 기술적 분석을 이용한 방법이 일반적으로 사용되고 있다.
한편, 물체 인식에는 훌륭한 인식 성능을 나타내는 SIFT(Scale Invariant Feature Transformation)을 이용한 방법은 얼굴 인식에는 좋은 성능을 나타내지 못하므로 적용에 한계가 있는 것이 사실이었다. 이 방법이 얼굴 인식에 좋지 못한 성능을 나타내는 이유는 다음과 같다. 첫째, 얼굴 이미지는 물체와는 달리 각지지 않고 변형 가능하며, 같은 사람의 얼굴이라도 보는 방향에 따른 변화가 크므로 특징점의 위치 또한 변화하게 마련인데 SIFT 방법에서는 이와 같은 변화를 고려하여 얼굴을 인식하지 못하기 때문이다. 둘째는 기술자(descriptor) 기반 매칭 방법에서 일반적으로 사용하는 거리 기반 매칭 방법이나 영역 기반 매칭 방법은 조명이나 포즈가 큰 얼굴 영상에서는 좋지 않은 성능을 나타내기 때문이다. 따라서, 원래부터 물체 인식에 사용되어 왔던 SIFT 방법을 얼굴 인식에 적용하기 위해서는 상술한 문제점들을 해결해야 할 필요성이 있었다.
SIFT 이외에도 SURF, LESH, GLOH 등의 방법에 의해 얼굴 인식을 수행한다고 할 때에도 얼굴 인식의 성능의 개선이 어려운 단점이 있었다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은 종래 기술의 문제점을 해결하기 위하여 입력 얼굴 이미지와 기저장된 얼굴 이미지들의 각각의 정해진 위치들에서 추출된 키포인트들의 기술자들을 참조하여 얼굴을 인식함으로써 얼굴 인식 성능을 향상시킬 수 있는 것을 다른 목적으로 한다.
본 발명은 입력 얼굴 이미지의 모든 키포인트들에 식별 기호를 할당하고, 가장 많이 할당된 식별 기호를 입력 얼굴 이미지의 식별 기호로 할당함으로써, 입력 얼굴 이미지가 변화한 경우에도 좋은 얼굴 인식 성능을 나타낼 수 있는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, (a) 입력 얼굴 이미지의 정해진 위치들에 키포인트를 설정하는 키포인트 설정 단계, (b) 상기 키포인트들 각각의 기술자를 추출하는 키포인트 기술자 추출 단계, 및 (c) 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트들 각각의 기술자들과 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 기저장된 얼굴 이미지들 각각의 제2키포인트를 포함하는 지정된 영역 내의 키포인트들의 기술자들을 이용하여 상기 입력 얼굴 이미지와 상기 기저장된 얼굴 이미지들의 매칭 여부를 판단하는 매칭 단계를 포함하는 얼굴 인식 방법이 제공된다.
본 발명의 다른 태양에 따르면, 입력 얼굴 이미지의 정해진 위치들에 키포인트를 설정하는 키포인트 위치 설정부, 상기 키포인트들 각각의 기술자를 추출하는 키포인트 기술자 추출부, 및 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트들 각각의 기술자들과 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 기저장된 얼굴 이미지들 각각의 제2키포인트를 포함하는 지정된 영역 내의 키포인트들의 기술자들을 이용하여 상기 입력 얼굴 이미지와 상기 기저장된 얼굴 이미지들의 매칭 여부를 판단하는 매칭부를 포함하는 얼굴 인식 장치가 제공된다.
본 발명에 따르면, 상기 장치는 입력 이미지로부터 얼굴을 검출하는 얼굴 검출부, 및 상기 검출된 얼굴 이미지를 정해진 크기의 얼굴 이미지로 정규화하여 상기 얼굴 이미지를 발생하는 정규화부를 추가적으로 포함하는 것을 특징으로 한다.
본 발명에 따르면, 상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들 각각 사이의 거리를 비교함에 의해서, 상기 제1키포인트들 각각에 식별 기호를 할당하고, 가장 많이 할당된 식별 기호를 상기 얼굴 이미지의 식별 기호로서 할당하는 것을 특징으로 한다.
본 발명에 따르면, 상기 얼굴 이미지에 그리드 블록들을 형성하고, 상기 그리드 블록을 상기 지정된 영역으로 형성하거나, 상기 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 제2키포인트를 중심으로 하는 주변 블럭을 상기 지정된 영역으로 설정하는 것을 특징으로 한다.
이 외에도, 본 발명을 구현하기 위한 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 입력 얼굴 이미지와 기저장된 얼굴 이미지들의 각각의 고정된 위치들에 키포인트들을 설정하고, 각 키포인트에서 기술자를 추출하여 얼굴을 인식하기 때문에 얼굴 이미지의 변화를 반영하여 정확도 높게 얼굴을 인식할 수 있다.
본 발명에 의하면, 입력 얼굴 이미지의 각 키포인트의 기술자와 모든 기저장된 얼굴 이미지의 대응하는 각 키포인트의 주변 영역의 키포인트의 기술자들 각각의 사이의 거리를 비교하여 가장 가까운 키포인트의 식별 기호를 할당하고, 입력 얼굴 이미지의 모든 키포인트에 할당된 식별 기호를 투표하여 입력 얼굴 이미지의 식별 기호를 할당하기 때문에 얼굴 이미지가 조명이나 포즈의 변화로 일부 영역이 일치하지 않는 경우에도 좋은 인식 성능을 나타낼 수 있다.
도 1은 본 발명의 일 실시예의 SIFT 기술을 이용한 얼굴 인식 장치의 구성을 나타내는 블록도이다.
도 2는 도 1의 얼굴 인식 장치의 각 블록별 동작을 설명하기 위한 것이다.
도 3은 도 1의 매칭부의 일 실시예의 동작을 설명하기 위한 것이다.
도 4는 도 1의 매칭부의 다른 실시예의 동작을 설명하기 위한 것이다.
<부호의 설명>
100; 얼굴 인식 장치
110: 얼굴 검출부
120; 정규화부
130: 키포인트 위치 설정부
140: 키포인트 기술자 추출부
150: 매칭부
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
참고로, 본 발명은 SIFT 기술을 이용한 얼굴 인식 장치에서 뿐만 아니라 SURF(Speeded Up Robust Features), LESH(Local Energy based Shape Histogram), GLOH(Gradient Location and Orientation Histograms) 등의 기술을 이용한 얼굴 인식 장치에도 적용된다 할 것이나, 설명의 편의 상 이하에서는 SIFT 기술을 이용한 얼굴 인식 장치를 예로 들어 설명하도록 하겠다.
도 1은 본 발명의 일 실시예의 SIFT 기술을 이용한 얼굴 인식 장치의 구성을 나타내는 블록도이다.
도 1을 참조하면, 얼굴 인식 장치(100)는 얼굴 검출부(110), 정규화부(110), 키포인트 위치 설정부(130), 키포인트 기술자 추출부(140), 및 매칭부(150)를 포함할 수 있다.
도 1에 나타낸 블록들 각각의 기능을 설명하면 다음과 같다.
얼굴 검출부(110)는 얼굴을 포함한 입력 이미지로부터 얼굴을 검출할 수 있다. 얼굴 검출부(110)는 얼굴의 검출을 위하여, 가령 눈을 검출할 수 있으며, 추가적으로 눈썹, 코, 입 등을 검출할 수도 있다. 이와 같이 검출하는 이유는 저장된 얼굴 이미지와 동일한 방향으로 입력 얼굴 이미지를 배열하기 위한 것도 있을 수 있다.
정규화부(120)는 검출된 얼굴 이미지를 미리 정해진 크기의 그레이(gray) 이미지로 정규화할 수 있다.
키포인트 위치 설정부(130)는 정규화된 얼굴 이미지의 고정된 위치들에 키포인트들을 설정할 수 있다.
키포인트 기술자 추출부(140)는 키포인트들 각각에서 키포인트들 각각의 근방 영역 내의 각 이미지 샘플 포인트에서 기울기 크기(gradient magnitude) 및 방향(orientation)을 계산함에 의해서 키포인트들 각각의 기술자들을 추출할 수 있다. 키포인트들 각각의 기술자들을 추출하는 방법은 D. Lowe에 의해서 개발되고, "International Journal of Computer Vision, Volume 60, Issue 2"에 공개된 "Distinctive image features from scale-invariant Keypoints"라는 논문에 기재된 내용을 참조할 수 있을 것이나, 반드시 이에 한정되는 것은 아니며, 다양한 방법을 적용하여 구현할 수 있을 것이다.
매칭부(150)는 입력 이미지의 정규화된 얼굴 이미지로부터 얻어진 키포인트들 각각의 기술자들과 DB(얼굴 인식을 위해 다양한 얼굴 이미지를 모아 놓은 데이터베이스)에 상기 입력 이미지(가령, 정규화된 입력 얼굴 이미지)로부터 얻어진 키포인트에 대응하는 기저장된 얼굴 이미지들 각각의 키포인트를 포함하는 지정된 영역의 키포인트들의 기술자들을 이용하여 입력 얼굴 이미지와 기저장된 얼굴 이미지들 사이의 매칭 여부를 판단할 수 있다.
좀 더 상세하게, 매칭부(150)는 입력 이미지의 정규화된 얼굴 이미지로부터 얻어진 키포인트들 각각의 기술자들과 입력 이미지의 정규화된 얼굴 이미지로부터 얻어진 키포인트에 대응하는 기저장된 얼굴 이미지들 각각의 키포인트를 포함하는 지정된 영역 내의 키포인트들의 기술자들을 이용하여 입력 얼굴 이미지 및 기저장된 얼굴 이미지의 키포인트들 사이의 거리를 계산하여 비교함에 의해서, 입력 이미지의 정규화된 얼굴 이미지로부터 얻어진 키포인트들 각각에 식별 기호(ID)를 할당하고, 가장 많이 할당된 식별 기호를 입력 이미지의 정규화된 얼굴 이미지의 식별 기호로서 할당할 수 있다.
이를 위해, 기저장된 얼굴 이미지들 각각에 대하여도, 입력 이미지와 마찬가지로, 얼굴을 검출하여 입력 얼굴 이미지와 동일한 크기의 그레이 이미지로 정규화하고, 정규화된 입력 얼굴 이미지에 기설정된 키포인트들의 위치와 동일한 위치들에 키포인트들을 설정하고, 설정된 키포인트들의 기술자들을 미리 추출하여 저장해 놓을 수 있다.
도 1에서, 얼굴 검출부(110) 및 정규화부(120)는 반드시 필요하지 않은 구성일 수 있다. 가령, 키포인트 위치 설정부(130)로 입력되는 얼굴 이미지가 기저장된 얼굴 이미지와 동일한 방향으로 배열되고 동일한 크기의 그레이 이미지를 가지는 경우에는 얼굴 검출부(110) 및 정규화부(120)는 생략이 가능할 수도 있다.
도 2는 도 1의 얼굴 인식 장치의 각 블록별 동작을 설명하기 위한 것으로,
(a)는 입력 이미지를, (b)는 얼굴 검출부(110)에 의해서 검출된 얼굴 이미지를, (c)는 정규화부(120)에 의해서 정규화된 얼굴 이미지를, (d)는 키포인트 추출부(130)에 의해서 추출된 키포인트들이 표시된 얼굴 이미지를, (e)는 키포인트 기술자 추출부(140)에 의해서 추출된 벡터(K)를 나타내는 것으로, K={k1, ..., kM}으로 표현될 수 있으며, k1은 첫번째 키포인트에서 추출된 기술자를, kM은 M번째 키포인트에서 추출된 기술자를 나타낸다. (f)는 매칭부(150)에 의해서 얼굴 이미지의 변화를 감지하여 입력 얼굴 이미지(IN)가 기저장된 얼굴 이미지(S1)와 동일한 얼굴로 인식된 것을 나타낸다.
도 3은 도 1의 매칭부의 일 실시예의 동작을 설명하기 위한 것으로, (a)는 정규화된 입력 얼굴 이미지(IN)의 키포인트들을, (b)는 정규화된 기저장된 M개의 얼굴 이미지들(S1 ~ SM)의 키포인트들을 나타내고 있다. 그리고, g11 ~ gij는 얼굴 이미지들(IN, S1 ~ SM)의 가령 4x4 크기의 그리드 블록들을 나타내고, f1 ~ f16은 그리드 블록들(g11 ~ gij) 각각 내에서의 16개의 키포인트들을 나타내고 있다. 참고로, 도 3에서 블록당 포인트 수를 16개라고 하였지만, 이에 한정되는 것이 아님은 물론이라 할 것이다.
도 1의 매칭부(150)는 입력 얼굴 이미지(IN)의 그리드 블럭(g11)의 키포인트(f1)의 기술자와 기저장된 얼굴 이미지들(S1 ~ SM)의 그리드 블록들(g11) 각각의 키포인트들(f1 ~ f16)의 기술자들을 이용하여 키포인트들(f1과 f1, f1과 f2, ..., f1과 f16) 각각 사이의 거리(여기에서, 거리는 유클리드 거리(Euclidean distance)를 포함하는 개념일 수 있으나 이에 한정되는 것은 아니다)를 계산하여 가장 가까운 거리를 가지는 키포인트가 포함된 기저장된 얼굴 이미지의 식별 기호를 입력 얼굴 이미지(IN)의 키포인트(f1)에 할당한다. 그리고, 그리드 블록(g11)의 키포인트(f2)의 기술자와 기저장된 얼굴 이미지들(S1 ~ SM)의 그리드 블록들(g11) 각각의 키포인트들(f1 ~ f16)의 기술자들을 이용하여 키포인트들(f2와 f1, f2와 f2, ..., f2와 f16) 각각 사이의 거리를 계산하여 가장 가까운 거리를 가지는 키포인트가 포함된 기저장된 얼굴 이미지의 식별 기호를 입력 얼굴 이미지(IN)의 키포인트(f2)에 할당한다. 이와 같은 방법으로, 입력 얼굴 이미지(IN)의 그리드 블록들(g11 ~ gij) 각각의 키포인트들(f1 ~ f16) 각각에 대하여 기저장된 얼굴 이미지들(S1 ~ SM)의 식별 기호들 중의 하나의 식별 기호가 할당되도록 한다. 즉, 입력 얼굴 이미지(IN)의 키포인트들(f1 ~ f16) 각각에 대하여 기저장된 얼굴 이미지들(S1 ~ SM)의 식별 기호들 중 하나의 식별 기호를 할당하되, 입력 얼굴 이미지(IN)의 각 키포인트의 기술자와 입력 얼굴 이미지(IN)의 각 키포인트가 포함된 그리드 블록과 대응되는 모든 기저장된 얼굴 이미지들(S1 ~ SM)의 그리드 블록 내의 키포인트들의 기술자들을 이용하여 키포인트들 각각의 거리를 계산하여 가장 가까운 거리를 가지는 키포인트가 포함된 기저장된 얼굴 이미지의 식별 기호를 입력 얼굴 이미지(IN)의 그리드 블록들(g11 ~ gij) 각각의 키포인트들(f1 ~ f16) 각각에 대하여 키포인트의 식별 기호로서 할당할 수 있다.
그리고, 매칭부(150)는 입력 얼굴 이미지(IN)의 모든 키포인트들에 할당된 식별 기호들을 투표(vote)할 수 있는데, 이때 기저장된 얼굴 이미지들(S1 ~ SM)의 식별 기호들 중 하나의 식별 기호를 입력 얼굴 이미지(IN)에 할당할 수 있다. 즉, 입력 얼굴 이미지(IN)의 모든 키포인트들에 할당된 식별 기호들 중 가장 많이 할당된 식별 기호를 입력 얼굴 이미지(IN)의 식별 기호로서 할당할 수 있을 것이다. 이때, 각 그리드 블록별로 가장 많이 할당된 식별 기호를 선정한 후 전체 이미지로 볼 때 가장 많이 선정된 식별 기호를 입력 얼굴 이미지(IN)의 식별 기호로서 할당할 수도 있을 것이나 반드시 이에 한정되는 것은 아닐 것이다. 상기와 같은 프로세스를 거치면, 최종적으로, 입력 얼굴 이미지(IN)의 얼굴을 할당된 식별 기호와 동일한 식별 기호를 가지는 기저장된 얼굴 이미지의 얼굴과 동일한 것으로 인식하게 된다.
도 4는 도 1의 매칭부의 다른 실시예의 동작을 설명하기 위한 것으로, (a)는 정규화된 입력 얼굴 이미지(IN)의 키포인트들을, (b)는 정규화된 기저장된 M개의 얼굴 이미지들(S1 ~ SM)의 키포인트들을 나타내고 있다. 그리고, f11 ~ flk는 얼굴 이미지들(IN, S1 ~ SM) 각각의 키포인트들을 나타내고, N1 ~ N3는 키포인트들(f22, f35, ..., f(l-1)(k-2)) 각각의 주변 영역을 지정하는 3x3 크기의 주변 블록들을 나타내고 있으며, 이와 같이 모든 키포인트들에 대하여 주변 블록들이 지정될 수 있다. 참고로, 도 4에서 주변 영역을 3x3 크기라고 하였지만, 이에 한정되는 것이 아님은 물론이라 할 것이다.
도 1의 매칭부(150)는 입력 얼굴 이미지(IN)의 키포인트(f22)의 기술자와 기저장된 얼굴 이미지들(S1 ~ SM) 각각의 키포인트(f22)의 주변 블록(N1) 내의 키포인트들의 기술자들을 이용하여 키포인트들 각각 사이의 거리를 계산하여 가장 가까운 거리를 가지는 키포인트가 포함된 기저장된 얼굴 이미지의 식별 기호를 할당한다. 이와 같은 방법으로, 입력 얼굴 이미지(IN)의 모든 키포인트들 각각의 기술자와 입력 얼굴 이미지(IN)에 대응되는 위치의 기저장된 얼굴 이미지들(S1 ~ SM) 각각의 키포인트를 포함하는 주변 블록 내의 키포인트들의 기술자들을 이용하여 키포인트들 각각 사이의 거리를 계산하여 가장 가까운 거리를 가지는 키포인트가 포함된 기저장된 얼굴 이미지의 식별 기호를 할당한다. 즉, 입력 얼굴 이미지(IN)의 키포인트들(f11 ~ flk) 각각에 대하여 기저장된 얼굴 이미지들(S1 ~ SM)의 식별 기호들 중 하나의 식별 기호를 할당하되, 입력 얼굴 이미지(IN)의 각 키포인트의 기술자와 입력 얼굴 이미지(IN)의 각 키포인트에 대응하는 위치의 키포인트를 포함하는 모든 기저장된 얼굴 이미지들(S1 ~ SM)의 주변 블록의 키포인트들의 기술자를 이용하여 키포인트들 각각 사이의 거리를 계산하여 가장 가까운 거리를 가지는 키포인트가 포함된 기저장된 얼굴 이미지의 식별 기호를 입력 얼굴 이미지(IN)의 키포인트의 식별 기호로 할당한다.
그리고, 매칭부(150)는 입력 얼굴 이미지(IN)의 모든 키포인트들에 할당된 식별 기호들을 투표(vote)함에 의해서 입력 얼굴 이미지(IN)를 기저장된 얼굴 이미지들(S1 ~ SM)의 식별 기호들 중 하나의 식별 기호를 할당하게 된다. 즉, 입력 얼굴 이미지(IN)의 모든 키포인트들에 할당된 식별 기호들 중 가장 많이 할당된 식별 기호를 입력 얼굴 이미지(IN)의 식별 기호로서 할당할 수 있을 것이다. 이때, 각 주변 블록별로 가장 많이 할당된 식별 기호를 선정한 후 전체 이미지로 볼 때 가장 많이 선정된 식별 기호를 입력 얼굴 이미지(IN)의 식별 기호로서 할당할 수도 있을 것이나 반드시 이에 한정되는 것은 아닐 것이다. 상기와 같은 프로세스를 거치면, 최종적으로, 입력 얼굴 이미지(IN)의 얼굴을 할당된 식별 기호와 동일한 식별 기호를 가지는 기저장된 얼굴 이미지의 얼굴과 동일한 것으로 인식하게 된다.
즉, 본 발명의 매칭부(150)는 입력 얼굴 이미지(IN)의 모든 키포인트들에 식별 기호를 할당하고, 모든 키포인트들에 할당된 식별 기호들을 투표함에 의해서 가장 많이 할당된 식별 기호를 입력 얼굴 이미지(IN)의 식별 기호로서 할당하게 된다.
도 3 및 도 4에서 입력 얼굴 이미지(IN)의 키포인트들은 제1키포인트들이라는 용어로 표현할 수 있고, 기저장된 얼굴 이미지(S1 ~ SM)의 키포인트들은 제2키포인트들이라는 용어로 표현할 수 있으며, 이와 같은 용어를 사용하여 이하 청구항에 기재하였음을 밝혀둔다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 추천한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 추천한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 추천한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 추천한 것일 수도 있다. 컴퓨터 판독 추천한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (25)

  1. (a) 입력 얼굴 이미지의 정해진 위치들에 키포인트를 설정하는 키포인트 설정 단계;
    (b) 상기 키포인트들 각각의 기술자를 추출하는 키포인트 기술자 추출 단계; 및
    (c) 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트들 각각의 기술자들과 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 기저장된 얼굴 이미지들 각각의 제2키포인트를 포함하는 지정된 영역 내의 키포인트들의 기술자들을 이용하여 상기 입력 얼굴 이미지와 상기 기저장된 얼굴 이미지들의 매칭 여부를 판단하는 매칭 단계
    를 포함하는 얼굴 인식 방법.
  2. 제 1항에 있어서,
    상기 (c) 단계는
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산하여 비교함에 의해서, 기저장된 얼굴 이미지 중 가장 가까운 거리를 가지는 제2포인트를 포함하는 기저장된 특정 얼굴 이미지의 식별 기호를 제1키포인트들 각각의 식별 기호로 할당하고, 가장 많이 할당된 식별 기호를 상기 입력 얼굴 이미지의 식별 기호로서 할당하는 것을 특징으로 하는 얼굴 인식 방법.
  3. 제2항에 있어서,
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산할 때, 유클리드 거리(Euclidean distance)로서 계산하는 것을 특징으로 하는 얼굴 인식 방법.
  4. 제1항에 있어서,
    상기 (c) 단계는
    상기 얼굴 이미지에 그리드 블록들을 형성하고, 상기 그리드 블록을 상기 지정된 영역으로 설정하는 것을 특징으로 하는 얼굴 인식 방법.
  5. 제 4항에 있어서,
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산하여 비교함에 의해서, 기저장된 얼굴 이미지 중 가장 가까운 거리를 가지는 제2포인트를 포함하는 기저장된 특정 얼굴 이미지의 식별 기호를 제1키포인트들 각각의 식별 기호로 할당하고, 상기 각 그리드 블록별로 가장 많이 할당된 식별 기호를 선정한 후 상기 가장 많이 선정된 식별 기호를 상기 입력 얼굴 이미지의 식별 기호로서 할당하는 것을 특징으로 하는 얼굴 인식 방법.
  6. 제1항에 있어서,
    상기 (c)단계는
    상기 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 제2키포인트를 중심으로 하는 주변 블럭을 상기 지정된 영역으로 설정하는 것을 특징으로 하는 얼굴 인식 방법.
  7. 제 6항에 있어서,
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산하여 비교함에 의해서, 기저장된 얼굴 이미지 중 가장 가까운 거리를 가지는 제2포인트를 포함하는 기저장된 특정 얼굴 이미지의 식별 기호를 제1키포인트들 각각의 식별 기호로 할당하고, 상기 각 주변 블록별로 가장 많이 할당된 식별 기호를 선정한 후 상기 가장 많이 선정된 식별 기호를 상기 입력 얼굴 이미지의 식별 기호로서 할당하는 것을 특징으로 하는 얼굴 인식 방법.
  8. 제1항에 있어서,
    (d) 상기 입력 얼굴 이미지로부터 얼굴을 검출하는 얼굴 검출 단계; 및
    (e) 상기 검출된 얼굴 이미지를 정해진 크기의 얼굴 이미지로 정규화하여 상기 입력 얼굴 이미지를 발생하는 정규화 단계를 추가적으로 포함하되,
    상기 (a) 단계는,
    상기 정규화된 입력 얼굴 이미지의 정해진 위치들에 키포인트를 설정하는 것을 특징으로 하는 얼굴 인식 방법.
  9. 제8항에 있어서,
    상기 (d) 단계는
    상기 기저장된 얼굴 이미지와 동일한 방향으로 상기 검출된 얼굴 이미지를 배열하기 위하여 상기 입력 얼굴 이미지로부터 얼굴의 특징점을 추가로 검출하는 것을 특징으로 하는 얼굴 인식 방법.
  10. 제9항에 있어서,
    상기 특징점은 눈, 코, 입의 특징점을 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  11. 제1항에 있어서,
    상기 입력 얼굴 이미지와 상기 기저장된 얼굴 이미지는 동일한 방향으로 배열되고, 동일한 크기의 그레이 이미지를 가지는 것을 특징으로 하는 얼굴 인식 방법.
  12. 제1항에 있어서,
    상기 (a) 단계에서,
    상기 키포인트가 설정되는 상기 입력 얼굴 이미지 상의 정해진 위치들은 고정되어 있는 것을 특징으로 하는 얼굴 인식 방법.
  13. 입력 얼굴 이미지의 정해진 위치들에 키포인트를 설정하는 키포인트 위치 설정부;
    상기 키포인트들 각각의 기술자를 추출하는 키포인트 기술자 추출부; 및
    상기 입력 얼굴 이미지로부터 얻어진 제1키포인트들 각각의 기술자들과 상기 입력 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 기저장된 얼굴 이미지들 각각의 제2키포인트를 포함하는 지정된 영역 내의 키포인트들의 기술자들을 이용하여 상기 입력 얼굴 이미지와 상기 기저장된 얼굴 이미지들의 매칭 여부를 판단하는 매칭부
    를 포함하는 얼굴 인식 장치.
  14. 제 13항에 있어서,
    상기 매칭부는
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산하여 비교함에 의해서, 기저장된 얼굴 이미지 중 가장 가까운 거리를 가지는 제2포인트를 포함하는 기저장된 특정 얼굴 이미지의 식별 기호를 제1키포인트들 각각의 식별 기호로 할당하고, 가장 많이 할당된 식별 기호를 상기 입력 얼굴 이미지의 식별 기호로서 할당하는 것을 특징으로 하는 얼굴 인식 장치.
  15. 제14항에 있어서,
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산할 때, 유클리드 거리(Euclidean distance)로서 계산하는 것을 특징으로 하는 얼굴 인식 장치.
  16. 제13항에 있어서,
    상기 매칭부는
    상기 얼굴 이미지에 그리드 블록들을 형성하고, 상기 그리드 블록을 상기 지정된 영역으로 설정하는 것을 특징으로 하는 얼굴 인식 장치.
  17. 제 16항에 있어서,
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산하여 비교함에 의해서, 기저장된 얼굴 이미지 중 가장 가까운 거리를 가지는 제2포인트를 포함하는 기저장된 특정 얼굴 이미지의 식별 기호를 제1키포인트들 각각의 식별 기호로 할당하고, 상기 각 그리드 블록별로 가장 많이 할당된 식별 기호를 선정한 후 상기 가장 많이 선정된 식별 기호를 상기 입력 얼굴 이미지의 식별 기호로서 할당하는 것을 특징으로 하는 얼굴 인식 장치.
  18. 제13항에 있어서,
    상기 매칭부는
    상기 얼굴 이미지로부터 얻어진 제1키포인트에 대응하는 제2키포인트를 중심으로 하는 주변 블럭을 상기 지정된 영역으로 설정하는 것을 특징으로 하는 얼굴 인식 장치.
  19. 제 18항에 있어서,
    상기 제1키포인트들 각각의 기술자들과 상기 제2키포인트들의 기술자들을 이용하여 제1키포인트와 제2키포인트들 각각 사이의 거리를 계산하여 비교함에 의해서, 기저장된 얼굴 이미지 중 가장 가까운 거리를 가지는 제2포인트를 포함하는 기저장된 특정 얼굴 이미지의 식별 기호를 제1키포인트들 각각의 식별 기호로 할당하고, 상기 각 주변 블록별로 가장 많이 할당된 식별 기호를 선정한 후 상기 가장 많이 선정된 식별 기호를 상기 입력 얼굴 이미지의 식별 기호로서 할당하는 것을 특징으로 하는 얼굴 인식 장치.
  20. 제13항에 있어서,
    최초로 입력되는 얼굴 이미지로부터 얼굴을 검출하는 얼굴 검출부; 및
    상기 검출된 얼굴 이미지를 정해진 크기의 얼굴 이미지로 정규화하여 상기 입력 얼굴 이미지를 발생하는 정규화부를 추가적으로 포함하되,
    상기 키포인트 위치 설정부는,
    상기 정규화된 입력 얼굴 이미지의 정해진 위치들에 키포인트를 설정하는 것을 특징으로 하는 얼굴 인식 장치.
  21. 제20항에 있어서,
    상기 얼굴 검출부는
    상기 기저장된 얼굴 이미지와 동일한 방향으로 상기 검출된 얼굴 이미지를 배열하기 위하여 상기 입력 이미지로부터 얼굴의 특징점을 추가로 검출하는 것을 특징으로 하는 얼굴 인식 장치.
  22. 제21항에 있어서,
    상기 특징점은 눈, 코, 입의 특징점을 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  23. 제13항에 있어서,
    상기 입력 얼굴 이미지와 상기 기저장된 얼굴 이미지는 동일한 방향으로 배열되고, 동일한 크기의 그레이 이미지를 가지는 것을 특징으로 하는 얼굴 인식 장치.
  24. 제13항에 있어서,
    상기 키포인트 위치 설정부에 의해 상기 키포인트가 설정되는 상기 입력 얼굴 이미지 상의 정해진 위치들은 고정되어 있는 것을 특징으로 하는 얼굴 인식 장치.
  25. 제1항 내지 제12항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
PCT/KR2012/007844 2011-09-27 2012-09-27 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 Ceased WO2013048160A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280047273.0A CN103988228B (zh) 2011-09-27 2012-09-27 脸部识别方法、设备和用于执行该方法的计算机可读记录介质
EP12836564.0A EP2763102A4 (en) 2011-09-27 2012-09-27 FACE RECOGNITION METHOD, APPARATUS, AND COMPUTER-READABLE RECORDING MEDIUM FOR EXECUTING THE METHOD
JP2014531737A JP5798691B2 (ja) 2011-09-27 2012-09-27 顔認識方法、装置、および該方法を実行するためのコンピュータ可読記録媒体
US14/129,602 US9208375B2 (en) 2011-09-27 2012-09-27 Face recognition mechanism

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0097795 2011-09-27
KR1020110097795A KR101130817B1 (ko) 2011-09-27 2011-09-27 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체

Publications (1)

Publication Number Publication Date
WO2013048160A1 true WO2013048160A1 (ko) 2013-04-04

Family

ID=46142870

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/007844 Ceased WO2013048160A1 (ko) 2011-09-27 2012-09-27 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체

Country Status (6)

Country Link
US (1) US9208375B2 (ko)
EP (1) EP2763102A4 (ko)
JP (2) JP5798691B2 (ko)
KR (1) KR101130817B1 (ko)
CN (1) CN103988228B (ko)
WO (1) WO2013048160A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824050B (zh) * 2014-02-17 2017-03-15 北京旷视科技有限公司 一种基于级联回归的人脸关键点定位方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101130817B1 (ko) * 2011-09-27 2012-04-16 (주)올라웍스 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
WO2013134932A1 (en) * 2012-03-13 2013-09-19 Nokia (China) Investment Co., Ltd. A method and apparatus for improved facial recognition
US20150023866A1 (en) * 2013-07-22 2015-01-22 Rubicon Technology, Inc. Method and system of producing large oxide crystals from a melt
KR102113813B1 (ko) * 2013-11-19 2020-05-22 한국전자통신연구원 정합 쌍을 이용한 신발 영상 검색 장치 및 방법
KR101500496B1 (ko) * 2013-12-06 2015-03-10 주식회사 케이티 얼굴을 인식하는 장치 및 방법
CN104715227B (zh) 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
KR102225623B1 (ko) * 2014-09-18 2021-03-12 한화테크윈 주식회사 키포인트 기술자 매칭 및 다수결 기법 기반 얼굴 인식 시스템 및 방법
CN105518709B (zh) * 2015-03-26 2019-08-09 北京旷视科技有限公司 用于识别人脸的方法、系统和计算机程序产品
TW201727537A (zh) * 2016-01-22 2017-08-01 鴻海精密工業股份有限公司 人臉識別系統及人臉識別方法
CN105608448B (zh) * 2016-02-22 2019-08-09 海信集团有限公司 一种基于脸部关键点的lbp特征提取方法和装置
JP6517298B2 (ja) * 2017-10-10 2019-05-22 株式会社Cygames 対象物取得確認のためのシステム、サーバ、プログラム及び方法
US20190347510A1 (en) * 2018-05-11 2019-11-14 Cyberlink Corp. Systems and Methods for Performing Facial Alignment for Facial Feature Detection
CN110084219B (zh) * 2019-05-07 2022-06-24 厦门美图之家科技有限公司 界面交互方法及装置
SG10201913763WA (en) * 2019-12-30 2021-04-29 Sensetime Int Pte Ltd Image processing methods and apparatuses, electronic devices, and storage media
CN112001932B (zh) * 2020-09-01 2023-10-31 腾讯科技(深圳)有限公司 人脸识别方法、装置、计算机设备和存储介质
US11574500B2 (en) * 2020-09-08 2023-02-07 Samsung Electronics Co., Ltd. Real-time facial landmark detection
CN113822916B (zh) * 2021-08-17 2023-09-15 北京大学 图像匹配方法、装置、设备及可读存储介质
CN116869572A (zh) * 2023-08-04 2023-10-13 北京云柿信息技术有限公司 一种眼部b超检查用图像处理方法、系统、设备及介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450504A (en) * 1992-05-19 1995-09-12 Calia; James Method for finding a most likely matching of a target facial image in a data base of facial images
DE19610066C1 (de) * 1996-03-14 1997-09-18 Siemens Nixdorf Advanced Techn Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen
JP4384366B2 (ja) * 2001-01-12 2009-12-16 富士通株式会社 画像照合処理システムおよび画像照合方法
US7308133B2 (en) * 2001-09-28 2007-12-11 Koninklijke Philips Elecyronics N.V. System and method of face recognition using proportions of learned model
JP3873793B2 (ja) 2002-03-29 2007-01-24 日本電気株式会社 顔メタデータ生成方法および顔メタデータ生成装置
JP4569186B2 (ja) * 2004-06-15 2010-10-27 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2006202049A (ja) * 2005-01-20 2006-08-03 Omron Corp 顔認識装置
US20070127787A1 (en) * 2005-10-24 2007-06-07 Castleman Kenneth R Face recognition system and method
JP4705511B2 (ja) * 2006-04-28 2011-06-22 セコム株式会社 顔画像照合装置
KR100860989B1 (ko) * 2006-12-18 2008-09-30 삼성전자주식회사 얼굴 영상의 유사도 산출 방법 및 장치와 이를 이용한 얼굴영상 검색 방법 및 장치 그리고 얼굴 합성 방법
JP2008287399A (ja) * 2007-05-16 2008-11-27 Toshiba Corp 人物認証装置および方法
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
US20090135989A1 (en) 2007-11-28 2009-05-28 Ge-Hitachi Nuclear Energy Americas Llc Segmented fuel rod bundle designs using fixed spacer plates
US8705810B2 (en) * 2007-12-28 2014-04-22 Intel Corporation Detecting and indexing characters of videos by NCuts and page ranking
JP5294342B2 (ja) 2008-04-28 2013-09-18 公立大学法人大阪府立大学 物体認識用画像データベースの作成方法、処理装置および処理用プログラム
JP4913094B2 (ja) * 2008-05-20 2012-04-11 シャープ株式会社 画像照合方法、画像照合装置、画像データ出力処理装置、プログラム及び記憶媒体
US8538072B2 (en) * 2008-08-27 2013-09-17 Imprivata, Inc. Systems and methods for operator detection
CN101510257B (zh) * 2009-03-31 2011-08-10 华为技术有限公司 一种人脸相似度匹配方法及装置
JP5709410B2 (ja) * 2009-06-16 2015-04-30 キヤノン株式会社 パターン処理装置及びその方法、プログラム
JP5164222B2 (ja) 2009-06-25 2013-03-21 Kddi株式会社 画像検索方法およびシステム
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
CN101719222B (zh) * 2009-11-27 2014-02-12 北京中星微电子有限公司 分类器训练方法和装置以及人脸认证方法和装置
KR101089847B1 (ko) * 2010-03-12 2011-12-05 경북대학교 산학협력단 얼굴 인식을 위한 sift 알고리즘을 이용한 키포인트 매칭 시스템 및 방법
CN102004911B (zh) * 2010-12-31 2013-04-03 上海全景数字技术有限公司 提高人脸识别正确率的方法
KR101130817B1 (ko) * 2011-09-27 2012-04-16 (주)올라웍스 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
KR101180471B1 (ko) * 2011-09-27 2012-09-07 (주)올라웍스 한정된 메모리 환경 하에서 얼굴 인식 성능 향상을 위한 참조 얼굴 데이터베이스 관리 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US8831295B2 (en) * 2012-03-21 2014-09-09 Authentec, Inc. Electronic device configured to apply facial recognition based upon reflected infrared illumination and related methods
US20130328760A1 (en) * 2012-06-08 2013-12-12 Qualcomm Incorporated Fast feature detection by reducing an area of a camera image
US20140253702A1 (en) * 2013-03-10 2014-09-11 OrCam Technologies, Ltd. Apparatus and method for executing system commands based on captured image data

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
D. LOWE: "Distinctive image features from scale-invariant Keypoints", INTERNATIONAL JOURNAL OF COMPUTER VISION, vol. 60, no. 2, XP002756976, DOI: doi:10.1023/B:VISI.0000029664.99615.94
See also references of EP2763102A4
SE-JIN, LEE ET AL., THE JOURNAL OF KOREAN INSTITUTE OF INFORMATION TECHNOLOGY, vol. 8, no. 6, 30 June 2010 (2010-06-30), pages 9 - 20, XP008173593 *
SEUNGRYUL, BAEK ET AL.: "The Institute of Electronics Engineers of Korea", SUMMER CONFERENCE, vol. 33, no. 1, 30 June 2010 (2010-06-30), pages 148 - 151, XP055152835 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824050B (zh) * 2014-02-17 2017-03-15 北京旷视科技有限公司 一种基于级联回归的人脸关键点定位方法

Also Published As

Publication number Publication date
US20140147023A1 (en) 2014-05-29
JP6155306B2 (ja) 2017-06-28
EP2763102A1 (en) 2014-08-06
CN103988228B (zh) 2018-11-30
EP2763102A4 (en) 2016-04-20
KR101130817B1 (ko) 2012-04-16
JP5798691B2 (ja) 2015-10-21
JP2016006679A (ja) 2016-01-14
JP2014526754A (ja) 2014-10-06
US9208375B2 (en) 2015-12-08
CN103988228A (zh) 2014-08-13

Similar Documents

Publication Publication Date Title
WO2013048160A1 (ko) 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
Ahmed et al. Vision based hand gesture recognition using dynamic time warping for Indian sign language
CN102004899B (zh) 一种人脸认证系统及方法
US10127439B2 (en) Object recognition method and apparatus
Wang et al. An effective method for plate number recognition
Gomez-Barrero et al. Is your biometric system robust to morphing attacks?
KR20180022677A (ko) 지문기반 인증을 위한 장치 및 컴퓨터 구현방법
KR101389980B1 (ko) 사용자 그룹핑을 통해 사용자를 관리하는 얼굴 인식장치와 시스템 및 그 방법
WO2013129825A1 (ko) 얼굴 인식 환경 통지 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
US11281922B2 (en) Face recognition system, method for establishing data of face recognition, and face recognizing method thereof
KR20190016733A (ko) 얼굴 특징점 기반 부분 영역 지정을 통한 부분 가림 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102005150B1 (ko) 머신 러닝을 이용한 얼굴 표정 인식 시스템 및 방법
JP2000003452A (ja) デジタル画像における顔面の検出方法、顔面検出装置、画像判定方法、画像判定装置およびコンピュ―タ可読な記録媒体
WO2013048159A1 (ko) 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
JP6128910B2 (ja) 学習装置、学習方法及びプログラム
KR101089847B1 (ko) 얼굴 인식을 위한 sift 알고리즘을 이용한 키포인트 매칭 시스템 및 방법
JP6311237B2 (ja) 照合装置及び照合方法、照合システム、並びにコンピュータ・プログラム
Ghoualmi et al. A SIFT-based feature level fusion of iris and ear biometrics
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
WO2012138004A1 (ko) 피씨에이를 이용한 지문인증 장치 및 그 방법
Mubariz et al. Optimization of person re-identification through visual descriptors
KR102225623B1 (ko) 키포인트 기술자 매칭 및 다수결 기법 기반 얼굴 인식 시스템 및 방법
KR20090119127A (ko) 얼굴 인식을 이용한 인증 방법 및 장치
KR101240901B1 (ko) 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
US20250181688A1 (en) System for authenticating remote driver in real time using image and artificial intelligence

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12836564

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14129602

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012836564

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014531737

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE