KR20160053749A - Method and systems of face expression features classification robust to variety of face image appearance - Google Patents
Method and systems of face expression features classification robust to variety of face image appearance Download PDFInfo
- Publication number
- KR20160053749A KR20160053749A KR1020150046083A KR20150046083A KR20160053749A KR 20160053749 A KR20160053749 A KR 20160053749A KR 1020150046083 A KR1020150046083 A KR 1020150046083A KR 20150046083 A KR20150046083 A KR 20150046083A KR 20160053749 A KR20160053749 A KR 20160053749A
- Authority
- KR
- South Korea
- Prior art keywords
- facial
- image
- facial expression
- query
- expression class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G06K9/00221—
-
- G06K9/00268—
-
- G06K9/00288—
Landscapes
- Image Analysis (AREA)
Abstract
본 발명은 얼굴 표정 특징 분류 방법 및 시스템에 관한 것이다. 개시된 얼굴 표정인식을 위한 표정 특징 분류 시스템에서 수행되는 표정 특징 분류 방법은 쿼리 얼굴 영상에 대해 각 표정 클래스 별로 구성된 훈련 얼굴 영상들을 이용하여 표정 클래스 내 변화 성분에 해당하는 표정 클래스 내 변화 영상을 생성하는 단계와, 표정 클래스 내 변화 영상과 상기 쿼리 얼굴 영상 간의 영상 차를 계산하여 얼굴 특징으로 정의하는 단계와, 희소 표현을 적용해 얼굴 특징을 특정 표정 클래스로 분류하여 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정하는 단계를 포함한다. 이처럼, 쿼리 얼굴 영상 내에 나타나는 표정과 관련 없는 표정 클래스 내 변화 성분들을 제거하는 얼굴 특징 추출 및 분류 방법을 이용함으로써, 쿼리 얼굴 영상에 다양한 변화가 존재하더라도 안정적인 표정인식 성능을 나타내는 이점이 있다.The present invention relates to a facial expression feature classification method and system. A facial feature classification method performed in a facial feature classification system for facial expression recognition includes generating a facial expression class variation image corresponding to a variation component in a facial expression class using training facial images constructed for each facial expression class for a query facial image Calculating an image difference between the change image in the facial expression class and the query face image and defining the difference as a facial feature, and classifying the facial feature into a specific facial expression class by applying a rare expression, . As described above, by using the facial feature extraction and classification method that removes the variation components in the facial expression class that are not related to the facial expressions appearing in the query facial image, there is an advantage that stable facial recognition performance is exhibited even if there are various changes in the query facial image.
Description
본 발명은 얼굴 표정 특징 분류 방법 및 시스템에 관한 것으로, 더욱 상세하게는 얼굴 표정인식을 위한 표정 특징의 추출(feature extraction) 및 분류(classification) 방법 및 시스템에 관한 것이다.The present invention relates to a facial expression feature classification method and system, and more particularly, to a method and system for feature extraction and classification for facial expression recognition.
얼굴 표정인식은 쿼리 얼굴 영상에서 표정과 관련된 얼굴 특징을 추출하고 이 얼굴 특징을 분류하여 쿼리 얼굴 영상이 어떤 표정(예 : 무표정(neutral), 웃음(smile), 놀람(surprise))에 해당하는 지를 분류(classification) 과정을 통해 결정한다. 많은 얼굴 표정인식 방법들은 얼굴의 전체 영역 또는 국부적으로 윤곽이나 주름에 해당하는 질감(texture) 정보를 추출하는 얼굴 특징 추출 방법을 사용한다. Facial Expression Recognition extracts facial features related to facial expression from a query facial image and classifies the facial features to determine whether the query facial image corresponds to a certain facial expression (eg, neutral, smile, surprise) It is decided through the classification process. Many facial expression recognition methods use a facial feature extraction method that extracts texture information corresponding to the entire area or local contour or wrinkles of the face.
이때, 얼굴 표정을 인식하는 방법은 블록 단위의 얼굴 영상을 기반으로 하여 쿼리 얼굴 영상과 등록 얼굴 영상의 유사도를 측정함으로써 카메라를 통해 입력된 사용자의 얼굴을 미리 등록된 얼굴 영상과 비교하여 가장 유사한 얼굴을 찾는 방법으로 이루어지고 있다. 이와 관련하여, 선행기술인 한국공개특허 제2009-0021279 (2010.09.27 공개)에는, 로봇환경과 같이 등록되는 얼굴 영상 수가 적은 경우에도 얼굴 인식 성능을 높일 수 있고, 입력되는 얼굴 영상을 소정의 블록 단위로 비교하여 유사도를 판단함으로써 다양한 조합의 영상이 만들어지므로 등록 얼굴 영상의 다양성을 증가시킬 수 있는 방법이 개시되어 있다.At this time, the method of recognizing the facial expression is based on the face image of the block unit, and by measuring the similarity degree between the query face image and the registered face image, the face of the user inputted through the camera is compared with the registered face image, To find out. In this regard, Korean Unexamined Patent Publication No. 2009-0021279 (published on Sep. 22, 2010) discloses a technique for improving face recognition performance even when the number of registered face images is small, such as a robot environment, A variety of combinations of images are created by judging the degree of similarity. Thus, a method for increasing the diversity of registered face images is disclosed.
다만, 쿼리 얼굴 영상에 해당하는 인물이 훈련용(training) 얼굴 영상들에 존재하지 않을 경우 인물들이 가지고 있는 고유의 얼굴 모습들(facial identity)과 얼굴 표정 간의 혼동이 발생하여 표정인식 정확도가 급격히 저하되는 단점이 있다.However, if the person corresponding to the query face image does not exist in the training face images, confusion between the facial identity of the characters and facial expression occurs, .
이러한 단점을 해결하기 위해 쿼리 얼굴 영상과 쿼리 영상 인물의 무표정(neutral expression) 얼굴 영상과의 영상 차(image difference)를 계산하여 인물의 고유 정보를 제거하는 얼굴 표정인식 방법이 연구되었다.In order to solve these drawbacks, facial expression recognizing method which computes the image difference between the query facial image and the neutral expression facial image of the query imitated person to remove the characteristic information of the person has been studied.
하지만 이처럼 인물의 고유 정보를 제거하는 얼굴 표정인식 방법은 두 가지의 문제점이 존재한다. 첫째, 실제적인 얼굴 표정인식에서는 쿼리 얼굴 영상에 해당하는 인물이 훈련 얼굴 영상들에서 존재하지 않는 경우가 빈번한데 이 경우 적용이 불가능하다. 둘째, 쿼리 얼굴 영상과 무표정 얼굴 영상 간에 취득된 조명조건이 다른 경우 영상 차를 계산할 때 조명 변화에 따른 인식 저하가 발생한다.However, there are two problems with the facial expression recognizing method that removes the unique information of the person. First, in the real face facial expression recognition, the person corresponding to the query face image does not exist in the training face images frequently, which is not applicable in this case. Second, when the acquired illumination condition is different between the query face image and the no face image, the recognition difference is deteriorated according to the illumination change when calculating the image difference.
본 발명의 실시예는, 얼굴 영상 내에 존재하는 표정과 관련 없는 얼굴 영상의 다양성에 강인하도록 한 얼굴 표정 특징 분류 방법 및 시스템을 제공한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.Embodiments of the present invention provide a facial expression feature classification method and system that are robust to diversity of facial images that are not related to facial expressions existing in a facial image. It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 관점에 따르면, 얼굴 표정인식을 위한 표정 특징 분류 시스템에서 수행되는 표정 특징 분류 방법은, 쿼리 얼굴 영상에 대해 각 표정 클래스 별로 구성된 훈련 얼굴 영상들을 이용하여 표정 클래스 내 변화 성분에 해당하는 표정 클래스 내 변화 영상을 생성하는 단계와, 상기 표정 클래스 내 변화 영상과 상기 쿼리 얼굴 영상 간의 영상 차(Image Difference)를 계산하여 얼굴 특징으로 정의하는 단계와, 희소 표현을 적용해 상기 얼굴 특징을 특정 표정 클래스로 분류하여 상기 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정하는 단계를 포함할 수 있다.According to one aspect of the present invention, there is provided a facial feature classification method performed in a facial feature classification system for facial expression recognition, comprising the steps of: A step of generating a change image in a facial expression class corresponding to a change component in a facial expression class using images, a step of calculating an image difference between the change image in the facial expression class and the query facial image, And classifying the facial feature into a specific facial expression class by applying a rare expression and determining a facial expression class corresponding to the query facial image.
여기서, 상기 표정 클래스 내 변화 영상은, 상기 훈련 얼굴 영상들의 선형 조합을 이용한 상기 쿼리 얼굴 영상의 근사화를 통해 얻어질 수 있다.Here, the change image in the facial expression class may be obtained by approximating the query face image using a linear combination of the training face images.
또, 상기 표정 클래스 내 변화 영상은, 정규화된 최소 제곱법을 적용하여 각 훈련 얼굴 영상의 선형 조합에 대한 가중치를 나타내는 각 가중치 벡터를 구하고, 각 가중치 벡터와 각 훈련 얼굴 영상을 이용하여 생성할 수 있다.The variation image in the facial expression class can be generated using each weight vector and each training face image by obtaining a weight vector representing a weight for linear combination of each training face image by applying a normalized least squares method have.
또, 상기 표정 클래스를 결정하는 단계는, 상기 훈련 얼굴 영상의 얼굴 특징으로 구성된 딕셔너리를 이용하여 상기 쿼리 얼굴 영상의 얼굴 특징을 표현하기 위한 복수의 희소 계수 벡터를 구하는 단계와, 상기 복수의 희소 계수 벡터를 융합하여 융합된 희소 계수 벡터를 구하는 단계와, 상기 융합된 희소 계수 벡터에서 희소 계수가 가장 집중된 표정 클래스를 찾아 상기 쿼리 얼굴 영상의 표정 클래스로 결정하는 단계를 포함할 수 있다.The step of determining the facial expression class may include a step of obtaining a plurality of sparse coefficient vectors for expressing facial features of the query face image using a dictionary composed of facial features of the training facial image, And determining a facial expression class of the query facial image by finding a facial expression class in which a sparse coefficient is most concentrated in the fused sparse coefficient vector.
또, 상기 딕셔너리는, 상기 훈련 얼굴 영상과 상기 표정 클래스 내 변화 영상의 영상 차를 이용하여 표정의 개수만큼 얼굴 특징이 정의될 수 있다.In addition, the dictionary may define a face feature as many as the number of facial expressions using the image difference between the training face image and the change image in the facial expression class.
본 발명에 따른 다른 관점에 따르면, 얼굴 표정인식을 위한 얼굴 표정 특징 분류 시스템은, 쿼리 얼굴 영상에 대해 각 표정 클래스 별로 구성된 훈련 얼굴 영상들을 이용하여 표정 클래스 내 변화 성분에 해당하는 표정 클래스 내 변화 영상을 생성하는 변화 영상 생성부와, 상기 표정 클래스 내 변화 영상과 상기 쿼리 얼굴 영상 간의 영상 차를 계산하여 얼굴 특징으로 정의하는 영상 차 계산부와, 희소 표현을 적용해 상기 얼굴 특징을 특정 표정 클래스로 분류하여 상기 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정하는 영상 분류부를 포함할 수 있다.According to another aspect of the present invention, there is provided a facial feature classification system for recognizing a facial expression, comprising: training face images composed of each facial expression class for a query facial image, An image difference calculation unit for calculating an image difference between the change image in the facial expression class and the query face image to define the face difference as a face feature; And an image classifier for classifying the query facial image and determining a facial expression class corresponding to the query facial image.
여기서, 상기 표정 클래스 내 변화 영상은, 상기 훈련 얼굴 영상들의 선형 조합을 이용한 상기 쿼리 얼굴 영상의 근사화를 통해 얻어질 수 있다.Here, the change image in the facial expression class may be obtained by approximating the query face image using a linear combination of the training face images.
또, 상기 표정 클래스 내 변화 영상은, 정규화된 최소 제곱법을 적용하여 각 훈련 얼굴 영상의 선형 조합에 대한 가중치를 나타내는 각 가중치 벡터를 구하고, 각 가중치 벡터와 각 훈련 얼굴 영상을 이용하여 생성할 수 있다.The variation image in the facial expression class can be generated using each weight vector and each training face image by obtaining a weight vector representing a weight for linear combination of each training face image by applying a normalized least squares method have.
또, 상기 영상 분류부는, 상기 훈련 얼굴 영상의 얼굴 특징으로 구성된 딕셔너리를 이용하여 상기 쿼리 얼굴 영상의 얼굴 특징을 표현하기 위한 복수의 희소 계수 벡터를 구하는 희소 표현 적용부와, 상기 복수의 희소 계수 벡터를 융합하여 융합된 희소 계수 벡터를 구하는 융합부와, 상기 융합된 희소 계수 벡터에서 희소 계수가 가장 집중된 표정 클래스를 찾아 상기 쿼리 얼굴 영상의 표정 클래스로 결정하는 분류부를 포함할 수 있다.The image classification unit may further include: a sparse expression applying unit that obtains a plurality of sparse coefficient vectors for expressing facial features of the query face image using a dictionary composed of facial features of the training face image; And a classifier for finding a facial expression class in which a sparse coefficient is most concentrated in the fused sparse coefficient vector to determine a facial expression class of the query facial image.
또, 상기 딕셔너리는, 상기 훈련 얼굴 영상과 상기 표정 클래스 내 변화 영상의 영상 차를 이용하여 표정의 개수만큼 얼굴 특징이 정의될 수 있다.In addition, the dictionary may define a face feature as many as the number of facial expressions using the image difference between the training face image and the change image in the facial expression class.
본 발명의 실시예에 의하면, 얼굴 영상 내에 존재하는 표정과 관련 없는 얼굴 영상의 다양성에 강인한 얼굴 표정인식 달성을 위해, 훈련 얼굴 영상들에 쿼리 얼굴 영상 인물의 무표정 얼굴 영상이 존재하지 않는 경우에 인물의 고유 정보를 제거하고, 쿼리 얼굴 영상에 존재하는 조명 변화를 감소시킴으로써, 쿼리 얼굴 영상의 다양성에 의해 인식 성능이 저하되는 종래 기술의 문제점들을 극복할 수 있다.According to the embodiment of the present invention, in order to achieve robust facial expression recognition of diversity of facial images irrelevant to facial expression existing in a facial image, when there is no facial expression image of a query facial image character on training facial images, It is possible to overcome the problems of the prior art in which recognition performance is degraded due to the diversity of the query face image by reducing the illumination change in the query face image.
이처럼, 쿼리 얼굴 영상 내에 나타나는 표정과 관련 없는 표정 클래스 내 변화 (intra-class variation) 성분들을 제거하는 얼굴 특징 추출 및 분류 방법을 이용함으로써, 쿼리 얼굴 영상에 다양한 변화가 존재하더라도 안정적인 표정인식 성능을 나타낸다.As described above, by using the facial feature extraction and classification method that removes the intra-class variation components unrelated to the facial expression appearing in the query facial image, the facial feature recognition performance is stable even if there are various changes in the query facial image .
도 1은 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템의 블록 구성도이다.
도 2는 본 발명의 실시예에 따라 얼굴 표정 특징 분류 시스템을 구성하는 영상 분류부의 세부적인 블록 구성도이다.
도 3은 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템에 의한 얼굴 표정 특징 분류 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템에 의한 얼굴 표정 특징 분류 방법에서 얼굴 특징을 추출하는 과정을 예시적으로 나타낸 것이다.
도 5 및 도 6은 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템에 의한 얼굴 표정 특징 분류 방법에 의해 쿼리 얼굴 영상과 훈련 얼굴 영상을 이용하여 생성하는 표정 클래스 내 변화 영상을 예시적으로 나타낸 것이다.
도 7은 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템에 의한 얼굴 표정 특징 분류 방법에 의해 이용되는 쿼리 얼굴 영상(q)과 표정 클래스 내 변화 영상( hi q) 및 얼굴 특징( yi q)을 예시적으로 나타낸 것이다.1 is a block diagram of a facial expression feature classification system according to an embodiment of the present invention.
FIG. 2 is a detailed block diagram of an image classification unit of a facial expression feature classification system according to an embodiment of the present invention. Referring to FIG.
FIG. 3 is a flowchart illustrating a facial expression feature classification method by the facial expression feature classification system according to an embodiment of the present invention.
FIG. 4 illustrates an example of a process of extracting facial features in the facial expression feature classification method according to the facial expression feature classification system according to the embodiment of the present invention.
5 and 6 illustrate a variation image in a facial expression class that is generated using a query facial image and a training facial image by the facial expression feature classification method by the facial expression feature classification system according to the embodiment of the present invention .
FIG. 7 is a diagram illustrating a query facial image q, a facial expression class variation image h i q , and a facial feature y i q , which are used by the facial expression feature classification method by the facial expression feature classification system according to the embodiment of the present invention. ). ≪ / RTI >
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "including" an element, it is to be understood that the element may include other elements as well as other elements, And does not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템(장치)의 블록 구성도이다.1 is a block diagram of a facial expression feature classification system (apparatus) according to an embodiment of the present invention.
이에 나타낸 바와 같이 실시예에 따른 얼굴 표정 특징 분류 시스템(100)은 변화 영상 생성부(110), 영상 차 계산부(120), 영상 분류부(130) 등을 포함한다.As described above, the facial expression
변화 영상 생성부(110)는 쿼리 얼굴 영상에 대해 각 표정 클래스 별로 구성된 훈련 얼굴 영상들을 이용하여 표정 클래스 내 변화 성분에 해당하는 표정 클래스 내 변화 영상을 생성한다.The change
여기서, 표정 클래스 내 변화 영상은 훈련 얼굴 영상들의 선형 조합을 이용한 쿼리 얼굴 영상의 근사화를 통해 얻어질 수 있다. 또, 정규화된 최소 제곱법을 적용하여 각 훈련 얼굴 영상의 선형 조합에 대한 가중치를 나타내는 각 가중치 벡터를 구하고, 각 가중치 벡터와 각 훈련 얼굴 영상을 이용하여 표정 클래스 내 변화 영상을 생성할 수 있다.Here, the change image in the facial expression class can be obtained by approximating a query face image using a linear combination of training face images. In addition, by applying the normalized least squares method, each weight vector representing a weight for a linear combination of training face images is obtained, and a variation image in a facial expression class can be generated using each weight vector and each training face image.
영상 차 계산부(120)는 표정 클래스 내 변화 영상과 쿼리 얼굴 영상 간의 영상 차(Image Difference)를 계산하여 얼굴 특징으로 정의한다.The image
영상 분류부(130)는 희소 표현을 적용해 얼굴 특징을 특정 표정 클래스로 분류(classification)하여 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정한다. 이러한 영상 분류부(130)의 세부적인 구성에 대해 도 2에 나타내었다.The
도 2는 본 발명의 실시예에 따라 얼굴 표정 특징 분류 시스템(100)을 구성하는 영상 분류부(130)의 세부적인 블록 구성도이다.2 is a detailed block diagram of the
이에 나타낸 바와 같이 영상 분류부(130)는 희소 표현 적용부(131)와 융합부(133) 및 분류부(135)를 포함한다.As shown, the
희소 표현 적용부(131)는 훈련 얼굴 영상의 얼굴 특징으로 구성된 딕셔너리를 이용하여 쿼리 얼굴 영상의 얼굴 특징을 표현하기 위한 복수의 희소 계수 벡터를 구한다.The sparse
여기서, 딕셔너리는 훈련 얼굴 영상과 표정 클래스 내 변화 영상의 영상 차를 이용하여 표정의 개수만큼 얼굴 특징이 정의된다.Here, the dictionary defines facial features as many as the number of facial expressions using the difference between the training facial image and the variation image in the facial expression class.
융합부(133)는 복수의 희소 계수 벡터를 융합하여 융합된 희소 계수 벡터를 구한다.The
분류부(135)는 융합된 희소 계수 벡터에서 희소 계수가 가장 집중된 표정 클래스를 찾아 쿼리 얼굴 영상의 표정 클래스로 결정한다.The classifying
도 3은 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템(장치)에 의한 얼굴 표정 특징 분류 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a facial expression feature classification method by a facial expression feature classification system (apparatus) according to an embodiment of the present invention.
이에 나타낸 바와 같이 실시예에 따른 얼굴 표정 특징 분류 방법은, 입력된 쿼리 얼굴 영상에 대해 각 표정 클래스 별로 구성된 훈련 얼굴 영상들을 이용하여 표정 클래스 내 변화 성분에 해당하는 표정 클래스 내 변화 영상을 생성하는 단계(S201 내지 S203)를 포함한다.As shown in the figure, the facial expression feature classification method according to the embodiment includes the steps of generating a variation image in a facial expression class corresponding to a variation component in a facial expression class using training facial images configured for each facial expression class, (S201 to S203).
이어서, 표정 클래스 내 변화 영상과 쿼리 얼굴 영상 간의 영상 차를 계산하여 얼굴 특징으로 정의하는 단계(S205)를 더 포함한다.Next, the image difference between the change image in the facial expression class and the query face image is calculated and defined as a face feature (S205).
그리고, 희소 표현을 적용해 얼굴 특징을 특정 표정 클래스로 분류하여 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정하는 단계(S207 내지 S211)를 더 포함한다.The method further includes a step (S207 to S211) of classifying the facial feature into a specific facial expression class by applying the rare expression and determining a facial expression class corresponding to the query facial image.
끝으로, 결정된 표정 클래스의 라벨을 출력하는 단계(S213)를 더 포함한다.Finally, the step S213 of outputting the label of the determined facial expression class is further included.
이하, 도 1 내지 도 7를 참조하여 본 발명의 실시예에 따른 얼굴 표정 특징 분류 시스템(장치)에 의한 얼굴 표정 특징 분류 방법에 대해 더 자세히 살펴보기로 한다.Hereinafter, the facial expression feature classification method by the facial expression feature classification system (apparatus) according to the embodiment of the present invention will be described in more detail with reference to FIG. 1 to FIG.
먼저, 쿼리 얼굴 영상이 얼굴 표정 특징 분류 시스템(100)에 입력(S201)되면 변화 영상 생성부(110)는 쿼리 얼굴 영상에 대해 각 표정 클래스 별로 구성된 훈련 얼굴 영상들을 이용하여 i번째(i=1,…,C) 표정 클래스 내 변화 영상(intra-class variation image)을 한 개씩 생성한다. 이 과정을 통해 총 C개의 표정 클래스에 해당하는 C개의 표정 클래스 내 변화 영상을 얻게 된다.First, when a query face image is input to the facial expression feature classification system 100 (S201), the change
이를 위해, 쿼리 얼굴 영상 q∈RN으로 정의하며, 전체 훈련 얼굴 영상 셋을 Φ=[Φ1, Φ2,...,ΦC] ∈RNxM로 정의한다. 여기서 N과 M은 각각 벡터화된 얼굴 영상의 차원 수와 총 훈련 얼굴 영상의 개수이다. 또한 Φ=[ti ,1, ti ,2,...,ti , Mi]∈RNxMi은 i번째 표정 클래스의 훈련 얼굴 영상 셋이고 여기서 tij ∈ RN는 i번째 표정 클래스에서 j번째 훈련 얼굴 영상이다.For this purpose, we define the query face image q∈R N and define the whole training face image set as Φ = [Φ 1 , Φ 2 , ..., Φ C ] ∈ R NxM . Where N and M are the number of dimensions of the vectorized face image and the number of total training face images, respectively. In addition, Φ = [t i , 1 , t i , 2 , ..., t i , Mi ] ∈ R NxMi is the training face image set of the ith facial expression class, where t ij ∈ R N is the j Second training face image.
쿼리 얼굴 영상 q의 얼굴 특징 추출을 위해 Φi를 이용하여 표정 클래스 내 변화 영상 hi q를 생성한다(S203). hi q는 Φi에 포함된 훈련 얼굴 영상들의 선형 조합을 이용한 q의 근사화로써 얻어진다. 따라서 각 훈련 얼굴 영상의 가중치를 나타내는 가중치 벡터 wi q=[w1,w2,...,wMi]T∈RMi를 얻기 위해 정규화된 최소 제곱법(regularized least square method)을 적용하여 수학식 1에 정의된 최적화(optimization) 문제를 풀어야 한다.In order to extract facial features of the query facial image q, a change image h i q in the facial expression class is generated using Φ i (S203). h i q is obtained by approximating q using a linear combination of training face images contained in Φ i . Therefore, we apply the normalized least squares method to obtain the weight vector w i q = [w 1 , w 2 , ..., w Mi ] T ∈ R Mi representing the weight of each training face image The optimization problem defined in Equation (1) must be solved.
여기서, ||·||2 는 벡터의 L2 놈(norm)이다. ||q-Φiwi q||2 2는 복원 오류(reconstruction error)이고 ||wi q||2 2는 해 를 안정화시키기 위한 정규화 항이다.Here, || 2 is the L2 norm of the vector. || q-Φ i w i q || 2 2 is a reconstruction error and || w i q || 2 2 years Lt; / RTI >
수학식 1을 이용하여 얻어진 가중치 벡터 를 이용하여 표정 클래스 내 변화 영상 hi q은 수학식 2와 같이 표현된다.The weight vector obtained using Equation (1) The change image h i q in the facial expression class is expressed by Equation (2).
여기서, 의 각 요소(element)는 해당하는 훈련 얼굴 영상의 선형 조합에 대한 가중치를 나타낸다. hi q는 i번째 표정 클래스의 훈련 얼굴 영상 셋 Φi 를 이용하여 생성되었으므로 i번째 표정 클래스에 해당하는 표정을 나타낸다.here, Each element of the training image represents a weight for a linear combination of corresponding training face images. Since h i q is generated using the training face image set Φ i of the i-th facial expression class, the facial expression corresponding to the i-th facial expression class is shown.
이어서, 영상 차 계산부(120)는 i번째(i=1,…,C) 표정 클래스 내 변화 영상과 쿼리 얼굴 영상 간의 영상 차를 계산하여 이를 얼굴 특징으로 정의한다. 이 과정을 통해 총 C개의 표정 클래스에 해당하는 C개의 얼굴 특징을 얻는다(S205).Then, the image
도 5와 도 6은 각각 i=Neutral과 i=Surprise일 때 쿼리 얼굴 영상(가장 왼쪽 열) q, hi q 생성 시 가장 가중치가 높은 훈련 영상 세 개(가운 데 세 개 열), 그리고 생성된 표정 클래스 내 변화 영상(가장 오른쪽 열)을 보여준다. 생성된 hi q 는 쿼리 얼굴 영상 q 및 인물 고유 얼굴 모습(facial identity)과 비교할 때에 조명이 서로 유사한 것을 볼 수 있다.Fig. 5 and Fig. 6 show three training images (three rows in height) having the highest weight when generating query face images (leftmost column) q and h i q when i = Neutral and i = Surprise, (Rightmost column) in the facial expression class. It can be seen that the generated h i q is similar to the query face image q and the facial identity when compared with the facial identity.
전체 훈련 얼굴 영상 셋 Φ에 포함된 C개의 표정 클래스 내 변화 영상 hi q (i=1,…,C)를 이용하여 수학식 3과 같이 얼굴 특징 yi q가 정의된다.The change image in C expression classes included in the entire training face image set Φ h i q (i = 1, ..., C), the face feature y i q is defined as shown in Equation (3).
도 7은 i=Neutral, i=Smile, i=Surprise일 때 수학식 3을 이용하여 얻어진 얼굴 특징 yi q를 나타낸다. hi q와 q가 인물 고유 얼굴 모습과 비교할 때에 조명이 서로 유사하기 때문에 영상 차에 의해 얻어진 얼굴 특징 yi q는 표정과 관련되지 않은 요소들의 영향을 억제시키고 q가 갖는 표정과 hi q가 갖는 기준(reference) 표정의 차이를 강조하는 효과를 가진다.Fig. 7 shows the facial feature y i q obtained using Equation 3 when i = Neutral, i = Smile, i = Surprise. Since h i q and q are similar to each other, the face feature y i q obtained by the image difference suppresses the influence of elements not related to the facial expression, and the expression q and h i q And the effect of emphasizing the difference of the reference facial expression.
다음으로, 영상 분류부(130)는 희소 표현을 적용해 얼굴 특징을 특정 표정 클래스로 분류하여 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정한다. 즉, i번째 표정 클래스 내 변화 영상으로 얻은 얼굴 특징 및 딕셔너리(dictionary)를 입력받아 희소 표현을 적용한다. 이 과정으로 총 C개의 표정 클래스에 해당하는 C개의 희소 표현 계수 벡터들을 얻는다.Next, the
이를 위해, 희소 표현 적용부(131)는 훈련 얼굴 영상의 얼굴 특징으로 구성된 딕셔너리를 이용하여 쿼리 얼굴 영상의 얼굴 특징을 표현하기 위한 복수의 희소 계수 벡터를 구한다. 여기서, 딕셔너리는 훈련 얼굴 영상과 표정 클래스 내 변화 영상의 영상 차를 이용하여 표정의 개수만큼 얼굴 특징이 정의되는 것이다(S207).To this end, the sparse
수학식 3에 의해 얻은 C개의 표정 클래스의 얼굴 특징 yi s∈RN(i=1,…,C)를 이용하여 희소 표현 분류를 이용한 분류 과정에 대해 설명하기로 한다.The classification process using the rare expression classification will be described using the facial features y i s ∈ R N (i = 1, ..., C) of the C facial expression classes obtained by the equation (3).
우선, 희소 표현 분류를 위해 훈련 얼굴 표정 특징들로 구성된 딕셔너리를 정의해야 한다. 훈련 얼굴 영상들 로부터 훈련 얼굴 특징들을 추출하기 위해 훈련 얼굴 영상 셋 Φ(i=1,…,C)과 수학식 1과 수학식 2 및 수학식 3을 이용하여 얻어진다. 이는 쿼리 얼굴 영상에서 얼굴 특징을 추출하는 방법과 완전히 동일하다. 구체적으로, 한 개의 훈련 얼굴 영상 s에서 얼굴 특징을 추출할 때 표정 클래스 내 변화 영상 hi s 를 생성하고 s와 hi s의 영상 차를 이용하여 얼굴 특징 yi s이 표정의 개수(=C) 만큼 정의된다. 도 4를 참고하여, i번째 표정 클래스 내 변화 영상 hi s를 이용하여 얻어진 M개의 훈련 얼굴 특징들 yi s로 구성된 딕셔너리를 Ai∈RNXM라고 하자.First, we need to define a dictionary consisting of trained facial expression features for classifying rare expressions. Training face images (I = 1, ..., C) and the equations (1), (2) and (3) to extract the training facial features from the training facial image set. This is exactly the same as the method of extracting face features from a query face image. Specifically, when extracting facial features from one training facial image s, we generate a change image h i s in the facial class and use the image difference of s and h i s to determine the face feature y i s by the number of facial expressions (= C ). 4, the change in the i-th facial expression class Let A i ∈ R NXM be a dictionary consisting of M training face features y i s obtained using the image h i s .
쿼리 얼굴 영상 q의 표정 클래스를 결정하기 위해 수학식 4에 정의된 L1 놈 최소화 문제를 풀어서 쿼리 얼굴 특징 yi q를 딕셔너리 Ai를 이용하여 잘 표현하기 위한 희소 계수 벡터(sparse coefficient vector) 를 구해야 한다.A sparse coefficient vector for expressing the query face feature y i q using the dictionary A i by solving the L1 norm minimization problem defined in Equation 4 to determine the facial expression class of the query facial image q, .
이 식에서 ε 은 작은 양의 에너지를 갖는 노이즈 항이다. 수학식 4에 의해 C개의 표정 클래스 내 변화 영상들을 이용하여 C개의 희소 계수 벡터 를 얻을 수 있다. In this equation, ε is a noise term with a small amount of energy. Using C change images in the facial expression class according to Equation (4), C sparse coefficient vectors Can be obtained.
이어서, 융합부(133)는 복수의 희소 계수 벡터를 융합하여 융합된 희소 계수 벡터를 구한다(S209).Next, the
서로 다른 표정 클래스 내 변화 영상들을 이용하여 얻어진 희소 계수 벡터 의 상호 보완적인(complementary) 정보를 인식에 활용하기 위해 수학식 5와 같이 C개의 희소 계수 벡터 를 융합하여 융합된 희소 계수 벡터 를 얻을 수 있다.Sparse coefficient vectors obtained by using change images in different facial classes To compute the complementary information of the C sparse coefficient vector < RTI ID = 0.0 > Lt; RTI ID = 0.0 > fused < / RTI > Can be obtained.
이 식에서 정규화 항 에 의해 각 는 를 생성할 때 동일한 기여를 한다.In this equation, Respectively, The The same contribution is made.
다음으로, 분류부(135)는 융합된 희소 계수 벡터에서 희소 계수가 가장 집중된 표정 클래스를 찾아 쿼리 얼굴 영상의 표정 클래스로 결정한다(S211).Next, the classifying
수학식 6과 같이, 융합된 희소 계수 벡터 에서 가장 희소 계수가 집중된 표정 클래스를 찾아 쿼리 얼굴 영상 q의 표정 클래스를 결정한다.As shown in Equation (6), the fused sparse coefficient vector The facial expression class of the query face image q is determined by finding the facial expression class in which the most rare coefficients are concentrated.
여기서 xcom i ,j은 융합된 희소 계수 벡터 에서 i번째 표정 클래스 내 j번째 훈련 얼굴 영상에 관계된 희소 계수값이다.Where x com i , j is the fused sparse coefficient vector Is the sparse coefficient value related to the jth training face image in the ith face expression class.
끝으로, 분류부(135)는 결정된 표정 클래스의 라벨을 출력한다(S213).
Finally, the classifying
지금까지 설명한 바와 같이, 쿼리 얼굴 영상 내에 나타나는 표정과 관련 없는 표정 클래스 내 변화 성분들을 제거하는 얼굴 특징 추출 및 분류 방법을 이용함으로써, 쿼리 얼굴 영상에 다양한 변화가 존재하더라도 안정적인 표정인식 성능을 나타낸다.As described above, by using the facial feature extraction and classification method that removes the variation components in the facial expression class that are not associated with facial expressions appearing in the query facial image, the facial feature recognition performance is stable even if there are various changes in the query facial image.
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Combinations of each step of the flowchart and each block of the block diagrams appended to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which may be executed by a processor of a computer or other programmable data processing apparatus, And means for performing the functions described in each step are created. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce a manufacturing item containing instruction means for performing the functions described in each block or flowchart of the block diagram. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
Claims (10)
쿼리 얼굴 영상에 대해 각 표정 클래스 별로 구성된 훈련 얼굴 영상들을 이용하여 표정 클래스 내 변화 성분에 해당하는 표정 클래스 내 변화 영상을 생성하는 단계와,
상기 표정 클래스 내 변화 영상과 상기 쿼리 얼굴 영상 간의 영상 차(Image Difference)를 계산하여 얼굴 특징으로 정의하는 단계와,
희소 표현을 적용해 상기 얼굴 특징을 특정 표정 클래스로 분류하여 상기 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정하는 단계를 포함하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 방법.A facial feature classification method performed in a facial feature classification system for facial expression recognition,
Generating a variation image in a facial expression class corresponding to a variation component in a facial expression class using training facial images configured for each facial expression class for a query facial image;
Calculating an image difference between the change image in the facial expression class and the query face image to define the face feature;
And classifying the facial features into a specific facial expression class by applying a rare expression to determine a facial expression class corresponding to the query facial image.
상기 표정 클래스 내 변화 영상은, 상기 훈련 얼굴 영상들의 선형 조합을 이용한 상기 쿼리 얼굴 영상의 근사화를 통해 얻어지는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 방법.The method according to claim 1,
Wherein the change image in the facial expression class is obtained by approximating the query face image using a linear combination of the training face images.
상기 표정 클래스 내 변화 영상은, 정규화된 최소 제곱법을 적용하여 각 훈련 얼굴 영상의 선형 조합에 대한 가중치를 나타내는 각 가중치 벡터를 구하고, 각 가중치 벡터와 각 훈련 얼굴 영상을 이용하여 생성하는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 방법.3. The method of claim 2,
The variation image within the facial expression class is generated by using a normalized least squares method to obtain each weight vector representing a weight for a linear combination of each training face image and using each weight vector and each training face image. Facial Expression Feature Classification Method for Facial Expression Recognition.
상기 표정 클래스를 결정하는 단계는,
상기 훈련 얼굴 영상의 얼굴 특징으로 구성된 딕셔너리를 이용하여 상기 쿼리 얼굴 영상의 얼굴 특징을 표현하기 위한 복수의 희소 계수 벡터를 구하는 단계와,
상기 복수의 희소 계수 벡터를 융합하여 융합된 희소 계수 벡터를 구하는 단계와,
상기 융합된 희소 계수 벡터에서 희소 계수가 가장 집중된 표정 클래스를 찾아 상기 쿼리 얼굴 영상의 표정 클래스로 결정하는 단계를 포함하는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 방법.The method according to claim 1,
The step of determining the facial expression class includes:
Obtaining a plurality of sparse coefficient vectors for expressing facial features of the query face image using a dictionary composed of face features of the training face image;
Obtaining a fused sparse coefficient vector by fusing the plurality of sparse coefficient vectors;
Determining a facial expression class in which a sparse coefficient is most concentrated in the fused sparse coefficient vector as a facial expression class of the query facial image.
상기 딕셔너리는, 상기 훈련 얼굴 영상과 상기 표정 클래스 내 변화 영상의 영상 차를 이용하여 표정의 개수만큼 얼굴 특징이 정의되는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 방법.5. The method of claim 4,
Wherein the dictionary defines a face feature as many as the number of facial expressions using an image difference between the training facial image and the change image in the facial expression class.
상기 표정 클래스 내 변화 영상과 상기 쿼리 얼굴 영상 간의 영상 차(Image Difference)를 계산하여 얼굴 특징으로 정의하는 영상 차 계산부와,
희소 표현을 적용해 상기 얼굴 특징을 특정 표정 클래스로 분류하여 상기 쿼리 얼굴 영상이 해당하는 표정 클래스를 결정하는 영상 분류부를 포함하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 시스템.A change image generation unit for generating a change image in a facial expression class corresponding to a change component in a facial expression class using training facial images configured for each facial expression class,
An image difference calculation unit for calculating an image difference between the variation image in the facial expression class and the query face image to define the image difference as a face feature;
And an image classifier for classifying the facial features into a specific facial expression class by applying a rare expression and determining a facial expression class corresponding to the query facial image.
상기 표정 클래스 내 변화 영상은, 상기 훈련 얼굴 영상들의 선형 조합을 이용한 상기 쿼리 얼굴 영상의 근사화를 통해 얻어지는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 시스템.The method according to claim 6,
Wherein the change image in the facial expression class is obtained by approximating the query face image using a linear combination of the training face images.
상기 표정 클래스 내 변화 영상은, 정규화된 최소 제곱법을 적용하여 각 훈련 얼굴 영상의 선형 조합에 대한 가중치를 나타내는 각 가중치 벡터를 구하고, 각 가중치 벡터와 각 훈련 얼굴 영상을 이용하여 생성하는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 시스템.8. The method of claim 7,
The variation image within the facial expression class is generated by using a normalized least squares method to obtain each weight vector representing a weight for a linear combination of each training face image and using each weight vector and each training face image. Facial Expression Feature Classification System for Facial Expression Recognition.
상기 영상 분류부는,
상기 훈련 얼굴 영상의 얼굴 특징으로 구성된 딕셔너리를 이용하여 상기 쿼리 얼굴 영상의 얼굴 특징을 표현하기 위한 복수의 희소 계수 벡터를 구하는 희소 표현 적용부와,
상기 복수의 희소 계수 벡터를 융합하여 융합된 희소 계수 벡터를 구하는 융합부와,
상기 융합된 희소 계수 벡터에서 희소 계수가 가장 집중된 표정 클래스를 찾아 상기 쿼리 얼굴 영상의 표정 클래스로 결정하는 분류부를 포함하는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 시스템.The method according to claim 6,
The image classification unit may include:
A sparse expression applying unit for obtaining a plurality of sparse coefficient vectors for expressing a face feature of the query face image using a dictionary composed of face features of the training face image,
A fusion unit for fusing the plurality of sparse coefficient vectors to obtain a fused sparse coefficient vector,
And a classifier for finding a facial expression class in which the sparse coefficient is most concentrated in the fused sparse coefficient vector and determining the facial expression class of the query facial image as the facial expression class of the query facial image.
상기 딕셔너리는, 상기 훈련 얼굴 영상과 상기 표정 클래스 내 변화 영상의 영상 차를 이용하여 표정의 개수만큼 얼굴 특징이 정의되는 것을 특징으로 하는 얼굴 표정인식을 위한 얼굴 표정 특징 분류 시스템.
10. The method of claim 9,
Wherein the dictionary defines face features as many as the number of facial expressions using an image difference between the training face image and the change image in the facial expression class.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20140152665 | 2014-11-05 | ||
| KR1020140152665 | 2014-11-05 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20160053749A true KR20160053749A (en) | 2016-05-13 |
| KR102043960B1 KR102043960B1 (en) | 2019-11-12 |
Family
ID=56023544
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150046083A Active KR102043960B1 (en) | 2014-11-05 | 2015-04-01 | Method and systems of face expression features classification robust to variety of face image appearance |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102043960B1 (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106980815A (en) * | 2017-02-07 | 2017-07-25 | 王俊 | Facial paralysis objective evaluation method under being supervised based on H B rank scores |
| CN109886149A (en) * | 2019-01-29 | 2019-06-14 | 中国人民解放军空军预警学院 | A kind of doubledictionary and multiple features fusion decision facial expression recognizing method based on rarefaction representation |
| US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
| US10521014B2 (en) | 2017-01-19 | 2019-12-31 | Mindmaze Holding Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location in at least one of a virtual and augmented reality system |
| US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
| CN113343885A (en) * | 2021-06-23 | 2021-09-03 | 杭州天翼智慧城市科技有限公司 | Feature point reconstruction method for complex human face posture |
| CN113361307A (en) * | 2020-03-06 | 2021-09-07 | 上海卓繁信息技术股份有限公司 | Facial expression classification method and device and storage equipment |
| CN113554073A (en) * | 2021-07-09 | 2021-10-26 | 常州大学 | An optimization method for emotional state feature selection combining sparse learning and dichotomy |
| US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
| US11991344B2 (en) | 2017-02-07 | 2024-05-21 | Mindmaze Group Sa | Systems, methods and apparatuses for stereo vision and tracking |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20060080284A (en) * | 2005-01-04 | 2006-07-10 | 삼성전자주식회사 | Image detection device and method |
| KR20090021279A (en) | 2006-06-30 | 2009-03-02 | 인텔 코오퍼레이션 | Transmitter-receiver with integrated modulator array and hybrid bonded multi-wavelength laser array |
| KR20100011280A (en) * | 2008-07-24 | 2010-02-03 | 포항공과대학교 산학협력단 | Method and apparatus of recognizing detailed facial expression using facial expression information amplification |
-
2015
- 2015-04-01 KR KR1020150046083A patent/KR102043960B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20060080284A (en) * | 2005-01-04 | 2006-07-10 | 삼성전자주식회사 | Image detection device and method |
| KR20090021279A (en) | 2006-06-30 | 2009-03-02 | 인텔 코오퍼레이션 | Transmitter-receiver with integrated modulator array and hybrid bonded multi-wavelength laser array |
| KR20100011280A (en) * | 2008-07-24 | 2010-02-03 | 포항공과대학교 산학협력단 | Method and apparatus of recognizing detailed facial expression using facial expression information amplification |
Non-Patent Citations (2)
| Title |
|---|
| He Jun 외 6명, Sparse presentation based classification with position-weighted block dictionary, Image Processing: Algorithms and Systems XII, 90190X (2014.02.25)* * |
| Rui Min 외 1명, IMPROVED COMBINATION OF LBP AND SPARSE REPRESENTATION BASED CLASSIFICATION (SRC) FOR FACE RECOGNITION, 2011 IEEE International Conference on Multimedia and Expo (2011)* * |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11709548B2 (en) | 2017-01-19 | 2023-07-25 | Mindmaze Group Sa | Systems, methods, devices and apparatuses for detecting facial expression |
| US11195316B2 (en) | 2017-01-19 | 2021-12-07 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
| US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
| US10521014B2 (en) | 2017-01-19 | 2019-12-31 | Mindmaze Holding Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location in at least one of a virtual and augmented reality system |
| US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
| US11989340B2 (en) | 2017-01-19 | 2024-05-21 | Mindmaze Group Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location in at least one of a virtual and augmented reality system |
| US11495053B2 (en) | 2017-01-19 | 2022-11-08 | Mindmaze Group Sa | Systems, methods, devices and apparatuses for detecting facial expression |
| CN106980815A (en) * | 2017-02-07 | 2017-07-25 | 王俊 | Facial paralysis objective evaluation method under being supervised based on H B rank scores |
| US11991344B2 (en) | 2017-02-07 | 2024-05-21 | Mindmaze Group Sa | Systems, methods and apparatuses for stereo vision and tracking |
| US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
| CN109886149B (en) * | 2019-01-29 | 2021-09-14 | 中国人民解放军空军预警学院 | Double-dictionary and multi-feature fusion decision-making facial expression recognition method based on sparse representation |
| CN109886149A (en) * | 2019-01-29 | 2019-06-14 | 中国人民解放军空军预警学院 | A kind of doubledictionary and multiple features fusion decision facial expression recognizing method based on rarefaction representation |
| CN113361307A (en) * | 2020-03-06 | 2021-09-07 | 上海卓繁信息技术股份有限公司 | Facial expression classification method and device and storage equipment |
| CN113343885A (en) * | 2021-06-23 | 2021-09-03 | 杭州天翼智慧城市科技有限公司 | Feature point reconstruction method for complex human face posture |
| CN113554073A (en) * | 2021-07-09 | 2021-10-26 | 常州大学 | An optimization method for emotional state feature selection combining sparse learning and dichotomy |
| CN113554073B (en) * | 2021-07-09 | 2024-03-15 | 常州大学 | An optimization method for emotional state feature selection that combines sparse learning and dichotomy |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102043960B1 (en) | 2019-11-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR20160053749A (en) | Method and systems of face expression features classification robust to variety of face image appearance | |
| KR102486699B1 (en) | Method and apparatus for recognizing and verifying image, and method and apparatus for learning image recognizing and verifying | |
| KR20230021043A (en) | Method and apparatus for recognizing object, and method and apparatus for learning recognizer | |
| Goyal et al. | Sign language recognition system for deaf and dumb people | |
| CN111783506B (en) | Method, device and computer-readable storage medium for determining target characteristics | |
| US11763435B2 (en) | Person verification device and method and non-transitory computer readable media | |
| CN109145766A (en) | Model training method, device, recognition methods, electronic equipment and storage medium | |
| KR20180055070A (en) | Method and device to perform to train and recognize material | |
| CN114120454A (en) | Training method and device of living body detection model, electronic equipment and storage medium | |
| CN113343982A (en) | Entity relationship extraction method, device and equipment for multi-modal feature fusion | |
| CN113781164B (en) | Virtual fitting model training method, virtual fitting method and related devices | |
| CN114387656B (en) | Face-changing method, device, equipment and storage medium based on artificial intelligence | |
| CN111666965B (en) | Multi-level depth feature and multi-matcher fusion for improved image recognition | |
| Ravi et al. | Sign language recognition with multi feature fusion and ANN classifier | |
| CN105373810B (en) | A method and system for establishing an action recognition model | |
| CN116758380B (en) | Network training method and device for posture estimation | |
| Rao et al. | Selfie sign language recognition with multiple features on adaboost multilabel multiclass classifier | |
| Ali et al. | Fusion based fastica method: Facial expression recognition | |
| US20210326383A1 (en) | Search method and device, and storage medium | |
| CN109033321B (en) | Image and natural language feature extraction and keyword-based language indication image segmentation method | |
| KR20180107988A (en) | Apparatus and methdo for detecting object of image | |
| KR101592087B1 (en) | Method for generating saliency map based background location and medium for recording the same | |
| CN109447021B (en) | Attribute detection method and attribute detection device | |
| CN111783791B (en) | Image classification method, device and computer readable storage medium | |
| KR102014093B1 (en) | System and method for detecting feature points of face |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150401 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20160601 Patent event code: PE09021S01D |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20161230 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20160601 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
| AMND | Amendment | ||
| PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20161230 Comment text: Decision to Refuse Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20170306 Patent event code: PE09021S01D |
|
| PX0601 | Decision of rejection after re-examination |
Comment text: Decision to Refuse Application Patent event code: PX06014S01D Patent event date: 20170928 Comment text: Notification of reason for refusal Patent event code: PX06013S01I Patent event date: 20170306 Comment text: Amendment to Specification, etc. Patent event code: PX06012R01I Patent event date: 20170201 Comment text: Decision to Refuse Application Patent event code: PX06011S01I Patent event date: 20161230 Comment text: Notification of reason for refusal Patent event code: PX06013S01I Patent event date: 20160601 |
|
| J201 | Request for trial against refusal decision | ||
| PJ0201 | Trial against decision of rejection |
Patent event date: 20171109 Comment text: Request for Trial against Decision on Refusal Patent event code: PJ02012R01D Patent event date: 20170928 Comment text: Decision to Refuse Application Patent event code: PJ02011S01I Patent event date: 20161230 Comment text: Decision to Refuse Application Patent event code: PJ02011S01I Appeal kind category: Appeal against decision to decline refusal Appeal identifier: 2017101005395 Request date: 20171109 |
|
| J301 | Trial decision |
Free format text: TRIAL NUMBER: 2017101005395; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20171109 Effective date: 20190716 |
|
| PJ1301 | Trial decision |
Patent event code: PJ13011S01D Patent event date: 20190716 Comment text: Trial Decision on Objection to Decision on Refusal Appeal kind category: Appeal against decision to decline refusal Request date: 20171109 Decision date: 20190716 Appeal identifier: 2017101005395 |
|
| PS0901 | Examination by remand of revocation | ||
| S901 | Examination by remand of revocation | ||
| GRNO | Decision to grant (after opposition) | ||
| PS0701 | Decision of registration after remand of revocation |
Patent event date: 20190806 Patent event code: PS07012S01D Comment text: Decision to Grant Registration Patent event date: 20190719 Patent event code: PS07011S01I Comment text: Notice of Trial Decision (Remand of Revocation) |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20191106 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20191107 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee |
Payment date: 20221021 Start annual number: 4 End annual number: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20241024 Start annual number: 6 End annual number: 6 |