KR20180079894A - System and method for providing face recognition information and server using the method - Google Patents
System and method for providing face recognition information and server using the method Download PDFInfo
- Publication number
- KR20180079894A KR20180079894A KR1020170000622A KR20170000622A KR20180079894A KR 20180079894 A KR20180079894 A KR 20180079894A KR 1020170000622 A KR1020170000622 A KR 1020170000622A KR 20170000622 A KR20170000622 A KR 20170000622A KR 20180079894 A KR20180079894 A KR 20180079894A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- face recognition
- information
- recognition information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G06K9/00228—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G06F17/30247—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G06K9/00711—
-
- G06K9/6201—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스, 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함하는 얼굴인식 서버가 개시된다. 본 얼굴인식 서버에 따르면, 사전 얼굴인식수행 결과를 저장함으로써 트래킹을 통하여 얼굴 검출이 실패하는 프레임에 대해서도 얼굴관련 정보를 제공할 수 있다.A face recognition information generation unit that identifies a face image from an image input from the video playback apparatus and generates face recognition information, information on a person who is related to a face included in the moving picture, and information on a time period in which the face appears in the moving picture A face recognition server comprising a face information database for storing at least one face recognition information and a face recognition information searching unit for searching face recognition information matched with information about a motion picture requested to search for face information, do. According to the present face recognition server, face related information can be provided to a frame in which face detection fails through tracking by storing the result of performing the advance face recognition.
Description
본 발명은 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템에 관한 것으로, 더욱 상세하게는 동영상에 등장하는 얼굴을 인식하고 해당 얼굴에 대한 정보를 제공하는 얼굴인식 정보 제공 방법, 이를 이용하는 얼굴인식 서버 및 얼굴인식 시스템에 관한 것이다.The present invention relates to a face recognition information providing method, a face recognition server and a face recognition system using the same, more particularly, to a face recognition information providing method for recognizing a face appearing in a moving picture and providing information about the face, A face recognition server, and a face recognition system.
현재 얼굴 인식 기술은 사진을 대상으로 많이 활용되고 있다. 구글, 페이스북, 애플 등은 자신의 사진 서비스에 얼굴 인식을 통한 그룹핑, 자동 태그 추가 등의 서비스를 제공하고 있다. 통신, 방송 및 매체의 증가로 사용자가 접할 수 있는 비디오 컨텐츠의 수가 급증함에 따라, 사람들은 수없이 많은 비디오 컨텐츠 중에 본인이 관심있는 분야나 정보를 신속하게 얻고 싶어 한다. 비디오 컨텐츠 내에서 사람들에게 가장 의미있고 인기있는 정보 중의 하나는 '인물'이며, 많은 사람들이 TV를 보면서 또는 동영상을 재생하면서 현재 화면에 나오고 있는 인물에 대한 정보를 알고자 한다. Currently, face recognition technology is widely used for photographs. Google, Facebook, Apple, etc. provide services such as grouping through face recognition and auto tagging to their own photo services. As the number of video content accessible to the user increases with the increase of communication, broadcasting, and media, people want to quickly obtain the field or information that they are interested in among numerous video contents. One of the most meaningful and popular information in people's videos is 'people', and many people want to know information about the person who is presently on the screen while watching TV or playing a video.
이와 같이, 동영상에 대해서도 얼굴 인식 서비스에 대한 요구가 증가하고 있으며, 현재까지도 보다 빠르고 정확한 방법론에 대한 연구가 계속되고 있다. 하지만, 아직까지는 동영상에서의 얼굴인식 서비스가 활성화되지는 못하고 있으며 그에 따라 효율적인 얼굴인식 정보를 제공할 수 있는 방법에 대한 필요성이 증가하고 있다.In this way, the demand for face recognition service for video is also increasing, and research on a faster and more accurate methodology is still continuing. However, since the face recognition service in the moving picture has not been activated yet, there is a growing need for a method for providing effective face recognition information.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 동영상에 대한 얼굴인식 정보를 생성하고 얼굴인식 정보를 검색하는 얼굴인식 서버를 제공하는 데 있다.In order to solve the above problems, an object of the present invention is to provide a face recognition server for generating face recognition information on a moving picture and searching for face recognition information.
상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 얼굴인식 서버 및 동영상 재생장치를 포함하는 얼굴인식 시스템을 제공하는 데 있다.Another object of the present invention is to provide a face recognition system including a face recognition server and a motion picture reproducing apparatus.
상기와 같은 문제점을 해결하기 위한 본 발명의 또 다른 목적은, 상기 얼굴인식 서버에서 이용 가능한 얼굴인식 방법을 제공하는 데 있다.It is another object of the present invention to provide a face recognition method that can be used in the face recognition server.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 얼굴인식 서버는, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함할 수 있다.According to an aspect of the present invention, there is provided a face recognition server including a face recognition information generation unit for identifying a face image from an image input from a video playback apparatus and generating face recognition information, A facial information database for storing at least one facial recognition information including related person information and information on a time period in which the facial expression appears in the moving image, and face recognition information matching the information about the requested moving image, And a face recognition information searching unit for searching from the face information database.
상기 얼굴인식정보 생성부는, 입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 얼굴 정렬부 및 상기 얼굴 정렬부로부터 입력된 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 얼굴 식별부를 포함할 수 있다. The face recognition information generation unit may include a face sorting unit for generating an aligned face image by converting based on a minutiae point on the input face image, and a face recognition unit for identifying a face from the aligned face image input from the face sorting unit, And a face identification unit for outputting a result.
상기 얼굴인식 서버는, 동영상 재생장치로부터 수신한 얼굴 이미지를 디코딩하여 상기 얼굴인식정보 생성부 및 얼굴인식정보 검색부로 제공하고, 얼굴인식 정보를 상기 동영상 재생장치로 전송하는, 서버 송수신부를 더 포함할 수 있다. The facial recognition server may further include a server transceiving unit for decoding the facial image received from the moving picture reproducing apparatus, providing the facial recognition information to the facial recognition information generating unit and the facial recognition information retrieving unit, and transmitting the facial recognition information to the moving picture reproducing apparatus .
상기 얼굴인식정보 생성부는, 입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하며, 상기 추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장할 수 있다.The face recognition information generation unit recognizes a face in the input moving image and extracts a face recognition start time of the face, adds the extracted face recognition start time and the motion picture identifier to the face recognition information, .
상기 얼굴인식정보 생성부는 또한, 입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하고 해당 얼굴의 얼굴인식 종료시간을 추출하며, 상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장할 수 있다. The facial recognition information generation unit may further retrieve facial recognition information corresponding to the input moving picture identifier (ID), track the facial feature, extract the facial recognition end time of the facial expression, and output the extracted facial recognition end time to the face And may be stored in the face information database in addition to the recognition information.
상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함할 수 있다. The information on the moving image for which the face information search is requested may include an identifier (ID) of the moving image and a current frame number.
상기 얼굴인식정보 검색부는, 현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행할 수 있다. The face recognition information search unit may perform face recognition information search according to an intra mode or an extras mode in which an operation is classified according to whether a current frame number belongs to a face recognition operation section.
상기 얼굴인식정보 검색부는, 인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공할 수 있다. The face recognition information searching unit may provide face recognition information when the current frame number is located within the face recognition operation section when operating in the intra mode.
상기 얼굴인식정보 검색부는, 엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공할 수 있다. The facial recognition information retrieving unit retrieves the facial recognition information that is located at the latest distance from the current frame number even when the current frame number is located within the face recognition operation section and when the current frame number is out of the face recognition operation section, When the distance to the motion section is less than or equal to the reference value, the face recognition information can be provided.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 얼굴인식 시스템은, 입력된 동영상을 디코딩하여 획득한 프레임 이미지에서 얼굴 이미지를 검출하고, 얼굴 이미지를 인코딩하여 얼굴인식 서버로 전송하는 동영상 재생장치 및 상기 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하고, 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하여 상기 동영상 재생장치로 제공하는 얼굴인식 서버를 포함할 수 있다. According to another aspect of the present invention, there is provided a face recognition system for detecting a face image in a frame image obtained by decoding an input moving image, encoding the face image, and transmitting the encoded image to a face recognition server, And a facial recognition unit for recognizing a facial image from the image input from the moving picture reproducing apparatus, generating facial recognition information, searching for facial recognition information matched with information on the requested moving picture, from the facial information database, And a face recognition server for providing the face recognition server.
상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함할 수 있다. The face recognition information may include information related to a face included in a moving image and information on a time period in which the face appears in the moving image.
상기 얼굴인식 서버는, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스, 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함할 수 있다. The face recognition server includes a face recognition information generation unit that identifies a face image from an image input from the moving picture playback apparatus and generates face recognition information, character information related to a face included in the moving picture, and a time interval And a face recognition information searching unit for searching face information database for matching face recognition information matched with information about a motion picture requested for face information search can do.
상기 얼굴인식정보 검색부는, 현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행하며, 인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공하고, 엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공할 수 있다. The facial recognition information searching unit performs facial recognition information search according to an intra mode or an extras mode in which an operation is classified according to whether the current frame number belongs to a face recognition operation section. In case of operating in an intra mode, When the current frame number is located within the face recognition operation section and when the current frame number is out of the face recognition operation section, The face recognition information can be provided when the distance to the face recognition operation section located at the recent distance is less than the reference value.
상기 목적을 달성하기 위한 본 발명의 또 다른 실시예에 따른 얼굴인식 방법은 얼굴인식 서버에 의해 수행되는 얼굴인식 방법으로서, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 단계 및 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계를 포함하고, 상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함할 수 있다. According to another aspect of the present invention, there is provided a face recognition method performed by a face recognition server, the method comprising: identifying a face image from an image input from a moving image playback apparatus and generating face recognition information; And searching the face information database for matching face information with the information about the requested moving image, wherein the face recognition information includes character information related to the face included in the moving picture, May include information on a time period appearing in the time domain.
상기 얼굴인식 정보를 생성하는 단계는, 입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 단계 및 상기 얼굴 정렬부로부터 입력된 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 단계를 포함할 수 있다. The generating of the facial recognition information may include generating a facial image that is arranged by transforming based on the feature points on the input facial image and extracting facial features from the sorted facial image input from the facial aligning unit, And outputting the identification result.
상기 얼굴인식 정보를 생성하는 단계는, 입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하는 단계, 해당 얼굴의 얼굴인식 종료시간을 추출하는 단계, 및 상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는 단계를 더 포함할 수 있다. The step of generating the face recognition information may include searching for a face recognition information corresponding to an input moving picture identifier (ID) and tracking the face, extracting a face recognition end time of the face, And adding the recognition end time to the face recognition information and storing the recognition end time in the face information database.
상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함할 수 있다. The information on the moving image for which the face information search is requested may include an identifier (ID) of the moving image and a current frame number.
상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는, 현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행하는 단계를 포함할 수 있다. The step of retrieving the face recognition information from the face information database may include performing face recognition information search according to an intra mode or an extras mode in which an operation is classified depending on whether the current frame number belongs to a face recognition operation section .
여기서, 상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는, 인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공하는 단계를 포함할 수 있다. The step of searching for the face recognition information from the face information database may include providing face recognition information when the current frame number is located within the face recognition operation section when operating in the intra mode.
상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는 또한, 엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공하는 단계를 포함할 수 있다. The step of retrieving the face recognition information from the face information database may further comprise the steps of: when operating in the extra mode, when the current frame number is located within the face recognition operation section, and when the current frame number is out of the face recognition operation section, And providing the face recognition information when the distance to the face recognition operation section located at the latest distance from the face recognition operation section is less than a reference value.
상기 얼굴인식 방법은, 상기 검색된 얼굴인식 정보를 동영상 재생장치로 전송하는 단계를 더 포함할 수 있다. The face recognition method may further include transmitting the searched face recognition information to the moving image playback apparatus.
상기와 같은 본 발명의 실시예들에 따라 사전 얼굴 인식을 수행하고 그 결과를 이용하는 본 발명에 따른 방법을 활용하면, 서버의 부담을 줄일 수 있을 뿐 아니라 트래킹을 통하여 얼굴 검출이 실패하는 프레임에서도 얼굴에 대한 정보를 제공할 수 있는 가능성이 커진다.According to embodiments of the present invention, it is possible to reduce the burden on the server and to detect the face of a face in which the face detection fails due to tracking by using the method according to the present invention, It is more likely to be able to provide information on the < RTI ID = 0.0 >
또한, 본 발명에서 제공하는 엑스트라 모드에 따른 얼굴인식 정보 검색의 경우 검색이 실패할 확률을 줄일 수 있는 장점이 있다.Further, in the case of the face recognition information search according to the extra mode provided in the present invention, there is an advantage that the probability of failure of the search can be reduced.
도 1은 본 발명의 일 실시예에 따른 얼굴 인식 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치의 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 얼굴인식정보 생성부의 세부블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 실시간 얼굴인식 방법의 동작 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다.
도 7은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다.
도 8은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 메커니즘을 설명하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다. 1 is a block diagram of a face recognition system according to an embodiment of the present invention.
2 is a block diagram of a moving picture reproducing apparatus according to an embodiment of the present invention.
3 is a detailed block diagram of a face recognition information generating unit according to an embodiment of the present invention.
4 is a flowchart illustrating a real-time face recognition method according to an exemplary embodiment of the present invention.
5 is a flowchart illustrating an operation of the method for generating face recognition information according to an exemplary embodiment of the present invention.
6 is a flowchart illustrating an operation of the method for generating face recognition information according to another embodiment of the present invention.
FIG. 7 is a flowchart illustrating an operation of the method for searching for face recognition information according to an exemplary embodiment of the present invention.
FIG. 8 is a view for explaining an operation mechanism of the method for searching face information according to an embodiment of the present invention.
9 is a flowchart illustrating an operation of the method for searching for face recognition information according to an exemplary embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. The term "and / or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 얼굴 인식 시스템의 구성도이다.1 is a block diagram of a face recognition system according to an embodiment of the present invention.
도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 얼굴 인식 시스템은 크게 얼굴인식 서버(100) 및 동영상 재생장치(또는 동영상 플레이어)(200)를 포함할 수 있다. As shown in FIG. 1, the face recognition system according to an embodiment of the present invention may include a
얼굴인식 서버(100)는 동영상 재생장치(200)로부터 수신한 얼굴 이미지에 매칭되는 얼굴인식 정보를 검색하여 동영상 재생장치로 전송한다. The
이를 위해 얼굴인식 서버(100)는, 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스 및 얼굴정보 검색이 요청된 동영상 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함할 수 있다. To this end, the
얼굴인식 서버(100)는 크게 동영상 재생장치와 통신하는 서버 송수신부(110), 입력된 이미지에 대해 실시간으로 얼굴을 인식하고 얼굴 인식수행 결과를 데이터베이스에 저장하는 얼굴인식정보 생성부(120), 사전에 수행된 얼굴인식 결과를 검색하는 얼굴인식정보 검색부(130), 및 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스(140)를 포함하여 구성될 수 있다. The
여기서, 얼굴인식 정보는 동영상에 등장하는 얼굴과 관련한 인물 정보 및 해당 인물이 해당 동영상에서 등장하는 시간 구간 등에 대한 정보를 포함할 수 있다. Here, the face recognition information may include information about a person's face related to a face appearing in a moving image, and a time period in which the person appears in the moving image.
한편, 도 1에서 얼굴인식정보 생성부(120) 및 얼굴인식정보 검색부(130)는 별도의 구성요소로 표현되어 있으나 두 구성요소의 기능을 통합하고 각 요소의 기능을 제어하는 통합된 구성요소의 형태, 예를 들어, 얼굴인식 프로세서(300)의 형태로 통합될 수도 있다. 1, the facial recognition
서버 송수신부(110)는 동영상 재생장치로부터 수신한 얼굴 이미지를 디코딩하여 얼굴인식정보 생성부 및 얼굴인식정보 검색부로 제공하고, 검색된 얼굴인식 정보를 동영상 재생장치로 전송할 수 있다. The server transmission /
얼굴인식정보 생성부(120)는, 입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하며, 상기 추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장할 수 있다. The face recognition
얼굴인식정보 생성부(120)는 또한, 입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하고 해당 얼굴의 얼굴인식 종료시간을 추출하며, 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 얼굴정보 데이터베이스에 저장한다.The face recognition
또한, 얼굴인식정보 검색부(130)는, 현재 프레임 번호가 얼굴 트래킹 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행한다.In addition, the face recognition
얼굴인식정보 검색부(130)가 인트라 모드에서 동작하는 경우에는, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공한다. 반면, 엑스트라 모드에서 동작하는 경우에는, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공한다. When the face recognition
도 2는 본 발명의 일 실시예에 따른 동영상 재생 장치의 블록 구성도이다. 2 is a block diagram of a moving picture reproducing apparatus according to an embodiment of the present invention.
도 2에 도시된 바와 같이 본 발명의 다른 실시예에 따른 동영상 재생 장치는, 입력된 동영상을 디코딩하여 프레임을 출력하는 동영상 디코더(201), 프레임 이미지에서 얼굴을 검출하는 얼굴 검출부(203), 서버와 통신하는 단말 송수신부(204), 및 프레임 이미지를 화면에 출력하는 화면 출력부(202)를 포함할 수 있다. 2, the moving picture reproducing apparatus according to another embodiment of the present invention includes a moving
또한, 단말 송수신부(204)는 얼굴 검출부(203)로부터 출력되는 얼굴 이미지를 베이스 64로 인코딩하고, 베이스 64로 인코딩된 얼굴 이미지를 얼굴인식 서버(100)로 전송한다.The
여기서, 베이스 64(base64)는 2진 데이터를 아스키 텍스트로 변환하거나 그 반대로 변환하는 인코딩 방법으로, 전자우편에 관한 규격인 MIME(Multipurpose Internet Mail Extensions)에 의해 사용되는 방법으로, 4개의 7비트 아스키 문자로 표현되도록 데이터를 3바이트씩 4개의 6비트 단위로 나누어 표현한다. 메일에서 이미지, 오디오 파일을 보낼 때 이용하는 코딩으로 모든 플랫폼에서 안보이거나 깨지는 일이 생기지 않도록 공통으로 64개 아스키 코드를 이용하여 2진 데이터를 변환하기 위해 베이스 64를 이용한다. 따라서 베이스 64로 인코딩하면 크기가 33% 커진다.Here, the base 64 (base 64) is an encoding method for converting binary data into ASCII text or vice versa, and is a method used by MIME (Multipurpose Internet Mail Extensions) Data is represented by dividing the data by four 6-bit units in 3-byte units so as to be represented by a character. The coding used to send images and audio files in mails uses base 64 to convert binary data using 64 ASCII codes in common so as not to be seen or broken on all platforms. Therefore, encoding to base 64 will increase the size by 33%.
본 발명의 일 실시예에 따른 동영상 재생 장치는 전체 프레임 이미지로부터 얼굴 이미지를 검출하고 베이스 64와 같은 인코딩 기법을 사용하여 얼굴 이미지를 인코딩하는 방식으로 전송되는 데이터의 양을 감소시켜 얼굴인식 서버(100)로 전송함으로써, 시스템 효율성을 증가시킨다. The moving picture reproducing apparatus according to an embodiment of the present invention detects a face image from an entire frame image and reduces the amount of data to be transmitted in a method of encoding a face image using an encoding technique such as a base 64, ), Thereby increasing system efficiency.
도 3은 본 발명의 일 실시예에 따른 얼굴인식정보 생성부의 세부블록 구성도이다. 3 is a detailed block diagram of a face recognition information generating unit according to an embodiment of the present invention.
도 3에 도시된 블록들은 본 발명에 따른 얼굴인식정보 생성부(120)가 포함할 수 있는 세부블록들 중 실시간 얼굴인식 기능과 관련된 대표적인 2개의 블록들로, 얼굴인식정보 생성부(120)가 포함 가능한 세부블록들이 도 3에 도시된 블록들로 제한되는 것은 아니다. The blocks shown in FIG. 3 are representative two blocks related to the real-time face recognition function among the detailed blocks that the face recognition
먼저, 얼굴 정렬부(121)는 얼굴 이미지를 입력으로 받아들여 얼굴 이미지의 특징점을 기반으로 2차원 변환 또는 3차원 변환 과정을 거쳐 정렬된 얼굴 이미지를 생성한다. 얼굴 식별부(122)는 기계학습 기법을 이용하여 얼굴 식별 결과를 출력한다. First, the
도 3에 도시된 얼굴인식정보 생성부에 따르면 얼굴을 식별하기 전에 얼굴 이미지의 정렬을 수행함으로써 실시간 얼굴 식별 성공률을 높일 수 있다.According to the face recognition information generation unit shown in FIG. 3, the real face identification success rate can be increased by performing alignment of the face image before identifying the face.
도 4는 본 발명의 일 실시예에 따른 실시간 얼굴 인식 방법의 동작 흐름도이다. 4 is a flowchart illustrating a real-time face recognition method according to an exemplary embodiment of the present invention.
도 4는 본 발명에 따른 얼굴인식 시스템에 의해 수행되는 전체적인 실시간 얼굴 인식 과정의 일 예를 나타낸 도면이다.FIG. 4 is a diagram illustrating an example of an overall real-time face recognition process performed by the face recognition system according to the present invention.
우선, 동영상 재생장치(동영상 플레이어)(200)에 동영상이 입력되면, 동영상 재생장치(200)는 입력된 동영상을 디코딩하여 프레임 이미지를 생성한다(S410). 프레임 이미지가 생성되면 동영상 재생장치(200)는 생성된 프레임 이미지에서 얼굴 부분 이미지를 검출한다(S420).First, when a moving image is inputted to a moving image reproducing apparatus (moving image player) 200, the moving
검출된 얼굴 이미지에 대해서는 인코딩이 수행되는데(S430), 여기서 수행되는 인코딩은 예를 들어, 베이스 64(base64)를 이용한 인코딩일 수 있다. For the detected face image, encoding is performed (S430), and the encoding performed here may be, for example, encoding using base 64 (base64).
동영상 재생장치(200)는 베이스 64로 인코딩된 얼굴 이미지를 얼굴인식 서버(100)로 전송한다(S440). The moving
도 4에 도시된 본 발명의 일 실시예와 같이, 프레임 이미지에서 얼굴 이미지만 검출하여 보내는 방식은 프레임 이미지 전체를 보내는 방식에 비해서 빠르게 동작하며 전송해야 할 데이터량이 적다는 장점이 있다. As in the embodiment of FIG. 4, the method of detecting only the facial image in the frame image is faster than the method of transmitting the entire frame image, and the amount of data to be transmitted is small.
얼굴 인식 서버(100)로 전송된 얼굴 이미지는 서버 송수신부(112)에서 base64 디코딩되고(S450), 디코딩된 얼굴 이미지로부터 정렬된 얼굴 이미지가 생성된다(S460). 이후 정렬된 얼굴 이미지로부터 얼굴을 식별하고(S470), 서버 송수신부를 통해 얼굴 식별 결과를 동영상 재생장치(200)로 전송한다(S480). 동영상 재생장치(200)는 단말 송수신부를 통해 얼굴 식별 결과를 수신한다.The facial image transmitted to the
도 5는 본 발명의 일 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다. 5 is a flowchart illustrating an operation of the method for generating face recognition information according to an exemplary embodiment of the present invention.
도 5에 도시된 얼굴인식정보 생성 방법은 도 1에 도시된 얼굴인식정보 생성부(120)에 의해 수행될 수 있으나, 동작 주체가 이에 한정되는 것은 아니다.5 may be performed by the face recognition
본 발명에 따른 얼굴인식정보 생성 방법은 우선, 동영상을 수신하여(S510), 수신한 동영상을 디코딩한다(S520). 디코딩된 동영상에서 얼굴 이미지를 검출하고(S530), 검출된 얼굴이미지를 정렬하여(S540) 얼굴 이미지의 식별을 좀더 용이하도록 한다. 정렬된 얼굴 이미지로부터 얼굴을 식별하며(S550), 얼굴인식 결과를 저장한다(S560).In the method of generating face recognition information according to the present invention, a moving picture is received (S510) and the received moving picture is decoded (S520). The face image is detected in the decoded moving image (S530), and the detected face image is aligned (S540) to facilitate identification of the face image. The face is identified from the sorted face image (S550), and the face recognition result is stored (S560).
동영상이 입력되면(S510), 동영상 디코딩 절차를 거쳐(S520) 프레임 이미지가 출력되고 출력된 이미지 내에서 얼굴 부분을 검출한다(S530). 이 때의 얼굴 검출 동작은 도 2에 도시된 단말의 얼굴 검출부(203)에 의해 이루어지는 동작과 동일 또는 유사한 검출 동작일 수 있다. 이후 검출된 얼굴 이미지를 정렬하고(S540), 얼굴 식별부(302)는 얼굴 인식 결과를 출력한다(S550). 출력된 얼굴 인식 결과는 얼굴정보 데이터베이스에 저장된다(S560).When a moving image is input (S510), a moving image decoding procedure is performed (S520), a frame image is output, and a face portion is detected in the output image (S530). The face detection operation at this time may be the same or similar to the operation performed by the
도 5를 통해 살펴본 바와 같은 순서를 거쳐 얼굴 인식을 수행한 결과가 얼굴정보 데이터베이스에 저장된다.The result of performing the face recognition through the procedure as shown in FIG. 5 is stored in the face information database.
도 6은 본 발명의 다른 실시예에 따른 얼굴인식정보 생성 방법의 동작 순서도이다. 6 is a flowchart illustrating an operation of the method for generating face recognition information according to another embodiment of the present invention.
도 6에 도시된 얼굴인식정보 생성 방법은 도 1에 도시된 얼굴인식정보 생성부 (120)에 의해 수행될 수 있으나, 그 동작 주체가 이에 한정되는 것은 아니다.The face recognition information generating method shown in FIG. 6 can be performed by the face recognition
도 6에 도시된 얼굴인식정보 생성 방법의 동작 주체가 될 수 있는 얼굴인식정보 생성부(120)는 동영상에 대하여 사전 얼굴 인식 결과를 기반으로 얼굴 트래킹을 수행한다. The face recognition
우선, 트래킹 정보를 추가할 동영상 ID가 입력되면(S610), 얼굴정보 데이터베이스로부터 해당 동영상 ID에 대한 얼굴인식정보를 검색한다(S620). 다시 말해 해당 동영상 ID에 매칭되는 얼굴인식정보를 얼굴정보 데이터베이스에서 검색하며, 이는 사전에 얼굴정보 데이터베이스에 얼굴인식정보가 저장되어 있음을 의미할 수 있다. 여기서, 얼굴인식정보는 인식된 얼굴이 동영상 내에서 등장하는 시작 시간과 프레임 내 좌표를 포함한다. First, when a moving image ID to which tracking information is to be added is input (S610), face identification information for the moving image ID is retrieved from the face information database (S620). In other words, the face recognition information matching the video ID is searched in the face information database, which means that the face recognition information is stored in the face information database in advance. Here, the face recognition information includes the start time and the in-frame coordinates at which the recognized face appears in the moving image.
한편, 얼굴인식 시작시간은 입력되는 동영상으로부터 추출될 수도 있으며, 이 경우 얼굴인식정보 생성 방법은, 도 6에 도시하지는 않았으나, 입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하고, 추출된 얼굴인식 시작시간과 동영상 식별자를 얼굴인식 정보에 추가하여 얼굴정보 데이터베이스에 저장하는 단계를 포함할 수 있다.Meanwhile, the face recognition start time may be extracted from the input moving image. In this case, although not shown in FIG. 6, the face recognition information generation method extracts the face recognition start time of the face by recognizing the face from the input moving image And adding the extracted face recognition start time and the motion picture identifier to the face recognition information and storing the same in the face information database.
동영상 ID에 대응하는 얼굴인식정보를 획득하면, 획득한 얼굴인식 정보를 이용하여 해당 얼굴에 대한 트래킹을 수행한다(S630). 이때 트래킹은, 해당 얼굴인식 정보(프레임 시간 정보와 얼굴 부분 좌표)를 시작 시점으로 하여 수행되고 해당 얼굴이 동영상 내에서 사라졌다고 판단되면 트래킹은 종료된다. When the face recognition information corresponding to the video ID is acquired, tracking is performed on the face using the acquired face recognition information (S630). At this time, the tracking is performed with the face recognition information (frame time information and face part coordinates) as the start point, and the tracking is ended when it is determined that the face has disappeared in the moving image.
얼굴 트래킹이 종료되면 얼굴인식 종료시간을 추출하고(S640), 추출된 얼굴인식 종료시간에 대한 정보를 얼굴인식 데이터베이스에 추가하여 저장한다(S650).Upon completion of face tracking, the face recognition end time is extracted (S640), and information on the extracted face recognition end time is added to the face recognition database and stored (S650).
도 7은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다. FIG. 7 is a flowchart illustrating an operation of the method for searching for face recognition information according to an exemplary embodiment of the present invention.
도 7에 도시된 얼굴인식정보 검색 방법은 도 1에 도시된 동영상 재생장치(200) 및 얼굴인식 서버(100) 각각, 그리고 이들 상호간에 이루어지는 동작에 의해 수행될 수 있다.7 may be performed by the moving
우선, 동영상 재생장치(200)에 동영상이 입력되면, 입력된 동영상을 디코딩하고(S710), 디코딩된 동영상 데이터로부터 얼굴인식정보인 동영상 ID와 시간 관련 정보(또는 현재 프레임 번호)를 추출한다(S720). 해당 얼굴인식정보는 동영상 재생장치의 단말 송수신부를 거쳐 얼굴인식 서버(100)로 전송된다(S720). 서버 송수신부를 통해 동영상 ID및 시간 관련 정보를 수신한 얼굴인식 서버(100)는 얼굴정보 데이터베이스를 검색하여 해당 동영상 ID및 시간 관련 정보에 매칭되는 인물정보가 데이터베이스에 존재하는지 확인한다(S740).First, when a moving picture is input to the moving
현재 프레임 번호 또는 시간 정보에 해당하는 출연자 정보가 있는지 확인되면, 인물(예를 들어, 출연자)에 대한 정보를 서버 송수신부를 통해 동영상 재생장치(200)로 전송하고(S750), 동영상 재생장치(200)는 단말 송수신부를 통해 얼굴인식 서버(100)로부터 식별 결과, 즉, 관련 얼굴정보를 수신한다.If it is determined that the performer information corresponding to the current frame number or time information is present, information on the person (e.g., performer) is transmitted to the
도 8은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 메커니즘을 설명하는 도면이다. FIG. 8 is a view for explaining an operation mechanism of the method for searching face information according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 2가지 동작 메커니즘을 설명하기 위한 도면으로, 본 발명에 따른 얼굴인식정보 검색 방법은 인트라(intra) 모드와 엑스트라(Extra) 모드의 2가지 동작 모드에 따라 동작 가능하다.FIG. 8 is a view for explaining two operation mechanisms of the method for searching for face recognition information according to an embodiment of the present invention. The method for searching for face recognition information according to the present invention includes intra and intra mode It can operate according to two operation modes.
도 8에서 수평축은 시간을 나타내며, 시간 축상에서 개시 시간(start_time)은 얼굴 인식 시작 시간, 종료 시간(end_time)은 얼굴 인식 종료 시간을 의미하며, 개시시간으로부터 종료 시간까지의 구간은 얼굴인식 동작 구간(또는 트래킹 구간)을 구성한다.8, the horizontal axis indicates time, the start time (start_time) on the time axis indicates the face recognition start time, the end time (end_time) indicates the face recognition end time, and the interval from the start time to the end time indicates the face recognition operation interval (Or a tracking section).
본 발명에 따른 얼굴인식정보 검색을 위한 2가지 동작 모드 중 인트라 모드에서는 동영상의 현재 재생 시간이 얼굴인식 동작 구간 내에 존재할 때에만 해당 얼굴인식 정보를 제공한다. In the intra mode among the two operation modes for searching for the face recognition information according to the present invention, the face recognition information is provided only when the current reproduction time of the moving image exists within the face recognition operation section.
예를 들면, 도 8에 도시된 바와 같이 현재 프레임 번호가 current_time1에 해당한다면, current_time1이 start_timei 와 end_timei 사이에 위치하기 때문에 해당 프레임에 존재하는 얼굴 정보를 제공한다. 한편, 현재 프레임 번호가 current_time2에 해당한다면, current_time2가 얼굴인식 동작 구간을 벗어나 위치하므로, 사용자에게 아무런 정보도 제공하지 않는다. For example, as shown in FIG. 8, if the current frame number corresponds to current_time1, current_time1 is set to start_time i And end_time i The face information existing in the corresponding frame is provided. On the other hand, if the current frame number corresponds to the current_time2, current_time2 is located outside the face recognition operation section, and therefore, no information is provided to the user.
한편, 엑스트라 모드에서는 동영상의 현재 재생 시간(또는 프레임)이 얼굴인식 시작시간과 얼굴인식 종료시간 사이에 있을 때에는 인트라 모드와 동일하게 동작한다. 하지만, 현재 재생 시간이 얼굴인식 동작 구간(즉, 얼굴인식 시작시간과 얼굴인식 종료시간 사이)에 속하지 않는 경우, 가장 가까운 얼굴인식 동작 구간을 찾고 해당 구간과의 거리가 사전에 정의한 값 이하이면 해당 위치에서의 얼굴인식 정보를 제공한다. On the other hand, in the extra mode, when the current playback time (or frame) of the moving image is between the face recognition start time and the face recognition end time, it operates in the same manner as the intra mode. However, if the current playback time does not belong to the face recognition operation section (i.e., between the face recognition start time and the face recognition end time), if the distance to the nearest face recognition operation section is less than a predetermined value, And provides face recognition information at the position.
예를 들면, 엑스트라 모드에서 현재 프레임 번호가 current_time1에 해당하고 current_time1이 start_timei와 end_timei 사이에 위치한다면, 인트라 모드에서의 동작과 동일하게 해당 위치에서의 얼굴인식 정보를 제공한다. For example, in the EXTRA mode, the current frame number corresponds to current_time1 and current_time1 corresponds to start_time i and end_time i The face recognition information at the corresponding position is provided in the same manner as the operation in the intra mode.
반면, 현재 프레임 번호가 current_time2 에 해당한다면 current_time2 는 얼굴 트래킹 구간에 속하지 않으므로, 현재 프레임 번호에서 가장 가까운 이전 얼굴 트래킹 구간의 종료 프레임 번호까지의 거리(d1)와 현재 프레임 번호에서 가장 가까운 이후 얼굴 트래킹 구간의 시작 프레임 번호까지의 거리(d2) 중 더 가까운 얼굴 트래킹 구간에서의 얼굴인식 정보를 제공한다. 얼굴인식 정보 제공을 위한 추가 조건으로, 가장 가까운 거리 값이 사전에 정의한 값 이하인 경우에만 얼굴인식 정보를 제공한다. 여기서, 거리 값이 사전에 정의한 값을 초과하면 얼굴 정보를 제공하지 않는다. On the other hand, if the current frame number corresponds to the current_time2, the current_time2 does not belong to the face tracking section. Therefore, the distance d1 from the current frame number to the end frame number of the previous face tracking section closest to the current frame number, And the distance d2 to the start frame number of the face detection section. As an additional condition for providing face recognition information, the face recognition information is provided only when the closest distance value is less than or equal to a predefined value. Here, if the distance value exceeds a predefined value, face information is not provided.
도 8에 도시된 바와 같이 사전에 수행된 얼굴인식 결과를 이용하면 얼굴 검출이 실패하는 프레임에서도 트래킹을 통하여 얼굴에 대한 정보를 제공할 수 있는 가능성이 커진다. 특히, 엑스트라 모드의 경우 인트라 모드보다 검색이 실패하는 구간을 줄일 수 있는 장점이 있다.As shown in FIG. 8, using the previously performed face recognition result increases the possibility of providing information about a face through tracking even in a frame in which face detection fails. In particular, in the case of the extra mode, there is an advantage that the interval in which the search fails than the intra mode can be reduced.
도 9는 본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법의 동작 순서도이다. 9 is a flowchart illustrating an operation of the method for searching for face recognition information according to an exemplary embodiment of the present invention.
도 9 에 도시된 얼굴인식정보 검색 방법은 도 1에 도시된 얼굴인식정보 검색부(130)에 의해 수행될 수 있으나, 동작 주체가 이에 한정되는 것은 아니다.The face recognition information searching method shown in FIG. 9 can be performed by the face recognition
본 발명의 일 실시예에 따른 얼굴인식정보 검색 방법에 따르면, 얼굴인식정보 검색 요청을 수신하는 경우 먼저 현재 프레임 번호가 얼굴 트래킹 구간 내인지 체크한다(S910). 여기서, 현재 프레임 번호는 동영상이 재생되고 있는 현재 시각과 연관된 값이다. 또한, 얼굴 트래킹 구간은 도 8을 통해 살펴본 바와 같이 해당 동영상에 인물이 등장하는 구간으로서 얼굴 트래킹이 필요한 구간, 즉, 얼굴인식 시작시간과 얼굴인식 종료시간 사이를 의미한다.According to the method for searching for face recognition information according to an embodiment of the present invention, when receiving the face recognition information search request, it is checked whether the current frame number is within the face tracking interval (S910). Here, the current frame number is a value associated with the current time at which the moving image is being reproduced. Also, as shown in FIG. 8, the face tracking interval is a period in which a character appears in the moving image, and means a period required for face tracking, that is, between the face recognition start time and the face recognition end time.
현재 프레임 번호가 얼굴 트래킹 구간 내라면, 얼굴정보 데이터베이스가 저장하는 관련 정보를 이용해 트래킹 구간 내에 등장하는 인물에 대한 얼굴인식 정보를 제공한다(S990).If the current frame number is within the face tracking interval, the face recognition information for the person appearing in the tracking interval is provided using the related information stored in the face information database (S990).
만일 현재 프레임 번호가 얼굴 트래킹 구간 내에 존재하지 않는 경우에는 본 발명에서 제공하는 2가지 모드 중 어느 모드에서 동작하는지 체크한다(S920). 인트라 모드인 경우에는 트래킹 구간 내에서만 얼굴인식 정보를 제공하므로, 트래킹 구간 내가 아니라면 현재 재생 중인 동영상 부분과 관련한 얼굴인식 정보가 없음을 출력한다(S950).If the current frame number does not exist within the face tracking interval, it is checked in which of the two modes provided by the present invention (S920). In the intra mode, since the face recognition information is provided only within the tracking period, if there is not the tracking period, the absence of the face recognition information related to the moving picture portion currently being reproduced is output (S950).
반면, 엑스트라 모드인 경우에는 트래킹 구간 내가 아니라도 일정 조건을 만족하므로 추가 절차를 진행한다. 즉, 현재 프레임 번호에서 시간적으로 선/후에 위치하는 얼굴 트래킹 구간을 검색하고 검색된 얼굴 트래킹 구간까지의 거리를 계산한다(S930). 여기서, 트래킹 구간은 복수일 수 있으며, 따라서, 트래킹 구간까지의 거리 정보 또한 복수 개 존재할 수 있다. 여기서, 사용되는 용어 "거리"는 시간 상에서의 서로 떨어진 정도를 의미하는 것으로 "거리"라는 용어가 사용되기는 하였으니 거리 값은 시간 값으로 표현될 수 있다. On the other hand, in the case of the extra mode, a certain condition is satisfied, not the tracking period, so an additional procedure is performed. That is, the face tracking section located temporally before / after the current frame number is searched and the distance to the detected face tracking section is calculated (S930). Here, there may be a plurality of tracking intervals, and therefore, there may be a plurality of distance information to the tracking interval. As used herein, the term "distance" means the distance from each other in time, and the term "distance" is used.
적어도 하나의 거리값들이 계산되면, 계산된 거리값 들 중 최소 거리를 선택하고, 최소 거리가 기 설정된 임계치 이하인지 체크한다(S940). 여기서, 임계치는 현재 시점에서는 동영상에 인물이 포함되어 있지 않지만 인물이 포함된 현재 시점과 가강 가까운 동영상 구간이 현재 시점과 멀지 않아 사용자가 해당 인물의 영상을 기억하고 요청하는 경우를 고려해 사전에 적절한 값으로 설정될 수 있다. When at least one distance value is calculated, a minimum distance among the calculated distance values is selected, and it is checked whether the minimum distance is less than a predetermined threshold value (S940). Here, the threshold value is set to a value suitable for the dictionary in consideration of the case that the user does not memorize the image of the person since the current time and the moving image range close to the current time are not close to the current time although the person does not include the person at the current time Lt; / RTI >
최소거리 값이 임계치 이하인 경우에는 검색된 얼굴인식 정보를 제공하고(S990), 최소거리 값이 임계치를 초과하는 경우에는 관련 얼굴인식 정보가 없음을 출력한다(S950). If the minimum distance value is less than or equal to the threshold value, the retrieved face recognition information is provided (S990). If the minimum distance value exceeds the threshold value, the corresponding face recognition information is not output.
이상 실시예들을 통해 살펴본 바와 같이 본 발명에 따르면, 동영상 플레이어가 재생하고 있는 동영상에 출연하고 있는 인물 또는 배우에 대한 정보를 신속하게 제공할 수 있다. As described above, according to the present invention, a moving picture player can quickly provide information about a character or an actor appearing on a moving picture being played back.
또한, 앞서 실시예들을 통해 본 발명에서는 실시간 얼굴 인식 방식과 사전에 얼굴 인식을 수행한 결과를 검색하는 방식 두 가지를 제공함을 살펴보았다. 실시간 얼굴 인식 방식은 어떠한 동영상이 들어와도 서비스를 제공할 수 있으며, 스트리밍 동영상에 대해서도 서비스가 가능하지만, 해당 프레임에서 얼굴의 앞모습이 아닌 경우 얼굴 검출이 실패하는 경우가 생길 수 있다. In addition, the present invention has provided a real-time face recognition method and a method of searching for a result of performing face recognition in advance through embodiments. The real-time face recognition method can provide a service even if any video is received, and it is also possible to provide service for a streaming video, but face detection may fail if the frame does not have a front appearance.
본 발명의 실시예들에 따라 사전 얼굴 인식을 수행하고 그 결과를 이용하는 방법은 서버의 부담을 줄일 수 있고, 트래킹을 통하여 얼굴 검출이 실패하는 프레임에서도 얼굴에 대한 정보를 줄 수 있는 가능성이 커진다. 특히, 본 발명에 따른 엑스트라 모드의 경우 인트라 모드보다 검색이 실패하는 구간을 줄일 수 있는 장점이 있다.According to the embodiments of the present invention, the method of performing the dictionary face recognition and using the result can reduce the burden on the server and increase the possibility of giving information about the face even in a frame in which face detection fails through tracking. Particularly, in the extra mode according to the present invention, there is an advantage that the interval in which the search fails than the intra mode is reduced.
본 발명의 실시예에 따른 얼굴인식정보 제공 방법의 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. The operation of the method for providing face recognition information according to the embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. The computer-readable recording medium may also be distributed and distributed in a networked computer system so that a computer-readable program or code can be stored and executed in a distributed manner.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Also, the computer-readable recording medium may include a hardware device specially configured to store and execute program instructions, such as a ROM, a RAM, a flash memory, and the like. Program instructions may include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. While some aspects of the invention have been described in the context of an apparatus, it may also represent an explanation according to a corresponding method, wherein the block or apparatus corresponds to a feature of the method step or method step. Similarly, aspects described in the context of a method may also be represented by features of the corresponding block or item or corresponding device. Some or all of the method steps may be performed (e.g., by a microprocessor, a programmable computer or a hardware device such as an electronic circuit). In some embodiments, one or more of the most important method steps may be performed by such an apparatus.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (e.g., a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, the field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. Generally, the methods are preferably performed by some hardware device.
이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It can be understood that it is possible.
100: 얼굴인식 서버
110: 서버 송수신부
120: 얼굴인식정보 생성부
121: 얼굴 정렬부
122: 얼굴 식별부
130: 얼굴인식정보 검색부
140: 얼굴정보 데이터베이스
200: 동영상 플레이어
201: 동영상 디코더
202: 화면 출력부
203: 얼굴 검출부
204: 단말 송수신부
100: face recognition server 110: server transmission /
120: Face Recognition Information Generation Unit 121: Face Recognition Unit
122: face identification unit 130: face recognition information search unit
140: face information database
200: video player 201: video decoder
202: Screen output unit 203: Face detection unit
204: terminal transmission /
Claims (20)
동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스; 및
얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함하는 얼굴인식 서버.A face recognition information generation unit that identifies a face image from an image input from the video playback apparatus and generates face recognition information;
A face information database storing at least one face recognition information including information on a person's face related to a face included in the moving picture and information on a time period in which the face appears in the moving picture; And
And a face recognition information searching unit for searching the face information database for face recognition information matched with information on a motion picture requested for face information search.
상기 얼굴인식정보 생성부는,
입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 얼굴 정렬부; 및
상기 얼굴 정렬부로부터 입력된 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 얼굴 식별부를 포함하는, 얼굴인식 서버.The method according to claim 1,
Wherein the face recognition information generation unit comprises:
A face sorting unit for generating an aligned face image by transforming the input face image based on minutiae points; And
And a face identification unit that identifies a face from the aligned face image input from the face arrangement unit and outputs a face identification result.
동영상 재생장치로부터 수신한 얼굴 이미지를 디코딩하여 상기 얼굴인식정보 생성부 및 얼굴인식정보 검색부로 제공하고, 얼굴인식 정보를 상기 동영상 재생장치로 전송하는 서버 송수신부를 더 포함하는, 얼굴인식 서버.The method according to claim 1,
And a server transmission / reception unit for decoding the facial image received from the moving picture reproducing apparatus, providing the facial recognition information to the facial recognition information generating unit and the facial recognition information retrieving unit, and transmitting the facial recognition information to the moving picture reproducing apparatus.
상기 얼굴인식정보 생성부는,
입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하며, 상기 추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는, 얼굴인식 서버.The method according to claim 1,
Wherein the face recognition information generation unit comprises:
A facial recognition server for recognizing a face in an inputted moving picture and extracting a face recognition start time of the face and adding the extracted face recognition start time and the movie identifier to the face recognition information and storing the added face recognition time and the motion picture identifier in the face information database.
상기 얼굴인식정보 생성부는,
입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하고 해당 얼굴의 얼굴인식 종료시간을 추출하며, 상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스 에 저장하는, 얼굴인식 서버.The method according to claim 1,
Wherein the face recognition information generation unit comprises:
The facial recognition information corresponding to the inputted moving picture identifier (ID) is searched, the corresponding face is tracked, the face recognition end time of the face is extracted, and the extracted face recognition end time is added to the face recognition information, A face recognition server that stores in a database.
상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함하는, 얼굴인식 서버.The method according to claim 1,
Wherein the information on the moving image requested to search for the face information includes an identifier (ID) of the moving image and a current frame number.
상기 얼굴인식정보 검색부는,
현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행하는, 얼굴인식 서버.The method of claim 6,
Wherein the face recognition information searching unit comprises:
Wherein the face recognition information search is performed according to an intra mode or an extras mode in which an operation is classified according to whether a current frame number belongs to a face recognition operation section.
상기 얼굴인식정보 검색부는,
인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공하는, 얼굴인식 서버.The method of claim 7,
Wherein the face recognition information searching unit comprises:
And provides face recognition information when the current frame number is located within the face recognition operation section when operating in the intra mode.
상기 얼굴인식정보 검색부는,
엑스트라 모드에서 동작하는 경우,
현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공하는, 얼굴인식 서버.The method of claim 7,
Wherein the face recognition information searching unit comprises:
When operating in the extra mode,
When the current frame number is located within the face recognition operation section and the distance from the current frame number to the face recognition operation section located at the latest distance is less than a reference value even if the current frame number is out of the face recognition operation section, Provide face recognition server.
상기 동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하여 얼굴인식 정보를 생성하고, 얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하여 상기 동영상 재생장치로 제공하는 얼굴인식 서버를 포함하고,
상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는, 얼굴인식 시스템.A motion picture reproducing apparatus for detecting a face image in a frame image obtained by decoding an input moving image, encoding the face image, and transmitting the encoded image to a face recognition server; And
A facial recognition unit for generating face recognition information by identifying a face image from an image input from the moving picture reproduction apparatus and searching for a face recognition information matching the information about the requested motion picture from the face information database, A face recognition server,
Wherein the face recognition information includes information about a person's information related to a face included in the moving image and a time interval in which the face appears in the moving image.
상기 얼굴인식 서버는,
동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 얼굴인식정보 생성부;
동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는 적어도 하나의 얼굴인식 정보를 저장하는 얼굴정보 데이터베이스; 및
얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 상기 얼굴정보 데이터베이스로부터 검색하는 얼굴인식정보 검색부를 포함하는, 얼굴인식 시스템. The method of claim 10,
The face recognition server,
A face recognition information generation unit that identifies a face image from an image input from the video playback apparatus and generates face recognition information;
A face information database storing at least one face recognition information including information on a person's face related to a face included in the moving picture and information on a time period in which the face appears in the moving picture; And
And a face recognition information searching unit for searching, from the face information database, face recognition information matched with information on a moving image requested to search for face information.
상기 얼굴인식정보 검색부는,
현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행하며,
인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공하고,
엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공하는, 얼굴인식 시스템.The method of claim 11,
Wherein the face recognition information searching unit comprises:
The face recognition information search is performed according to the intra mode or the extras mode in which the motion is classified according to whether the current frame number belongs to the face recognition operation section,
When operating in the intra mode, provides the face recognition information when the current frame number is located within the face recognition operation section,
When the current frame number is located within the face recognition operation section and when the current frame number is out of the face recognition operation section, the distance from the current frame number to the face recognition operation section located at the latest distance is smaller than the reference value The face recognition information is provided.
동영상 재생장치로부터 입력되는 이미지로부터 얼굴 이미지를 식별하고 얼굴인식 정보를 생성하는 단계; 및
얼굴정보 검색이 요청된 동영상에 대한 정보와 매칭되는 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계를 포함하고,
상기 얼굴인식 정보는, 동영상에 포함된 얼굴과 관련된 인물 정보 및 해당 얼굴이 동영상에 등장하는 시간 구간에 대한 정보를 포함하는, 얼굴인식 방법.A face recognition method performed by a face recognition server,
Identifying a face image from an image input from the moving picture reproducing apparatus and generating face recognition information; And
Searching the face information database for face recognition information matched with information on a moving image for which face information search is requested,
Wherein the face recognition information includes information on the person information related to the face included in the moving image and information on a time period in which the face appears in the moving image.
상기 얼굴인식 정보를 생성하는 단계는,
입력된 얼굴 이미지에 대해 특징점을 기반으로 한 변환을 통해 정렬된 얼굴 이미지를 생성하는 단계; 및
상기 얼굴 정렬부로부터 입력된 정렬된 얼굴 이미지로부터 얼굴을 식별하고 얼굴 식별 결과를 출력하는 단계를 포함하는, 얼굴인식 방법. 14. The method of claim 13,
Wherein the generating the face recognition information comprises:
Generating an aligned face image by transforming the input face image based on the feature points; And
And identifying the face from the aligned face image input from the face arrangement section and outputting the face identification result.
상기 얼굴인식 정보를 생성하는 단계는,
입력되는 동영상 식별자(ID)에 대응하는 얼굴인식 정보를 검색하여 해당 얼굴을 트래킹하는 단계;
해당 얼굴의 얼굴인식 종료시간을 추출하는 단계; 및
상기 추출된 얼굴인식 종료시간을 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는 단계를 포함하는, 얼굴인식 방법.14. The method of claim 13,
Wherein the generating the face recognition information comprises:
Searching face recognition information corresponding to an input video identifier (ID) and tracking the face;
Extracting a face recognition end time of the face; And
And adding the extracted face recognition end time to the face recognition information and storing the added face recognition end time in the face information database.
상기 얼굴정보 검색이 요청된 동영상에 대한 정보는, 해당 동영상의 식별자(ID) 및 현재 프레임 번호를 포함하는, 얼굴인식 방법. 14. The method of claim 13,
Wherein the information on the moving image requested to search for the face information includes an identifier (ID) of the moving image and a current frame number.
상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는,
현재 프레임 번호가 얼굴인식 동작 구간에 속하는지에 따라 동작이 구분되는 인트라 모드 또는 엑스트라 모드에 따라 얼굴인식정보 검색을 수행하는 단계를 포함하는, 얼굴인식 방법. 14. The method of claim 13,
Wherein the step of retrieving the face recognition information from the face information database comprises:
Performing facial recognition information search in accordance with an intra mode or an extras mode in which an operation is classified according to whether a current frame number belongs to a face recognition operation section.
상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는,
인트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때 얼굴인식 정보를 제공하는 단계를 포함하는, 얼굴인식 방법. 18. The method of claim 17,
Wherein the step of retrieving the face recognition information from the face information database comprises:
When operating in intra mode, providing face recognition information when the current frame number is located within the face recognition active period.
상기 얼굴인식 정보를 얼굴정보 데이터베이스로부터 검색하는 단계는,
엑스트라 모드에서 동작하는 경우, 현재 프레임 번호가 얼굴인식 동작 구간 내에 위치할 때, 그리고 현재 프레임 번호가 얼굴인식 동작 구간을 벗어나더라도 현재 프레임 번호로부터 최근거리에 위치하는 얼굴인식 동작 구간까지의 거리가 기준치 이하일 때, 얼굴인식 정보를 제공하는 단계를 포함하는, 얼굴인식 방법. 18. The method of claim 17,
Wherein the step of retrieving the face recognition information from the face information database comprises:
When the current frame number is located in the face recognition operation section and the current frame number is out of the face recognition operation section, the distance from the current frame number to the face recognition operation section located at the latest distance is the reference value The method comprising: providing face recognition information when the face recognition information is equal to or less than a predetermined value.
상기 얼굴인식 정보를 생성하는 단계는,
입력되는 동영상에서 얼굴을 인식하여 해당 얼굴의 얼굴인식 시작시간을 추출하는 단계; 및
추출된 얼굴인식 시작시간과 동영상 식별자를 상기 얼굴인식 정보에 추가하여 상기 얼굴정보 데이터베이스에 저장하는 단계를 포함하는, 얼굴인식 방법.
14. The method of claim 13,
Wherein the generating the face recognition information comprises:
Extracting a face recognition start time of the face by recognizing the face in the inputted moving picture; And
And adding the extracted face recognition start time and the motion picture identifier to the face recognition information and storing the added face recognition start time and the motion picture identifier in the face information database.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170000622A KR101929220B1 (en) | 2017-01-03 | 2017-01-03 | System and method for providing face recognition information and server using the method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170000622A KR101929220B1 (en) | 2017-01-03 | 2017-01-03 | System and method for providing face recognition information and server using the method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20180079894A true KR20180079894A (en) | 2018-07-11 |
| KR101929220B1 KR101929220B1 (en) | 2018-12-14 |
Family
ID=62917398
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020170000622A Expired - Fee Related KR101929220B1 (en) | 2017-01-03 | 2017-01-03 | System and method for providing face recognition information and server using the method |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101929220B1 (en) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109165534A (en) * | 2018-08-31 | 2019-01-08 | 努比亚技术有限公司 | terminal control method, terminal and computer readable storage medium |
| CN111259194A (en) * | 2018-11-30 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | Method and apparatus for determining duplicate video |
| KR20200086489A (en) | 2019-01-09 | 2020-07-17 | 엔트롤 주식회사 | Apparatus and method for improving face recognition performance in accordance to outdoor illuminance variation |
| KR20210009401A (en) | 2019-01-09 | 2021-01-26 | 엔트롤 주식회사 | Apparatus and method for improving face recognition performance in accordance to outdoor illuminance variation |
| WO2021061511A1 (en) * | 2019-09-26 | 2021-04-01 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| WO2021084165A1 (en) | 2019-11-03 | 2021-05-06 | St37 Sport Et Technologie | Method and system for characterising a movement of a moving entity |
| KR102261221B1 (en) * | 2020-04-07 | 2021-06-07 | (주)제타미디어 | System And Method For Obtaining Image Information, And Method For Displaying Image Acquisition Information |
| CN113010731A (en) * | 2021-02-22 | 2021-06-22 | 杭州西湖数据智能研究院 | Multimodal video retrieval system |
| CN114187626A (en) * | 2021-11-22 | 2022-03-15 | 深圳云天励飞技术股份有限公司 | Training method, recognition method, device, equipment and medium of face recognition model |
| KR102404925B1 (en) * | 2021-12-14 | 2022-06-02 | 한예주 | Ai multi-focusing for online education participation confirmation of learner and method performing thereof |
| US11915429B2 (en) | 2021-08-31 | 2024-02-27 | Gracenote, Inc. | Methods and systems for automatically generating backdrop imagery for a graphical user interface |
| KR20240095574A (en) * | 2022-12-16 | 2024-06-26 | 톡맘 주식회사 | Image processing method using neural network and apparatus therefor |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006350925A (en) * | 2005-06-20 | 2006-12-28 | Funai Electric Co Ltd | Program retrieval support system |
| JP2010161562A (en) * | 2009-01-07 | 2010-07-22 | Canon Inc | Image processing apparatus, method of controlling the same, program, and recording medium |
-
2017
- 2017-01-03 KR KR1020170000622A patent/KR101929220B1/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006350925A (en) * | 2005-06-20 | 2006-12-28 | Funai Electric Co Ltd | Program retrieval support system |
| JP2010161562A (en) * | 2009-01-07 | 2010-07-22 | Canon Inc | Image processing apparatus, method of controlling the same, program, and recording medium |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109165534A (en) * | 2018-08-31 | 2019-01-08 | 努比亚技术有限公司 | terminal control method, terminal and computer readable storage medium |
| CN111259194A (en) * | 2018-11-30 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | Method and apparatus for determining duplicate video |
| KR20200086489A (en) | 2019-01-09 | 2020-07-17 | 엔트롤 주식회사 | Apparatus and method for improving face recognition performance in accordance to outdoor illuminance variation |
| KR20210009401A (en) | 2019-01-09 | 2021-01-26 | 엔트롤 주식회사 | Apparatus and method for improving face recognition performance in accordance to outdoor illuminance variation |
| US12051272B2 (en) | 2019-09-26 | 2024-07-30 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| US12354404B2 (en) | 2019-09-26 | 2025-07-08 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| US11062127B2 (en) | 2019-09-26 | 2021-07-13 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| US11568678B2 (en) | 2019-09-26 | 2023-01-31 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| WO2021061511A1 (en) * | 2019-09-26 | 2021-04-01 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| US11790696B2 (en) | 2019-09-26 | 2023-10-17 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| US11568679B2 (en) | 2019-09-26 | 2023-01-31 | Gracenote, Inc. | Obtaining artist imagery from video content using facial recognition |
| WO2021084165A1 (en) | 2019-11-03 | 2021-05-06 | St37 Sport Et Technologie | Method and system for characterising a movement of a moving entity |
| KR102261221B1 (en) * | 2020-04-07 | 2021-06-07 | (주)제타미디어 | System And Method For Obtaining Image Information, And Method For Displaying Image Acquisition Information |
| CN113010731B (en) * | 2021-02-22 | 2022-05-20 | 杭州西湖数据智能研究院 | Multimodal video retrieval system |
| CN113010731A (en) * | 2021-02-22 | 2021-06-22 | 杭州西湖数据智能研究院 | Multimodal video retrieval system |
| US11915429B2 (en) | 2021-08-31 | 2024-02-27 | Gracenote, Inc. | Methods and systems for automatically generating backdrop imagery for a graphical user interface |
| US12198353B2 (en) | 2021-08-31 | 2025-01-14 | Gracenote, Inc. | Methods and systems for automatically generating backdrop imagery for a graphical user interface |
| CN114187626A (en) * | 2021-11-22 | 2022-03-15 | 深圳云天励飞技术股份有限公司 | Training method, recognition method, device, equipment and medium of face recognition model |
| KR102404925B1 (en) * | 2021-12-14 | 2022-06-02 | 한예주 | Ai multi-focusing for online education participation confirmation of learner and method performing thereof |
| KR20240095574A (en) * | 2022-12-16 | 2024-06-26 | 톡맘 주식회사 | Image processing method using neural network and apparatus therefor |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101929220B1 (en) | 2018-12-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101929220B1 (en) | System and method for providing face recognition information and server using the method | |
| US11197036B2 (en) | Multimedia stream analysis and retrieval | |
| CN113642536B (en) | Data processing method, computer device and readable storage medium | |
| CN108370447B (en) | Content processing device, content processing method, and server | |
| CN101072340B (en) | Method and system for adding advertising information in flow media | |
| JP5216781B2 (en) | Additional information server and method for providing additional information generated for specific broadcast program included in broadcast content | |
| US8869222B2 (en) | Second screen content | |
| US8064641B2 (en) | System and method for identifying objects in video | |
| US11227620B2 (en) | Information processing apparatus and information processing method | |
| CN102342124A (en) | Method and apparatus for providing information related to broadcast programs | |
| US20130133000A1 (en) | Video Interaction System | |
| US8000578B2 (en) | Method, system, and medium for providing broadcasting service using home server and mobile phone | |
| US20110246183A1 (en) | Topic transition analysis system, method, and program | |
| KR101832050B1 (en) | Tagging method for mutimedia contents base on sound data and system using the smae | |
| US20170134810A1 (en) | Systems and methods for user interaction | |
| US9807453B2 (en) | Mobile search-ready smart display technology utilizing optimized content fingerprint coding and delivery | |
| KR101334127B1 (en) | System and method for providing content sharing service using client terminal | |
| US20230177083A1 (en) | Method and apparatus for simultaneous video retrieval and alignment | |
| JP2010113558A (en) | Word extraction device, word extraction method and receiver | |
| CN117493606A (en) | A video retrieval method, device, system, electronic equipment and storage medium | |
| US9323857B2 (en) | System and method for providing content-related information based on digital watermark and fingerprint | |
| CN115774762A (en) | Instant messaging information processing method, device, equipment and storage medium | |
| CN116204798B (en) | Training method of multimedia feature representation model and feature representation generation method | |
| CN112261436B (en) | Video playing method, device and system | |
| HK40054555B (en) | Data processing method, computer equipment and readable storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20241211 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| H13 | Ip right lapsed |
Free format text: ST27 STATUS EVENT CODE: N-4-6-H10-H13-OTH-PC1903 (AS PROVIDED BY THE NATIONAL OFFICE); TERMINATION CATEGORY : DEFAULT_OF_REGISTRATION_FEE Effective date: 20241211 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20241211 |