JP2012003623A - Face image search device and face image search method - Google Patents
Face image search device and face image search method Download PDFInfo
- Publication number
- JP2012003623A JP2012003623A JP2010139789A JP2010139789A JP2012003623A JP 2012003623 A JP2012003623 A JP 2012003623A JP 2010139789 A JP2010139789 A JP 2010139789A JP 2010139789 A JP2010139789 A JP 2010139789A JP 2012003623 A JP2012003623 A JP 2012003623A
- Authority
- JP
- Japan
- Prior art keywords
- face
- attribute
- search
- image
- feature information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】入力された顔画像と類似している顔画像の候補の一覧を出力するだけでなく、あらかじめ指定した属性情報での視点から類似した顔画像の候補の一覧をも同時に出力して視覚的に確認できる顔画像検索装置および顔画像検索方法を提供する。
【解決手段】顔画像データベースにあらかじめ登録されている複数の顔画像の中から、入力された顔画像に類似する顔画像を検索して表示出力する顔画像検索装置において、顔画像の個人的な特徴情報を利用して類似している順に検索結果を表示する第1の検索結果にくわえ、あらかじめ指定した少なくとも1つの人物の属性特徴が入力画像に類似している順に検索結果を求め、属性特徴を利用して求められた検索結果、あるいは顔画像の個人的な特徴情報と属性特徴の両方を考慮して類似している順に求めた検索結果を別途第2の検索結果として第1の検索結果とは別に表示する。
【選択図】図1In addition to outputting a list of face image candidates similar to the input face image, a list of similar face image candidates from the viewpoint based on the attribute information specified in advance is also output at the same time. A face image search device and a face image search method that can be confirmed automatically.
In a face image search device that searches for a face image similar to an input face image from a plurality of face images registered in advance in a face image database, and displays and outputs the face image, a personal image of the face image is obtained. In addition to the first search result that displays the search results in the order of similarity using the feature information, the search results are obtained in the order in which the attribute features of at least one person specified in advance are similar to the input image, and the attribute features The first search result is obtained by using a search result obtained by using the search result or a search result obtained in the order of similarity in consideration of both personal feature information and attribute features of the face image. Display separately.
[Selection] Figure 1
Description
本発明の実施形態は、たとえば、顔画像データベースにあらかじめ登録されている複数の顔画像の中から、入力された顔画像に類似する顔画像を検索して表示出力する顔画像検索装置および顔画像検索方法に関する。 Embodiments of the present invention include, for example, a face image search device and a face image that search for and display a face image similar to an input face image from a plurality of face images registered in advance in a face image database. It relates to the search method.
たとえば、顔画像データベースにあらかじめ登録されている複数の顔画像に対し、所定の顔画像を入力してその顔画像と類似する顔画像を検索し類似している順に一覧表示する技術がある。 For example, for a plurality of face images registered in advance in a face image database, there is a technique of inputting a predetermined face image, searching for face images similar to the face image, and displaying a list in the order of similarity.
ただし、大量に顔画像が顔画像データベースに登録されている場合には、顔認識技術による検索精度が低いと上位候補者として表示されることがなく、画面上で操作を続けながら目視で候補者を探していく必要があるため、大量の顔画像データベースを検索する時に効率的に絞り込みする技術が開発されている。 However, if a large number of face images are registered in the face image database, if the search accuracy by the face recognition technology is low, it will not be displayed as a top candidate, and the candidate will be visually checked while continuing the operation on the screen. Therefore, a technique for efficiently narrowing down when searching a large amount of face image database has been developed.
たとえば、顔画像以外に名前や会員ID、入会年月日をキーに検索をすることで高速に検索する仕組みや、顔などのメインの生体情報以外の属性情報(人物の身長、体重、性別、年齢等)を利用して認識辞書の絞込みを行なう技術などが公知である。 For example, in addition to the face image, a search mechanism that searches at high speed by using the name, member ID, and membership date as keys, and attribute information other than the main biological information such as the face (person's height, weight, gender, Techniques for narrowing down recognition dictionaries using age etc. are known.
一方で、検索したい人物の顔の特徴を検索条件として指定することで、指定された特徴を有する顔画像を顔画像データベースの中から検索する技術も公知である。たとえば、人物の肌の色、瞼、髭、黒子、眼鏡、性別、推定年齢を検索条件としてチェックボックスや論理積、論理和の式で設定して候補画像が並ぶといった技術がある。 On the other hand, a technique for searching a face image having a specified feature from a face image database by specifying a facial feature of a person to be searched as a search condition is also known. For example, there is a technique in which candidate images are arranged by setting a person's skin color, wrinkles, wrinkles, moles, glasses, gender, and estimated age as search conditions using check boxes, logical products, and logical sums.
顔画像データベースの中から事前に顔画像データベースの顔画像に対応付けて入力された属性情報(たとえば、年齢や性別等)をキーとして、顔認識技術の結果と別にテキストのマッチング処理で検索結果を絞り込む技術はあるが、これは事前に顔画像データベースにテキスト情報で属性情報を入力しておく必要があり、新しく顔画像が大量に入ってきた場合には事前に属性情報を付与していないので絞り込みができないという問題があり、また属性情報を使った別の視点での検索結果を同時に見ることができないという問題もある。
顔画像データベースに属性情報を登録するのは非常に手間がかかり間違いも発生する可能性があるうえ、登録した属性情報が間違っていても気づかない可能性が高い。
Using the attribute information (for example, age, gender, etc.) input in advance from the face image database in association with the face image in the face image database as a key, the search result is obtained by text matching processing separately from the face recognition technology result. Although there is a technology to narrow down, it is necessary to input attribute information as text information in the face image database in advance, and attribute information is not given in advance when a large amount of new face images enter There is a problem that it is not possible to narrow down, and there is also a problem that it is not possible to simultaneously view search results from different viewpoints using attribute information.
Registering attribute information in the face image database is very time-consuming and may cause errors, and it is highly possible that the registered attribute information is not noticed even if it is incorrect.
そこで、実施形態は、あらかじめ登録された複数の顔画像の中から入力された顔画像に類似する顔画像を検索する際、入力された顔画像と類似している顔画像の候補の一覧を出力するだけでなく、あらかじめ指定した属性情報、または所定の指標で最も入力画像に近い検索結果を表していると思われるものを自動的に選択した属性情報での視点から類似した顔画像の候補の一覧をも同時に出力して視覚的に確認できる顔画像検索装置および顔画像検索方法を提供することを目的とする。 Therefore, the embodiment outputs a list of face image candidates similar to the input face image when searching for a face image similar to the input face image from a plurality of face images registered in advance. In addition to pre-specified attribute information, or a candidate that is similar to a face image candidate from the viewpoint of the attribute information that automatically selected a search result that seems to represent the search result closest to the input image It is an object of the present invention to provide a face image search device and a face image search method that can simultaneously output a list and visually confirm the list.
実施形態に係る顔画像検索装置は、少なくとも人物の顔画像を含む画像を入力する画像入力手段と、この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、前記顔検出手段により検出された顔領域から得られる人物の属性特徴情報を少なくとも1つ抽出する属性特徴抽出手段と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段と、前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、前記属性特徴抽出手段により抽出された入力画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索手段と、この属性検索手段により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索手段により得られた検索結果の中から前記検索条件設定手段により設定された内容に合致する検索結果を選択する検索結果管理手段と、この検索結果管理手段により選択された検索結果を出力する出力手段とを具備している。 The face image search device according to the embodiment includes an image input unit that inputs an image including at least a person's face image, a face detection unit that detects at least one face region from the input image input by the image input unit, Search condition setting means for setting the type of attribute to be searched and search result output method for setting search conditions, and facial features indicating personal features of the face obtained from the face area detected by the face detection means Face feature extracting means for extracting information, attribute feature extracting means for extracting at least one person's attribute feature information obtained from the face area detected by the face detecting means, a pre-registered face image and corresponding Personal information management means for managing facial feature information and attribute feature information in association with each other; and facial feature information for the input image extracted by the facial feature extraction means; By comparing with the facial feature information managed by the personal information management means, the facial feature information for the input image is similar to any facial feature information in the facial feature information managed by the personal information management means The person information managing means retrieves a plurality of corresponding face images determined in advance in descending order of the degree of similarity, and the attribute feature extracting means extracts the corresponding face images. By comparing the attribute feature information with respect to the input image and the attribute feature information managed by the person information management means, the similarity of both attribute feature information is obtained, and a plurality of predetermined numbers in order from the highest similarity are obtained. Attribute search means for searching the corresponding face image from the person information management means, a plurality of search results obtained by the attribute search means, and this An optimum search result automatically selected as necessary from a plurality of search results and a content set by the search condition setting means from the search results obtained by the face search means Search result management means for selecting a search result and output means for outputting the search result selected by the search result management means.
以下、実施形態について図面を参照して説明する。
なお、実施形態が適用される対象としては、あらかじめ登録されている多数の顔画像の中から、現在手元にある顔画像と同一の顔画像(人物)を検索するような場合を想定しており、たとえば、顧客データの中からお得意様を探す、不審者のデータベースから該当者を探す、ID証明書の更新時の本人確認や新規発行時の二重発給防止といった用途が考えられる。
Hereinafter, embodiments will be described with reference to the drawings.
As an object to which the embodiment is applied, it is assumed that a face image (person) that is the same as the face image currently at hand is searched from a large number of face images registered in advance. For example, it is possible to search for a customer from customer data, search for a corresponding person from a database of a suspicious person, verify an identity when updating an ID certificate, and prevent double issuance at the time of new issuance.
また、実施形態では、本人を属性情報で判別する方法として、撮影対象から得られた顔の領域を検出して顔の位置や顔の特徴を利用することで人物の属性特徴情報を抽出し、事前に登録された顔のデータベースの中から属性特徴情報で近い顔画像を検索することや、年齢や性別といった属性情報(端末装置などでテキスト情報として入力されたもの)と一致するかどうかの判定結果を利用することで人物(顔画像)の検索の効率をあげる。 Further, in the embodiment, as a method of discriminating the person based on the attribute information, the face feature area obtained from the photographing target is detected and the face position and the face feature are used to extract the person attribute feature information, Search for a face image close to the attribute feature information from a pre-registered face database, and determine whether it matches attribute information such as age and gender (entered as text information on a terminal device, etc.) Use of the results increases the efficiency of searching for a person (face image).
以下の説明では、人物領域として顔の領域を検出して顔の特徴情報を利用することで課題を実現する手順を説明するが、顔以外にも人物領域全身を検出する技術(Watanabeら,”Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology” (PSIVT2009), pp. 37-47.)を利用し、その大きさを使って属性情報として身長情報を計測することでも実現が可能であり、人物の領域を検出する技術、また、その人物領域内の特徴情報を計測する技術であれば、本実施形態に記載した技術のみに限定される内容でないことは明らかである。 In the following description, a procedure for realizing a problem by detecting a face area as a person area and using facial feature information will be described. However, a technique for detecting a whole person area other than a face (Watanabe et al., “ Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology ”(PSIVT2009), pp. 37-47.) It can also be realized by measuring height information, and is limited to the technique described in the present embodiment as long as it is a technique for detecting a person's area and a technique for measuring characteristic information in the person area. It is clear that it is not content.
まず、第1の実施形態について説明する。
図1は、第1の実施形態に係る顔画像検索装置の構成を概略的に示すものである。第1の実施形態に係る顔画像検索装置は、撮像対象人物Mの少なくとも顔を含む画像を入力する画像入力部(画像入力手段)110、画像入力部110により入力された入力画像から少なくとも1つの顔領域を検出する顔検出部(顔検出手段)120、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法等を設定する検索条件設定部(検索条件設定手段)130、顔検出部120により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出部(顔特徴抽出手段)151、顔検出部120により検出された顔領域から得られる人物の属性情報(年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等)を識別するための属性特徴情報を抽出する属性特徴抽出部(属性特徴抽出手段)152、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報等を対応付けて管理する人物情報管理部(人物情報管理手段)160、顔特徴抽出部151により抽出された入力画像に対する顔特徴情報と人物情報管理部160により管理されている顔特徴情報とを比較することにより、入力画像に対する顔特徴情報が人物情報管理部160により管理されている顔特徴情報の中のどの顔特徴情報と一番類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部160から検索する顔検索部(顔検索手段)171、属性特徴抽出部152により抽出された入力画像に対する属性特徴情報と人物情報管理部160により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部160から検索する属性検索部(属性検索手段)172、属性検索部172により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、顔検索部171により得られた検索結果の中から検索条件設定部130により設定された内容に合致する検索結果を選択する検索結果管理部(検索結果管理手段)180、検索結果管理部180により選択された検索結果を出力する出力部(出力手段)190を有して構成される。
First, the first embodiment will be described.
FIG. 1 schematically shows a configuration of a face image search apparatus according to the first embodiment. The face image search device according to the first embodiment includes an image input unit (image input unit) 110 that inputs an image including at least a face of the person M to be imaged, and at least one input image input by the image input unit 110. A face detection unit (face detection unit) 120 that detects a face area, and a search condition setting unit (search condition setting unit) 130 that sets the type of attribute to be searched for setting search conditions, a search result output method, and the like. A face feature extraction unit (face feature extraction means) 151 for extracting facial feature information indicating personal features of the face obtained from the face area detected by the face detection unit 120; obtained from the face region detected by the face detection unit 120; Attribute feature extraction unit (attribute feature extraction means) that extracts attribute feature information for identifying attribute information (age, sex, presence / absence of glasses, presence / absence of hat, presence / absence of race, race, etc.) 52. A person information management unit (person information management means) 160 for managing a face image registered in advance in association with face feature information and attribute feature information for the face image, and an input image extracted by the face
以下、各部について詳細に説明する。
画像入力部110は、たとえば、ITVカメラ109により人物Mの少なくとも顔を含む画像を撮像して入力するもので、ITVカメラ109から得られる撮像信号をA/D変換器によりデジタル化して画像情報として入力する。
Hereinafter, each part will be described in detail.
The image input unit 110, for example, captures and inputs an image including at least the face of the person M with the ITV
なお、検索対象となるものは結果的にデジタルの顔画像となればよいので、デジタルスチルカメラで撮像した画像ファイルをメモリ媒体経由で取込んでもかまわないし、スキャナを利用して紙媒体や写真からスキャンをしたデジタル画像でも構わない。 The search target may be a digital face image as a result, so an image file captured by a digital still camera may be captured via a memory medium, or from a paper medium or photograph using a scanner. It may be a scanned digital image.
顔検出部120は、たとえば、画像入力部110により入力された入力画像内において、あらかじめ用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域とする。その他に固有空間法や部分空間法を利用した顔抽出法などでも実現は可能である。 For example, the face detection unit 120 obtains the position that gives the highest correlation value in the face region by obtaining a correlation value while moving a template prepared in advance in the image in the input image input by the image input unit 110. And In addition, it can be realized by a face extraction method using an eigenspace method or a subspace method.
また、検出された顔領域の部分の中から、目、鼻などの顔部位の位置を検出する。その検出方法は、たとえば、文献1(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」,電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997))などに記載された方法で実現可能である。 In addition, the position of a face part such as an eye or nose is detected from the detected face area. The detection method is, for example, Document 1 (Kazuhiro Fukui, Osamu Yamaguchi: “Face Feature Point Extraction by Combination of Shape Extraction and Pattern Matching”, IEICE Transactions (D), vol. J80-D-II, No. 8, pp2170-2177 (1997)).
なお、本実施形態では、顔領域の特徴を利用する例を記述したが、虹彩、網膜、目の画像を対象として顔であるかどうかを判別する装置の場合にも、上記処理によって検出された目の領域をもとにカメラをズームすることなどで検出が可能となる。 In the present embodiment, an example of using the feature of the face region has been described. However, even in the case of an apparatus that determines whether the face is an iris, retina, or eye image, it is detected by the above processing. Detection is possible by zooming the camera based on the eye area.
また、上記目、鼻の検出の他に口領域の検出については、たとえば、文献2(湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219−224(2004))の技術を利用することで容易に実現が可能である。 In addition to the above eye and nose detection, the detection of the mouth area is described in, for example, Reference 2 (Mayumi Yuasa, Ayako Nakajima: “Digital Make System Based on High-Precision Facial Feature Point Detection”, 10th Image Sensing Symposium Proceedings , Pp 219-224 (2004)) can be easily realized.
いずれの場合でも2次元配列状の画像として取扱える情報を獲得し、その中から顔特徴の領域を検出することが可能である。また、これらの処理は1枚の画像の中から1つの顔特徴だけを抽出するには全画像に対してテンプレートとの相関値を求め最大となる位置とサイズを出力すればよいし、複数の顔特徴を抽出するには画像全体に対する相関値の局所最大値を求め、1枚の画像内での重なりを考慮して顔の候補位置を絞り込み、最後は連続して入力された過去の画像との関係性(時間的な推移)も考慮して最終的に複数の顔特徴を同時に見つけることも可能となる。 In any case, it is possible to acquire information that can be handled as a two-dimensional array image, and to detect a facial feature region from the acquired information. Also, in these processes, in order to extract only one facial feature from one image, a correlation value with the template is obtained for all images, and the maximum position and size may be output. In order to extract the facial features, the local maximum value of the correlation value for the entire image is obtained, the candidate positions of the face are narrowed down in consideration of the overlap in one image, and finally the past images that have been input continuously It is also possible to finally find a plurality of facial features at the same time in consideration of the relationship (time transition).
また、本実施形態のように、マスク着用やサングラスの着用、帽子の着用といった場合でも検出できるようにするため、あらかじめサングラスやマスクや帽子で顔の一部が隠された場合の顔パターンでテンプレートを学習しておくことや、顔の特徴点検出をする際に全ての点が検出できない場合でも、一部の顔特徴点が充分な評価値で検出されれば、残りの特徴点については2次元平面、または3次元的な顔のモデルを利用して検出された特徴点から残りの特徴点で推測することで実現が可能である。 In addition, in order to enable detection even when wearing a mask, wearing sunglasses, or wearing a hat as in this embodiment, a template with a face pattern when a part of the face is hidden in advance by sunglasses, a mask, or a hat. Even if not all points can be detected when face feature points are detected, if some face feature points are detected with sufficient evaluation values, the remaining feature points are 2 This can be realized by estimating the remaining feature points from the feature points detected using a three-dimensional face model or a three-dimensional face model.
特徴点が全く検出できなくなるぐらいマスクや帽子やサングラスが特徴点を隠蔽している場合には、顔全体のパターンとして学習しておいて顔全体の位置を検出し、特徴点は顔全体の位置から推測することで実現が可能である。 If the feature point is hidden by a mask, hat, or sunglasses so that the feature point cannot be detected at all, it is learned as a pattern of the entire face and the position of the entire face is detected. It can be realized by guessing from the above.
なお、複数の顔が画像内に存在した場合には、どの顔を検索対象とするかの指示を検索条件設定部130や出力部190で指定するようにすればよいが、ここでの処理によって求められた顔らしさの指標の順番に自動的に検索対象を選択できるように、顔らしさの指標を出力できるようにすることも可能である。 If there are a plurality of faces in the image, an instruction as to which face is to be searched may be specified by the search condition setting unit 130 or the output unit 190. It is also possible to output the face-like index so that the search target can be automatically selected in the order of the obtained face-like index.
検索条件設定部130は、顔特徴および各属性のどの情報を使って検索するのか、検索する際の並び順、検索結果の画面表示の有無、顔特徴で得られた類似度との結果を統合するかどうかといった項目を検索処理の前に設定しておくものである。ここは毎回処理が必要なわけではなく、事前にシステムの利用者が設定すれば、そのパラメータを保持しておき、その情報を呼び出すだけでよい。 The search condition setting unit 130 integrates the results of the facial features and each attribute to be used for the search, the order in which the search is performed, whether the search results are displayed on the screen, and the similarity obtained from the facial features. Items such as whether or not to set are set before the search process. This does not require processing every time. If the user of the system sets in advance, it is only necessary to store the parameters and call the information.
実際に設定を行なう設定画面の例を図2に示す。ここでは、選択をしているものが黒色の矩形印や黒色の丸印で示されているメニューであるとする。この例では、顔特徴情報を使った検索処理と別に「年齢」と「マスク」の属性情報を使った検索を行なう設定となっている。「類似度統合」のチェックについては、各種属性の特徴情報を基準として類似度を計算した結果に対し、顔特徴情報の類似度と結果を統合して検索結果を出力するのか、独立して属性の特徴情報だけで検索結果を出力するのかを切換えるためのものである。 An example of a setting screen for actually setting is shown in FIG. Here, it is assumed that the selected item is a menu indicated by a black rectangular mark or black circle mark. In this example, it is set to perform a search using attribute information of “age” and “mask” separately from the search process using face feature information. For the "similarity integration" check, whether the similarity is calculated based on the feature information of various attributes as a standard, the similarity of the face feature information and the result are output, or the search result is output independently. This is for switching whether to output the search result only by the feature information.
図2の場合、「年齢」については統合なしであるため、顔の類似性と関係なく、入力された顔画像と年齢特徴が似ているものを上位に表示する。一方、マスク特徴については、マスクの属性特徴で検索された結果と顔の特徴情報での検索結果を両方考慮して、検索結果を出力するようになるため、入力された顔画像のマスクをしていながら顔も似ている人を順番に表示する設定となる。 In the case of FIG. 2, since “age” is not integrated, an image whose age feature is similar to the input face image is displayed at the top regardless of the similarity of the face. On the other hand, for mask features, the search result is output considering both the search result of the mask attribute feature and the search result of the facial feature information, so the input facial image is masked. In addition, it is set to display people who have similar faces in order.
「重要度」については、類似度の統合を行なう際の重みを調整できるようにする。ここで指定をしておくことで、出力部190で検索結果を表示する際の重みを変更ことが可能となる。 With regard to “importance”, it is possible to adjust the weight when the similarity is integrated. By specifying here, it is possible to change the weight when the output unit 190 displays the search result.
「画面表示」については、検索結果を画面表示するかどうかの設定であるが、別途出力部190で後から設定変更できるようにしてもよい。 “Screen display” is a setting for whether or not the search result is displayed on the screen, but the setting may be changed later by the output unit 190 separately.
また、「並び順」については、基本的に類似度の高いものから順番に出力する「高い順」が基本となるが、入力画像でマスクをつけているが、顔画像データベースではマスクをつけていない顔画像から探す場合などで「低い順」を選んでもかまわない。 In addition, the “order of arrangement” is basically “highest order”, which is output in descending order of similarity, but the input image has a mask, but the face image database has a mask. You can select “Lowest” when searching for face images that do not exist.
なお、本実施形態では、「高い順」、「低い順」として並び順だけをかえるようにしているが、マスクや眼鏡や帽子などの着用の有無といった特定の条件を満たすかどうかの2種類しか状態がない場合などに向けて「一致する、しない」で選択するようにすることも可能である。この場合は一致するものだけが順番に並ぶことになるが、「類似度統合」をしておけば、その条件を満たす「一致」となったものの中で顔の類似度の高いものが順番に表示されるようにすることもできる。 In this embodiment, only the order of arrangement is changed as “highest order” and “lowest order”, but there are only two types whether or not a specific condition such as the presence or absence of wearing of a mask, glasses, a hat, or the like is satisfied. It is also possible to select “match or not” for a case where there is no state. In this case, only the matching items will be arranged in order, but if “similarity integration” is performed, the ones that satisfy the condition “matching” with the highest facial similarity will be ordered. It can also be displayed.
さらに、検索条件設定部130による検索条件の設定を、「自動」に設定することも可能となっている。この場合には、検索結果の数値を見ながら最も候補者(候補の顔画像)を正しく表わしていると思われる検索結果を自動的に選択して出力するモードとなり、検索結果管理部180の中で自動的に最適な属性の種類や顔と属性の組合せ、属性同士の組合せを選択するようにする。 Furthermore, the search condition setting by the search condition setting unit 130 can be set to “automatic”. In this case, the mode is such that the search result that is most likely to represent the candidate (candidate face image) is automatically selected and output while looking at the numerical value of the search result. Automatically select the optimum attribute type, face-attribute combination, and attribute-to-attribute combination.
図2で示す例では、操作者があらかじめ検索結果を表示する属性を選択するのではなく、入力画像により近いものが検索結果の上位として現れやすい属性情報を所定の指標から自動的にシステムで選択して表示させることも可能とし、「自動選択」として選べるようになっている。ここでは一番その指標が高い属性情報による検索結果を「自動選択1」に、その次に指標が高くなる属性情報を利用した検索結果を「自動選択2」に設定するものとしている。
In the example shown in FIG. 2, the operator does not select an attribute for displaying the search result in advance, but automatically selects attribute information that is closer to the input image as a higher order search result from a predetermined index by the system. It is also possible to display it as "automatic selection". Here, the search result using attribute information with the highest index is set to “
なお、本実施の形態では、最適な指標を基に選択できる検索結果を上位2つまでとしたが、検索可能な属性の数や画面の構成にあわせて、この数は増やすことが可能であることは自明である。 In the present embodiment, the top two search results that can be selected based on the optimum index have been selected. However, this number can be increased according to the number of searchable attributes and the screen configuration. That is obvious.
顔特徴抽出部151は、顔の領域の情報から個人を識別するための顔特徴情報(顔の特徴情報)を数値として出力する。まず、顔検出部120によって検出された顔の部品の位置を基に、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。
The face
これらは単純類似度法という手法によりベクトルとベクトルの長さをそれぞれ「1」とするように正規化を行ない、内積を計算することで特徴ベクトル間の類似性を示す類似度が求められる。詳しくは、たとえば、文献3(エルッキ・オヤ著、小川英光、佐藤誠訳、「パターン認識と部分空間法」、産業図書、1986年)に記載されているような部分空間法を利用することで実現できる。 These are normalized so that the vector and the length of each vector are set to “1” by a method called a simple similarity method, and a similarity indicating the similarity between feature vectors is obtained by calculating an inner product. Specifically, for example, by using the subspace method as described in Reference 3 (by Elkki Oya, Hidemitsu Ogawa, Makoto Sato, “Pattern Recognition and Subspace Method”, Sangyo Tosho, 1986) realizable.
また、文献4(特開2007−4767号公報)にあるように、1枚の顔画像に対してモデルを利用して顔の向きや状態を意図的に変動させた画像を作成することによってより精度の高まる手法を適用してもよい。
1枚の画像から顔の特徴情報を求める場合には、ここまでの処理で顔特徴抽出は完了する。
Further, as disclosed in Document 4 (Japanese Patent Laid-Open No. 2007-4767), by creating an image in which the orientation and state of the face are intentionally changed using a model for one face image. A technique for increasing accuracy may be applied.
When the facial feature information is obtained from one image, the facial feature extraction is completed by the processing so far.
一方、同一人物に対して連続した複数の画像を利用した動画像による計算をすることでより精度の高い認識処理が行なうこともできる。具体的には、たとえば、文献5(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17−24(1997))、文献6(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345−352(1985))にある相互部分空間法を用いる方法で説明する。 On the other hand, a more accurate recognition process can be performed by calculating with a moving image using a plurality of continuous images for the same person. Specifically, for example, Document 5 (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda: “Face Recognition System Using Moving Images” IEICE Research Report PRMU, vol 97, No. 113, pp 17-24 (1997)). , Reference 6 (Kenichi Maeda, Sadaichi Watanabe: “Pattern Matching Method Introducing Local Structure”, IEICE Transactions (D), vol. J68-D, No. 3, pp 345-352 (1985)). The method using the mutual subspace method in FIG.
画像入力部110から連続して得られた画像から顔特徴抽出部151と同様にm×nピクセルの画像を切り出し、これらのデータにより特徴ベクトルの相関行列を求め、K−L展開による正規直交ベクトルを求めることにより、連続した画像から得られる顔の特徴を示す部分空間を計算する。
An image of m × n pixels is cut out from images continuously obtained from the image input unit 110 in the same manner as the face
部分空間の計算法は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK−L展開による正規直交ベクトル(固有ベクトル)を求めることにより、部分空間を計算する。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトル集合を用いて表現する。本実施形態では、相関行列Cdを特徴ベクトルから求め、相関行列
Cd=Φd Λd Φd T
と対角化して、固有ベクトルの行列Φを求める。この情報が現在認識対象としている人物の顔の特徴を示す部分空間となる。
The subspace calculation method calculates a subspace by obtaining a correlation matrix (or covariance matrix) of feature vectors and obtaining an orthonormal vector (eigenvector) by KL expansion. In the subspace, k eigenvectors corresponding to eigenvalues are selected in descending order of eigenvalues, and expressed using the eigenvector set. In this embodiment, the correlation matrix Cd is obtained from the feature vector, and the correlation matrix
Cd = Φd Λd Φd T
And a matrix Φ of eigenvectors is obtained. This information becomes a partial space indicating the characteristics of the face of the person currently recognized.
このような方法で出力された部分空間のような特徴情報を入力された画像で検出された顔に対する個人の顔特徴情報とする。 Characteristic information such as a partial space output by such a method is used as personal face characteristic information for the face detected in the input image.
属性特徴抽出部152は、顔検出部120で検出された顔領域の情報を利用して人物の属性情報を求めるための特徴情報を計算する。本実施形態で説明する属性情報としては、年齢、性別、眼鏡の種類、マスク種類、帽子の種類の5種類として進めるが、他にも人種、眼鏡の有無(1か0かの情報)、マスクの有無(1か0かの情報)、帽子の有無(1か0かの情報)、顔への装着品(ピアス、イヤリングなど)、服装、表情、肥満度、裕福度などがあげられるが、いずれも後述の属性判定方法のように事前にカテゴリごとの学習をしておくことで対応が可能であることは明らかである。
The attribute
属性を判断するために利用する特徴情報を計算する手法については、顔特徴抽出部151と同一の部分空間法で実現可能であるため詳しい部分空間法の計算方法については省略するが、属性特徴については各属性に適した特徴情報があるため、より適した特徴情報抽出処理を利用してもかまわない。
The method for calculating the feature information used to determine the attribute can be realized by the same subspace method as the face
年齢や性別に関する属性特徴の計算方法については、より精度をあげるために年齢、性別それぞれに適した前処理を適用することで、顔の個人特徴での類似度を求めるのでなく、年齢や性別に適した類似性を求めるための特徴情報を計算することが可能である。たとえば、年齢については、年齢が高くなるほど皺が増えてくることから、皺を強調する線分強調フィルタを事前にかけてもよいし、性別については、髭が強調される周波数成分を強調するフィルタや骨格情報が強調されるようなフィルタなどを前処理として適用することが考えられる。 As for the calculation method of attribute features related to age and gender, by applying pre-processing suitable for each age and gender for higher accuracy, instead of calculating the similarity in the personal features of the face, it is age and gender It is possible to calculate feature information for determining suitable similarity. For example, as age increases, heels increase as age increases, so a line segment enhancement filter that emphasizes heels may be applied in advance, and for gender, a filter or skeleton that emphasizes frequency components that emphasize heels It is conceivable to apply a filter that emphasizes information as a preprocessing.
眼鏡やマスク、帽子に関する特徴情報については、顔検出部120によって求められた顔の部位の位置情報から領域を絞りこんで、その領域に対する部分空間を計算することで同様の特徴情報が得られる。たとえば、目、目じり、目頭の位置がわかっていれば、その両目付近だけの画像を切り出して部分空間の計算対象とすることで、眼鏡に対する特徴情報が得られる。 For feature information about glasses, a mask, and a hat, similar feature information can be obtained by narrowing down an area from the position information of the facial part obtained by the face detection unit 120 and calculating a partial space for the area. For example, if the positions of the eyes, the eyes, and the eyes are known, the feature information for the glasses can be obtained by cutting out the image only in the vicinity of both eyes and using it as the calculation target of the partial space.
マスクも同様に、口と鼻の座標を基に領域を絞り込むことで、特徴情報が計算できる。帽子については、目および眉の位置がわかっていれば顔の肌領域の上端が推定されるため、顔の頭部領域を絞り込んで帽子を被っているので、帽子が存在する領域を推定することができる。 Similarly, feature information can be calculated for a mask by narrowing the region based on the coordinates of the mouth and nose. For hats, if the position of the eyes and eyebrows is known, the upper edge of the skin area of the face is estimated, so the head area of the face is narrowed down and the hat is put on, so the area where the hat exists should be estimated Can do.
このように、眼鏡、マスク、帽子といったものについては、顔検出部120で求められた情報から位置を推定することでも実現が可能であるため、他の属性についても同様の処理が可能であることは明らかである。直接その着用物を検出するアルゴリズムも世の中には存在しているため、そのような手法を用いてもかまわない。 As described above, glasses, a mask, a hat, and the like can be realized by estimating the position from the information obtained by the face detection unit 120, and therefore the same processing can be performed for other attributes. Is clear. There is also an algorithm for directly detecting the worn items, and such a method may be used.
なお、眼鏡、マスク、帽子については、着用していなければ着用していないと明示的に特徴をわけてもかまわないが、着用していなければいないで顔の肌の情報がそのまま出てくるため、眼鏡やマスク、サングラスといった特徴情報とは異なる特徴が出るだけであるため、特に分類をしなくてもよい。 As for glasses, masks, and hats, if you don't wear them, you may explicitly distinguish the features. Since only features different from feature information such as masks, sunglasses, etc. appear, classification is not necessary.
人物情報管理部160は、顔検索部171や属性検索部172で検索するときに利用する対象となるデータベースであり、検索対象となる個人ごとに顔特徴抽出部151で抽出された顔特徴情報、および、属性特徴抽出部152で抽出された属性情報を同一の人物ごとに対応付けて管理する。図3にその管理情報の構成例を示す。
The person
顔の特徴情報(顔特徴情報)および属性の特徴情報として実際に管理する内容は、顔特徴抽出部151で抽出されたデータそのものでよく、m×nの特徴ベクトルや、部分空間やKL展開を行なう直前の相関行列でも構わない。さらに、顔特徴抽出部151で抽出される顔特徴情報を画像入力部110により登録時に入力された顔画像とともに管理することで、個人の検索や検索の表示に利用することができる。また、管理するために人物ごとに割り振った人物ID(識別情報)や、本実施形態を実現するために必須な要件ではないが、事前にテキスト情報で別の付帯情報や属性情報を対応付けて管理することも可能である。
The content actually managed as face feature information (face feature information) and attribute feature information may be the data itself extracted by the face
顔検索部171は、顔特徴抽出部151で計算された入力画像に対する顔特徴情報と、事前に複数の顔画像とともに登録されている人物情報管理部160内の顔特徴情報との類似度を示す計算を行なって、より類似度の高いものから順番に顔画像の検索結果を返す処理を行なう。この際に、検索処理の結果としては類似性の高いものから順番に人物情報管理部160内で個人を識別するために管理されている人物ID、計算結果である類似度を示す指標を返す。それに加えて、人物情報管理部160で個人ごとに管理されている情報を一緒に返すようにしてもかまわないが、基本的に人物IDにより対応付けが可能であるので、検索処理自体では付属情報をやりとりすることはなくても実現が可能となる。
The
類似性を示す指標としては顔特徴情報として管理されている部分空間同士の類似度とする。計算方法は、部分空間法や複合類似度法などの方法を用いてよい。この方法では、あらかじめ蓄えられた登録情報の中の認識データも、入力されるデータも複数の画像から計算される部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力手段分空間という。 The index indicating similarity is the similarity between partial spaces managed as face feature information. As a calculation method, a method such as a subspace method or a composite similarity method may be used. In this method, the recognition data in the registration information stored in advance and the input data are expressed as subspaces calculated from a plurality of images, and the “angle” formed by the two subspaces is defined as the similarity. . The partial space input here is referred to as an input means space.
入力データ列に対して同様に相関行列Cinを求め、
Cin=Φin Λin ΦinT
と対角化し、固有ベクトルΦinを求める。2つのΦin,Φdで表される部分空間の部分空間間類似度(0.0〜1.0)を求め、これを認識するための類似度とする。具体的な計算方法については、顔特徴抽出部151で紹介した文献3(エルッキ・オヤ)で実現が可能である。また、あらかじめ同一人物と分かる複数の顔画像をまとめて部分空間への射影によって本人であるかどうかを識別することで精度を向上させることも可能であり、前述した文献1,4,5でも同様の処理を行なうこともできる。
Similarly, a correlation matrix Cin is obtained for the input data string,
Cin = Φin Λin ΦinT
And the eigenvector Φin is obtained. The similarity between subspaces (0.0 to 1.0) of the subspaces represented by two Φin and Φd is obtained and used as the similarity for recognizing this. A specific calculation method can be realized by Document 3 (Erki Oya) introduced in the face
属性検索部172は、属性特徴抽出部142で計算された入力画像に対する属性の属性特徴情報と、事前に複数の顔画像とともに登録されている人物情報管理部160内の属性特徴情報との類似度を示す計算を行なって、より類似性の高いものから順番に顔画像の検索結果を返す処理を行なう。
The attribute search unit 172 has a similarity between the attribute feature information of the attribute for the input image calculated by the attribute feature extraction unit 142 and the attribute feature information in the person
この際、検索処理の結果としては、検索条件設定部130において設定されている条件にあわせて計算を行ない、「検索する」とチェックがついている属性に対し、「並び順」が「高い順」であれば類似性の高いものから順番に人物情報管理部160内で個人を識別するために管理されている人物ID、計算結果である類似性を示す指標を返し、「低い順」となっていればその反対の順番で結果を返す。
At this time, as a result of the search processing, calculation is performed in accordance with the conditions set in the search condition setting unit 130, and the “order” is “highest” for the attribute that is checked as “search”. If so, the person ID managed in order to identify the individual in the person
なお、検索条件設定部130において「自動」の設定がされていた場合には、後に最適な検索結果を選択できるように検索可能な属性情報に関して全て検索結果を求めておき、同時に検索結果で入力画像に近いものがヒットしているかどうかを示す信頼度の指標を計算しておくようにする。 If “automatic” is set in the search condition setting unit 130, search results are obtained for all searchable attribute information so that an optimum search result can be selected later, and the search results are input at the same time. A reliability index indicating whether or not an object close to the image has been hit is calculated.
この信頼度としては以下のような方法で求めることが可能である。
まず、第1の方法としては、検索結果の上位N位(Nは1以上とし、人物情報管理部160に登録されている件数以下)までの類似度、またはその平均値が最も高いとされる検索結果を選択する方法で、上位候補者の類似度の絶対値を指標に用いる方法である。
The reliability can be obtained by the following method.
First, as a first method, the similarity up to the top N ranks of search results (N is 1 or more and less than or equal to the number registered in the person information management unit 160) or the average value thereof is the highest. This is a method of selecting a search result and using the absolute value of the similarity of the top candidates as an index.
基本的にはN=1として、1位の検索結果の類似度が最も高い属性を選択すればよい。属性の特性によっては類似度の分布の傾向が異なる可能性があるため、類似度全体の平均値や標準偏差を利用して類似度の正規化を行なうことも可能である。たとえば、類似度に対して類似度の平均値を引くとともに、標準偏差で割ることによって類似度の絶対値および類似度の分散に対する正規化を行なうことが可能となる。 Basically, N = 1 and the attribute with the highest similarity of the first search result may be selected. Since the tendency of the similarity distribution may vary depending on the attribute characteristics, the similarity can be normalized using the average value or standard deviation of the entire similarity. For example, it is possible to normalize the absolute value of the similarity and the variance of the similarity by subtracting the average value of the similarity from the similarity and dividing by the standard deviation.
次に、第2の方法としては、検索結果の上位N位(Nは第1の方法と同等)までの検索結果と、N+1位からM位(MはN+1以上で人物情報管理部160に登録されている件数以下)までの2つの類似度群の平均類似度の差、または平均類似度の比率、または分離度を求めることで、それらの指標が最も大きくなる属性がより「他の登録情報よりもぬきんでて近い登録情報が存在する」ことを示すことになり、検索結果として有効であることを示す。こちらは上位候補者の類似度と下位候補者の類似度との相対関係を指標に用いる方法である。 Next, as the second method, the search results up to the top N (N is the same as the first method) of the search results, and from the N + 1th to Mth (M is N + 1 or more and registered in the person information management unit 160) By calculating the difference in average similarity between the two similarity groups, or the ratio of average similarity, or the degree of separation, the attribute with the largest index is more “other registration information. It indicates that there is registration information that is much more detailed than that, and that it is valid as a search result. This is a method of using the relative relationship between the similarity of the upper candidate and the similarity of the lower candidate as an index.
検索結果管理部180は、属性検索部172で得られた検索結果および顔検索部171で得られた検索結果から、検索条件設定部130で設定した内容にあわせて検索結果を管理し、検索条件設定部130により自動設定がされていた場合には、所定の評価値によって最も信頼度が高い検索結果を1つまたは複数選択し、自動設定がされていない場合には、検索条件設定部130で事前に設定された属性情報を利用した検索結果を選択する。
The search
まず、検索条件設定部130において「自動」の設定がされていない場合には、顔検索部171によって得られた検索結果、および、属性検索部172によって得られた検索結果を検索条件設定部130によって設定された内容にあわせて表示できるように検索結果を出力する。ただし、検索条件設定部130において、「類似度統合」にチェックが付いている場合には、顔検索部171で計算された結果と類似度値を統合して結果を返すことになる。この場合は以下のような式(1)で計算すれば実現ができる。
First, when “automatic” is not set in the search condition setting unit 130, the search result obtained by the
Sim(i)=α*SimFace(i)+β*Sim(i)……(1)
ここで、iは人物情報管理部160で管理されている人物IDのインデックスであり、SimFace(i)はi番目の人物IDに対応する顔特徴情報との類似度、Sim(i)はi番目の人物IDに対応する該当する属性の特徴情報(ここではマスク)との類似度、αとβは顔の特徴情報と属性の特徴情報の重みによって決められる係数であり、検索条件設定部130で個別に設定をしておくことができるため、この数値を引用してもよいし、装置として事前に設定しておいてもよい。
Sim (i) = α * SimFace (i) + β * Sim (i) (1)
Here, i is the index of the person ID managed by the person
これによって、属性特徴だけを考慮した類似度順だけでなく、顔の特徴として似ているものと属性特徴(ここではマスク)の特徴情報が似ているものを登録された顔画像の中から候補画像として表示させることが可能となる。 As a result, not only in the order of similarity considering only the attribute features, but also from the registered face images, those that are similar as facial features and those that have similar feature information of the attribute features (here, masks) are candidates. It can be displayed as an image.
また、ここでは顔の特徴情報と1つの属性情報での類似度の統合を行なっているが、複数の属性情報の類似度を統合してもよい。この場合は、上記式(1)の右辺にその属性情報の類似度に係数をかけた値が加算されるように修正することで対応が可能である。 Further, here, the similarity between the face feature information and one attribute information is integrated, but the similarity of a plurality of attribute information may be integrated. This case can be dealt with by modifying the right side of the above equation (1) so that a value obtained by multiplying the similarity of the attribute information by a coefficient is added.
検索条件設定部130において「自動」が選択されていた場合には、顔検索部171および属性検索部172によって得られた検索結果の中から、登録されている顔画像から入力画像と類似する検索結果を示している度合いを示す信頼度の高いものを順に自動的に選択して検索結果として出力するようにする。
When “automatic” is selected in the search condition setting unit 130, a search similar to the input image from the registered face image is selected from the search results obtained by the
出力部190は、検索結果管理部180により選択された検索結果を表示出力する。本実施形態では、図2に示した例のように、顔の特徴および年齢、マスクの属性を使った検索結果を表示する例で説明しているが、検索条件設定部130で設定された内容にあわせて表示出力を行なうものとする。
The output unit 190 displays and outputs the search result selected by the search
以上のような構成において、第1の実施形態に係る全体的な処理の流れについて図4に示すフローチャートを参照して説明する。
なお、以下の説明は、検索条件設定部130での設定内容が図2に示した例のようになっているものとする。したがって、この場合、顔の特徴および年齢、マスクの属性を用いた検索が行なわれ、その検索結果が表示される。
With the configuration as described above, the overall processing flow according to the first embodiment will be described with reference to the flowchart shown in FIG.
In the following description, it is assumed that the setting content in the search condition setting unit 130 is as in the example shown in FIG. Therefore, in this case, a search is performed using facial features, age, and mask attributes, and the search results are displayed.
図4において、画像入力部110により画像が入力されると(ステップS1)、顔検出部120は、画像入力部110により入力された画像から顔領域を検出する(ステップS2)。その後、3つの検索結果が計算される。 In FIG. 4, when an image is input by the image input unit 110 (step S1), the face detection unit 120 detects a face region from the image input by the image input unit 110 (step S2). Thereafter, three search results are calculated.
まず、顔特徴を使った検索結果の処理手順を説明する。顔特徴抽出部151は、顔検出部120により検出された顔領域から顔特徴情報を抽出する(ステップS3)。次に、顔検索部171は、顔特徴抽出部151により抽出された顔特徴情報と人物情報管理部160に登録されている顔特徴情報との比較を行なうことにより、両顔特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部160から検索し(ステップS4)、その検索結果を検索結果管理部180を介して出力部190へ送り、たとえば図5に示すように、顔の特徴情報を利用した顔画像の検索結果を表示する(ステップS5)。
First, the search result processing procedure using facial features will be described. The face
次に、マスク属性を使った検索結果の処理手順を説明する。属性特徴抽出部152は、顔検出部120により検出された顔領域からマスク特徴での属性特徴情報を抽出する(ステップS6)。次に、属性検索部172は、属性特徴抽出部152により抽出された属性特徴情報と人物情報管理部160に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じようなマスク着用状態である人物の顔画像)を人物情報管理部160から検索し(ステップS7)、その検索結果を検索結果管理部180を介して出力部190へ送り、たとえば図5に示すように、マスクの特徴情報を利用した顔画像の検索結果を表示する(ステップS8)。
Next, the processing procedure of the search result using the mask attribute will be described. The attribute
この例の場合、図2に示すようにマスク特徴については「類似度統合」が「あり」であることから、ステップS4による顔特徴情報を利用した検索結果とステップS7によるマスク特徴情報を利用した検索結果をあらかじめ検索条件設定部130で設定した重みで順位を統合して検索結果を表示する。 In this example, as shown in FIG. 2, “similarity integration” is “Yes” for the mask feature. Therefore, the search result using the facial feature information in step S4 and the mask feature information in step S7 are used. The search results are displayed by integrating the ranks with the weights set in advance by the search condition setting unit 130.
最後に、年齢属性を使った検索結果の処理手順を説明する。属性特徴抽出部152は、顔検出部120により検出された顔領域から年齢の属性特徴情報を抽出する(ステップS9)。次に、属性検索部172は、属性特徴抽出部152により抽出された属性特徴情報と人物情報管理部160に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じような年齢に属する人物の顔画像)を人物情報管理部160から検索し(ステップS10)、その検索結果を検索結果管理部180を介して出力部190へ送り、たとえば図5に示すように、年齢の属性特徴情報を利用した顔画像の検索結果を表示する(ステップS11)。
Finally, a processing procedure for search results using the age attribute will be described. The attribute
なお、ステップS3,S6,S9の処理は、順次行なってもよく、あるいは、並行して行なってもよい。 The processes in steps S3, S6, and S9 may be performed sequentially or in parallel.
図5の画面表示例では、画像入力部110で入力される入力画像1をそのまま表示し、顔検出部120で検出した顔領域に対して矩形を表示している。この例では、入力画像1に複数の人物が存在するため、どの顔画像を検索対象としているのかがわかりやすいように、検索対象の顔画像は実線の矩形2、検索対象外の顔画像については破線の矩形3で表示している。
なお、検索対象の顔画像を切換えたければ、たとえば、図示しないマウスなどでそれぞれの顔領域をクリックすることで、検索対象を切換えられるようにすればよい。
In the screen display example of FIG. 5, the
If the face image to be searched is to be switched, for example, the search target may be switched by clicking each face area with a mouse (not shown).
図5の画面の右上に並んでいる画像群4は、顔画像の特徴情報(顔特徴情報)を基に人物情報管理部160の中で管理されている顔画像(顔特徴情報)と比較して類似度が高いと判定された順番に並んで表示された顔画像であり、その下方には表示された顔画像に対応する人物IDと類似度の計算結果5が表示される。
The
図5の例では、上位5名を検索結果として表示しているが、上位何位までを表示するかは事前に設定変更が可能なようにしてもよいし、表示できない順位の顔画像については、たとえば、ボタン操作によって次の順位の画像が順番に出るようにしてもよいし、スクロールバーによってスクロールさせて顔画像を表示させてもよい。 In the example of FIG. 5, the top five names are displayed as search results. However, it may be possible to change the setting in advance for how many of the top numbers are displayed. For example, images of the next order may be sequentially displayed by a button operation, or a face image may be displayed by scrolling with a scroll bar.
画像群4の下部に2列横に並んでいる画像群6,8は、上段の画像群6が年齢属性情報での検索結果、下段の画像群8がマスク属性情報での検索結果となる。これらの画像群6,8も、類似度が高いと判定された順番に並んで表示され、その下方には表示された顔画像に対応する人物IDと類似度の計算結果7,9が表示される。
各画像群6,8の左側には、検索条件設定部130で設定された内容がわかるように、対応する設定情報10,11が表示される。
In the
Corresponding setting
このような検索結果の表示から、入力画像の顔に近いとされる顔画像の特徴情報を使った検索結果が上に並ぶほか、入力された顔画像と「年齢の一番近そうな人」を順に並べた結果、入力された顔画像と「顔が似ていて、着用しているマスクも似ている顔」の類似度が高い順に並んだ結果が同時に表示される。 From the display of such search results, the search results using the feature information of the face image that is considered to be close to the face of the input image are lined up, and the input face image and `` person who seems to be closest to age '' As a result of arranging the items in order, the results of the input face images and the “similar faces and similar masks worn” arranged in descending order are displayed at the same time.
これによって、顔画像の特徴情報での検索精度が低下しやすい顔の隠蔽物(たとえば、マスクやサングラス)があった場合には、その隠蔽物そのものに近い情報で検索をしたり、顔の特徴と隠蔽物を両方考慮した検索結果を同時に表示させたりすることができる。 As a result, if there is a face concealment (for example, a mask or sunglasses) whose search accuracy in the feature information of the face image is likely to decrease, a search can be performed using information close to the concealment itself, or the facial features And the search result considering both the concealment can be displayed at the same time.
また、並び順を「低い順」にすることで、入力されている顔画像にはマスクがついていた場合に、「顔特徴の類似度」と「マスクをつけていない顔」で探すといったことも可能となる。 Also, by setting the order to “lowest”, if the input face image has a mask, you can search for “similarity of facial features” and “face without mask”. It becomes possible.
なお、上記第1の実施形態では、3種類の検索結果を並べて上下に表示しているが、項目数は検索条件設定部130によって変わるので、表示領域を広げたり縮小したり、あるいは、スクロールして複数の検索結果が切換えられるようにしてもかまわない。
また、属性ごとに縦軸と横軸をかえて十字型に顔画像を並べて表示してもよいし、立体的に類似画像を表示してマウスで操作しながら類似画像を順番に表示できるようにしてもよい。
In the first embodiment, three types of search results are displayed side by side. However, since the number of items varies depending on the search condition setting unit 130, the display area is expanded, reduced, or scrolled. A plurality of search results may be switched.
In addition, face images may be displayed in a cross shape by changing the vertical axis and horizontal axis for each attribute, or similar images can be displayed in order while displaying similar images in three dimensions and operating with a mouse. May be.
以上説明したように第1の実施形態によれば、あらかじめ登録された複数の顔画像の中から、入力された顔画像に類似する顔画像を検索する場合、入力された顔画像と類似している顔画像の候補の一覧を表示するだけでなく、個人を特定するのではなく年齢や性別、着用物などといった属性情報による視点での類似した顔画像の候補を同時に視覚的に確認できるようにすることで、複数の視点から類似した顔画像の候補の一覧をも同時に表示して目視確認ができるようになる。 As described above, according to the first embodiment, when searching for a face image similar to the input face image from a plurality of face images registered in advance, the search is similar to the input face image. In addition to displaying a list of face image candidates, it is also possible to visually confirm similar face image candidates from a viewpoint based on attribute information such as age, gender, wear, etc., instead of specifying an individual. By doing so, a list of similar face image candidates from a plurality of viewpoints can be displayed simultaneously for visual confirmation.
次に、第2の実施形態について説明する。
図6は、第2の実施形態に係る顔画像検索装置の構成を概略的に示すものである。第2の実施形態に係る顔画像検索装置は、撮像対象人物Mの少なくとも顔を含む画像を入力するITVカメラ209を含む画像入力部(画像入力手段)210、画像入力部210により入力された入力画像から少なくとも1つの顔領域を検出する顔検出部(顔検出手段)220、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法等を設定する検索条件設定部(検索条件設定手段)230、画像入力部210により入力された入力画像に対して所定の部分領域画像を合成するための部分領域画像を管理する合成画像管理部(合成画像管理手段)245、検索条件設定部230により設定された条件に基づき画像入力部210により入力された入力画像(実際は顔検出部220により検出された顔領域画像)に対して画像合成が選択された属性情報について合成画像管理部245により管理される部分領域画像を合成した画像を作成する画像合成部(画像合成手段)240、顔検出部220により検出された顔領域から得られる顔画像の個人特徴を示す顔特徴情報を抽出する顔特徴抽出部(顔特徴抽出手段)251、顔検出部220により検出された顔領域から得られる人物の属性情報(年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等)を識別するための属性特徴情報を抽出する属性特徴抽出部(属性特徴抽出手段)252、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報等を対応付けて管理する人物情報管理部(人物情報管理手段)260、顔特徴抽出部251により抽出された入力画像に対する顔特徴情報と人物情報管理部260により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が人物情報管理部260により管理されている顔特徴情報の中のどの顔特徴情報と一番類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部260から検索する顔検索部(顔検索手段)271、属性特徴抽出部252により抽出された入力画像に対する属性特徴情報あるいは画像合成部240により合成された画像に対する属性特徴情報と人物情報管理部260により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部260から検索する属性検索部(属性検索手段)272、属性検索部272により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、顔検索部271により得られた検索結果の中から検索条件設定部230により設定された内容に合致する検索結果を選択する検索結果管理部(検索結果管理手段)280、検索結果管理部280により選択された検索結果を出力する出力部(出力手段)290を有して構成される。
Next, a second embodiment will be described.
FIG. 6 schematically shows a configuration of a face image search apparatus according to the second embodiment. The face image search device according to the second embodiment includes an image input unit (image input unit) 210 including an
なお、画像入力部210、顔検出部220、顔特徴抽出部251、属性特徴抽出部252、人物情報管理部260、顔検索部271、検索結果管理部280については、前述した第1の実施形態におけるそれらと同様であるため、ここでは説明を省略し、第1の実施形態と異なる部分についてだけ説明する。
The
検索条件設定部230は、図7に示すように、第1の実施形態と同様に検索に利用する属性情報の選択や検索結果の出力方法について設定を行なうことになるが、第2の実施形態では「画像合成」の項目が追加される。ここで「合成あり」を選択した場合には、画像合成部240において合成する画像を設定するようになる。構成としては、この設定画面において直接画像合成の設定をできるようにしてもかまわない。そのほかの処理や設定画面については、前述した第1の実施形態と同様であるため、説明は省略する。
As shown in FIG. 7, the search
画像合成部240は、たとえば、図8に示すような合成画像作成画面において、検索条件設定部230で「合成あり」とされた属性情報に対してどのような画像を合成するのかを選択するとともに、実際の入力画像(顔検出部220により検出された顔領域画像)に対して画像の合成処理を行なう。
For example, the
図8の合成画像作成画面は、入力画像表示部21および合成アイテム表示部22から構成されており、本例では、検索条件設定部230で画像合成ありが「マスク」と設定されていることから、合成アイテム表示部22のカテゴリ23には「マスク」と表示される。検索条件設定部230において複数の「合成あり」の設定がされれば、ここはリストから属性の種類を切換えられるようにすれば、複数の条件での合成も可能となる。
The composite image creation screen of FIG. 8 includes an input
さらに、合成アイテム表示部22には、選択したカテゴリについて合成する画像の部分領域画像がアイコン24の形で表示される。このアイコン24から合成したい画像を図示しないマウスの操作により選択して、入力画像表示部21の入力画像(顔検出部220により検出された顔領域画像)25に対してドラッグすることで、マスク画像の合成が可能となっている。なお、図示しないマウスの操作によって拡大、縮小、回転といった操作ができるようにすることも、実現可能であるのは明らかである。
Furthermore, the composite
また、合成アイテム表示部22には、希望する部分領域が存在しない場合や、所定の画像が外部から入力される場合に備えて、新規アイテムの取込釦26が設けられていて、その取込釦26が押下された場合には、別途画像ファイルを読込んでアイテムが追加できるようになっている。この際、画像の部分領域を切り出せるように画像を表示して、マウス操作によって切り出した部分領域をアイテムとして取込めるようにすればよい。
The composite
なお、図8において、27は削除釦、28は確定釦、29はキャンセル釦で、これらは合成アイテム表示部22に表示される。また、30は入力画像25に合成されるマスク画像を示していて、図示しないマウスの操作でドラッグすることにより合成される。
In FIG. 8, 27 is a delete button, 28 is a confirm button, 29 is a cancel button, and these are displayed on the composite
合成画像管理部245は、画像合成部240において合成する部分領域画像をデータベースとして管理する。属性ごとに「カテゴリ」として分類して、そのカテゴリごとに合成する画像を管理する。
なお、画像合成部240の合成画像作成画面において、削除釦27や新規アイテムの取込釦26の操作により、アイテムの削除や新規追加ができるようになっている。
The composite
Note that, on the composite image creation screen of the
属性検索部272は、検索条件設定部230で図7に示すような設定を行なっているため、顔特徴情報を利用した検索以外には、マスクの属性特徴情報を利用した検索結果(顔特徴情報の類似度との統合あり)を計算するとともに、画像合成部240において合成した画像に対しての検索結果を求める。
Since the attribute search unit 272 performs the setting as shown in FIG. 7 by the search
なお、本実施形態においては、属性検索部272において合成画像での検索結果を求める場合、合成画像から抽出したマスクの属性特徴情報を利用して検索するようにしているが、属性特徴情報を顔特徴情報に切換えて、顔画像全体での検索を行なうようにしてもかまわない。 In this embodiment, when the search result in the composite image is obtained in the attribute search unit 272, the search is performed using the attribute feature information of the mask extracted from the composite image. Switching to the feature information may be performed to search the entire face image.
出力部280は、画像合成がある場合は合成画像を表示する点が前述した第1の実施形態と異なり、それ以外は第1の実施形態と同様であるため、ここでは説明を省略する。
The
以上のような構成において、第2の実施形態に係る全体的な処理の流れについて図9に示すフローチャートを参照して説明する。
なお、以下の説明は、検索条件設定部230での設定内容が図7に示した例のようになっているものとする。したがって、この場合、顔特徴情報を利用した検索以外に、マスクの特徴情報を利用した検索が行なわれるとともに、合成した画像に対しての検索も行なわれ、その検索結果が表示される。
With the configuration as described above, the overall processing flow according to the second embodiment will be described with reference to the flowchart shown in FIG.
In the following description, it is assumed that the setting contents in the search
図9において、画像入力部210により画像が入力されると(ステップS21)、顔検出部220は、画像入力部210により入力された画像から顔領域を検出する(ステップS22)。その後、3つの検索結果が計算される。
In FIG. 9, when an image is input by the image input unit 210 (step S21), the
まず、顔特徴を使った検索結果の処理手順を説明する。顔特徴抽出部251は、顔検出部220により検出された顔領域から顔特徴情報を抽出する(ステップS23)。次に、顔検索部271は、顔特徴抽出部251により抽出された顔特徴情報と人物情報管理部260に登録されている顔特徴情報との比較を行なうことにより、両顔特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部260から検索し(ステップS24)、その検索結果を検索結果管理部280を介して出力部290へ送り、たとえば図10に示すように、顔の特徴情報を利用した顔画像の検索結果を表示する(ステップS25)。
First, the search result processing procedure using facial features will be described. The face
次に、マスク属性を使った検索結果の処理手順を説明する。属性特徴抽出部252は、顔検出部220により検出された顔領域からマスク特徴での属性特徴情報を抽出する(ステップS26)。次に、属性検索部272は、属性特徴抽出部252により抽出された属性特徴情報と人物情報管理部260に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じようなマスク着用状態である人物の顔画像)を人物情報管理部260から検索し(ステップS27)、その検索結果を検索結果管理部280を介して出力部290へ送り、たとえば図10に示すように、マスクの特徴情報を利用した顔画像の検索結果を表示する(ステップS28)。
Next, the processing procedure of the search result using the mask attribute will be described. The attribute feature extraction unit 252 extracts attribute feature information as a mask feature from the face area detected by the face detection unit 220 (step S26). Next, the attribute search unit 272 compares the attribute feature information extracted by the attribute feature extraction unit 252 with the attribute feature information registered in the person
この例の場合、図7に示すようにマスク特徴については「類似度統合」が「あり」であることから、ステップS24による顔特徴情報を利用した検索結果とステップS27によるマスク特徴情報を利用した検索結果をあらかじめ検索条件設定部230で設定した重みで順位を統合して検索結果を表示する。
In the case of this example, as shown in FIG. 7, “similarity integration” is “Yes” for the mask feature, so the search result using the face feature information in step S24 and the mask feature information in step S27 are used. The search results are displayed by integrating the ranks with the weights set in advance by the search
最後に、合成画像によるマスク属性を使った検索結果の処理手順を説明する。検索条件設定部230においてマスク画像合成ありを選択した場合(この例の場合、図7に示すようにマスク特徴については「画像合成」が「合成あり」となっている)、画像合成部240において入力画像(顔検出部220により検出された顔領域画像)に対しマスク画像を合成する(ステップS29)。次に、属性特徴抽出部252は、画像合成部240により合成された合成画像からマスク特徴での属性特徴情報を抽出する(ステップS30)。次に、属性検索部272は、属性特徴抽出部252により抽出された属性特徴情報と人物情報管理部260に登録されている属性特徴情報との比較を行なうことにより、両属性特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像(同じようなマスク着用状態である人物の顔画像)を人物情報管理部260から検索し(ステップS31)、その検索結果を検索結果管理部280を介して出力部290へ送り、たとえば図10に示すように、合成画像によるマスクの特徴情報を利用した顔画像の検索結果を表示する(ステップS32)。
Finally, the processing procedure of the search result using the mask attribute by the composite image will be described. When the search
なお、ステップS23,S26,S29(S30)の処理は、順次行なってもよく、あるいは、並行して行なってもよい。 Note that the processes of steps S23, S26, and S29 (S30) may be performed sequentially or in parallel.
図10の画面表示例は、基本的には第1の実施形態における図5とほぼ同様であるが、画像群4の下部に並んでいる年齢属性情報での検索結果による画像群6が、合成画像に対するマスク属性情報での検索結果による画像群12に置き換わった点と、各画像群6,12と設定情報10,11との間に合成画像13が表示される点が異なり、その他は図5と同様である。
The screen display example of FIG. 10 is basically the same as that of FIG. 5 in the first embodiment, but the
以上説明したように第2の実施形態によれば、第1の実施形態と同様の作用効果が得られるほか、所定の部分領域画像を合成させることによって、入力された画像と属性の状態が変化した場合でも、類似した顔画像を精度よく検索することができる。 As described above, according to the second embodiment, the same effect as that of the first embodiment can be obtained, and the state of the input image and the attribute can be changed by synthesizing a predetermined partial region image. Even in this case, similar face images can be searched with high accuracy.
次に、第3の実施形態について説明する。
図11は、第3の実施形態に係る顔画像検索装置の構成を概略的に示すものである。第3の実施形態に係る顔画像検索装置は、撮像対象人物Mの少なくとも顔を含む画像を入力するITVカメラ309を含む画像入力部(画像入力手段)310、画像入力部310により入力された入力画像から少なくとも1つの顔領域を検出する顔検出部(顔検出手段)320、検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法等を設定する検索条件設定部(検索条件設定手段)330、顔検出部320により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出部(顔特徴抽出手段)351、顔検出部320により検出された顔領域から得られる人物の属性情報(年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等)を識別するための属性特徴情報を抽出する属性特徴抽出部(属性特徴抽出手段)352、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報等を対応付けて管理する人物情報管理部(人物情報管理手段)361、あらかじめ1つまたは複数の属性を判別するために各属性の属性特徴情報を管理する属性別特徴情報管理部(属性別特徴情報管理手段)362、属性特徴抽出部352により抽出された属性特徴情報と属性別特徴情報管理部362により管理されている属性特徴情報とを比較することにより、画像入力部310により入力された顔画像がどの属性に該当するか判別し、その判別結果を人物情報管理部361に対し記録する属性判別部(属性判別手段)353、顔特徴抽出部351により抽出された入力画像に対する顔特徴情報と人物情報管理部361により管理されている顔特徴情報とを比較することにより、入力画像に対する顔特徴情報が人物情報管理部361により管理されている顔特徴情報の中のどの顔特徴情報と一番類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部361から検索する顔検索部(顔検索手段)371、人物情報管理部361により管理されている属性判別部352により画像を利用して自動的に判別された属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性特徴情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索する第1の属性検索部(第1の属性検索手段)372、人物情報管理部361により管理されている手動で与えられた文字列としての属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性特徴情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索する第2の属性検索部(第2の属性検索手段)373、第1および第2の属性検索部372,373により得られた各検索結果および顔検索部371により得られた検索結果を検索条件設定部330により設定された内容にあわせて出力する出力部(出力手段)380を有して構成される。
Next, a third embodiment will be described.
FIG. 11 schematically illustrates the configuration of a face image search apparatus according to the third embodiment. The face image search device according to the third embodiment includes an image input unit (image input unit) 310 including an
なお、画像入力部310、顔検出部320、顔特徴抽出部351、属性特徴抽出部352、顔検索部371については、前述した第1、第2の実施形態におけるそれらと同様であるため、ここでは説明を省略し、第1、第2の実施形態と異なる部分についてだけ説明する。
The
検索条件設定部330は、図12に示すように、検索条件について複数の属性情報に対して検索対象とするかどうか、検索結果を表示するかどうか、検索対象とする属性のクラス、検索対象とする属性のクラスと一致するものを選ぶのか一致しないものを選ぶのか、画像の属性特徴情報を利用して自動的に付与された属性情報を利用する検索(第1の属性検索部372)を利用するのか、手動で与えた属性情報を利用する検索(第2の属性検索部373)を利用するのかを設定する。
As shown in FIG. 12, the search
本実施形態では、簡単にするために年齢と性別を利用した例とするが、図12に記載されている属性の外の属性を選択しても同じように対象となる属性を選択できることにする。たとえば、マスクについては「マスクなし」、「白い立体マスク」、「白い平面マスク」、「青いマスク」、眼鏡については「眼鏡なし」、「透明のレンズの眼鏡」、「サングラス」、帽子については「帽子なし」、「野球帽」、「シルクハット」、「ハンチングハット」、「ヘルメット」、「ベレー帽」などといった、それぞれの属性に対して事前に複数のクラスに分類しておいて、検索条件設定部330で選択するようにすればよい。
In this embodiment, for the sake of simplicity, an example using age and gender is used. However, even if an attribute other than the attributes described in FIG. 12 is selected, the target attribute can be selected in the same manner. . For example, “No mask”, “White solid mask”, “White plane mask”, “Blue mask” for masks, “No glasses”, “Glasses with transparent lenses”, “Sunglasses”, and hats for glasses Search by classifying each attribute in advance, such as “no hat”, “baseball cap”, “top hat”, “hunting hat”, “helmet”, “beret”, etc. Selection may be made by the
なお、本実施形態では、複数の属性情報があった場合に個別に検索するようにしているが、複数の属性情報での検索の論理積(AND)をとった結果や論理和(OR)をとった結果、あるいは、論理積と論理和との組合わせでの絞り込みを行なうようにするための設定画面を準備してもよい。 In this embodiment, when there are a plurality of attribute information, the search is performed individually. However, the result of logical product (AND) of the search with a plurality of attribute information and the logical sum (OR) are obtained. A setting screen may be prepared for narrowing down the result of the determination or a combination of logical product and logical sum.
人物情報管理部361は、顔検索部371や第1、第2の属性検索部372,373で検索するときに利用する対象となるデータベースであり、検索対象となる個人ごとに人物IDを割り振り、顔特徴抽出部351で抽出された顔特徴情報、および、第1の属性検索部372で利用する画像特徴によって自動的に求められた属性特徴情報、および、第2の属性検索部373で利用する手動で与えられた属性特徴情報を示す文字列(クラス名)を各人物IDに対応付けて管理する。図13にその管理情報の構成例を示す。
The person
顔特徴情報の中身については第1の実施形態と同様であるため省略する。ここではクラス名を文字列としたが、文字列でなくクラスを示す識別インデックス(Index)を数値として持っていてもかまわない。 The contents of the face feature information are the same as those in the first embodiment, and are therefore omitted. Here, the class name is a character string, but an identification index (Index) indicating the class instead of the character string may be provided as a numerical value.
また、画像の特徴情報を利用した属性特徴情報については、検索を行なう段階よりも前に既に人物情報管理部361への登録操作の段階で自動的に属性判別結果が記録されていることとするが、手動の属性特徴情報については、本装置の利用者が明示的に値を入力しなければ属性特徴情報が付与されていないとして、図13に「N/A」と記載されている項目のように「属性情報なし」で管理し、後から追加することも可能とする。後から追加する方法としては、出力部380で表示される検索結果を基にGUIベースで追加することも可能であるが、別途人物IDと属性情報とを対応付けした電子ファイルを取込むことや、登録された情報の一覧表示画面において手動で付与するようにしてもよい。
As for the attribute feature information using the feature information of the image, the attribute discrimination result is automatically recorded at the stage of the registration operation in the person
属性別特徴情報管理部362は、判別対象となっている属性についてそれぞれを代表する属性特徴情報を管理する。たとえば、性別であれば男性と女性を識別するためにそれぞれの属性特徴情報を管理する。それぞれの属性特徴情報は、属性特徴抽出処理と同様の手法を用いて取得することになるが、個人ごとのばらつきを抑えるために各属性でできる限り大量の顔画像を集め、属性ごとにそれらの平均的な属性特徴情報を求めることによって作成可能である。
The attribute-specific feature
具体的な方法は、第1の実施形態の顔特徴抽出部151や属性特徴抽出部152で説明している複数画像を利用して部分空間を作成する方法でよい。同様に、年齢については10歳単位、マスクについては「マスクなし」、「白い立体マスク」、「白い平面マスク」、「青いマスク」、眼鏡については「眼鏡なし」、「透明のレンズの眼鏡」、「サングラス」、帽子については「帽子なし」、「野球帽」、「シルクハット」、「ハンチングハット」、「ヘルメット」、「ベレー帽」なども複数のカテゴリに分類して、それぞれに該当する画像を多く集めてそれらを代表する属性特徴情報を作成すればよい。
A specific method may be a method of creating a partial space using a plurality of images described in the face
属性判別部353は、属性特徴抽出部352により抽出された属性特徴情報と属性別特徴情報管理部362で管理されている属性特徴情報とを比較することにより、画像入力部310により入力された顔画像がどの属性に該当するか判別し、その判別結果を人物情報管理部361に対し登録(記録)する。
The
具体的には、第1の実施形態および第2の実施形態で説明した属性特徴情報を抽出する手法により属性特徴情報を求めるまでは同様であるが、図14に示すフローチャートに基づく処理を行なうことにより、属性特徴抽出部352で入力画像から抽出された属性特徴情報(年齢、性別)と属性別特徴情報管理部362で管理されている属性別の代表特徴情報(辞書)との類似度を求めることにより、その属性において最も類似度の近い属性に属すと判定する。
Specifically, the process is the same until the attribute feature information is obtained by the method of extracting the attribute feature information described in the first embodiment and the second embodiment, but the processing based on the flowchart shown in FIG. 14 is performed. Thus, the similarity between the attribute feature information (age and sex) extracted from the input image by the attribute
たとえば、性別であれば、男性の特徴情報(男性辞書)と女性の特徴情報(女性辞書)に対して、それぞれ入力画像から得られた属性特徴情報(性別特徴情報)との類似度を求め、類似度の高い方を入力画像に対する属性判別結果として出力すればよい。 For example, in the case of gender, a similarity between attribute feature information (gender feature information) obtained from an input image is obtained for male feature information (male dictionary) and female feature information (female dictionary), The higher similarity may be output as the attribute discrimination result for the input image.
すなわち、たとえば、特開2010−44439号公報に記載されている技術のように、顔の局所的な勾配特徴の発生頻度を統計情報として保持する特徴量を利用し、その統計情報が最も男女を識別するような勾配特徴を選別して、その特徴を識別する識別器を学習によって求め、男女のような2クラスを判別する技術が適用できる。 That is, for example, as in the technique described in Japanese Patent Application Laid-Open No. 2010-44439, a feature amount holding the frequency of occurrence of local gradient features of the face as statistical information is used, and the statistical information is the most A technique for discriminating two classes such as men and women by selecting a gradient feature to be identified, obtaining a discriminator for identifying the feature by learning, and the like can be applied.
性別判別のように属性が2クラスではなく、年齢推定のように3クラス以上である場合には、各クラス(ここでは年代)で平均的な顔特徴の辞書を作って、それぞれの辞書との類似度を求め、最大値をとったクラスを選択するということで簡単に実現できるが、より精度を高く年齢を推定する技術として、前述の2クラス判別器を利用した以下の手法で年齢を推定することが可能である。 If the attribute is not 2 classes as in gender discrimination but more than 3 classes as in age estimation, create an average facial feature dictionary for each class (here age), It can be easily realized by finding the similarity and selecting the class with the maximum value, but as a technique for estimating the age with higher accuracy, the age is estimated by the following method using the above-mentioned 2-class classifier Is possible.
まず、年齢を推定するために事前に識別したいクラスに分けて判別したい年齢ごとの顔画像を準備する。たとえば、10歳から60歳前後までの判別をしたい場合には、10歳未満から60歳以上までの顔画像をあらかじめ準備する。準備する枚数を集めるほど精度が向上できるほか、年代を幅広く集めると判別できる年齢も広がる。 First, in order to estimate the age, a face image for each age to be distinguished is prepared by being divided into classes to be identified in advance. For example, when it is desired to discriminate between the ages of 10 and around 60, facial images from under 10 to over 60 are prepared in advance. The more you collect the number of preparations, the better the accuracy, and the wider the age you can distinguish by collecting a wide range of ages.
次に、「基準年齢よりも上か下か」の判別をするための識別器を準備する。2クラス判別に利用する手法としては、線形判別分析などといった標準的な方法でも実現可能であるが、本実施形態ではSupport Vector Machine(以下「SVM」と略す)、文献6(栗田多喜夫:「サポートベクターマシン入門」)を利用する。 Next, a discriminator for discriminating whether “above or below the reference age” is prepared. As a method used for two-class discrimination, a standard method such as linear discriminant analysis can be realized. However, in this embodiment, Support Vector Machine (hereinafter abbreviated as “SVM”), Reference 6 (Takio Kurita: “Support”). Use the “Introduction to Vector Machines”).
SVMでは、判別したい2クラスを与えると、その2クラスを判別する境界条件を設定し、その境界からどのぐらいの距離にあるのかの指標を得ることができるため、本実施形態で基準とする年齢N歳よりも上の年齢に属する顔画像、下の年齢に属する顔画像を分類することで基準となる年齢よりも上か下かを判別することが可能となる。 In SVM, if two classes to be discriminated are given, a boundary condition for discriminating the two classes can be set and an index of how far away from the boundary can be obtained. By classifying face images that belong to an age older than N years old and face images that belong to a lower age, it is possible to determine whether the age is higher than or lower than a reference age.
たとえば、30歳を基準年齢としたときに、30歳よりも上か下かを判別するための画像群を準備し、30歳以上を含む画像を正のクラス「30歳以上」の画像として入力し、負のクラス「30歳未満」の画像として準備してSVMで学習を行なう。同様に、基準年齢を10歳から60歳までずらしながら準備した画像を基準年齢にあわせて2つに分類することで、SVMの学習器が基準年齢の数分だけ準備できる(本実施形態では10歳から60歳まで6個とするが、年齢の範囲や基準年齢をずらす単位は自由に変えてもよい)。 For example, when 30 years old is set as the reference age, an image group is prepared for determining whether it is above or below 30 years old, and an image including 30 years or older is input as an image of the positive class “30 years old or older”. Then, an image of a negative class “under 30 years old” is prepared and learning is performed with SVM. Similarly, by classifying images prepared while shifting the reference age from 10 to 60 according to the reference age, SVM learners can prepare for the number of reference ages (in this embodiment, 10). The number is 6 from age to 60, but the age range and the unit for shifting the reference age may be changed freely).
常に「基準年齢よりも上」とするクラスを「正」のクラスとして学習するようにすることで、「基準年齢よりも年齢が上の画像が入力されると指標はプラスの値を返す」ようになる。この判別処理を基準年齢を10歳から60歳までずらしながら実行していくことにより、基準年齢に対して上か下かの指標を得ることができるとともに、この出力された指標の中で、最も指標がゼロに近いところが出力すべき年齢に近いことになる。ここで、年齢の推定方法の一例を図15に示す。 By always learning a class that is “above the reference age” as a “positive” class, the index returns a positive value when an image that is older than the reference age is input. become. By executing this discrimination process while shifting the reference age from 10 years old to 60 years old, it is possible to obtain an index that is higher or lower than the reference age, and among these output indices, The place where the index is close to zero is close to the age to be output. Here, an example of the age estimation method is shown in FIG.
各基準年齢に対するSVMの出力値が得られた後は、その出力値を縦軸に、横軸に基準年齢としたグラフを想定して出力値をプロットする。このプロットに対して出力値がゼロに近いとされる年齢を求めるため、以下の手法を利用することができる。 After the output value of SVM for each reference age is obtained, the output value is plotted assuming a graph with the output value on the vertical axis and the horizontal axis on the reference age. In order to obtain the age at which the output value is considered to be close to zero for this plot, the following method can be used.
第1の手法としては、最もゼロに近いプロットを選択する。図15の場合であれば、基準年齢30歳が最もゼロに近いため、「30代」として返すことができる。プロットが不安定で上下に変動する場合には、隣接する基準年齢との移動平均をとることで安定して年代を返すことができる。 As a first method, a plot closest to zero is selected. In the case of FIG. 15, since the reference age of 30 years is the closest to zero, it can be returned as “30s”. When the plot is unstable and fluctuates up and down, the age can be returned stably by taking a moving average with the adjacent reference age.
第2の手法としては、出力されたプロットを基に近似関数を求め、その関数が縦軸と交差するときの横軸の値を推定年齢とするものである。図15のように、一次関数の直線で近似を取ることにより交点のおよそ33歳という年齢を出力することができる。近似関数を求めるときに全てのプロットで1つの近似関数を求めるのではなく、部分集合(たとえば、隣接する3つの基準年齢に対するプロット)に対する近似関数を複数求め、最も近似誤差が少ない関数に該当する横軸との交点を出力するという方法も可能である。 As a second method, an approximate function is obtained based on the output plot, and the value on the horizontal axis when the function intersects the vertical axis is used as the estimated age. As shown in FIG. 15, by approximating with a straight line of a linear function, the age of about 33 years of intersection can be output. Rather than obtaining one approximation function for all plots when obtaining an approximation function, multiple approximation functions for a subset (for example, plots for three adjacent reference ages) are obtained, and this corresponds to the function with the smallest approximation error. A method of outputting the intersection with the horizontal axis is also possible.
以上説明した年齢推定方法を纏めてフローチャートであらわしたものを図16に示す。
なお、上記以外にも所定の変換関数を通して得られた値でクラスを判別する方法を用いてもよい。
FIG. 16 shows a flowchart summarizing the age estimation method described above.
In addition to the above, a method of discriminating a class with a value obtained through a predetermined conversion function may be used.
ここで得られた結果については、人物情報管理部361に記録することで、今後は画像情報を使った属性検索を行なう際に再度、人物情報管理部361の情報に対する属性判別処理をしなくてもよいようにできる。
The results obtained here are recorded in the person
なお、本実施形態では、検索条件を設定したときに人物情報管理部361に情報が入っていないかどうかをチェックしているが、事前に顔画像を登録する際に自動的に全ての属性に対して画像特徴を利用した属性判別結果を求めて記録しておけば、毎回検索を行なうたびにこのような処理をしなくてもよい。
In this embodiment, when the search condition is set, it is checked whether or not there is information in the person
第1の属性検索部372は、人物情報管理部361で各人物IDに対応付けされて管理されている画像の属性特徴情報を利用して自動的に記録されている属性情報に対し、検索条件設定部330において設定された検索条件にあわせて検索を行なう。
The first
本実施形態では、「年齢」について「30代」と一致するものを画像処理による属性情報の自動判別結果を基に検索することになっているため、図13に示したように人物情報管理部361で管理されている「属性情報(自動)」の「年齢」で記録されている中で「30代」で一致する顔画像を検索結果として出力する。この例の場合、人物IDが「0002」および「0003」の顔画像(人物)が検索結果として出力される。 In this embodiment, “age” that matches “30's” is searched based on the result of automatic attribute information discrimination by image processing. Therefore, as shown in FIG. A face image matching “30's” recorded in “age” of “attribute information (automatic)” managed in 361 is output as a search result. In this example, face images (persons) with person IDs “0002” and “0003” are output as search results.
第2の属性検索部373は、人物情報管理部361で各人物IDに対応付けされて管理されている手動で与えられた属性特徴情報に対し、検索条件設定部330において設定された検索条件にあわせて検索を行なう。
The second
本実施形態では、「性別」について「男性」と一致するものを「手動付与」を対象として検索することになっているため、図13に示したように人物情報管理部361で管理されている「属性情報(手動)」の「性別」で記録されている中で「男性」で一致する顔画像を検索結果として出力する。この例の場合、人物IDが「0002」および「0003」および「0004」の顔画像(人物)が検索結果として出力される。
In this embodiment, “gender” that matches “male” is searched for “manually assigned”, and thus is managed by the person
なお、第2の属性検索部373が検索対象とする人物情報管理部361の属性情報(手動)では、本装置の利用者が手動で付与をしない限りは属性特徴情報が記録されておらず、「N/A」となっているため、ここでの検索対象からは除外される。
また、検索条件設定部330で検索対象を「N/A」とした場合には、「N/A」のものだけが検索結果として出力されるようにもできる。
In the attribute information (manual) of the person
When the search
出力部380は、顔検索部371で得られた検索結果および第1、第2の属性検索部372,373の各検索結果を検索条件設定部330で設定された内容にあわせて表示出力を行なう。
The
以上のような構成において、第3の実施形態に係る全体的な処理の流れについて説明する。
まず、人物情報管理部361への人物(顔画像、属性情報)の登録時の処理の流れについて図17に示すフローチャートを参照して説明する。
With the configuration as described above, an overall processing flow according to the third embodiment will be described.
First, the flow of processing when a person (face image, attribute information) is registered in the person
画像入力部310により登録する画像が入力されると(ステップS41)、顔検出部320は、画像入力部310により入力された画像から顔領域を検出する(ステップS42)。次に、顔特徴抽出部351は、顔検出部320により検出された顔領域から顔特徴情報を抽出し、抽出した顔領域内の顔画像とともに、顔全体での特徴を利用した検索のための顔特徴情報として人物情報管理部361に登録する(ステップS43)。
When an image to be registered is input by the image input unit 310 (step S41), the
これと同時、あるいは所定のタイミングで、属性特徴抽出部352は、顔検出部320により検出された顔領域から抽出可能な属性特徴情報を抽出する(ステップS44)。次に、属性特徴抽出部352により抽出された属性特徴情報と属性別特徴情報管理部362により管理されている属性特徴情報とを比較することにより、画像入力部310により入力された顔画像がどの属性に該当するか判別し、その判別結果を人物情報管理部361の自動付与された属性特徴情報に登録する(ステップS45)。
At the same time or at a predetermined timing, the attribute
このような登録処理により、顔画像の登録処理を行なう際に人手を介して入力するという作業を減らすことができ、効率よく人物情報の登録を行なうことが可能となる。 By such registration processing, it is possible to reduce the work of inputting manually when performing facial image registration processing, and it becomes possible to register personal information efficiently.
次に、登録された人物(顔画像)の検索時の処理の流れについて図18に示すフローチャートを参照して説明する。
なお、以下の説明は、検索条件設定部330での設定内容が図12に示した例のようになっているものとする。
Next, the flow of processing when searching for a registered person (face image) will be described with reference to the flowchart shown in FIG.
In the following description, it is assumed that the setting content in the search
画像入力部310により検索対象の画像が入力されると(ステップS51)、顔検出部320は、画像入力部310により入力された画像から顔領域を検出する(ステップS52)。次に、顔特徴抽出部351は、顔検出部320により検出された顔領域から顔全体での特徴を利用した検索のための顔特徴情報を抽出する(ステップS53)。
When an image to be searched is input by the image input unit 310 (step S51), the
次に、顔検索部371は、顔特徴抽出部351により抽出された顔特徴情報と人物情報管理部361に登録されている顔特徴情報との比較を行なうことにより、両顔特徴情報の類似度を計算し、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を人物情報管理部361から検索し(ステップS54)、その検索結果を出力部380へ送り、たとえば図19に示すように、顔の特徴情報を利用した顔画像の検索結果を表示する(ステップS55)。
Next, the
一方で、検索条件設定部330で設定された属性情報がある場合には、その属性情報を利用して検索の絞込みが行なわれる。その場合、検索条件設定部330において対象となる属性検索を「手動」か「自動」か選択できる。
On the other hand, if there is attribute information set by the search
まず、対象となる属性検索が「自動」と選択された場合、第1の属性検索部372は、人物情報管理部361により管理されている入力画像から自動的に判別された属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性特徴情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索し(ステップS56)、その検索結果を出力部380へ送り、たとえば図19に示すように、自動的に付与された属性特徴情報を利用した顔画像の検索結果を表示する(ステップS57)。
First, when “automatic” is selected as the target attribute search, the first
なお、顔画像の特徴情報を利用して検索をした結果や、自動付与の属性特徴情報を用いた第1の属性検索結果については、手動の属性特徴情報が付与されていない場合があるため、たとえば、図19に示す属性登録・編集釦14を有効にし、検索結果の画像を選択して、この属性登録・編集釦14を押すことによって、人物情報管理部361の「属性情報(手動)」に対して属性特徴情報を付与したり編集して修正したりすることができるようにしてもよい。
As for the result of searching using the feature information of the face image and the first attribute search result using the automatically assigned attribute feature information, manual attribute feature information may not be assigned. For example, the attribute registration /
次に、対象となる属性検索が「手動」と選択された場合、第2の属性検索部373は、人物情報管理部361により管理されている手動で与えられた文字列としての属性特徴情報と検索条件設定部330により設定された検索条件とを比較することにより、検索条件設定部330により設定された検索条件が人物情報管理部361により管理されている属性特徴情報の中のどの属性情報に該当するかを判別し、該当する属性特徴情報と対応する顔画像を人物情報管理部361から検索し(ステップS58)、その検索結果を出力部380へ送り、たとえば図19に示すように、手動で付与された属性特徴情報を利用した顔画像の検索結果を表示する(ステップS59)。
Next, when “manual” is selected as the target attribute search, the second
このように、「自動」を選択した属性特徴情報の場合には、前述のように登録時に自動的に判別された属性特徴情報を使って検索をすることができるので、事前に特別な作業をせずに検索の絞込みが可能となる。その検索結果で出力された第1の属性検索結果を利用することで、属性特徴情報の手動登録も可能とする。 As described above, in the case of attribute feature information for which “automatic” is selected, the search can be performed using the attribute feature information automatically determined at the time of registration as described above. It is possible to narrow down the search without doing so. By using the first attribute search result output as the search result, it is possible to manually register the attribute feature information.
たとえば、年齢が30歳といった条件で検索をして表示された画像をみて、確かに30歳と思えばその結果を基に「手動で付与した属性特徴情報」として新たに人物情報管理部361に登録できる。こちらの属性特徴情報については目視確認を経由して入力されている情報であるため、属性特徴情報が正しい確率が高くなると考えてよい。このような作業を繰り返していくうちに徐々に属性特徴情報の手動で付与した情報が増えていき、徐々に検索精度を高めていくことが可能となる。
For example, looking at the image displayed by searching under the condition that the age is 30 years old, if it is certainly 30 years old, based on the result, it is newly added to the personal
図19の画面表示例も、基本的には第1の実施形態における図5とほぼ同様であるが、画像群4の下部に並んでいる年齢属性情報での検索結果による画像群6が、第1の属性検索部372の検索結果による画像群15に置き換わり、画像群4の下部に並んでいるマスク属性情報での検索結果による画像群8が、第2の属性検索部373の検索結果による画像群16に置き換わった点と、属性登録・編集釦14が設けられた点が異なり、その他は図5と同様である。
The screen display example in FIG. 19 is basically the same as that in FIG. 5 in the first embodiment, but the
なお、上記第3の実施形態では、年齢と性別をばらばらに検索した例を示しているが、複数の属性情報を論理積(AND)や論理和(OR)で組合わせた結果にしてもよい。また、顔特徴情報を利用した検索結果に対して第1の属性検索部372および第2の属性検索部373で検索条件に一致したものだけを抽出し、並び順は顔検索結果の順番で並べた例を示しているが、並び順は第1の実施形態と同様、顔検索部371の結果と独立して表示させるようにしてもよい。
In the third embodiment, an example in which age and gender are separated is shown. However, a plurality of pieces of attribute information may be combined with logical product (AND) or logical sum (OR). . Also, only the search results that use the face feature information are extracted by the first
以上説明したように第3の実施形態によれば、事前に人物に対する属性特徴情報を付与していなくても属性特徴情報を用いた絞込みといった検索が可能であるほか、その検索結果を利用して人物情報に属性情報を付与することが容易に可能となる。 As described above, according to the third embodiment, a search using attribute feature information can be performed even if attribute feature information for a person is not given in advance, and the search result is used. It is possible to easily add attribute information to person information.
なお、上記実施形態では、人物の属性情報が年齢、性別、眼鏡の有無、マスクの有無、帽子の有無、人種等としたが、これらの外に眼鏡の種類、マスクの種類、帽子の種類、ひげ、ほくろ、しわ、怪我、髪型、髪の毛の色、服の色、服の形、帽子、装飾品、顔付近への着用物、表情、裕福度であってもよく、これらのうち少なくとも1つの属性情報を用いればよい。 In the above embodiment, the attribute information of a person is age, sex, presence / absence of glasses, presence / absence of a mask, presence / absence of a hat, race, etc., but besides these, the type of glasses, the type of mask, the type of hat , Beard, mole, wrinkle, injury, hairstyle, hair color, clothing color, clothing shape, hat, ornaments, face wear, facial expression, wealth, at least one of these One attribute information may be used.
以上説明したように上記実施形態によれば、あらかじめ登録された複数の顔画像の中から、入力された顔画像に類似する顔画像を検索する場合、入力された顔画像と類似している顔画像の候補の一覧を表示するだけでなく、個人を特定するのではなく年齢や性別、着用物などといった属性情報での視点での類似候補を同時に視覚的に確認できるようにすることで、複数の視点から類似した顔画像の一覧を表示して目視確認ができるようになる。 As described above, according to the above-described embodiment, when searching for a face image similar to the input face image from a plurality of face images registered in advance, a face similar to the input face image. In addition to displaying a list of image candidates, it is possible to visually confirm similar candidates from the viewpoint of attribute information such as age, gender, and wearing items instead of identifying individuals. From this viewpoint, a list of similar face images can be displayed for visual confirmation.
また、顔にマスクやサングラスといった装着物があると個人識別を目的とした顔の特徴での検索の場合、精度の低下が見られる場合があるが、画像を利用して属性情報を合成する機能を持たせることで、精度の低下を防ぐ機能を持たせることができる。 In addition, if there is an accessory such as a mask or sunglasses on the face, there may be a decrease in accuracy when searching for facial features for the purpose of personal identification, but the ability to synthesize attribute information using images By providing the function, it is possible to provide a function for preventing a decrease in accuracy.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
M…人物、109,209,309…ITVカメラ、110,210,310…画像入力部(画像入力手段)、120,220,320…顔検出部(顔検出手段)、130,230,330…検索条件設定部(検索条件設定手段)、151,251,351…顔特徴抽出部(顔特徴抽出手段)、152,252,352…属性特徴抽出部(属性特徴抽出手段)、171,271,371…顔検索部(顔検索手段)、172,272…属性検索部(属性検索手段)、160,260,361…人物情報管理部(人物情報管理手段)、180,280…検索結果管理部(検索結果管理手段)、190,290,380…出力部(出力手段)、240…画像合成部(画像合成手段)、245…合成画像管理部(合成画像管理手段)、353…属性判別部(属性判別手段)、362…属性別特徴情報管理部(属性別特徴情報管理手段)、372…第1の属性検索部(第1の属性検索手段)、373…第2の属性検索部(第2の属性検索手段)。 M ... person, 109, 209, 309 ... ITV camera, 110, 210, 310 ... image input unit (image input means), 120, 220, 320 ... face detection unit (face detection means), 130, 230, 330 ... search Condition setting unit (search condition setting means), 151, 251, 351... Face feature extraction unit (face feature extraction means), 152, 252, 352... Attribute feature extraction unit (attribute feature extraction means), 171, 271, 371. Face search section (face search means), 172, 272 ... Attribute search section (attribute search means), 160, 260, 361 ... Person information management section (person information management means), 180, 280 ... Search result management section (search results) Management means), 190, 290, 380... Output section (output means), 240... Image composition section (image composition means), 245... Composite image management section (composite image management means), 353. Part (attribute discriminating means), 362 ... attribute-specific feature information management part (attribute-specific feature information management means), 372 ... first attribute search part (first attribute search means), 373 ... second attribute search part ( Second attribute search means).
Claims (13)
この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、
検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、
前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、
前記顔検出手段により検出された顔領域から得られる人物の属性特徴情報を少なくとも1つ抽出する属性特徴抽出手段と、
あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段と、
前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、
前記属性特徴抽出手段により抽出された入力画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索手段と、
この属性検索手段により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索手段により得られた検索結果の中から前記検索条件設定手段により設定された内容に合致する検索結果を選択する検索結果管理手段と、
この検索結果管理手段により選択された検索結果を出力する出力手段と、
を具備したことを特徴とする顔画像検索装置。 An image input means for inputting an image including at least a person's face image;
Face detection means for detecting at least one face region from an input image input by the image input means;
Search condition setting means for setting the type of attribute to be searched for setting search conditions and the output method of search results;
Facial feature extraction means for extracting facial feature information indicating personal features of a face obtained from the face area detected by the face detection means;
Attribute feature extraction means for extracting at least one attribute feature information of a person obtained from the face area detected by the face detection means;
Personal information management means for managing the face image registered in advance and the face feature information and attribute feature information corresponding to the face image;
By comparing the facial feature information for the input image extracted by the facial feature extraction unit with the facial feature information managed by the personal information management unit, the facial feature information for the input image is obtained by the personal information management unit. The similarity of which facial feature information in the managed facial feature information is similar is obtained, and a plurality of corresponding face images determined in advance in descending order of similarity are obtained from the person information management means. A face search means for searching;
The similarity between both attribute feature information is obtained by comparing the attribute feature information for the input image extracted by the attribute feature extraction means with the attribute feature information managed by the person information management means, and the similarity is high. Attribute search means for searching a plurality of corresponding face images predetermined in order from the person information management means,
A plurality of search results obtained by the attribute search means, an optimum search result automatically selected from the plurality of search results as necessary, and a search result obtained by the face search means Search result management means for selecting a search result that matches the content set by the search condition setting means from among,
Output means for outputting the search results selected by the search result management means;
A face image retrieval apparatus comprising:
この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、
検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、
前記画像入力手段により入力された入力画像に対して所定の部分領域画像を合成するための部分領域画像を管理する合成画像管理手段と、
前記検索条件設定手段により設定された条件に基づき前記画像入力手段により入力された入力画像に対して画像合成が選択された属性情報について前記合成画像管理手段により管理される部分領域画像を合成した画像を作成する画像合成手段と、
前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、
前記顔検出手段により検出された顔領域から得られる人物の属性特徴情報を少なくとも1つ抽出する属性特徴抽出手段と、
あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段と、
前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、
前記属性特徴抽出手段により抽出された入力画像に対する属性特徴情報あるいは前記画像合成手段により合成された画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索手段と、
この属性検索手段により得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索手段により得られた検索結果の中から前記検索条件設定手段により設定された内容に合致する検索結果を選択する検索結果管理手段と、
この検索結果管理手段により選択された検索結果を出力する出力手段と、
を具備したことを特徴とする顔画像検索装置。 An image input means for inputting an image including at least a person's face image;
Face detection means for detecting at least one face region from an input image input by the image input means;
Search condition setting means for setting the type of attribute to be searched for setting search conditions and the output method of search results;
Combined image management means for managing a partial area image for combining a predetermined partial area image with the input image input by the image input means;
An image obtained by synthesizing the partial area image managed by the synthesized image management unit with respect to the attribute information in which the image synthesis is selected for the input image input by the image input unit based on the condition set by the search condition setting unit Image composition means for creating
Facial feature extraction means for extracting facial feature information indicating personal features of a face obtained from the face area detected by the face detection means;
Attribute feature extraction means for extracting at least one attribute feature information of a person obtained from the face area detected by the face detection means;
Personal information management means for managing the face image registered in advance and the face feature information and attribute feature information corresponding to the face image;
By comparing the facial feature information for the input image extracted by the facial feature extraction unit with the facial feature information managed by the personal information management unit, the facial feature information for the input image is obtained by the personal information management unit. The similarity of which facial feature information in the managed facial feature information is similar is obtained, and a plurality of corresponding face images determined in advance in descending order of similarity are obtained from the person information management means. A face search means for searching;
By comparing the attribute feature information for the input image extracted by the attribute feature extracting means or the attribute feature information for the image synthesized by the image synthesizing means with the attribute feature information managed by the person information managing means. Attribute search means for obtaining similarity of attribute feature information and searching for a plurality of corresponding face images determined in advance in descending order of similarity from the person information management means;
A plurality of search results obtained by the attribute search means, an optimum search result automatically selected from the plurality of search results as necessary, and a search result obtained by the face search means Search result management means for selecting a search result that matches the content set by the search condition setting means from among,
Output means for outputting the search results selected by the search result management means;
A face image retrieval apparatus comprising:
この画像入力手段により入力された入力画像から少なくとも1つの顔領域を検出する顔検出手段と、
検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を設定する検索条件設定手段と、
前記顔検出手段により検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を抽出する顔特徴抽出手段と、
あらかじめ登録されている顔画像とそれに対する顔特徴情報、および、画像特徴を利用して自動的に与えられた第1の属性特徴情報、および、手動で与えられた第2の属性特徴情報を対応付けて管理する人物情報管理手段と、
前記顔特徴抽出手段により抽出された入力画像に対する顔特徴情報と前記人物情報管理手段により管理されている顔特徴情報とを比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索手段と、
前記人物情報管理手段により管理されている前記第1の属性特徴情報と前記検索条件設定手段により設定された検索条件とを比較することにより、前記検索条件設定手段により設定された検索条件が前記人物情報管理手段により管理されている第1の属性特徴情報の中のどの第1の属性特徴情報に該当するかを判別し、該当する第1の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第1の属性検索手段と、
前記人物情報管理手段により管理されている前記第2の属性特徴情報と前記検索条件設定手段により設定された検索条件とを比較することにより、前記検索条件設定手段により設定された検索条件が前記人物情報管理手段により管理されている第2の属性特徴情報の中のどの第2の属性特徴情報に該当するかを判別し、該当する第2の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第2の属性検索手段と、
前記顔検索手段により得られた検索結果および前記第1、第2の属性検索手段により得られた各検索結果を前記検索条件設定手段により設定された内容にあわせて出力する出力手段と、
を具備したことを特徴とする顔画像検索装置。 An image input means for inputting an image including at least a person's face image;
Face detection means for detecting at least one face region from an input image input by the image input means;
Search condition setting means for setting the type of attribute to be searched for setting search conditions and the output method of search results;
Facial feature extraction means for extracting facial feature information indicating personal features of a face obtained from the face area detected by the face detection means;
Corresponds to pre-registered face image and face feature information for it, first attribute feature information automatically given using image feature, and second attribute feature information given manually Personal information management means to manage,
By comparing the facial feature information for the input image extracted by the facial feature extraction unit with the facial feature information managed by the personal information management unit, the facial feature information for the input image is obtained by the personal information management unit. The similarity of which facial feature information in the managed facial feature information is similar is obtained, and a plurality of corresponding face images determined in advance in descending order of similarity are obtained from the person information management means. A face search means for searching;
By comparing the first attribute feature information managed by the person information management means with the search condition set by the search condition setting means, the search condition set by the search condition setting means is It is determined which first attribute feature information among the first attribute feature information managed by the information management means corresponds to, and the face information corresponding to the corresponding first attribute feature information is the person information management First attribute search means for searching from the means;
By comparing the second attribute feature information managed by the person information management means with the search condition set by the search condition setting means, the search condition set by the search condition setting means is It is determined which second attribute feature information in the second attribute feature information managed by the information management means corresponds to the face information corresponding to the corresponding second attribute feature information, and the person information management Second attribute search means for searching from the means;
An output means for outputting the search results obtained by the face search means and the search results obtained by the first and second attribute search means in accordance with the contents set by the search condition setting means;
A face image retrieval apparatus comprising:
あらかじめ1つまたは複数の属性を判別するために各属性の属性特徴情報を管理する属性別特徴情報管理手段と、
前記属性特徴抽出手段により抽出された属性特徴情報と前記属性別特徴情報管理手段により管理されている属性特徴情報とを比較することにより、前記画像入力手段により入力された顔画像がどの属性に該当するか判別し、その判別結果を前記第1の属性特徴情報として前記人物情報管理手段に登録する属性判別手段と、
をさらに具備したことを特徴とする請求項7記載の顔画像検索装置。 Attribute feature extraction means for extracting at least one attribute feature information of a person obtained from the face area detected by the face detection means;
Attribute-specific feature information management means for managing attribute feature information of each attribute in order to discriminate one or more attributes in advance;
By comparing the attribute feature information extracted by the attribute feature extraction unit with the attribute feature information managed by the attribute-specific feature information management unit, which attribute the face image input by the image input unit corresponds to Attribute determination means for determining whether or not to register the result of the determination as the first attribute feature information in the person information management means;
The face image search device according to claim 7, further comprising:
この画像入力ステップにより入力された入力画像から顔検出手段により少なくとも1つの顔領域を検出する顔検出ステップと、
検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を検索条件設定手段により設定する検索条件設定ステップと、
前記顔検出ステップにより検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を顔特徴抽出手段により抽出する顔特徴抽出ステップと、
前記顔検出ステップにより検出された顔領域から得られる人物の属性情報を属性特徴抽出手段により少なくとも1つ抽出する属性特徴抽出ステップと、
前記顔特徴抽出ステップにより抽出された入力画像に対する顔特徴情報と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段により管理されている顔特徴情報とを顔検索手段により比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索ステップと、
前記属性特徴抽出ステップにより抽出された入力画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを属性検索手段により比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索ステップと、
この属性検索ステップにより得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索ステップにより得られた検索結果の中から前記検索条件設定ステップにより設定された内容に合致する検索結果を検索結果管理手段により選択する検索結果管理ステップと、
この検索結果管理ステップにより選択された検索結果を出力手段により出力する出力ステップと、
を具備したことを特徴とする顔画像検索方法。 An image input step of inputting an image including at least a human face image by an image input means;
A face detection step of detecting at least one face region by the face detection means from the input image input in the image input step;
A search condition setting step for setting the type of attribute to be searched for setting the search condition and the output method of the search result by the search condition setting means,
A facial feature extraction step of extracting facial feature information indicating personal features of the face obtained from the facial region detected by the facial detection step by facial feature extraction means;
An attribute feature extraction step of extracting at least one attribute information of a person obtained from the face area detected by the face detection step by an attribute feature extraction unit;
The face managed by the personal information managing means for managing the face feature information for the input image extracted in the face feature extraction step, the face image registered in advance, and the face feature information and attribute feature information for the face image. By comparing the feature information with the face search means, the similarity of which face feature information in the face feature information managed by the person information management means is similar to the face feature information for the input image is determined. A face search step of searching for a plurality of corresponding face images determined in advance in descending order of similarity from the person information management means;
The attribute feature information for the input image extracted in the attribute feature extraction step and the attribute feature information managed by the person information management means are compared by the attribute search means to determine the similarity between the two attribute feature information, and the similarity An attribute search step of searching the person information management means for a plurality of corresponding face images predetermined in order from the highest degree;
A plurality of search results obtained by the attribute search step, an optimum search result automatically selected from the plurality of search results as necessary, and a search result obtained by the face search step A search result management step for selecting a search result that matches the content set by the search condition setting step from among the search result management means;
An output step for outputting the search result selected in the search result management step by an output means;
A face image search method characterized by comprising:
この画像入力ステップにより入力された入力画像から顔検出手段により少なくとも1つの顔領域を検出する顔検出ステップと、
検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を検索条件設定手段により設定する検索条件設定ステップと、
前記検索条件設定ステップにより設定された条件に基づき前記画像入力ステップにより入力された入力画像に対して画像合成が選択された属性情報について、前記画像入力ステップにより入力された入力画像に対して所定の部分領域画像を合成するための部分領域画像を管理する合成画像管理手段により管理される部分領域画像を合成した画像を画像合成手段により作成する画像合成ステップと、
前記顔検出ステップにより検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を顔特徴抽出手段により抽出する顔特徴抽出ステップと、
前記顔検出ステップにより検出された顔領域から得られる人物の属性特徴情報を属性特徴抽出手段により少なくとも1つ抽出する属性特徴抽出ステップと、
前記顔特徴抽出ステップにより抽出された入力画像に対する顔特徴情報と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および属性特徴情報を対応付けて管理する人物情報管理手段により管理されている顔特徴情報とを顔検索手段により比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索ステップと、
前記属性特徴抽出ステップにより抽出された入力画像に対する属性特徴情報あるいは前記画像合成ステップにより合成された画像に対する属性特徴情報と前記人物情報管理手段により管理されている属性特徴情報とを属性検索手段により比較することにより両属性特徴情報の類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する属性検索ステップと、
この属性検索ステップにより得られた複数の検索結果、および、これら複数の検索結果の中から必要に応じて自動的に選択された最適な検索結果、および、前記顔検索ステップにより得られた検索結果の中から前記検索条件設定ステップにより設定された内容に合致する検索結果を検索結果管理手段により選択する検索結果管理ステップと、
この検索結果管理ステップにより選択された検索結果を出力手段により出力する出力ステップと、
を具備したことを特徴とする顔画像検索方法。 An image input step of inputting an image including at least a human face image by an image input means;
A face detection step of detecting at least one face region by the face detection means from the input image input in the image input step;
A search condition setting step for setting the type of attribute to be searched for setting the search condition and the output method of the search result by the search condition setting means,
With respect to the attribute information in which image composition is selected for the input image input by the image input step based on the conditions set by the search condition setting step, a predetermined value is set for the input image input by the image input step. An image composition step for creating an image by the image composition means by combining the partial area images managed by the composite image management means for managing the partial area images for composing the partial area images;
A facial feature extraction step of extracting facial feature information indicating personal features of the face obtained from the facial region detected by the facial detection step by facial feature extraction means;
An attribute feature extraction step of extracting at least one attribute feature information of a person obtained from the face area detected by the face detection step by an attribute feature extraction unit;
The face managed by the personal information managing means for managing the face feature information for the input image extracted in the face feature extraction step, the face image registered in advance, and the face feature information and attribute feature information for the face image. By comparing the feature information with the face search means, the similarity of which face feature information in the face feature information managed by the person information management means is similar to the face feature information for the input image is determined. A face search step of searching for a plurality of corresponding face images determined in advance in descending order of similarity from the person information management means;
The attribute feature information for the input image extracted by the attribute feature extraction step or the attribute feature information for the image synthesized by the image synthesis step and the attribute feature information managed by the person information management means are compared by the attribute search means. An attribute search step of obtaining a similarity between both attribute feature information by searching the plurality of corresponding face images determined in advance in descending order of similarity from the person information management means;
A plurality of search results obtained by the attribute search step, an optimum search result automatically selected from the plurality of search results as necessary, and a search result obtained by the face search step A search result management step for selecting a search result that matches the content set by the search condition setting step from among the search result management means;
An output step for outputting the search result selected in the search result management step by an output means;
A face image search method characterized by comprising:
この画像入力ステップにより入力された入力画像から顔検出手段により少なくとも1つの顔領域を検出する顔検出ステップと、
検索条件を設定するために検索対象とする属性の種類や検索結果の出力方法を検索条件設定手段により設定する検索条件設定ステップと、
前記顔検出ステップにより検出された顔領域から得られる顔の個人特徴を示す顔特徴情報を顔特徴抽出手段により抽出する顔特徴抽出ステップと、
この顔特徴抽出ステップにより抽出された入力画像に対する顔特徴情報と、あらかじめ登録されている顔画像とそれに対する顔特徴情報および画像特徴を利用して自動的に与えられた第1の属性特徴情報および手動で与えられた第2の属性特徴情報を対応付けて管理する人物情報管理手段により管理されている顔特徴情報とを顔検索手段により比較することにより、前記入力画像に対する顔特徴情報が前記人物情報管理手段により管理されている顔特徴情報の中のどの顔特徴情報と類似しているかの類似度を求め、類似度の高いものから順番にあらかじめ定められた複数の対応する顔画像を前記人物情報管理手段から検索する顔検索ステップと、
前記人物情報管理手段により管理されている前記第1の属性特徴情報と前記検索条件設定ステップにより設定された検索条件とを第1の属性検索手段により比較することにより、前記検索条件設定ステップにより設定された検索条件が前記人物情報管理手段により管理されている第1の属性特徴情報の中のどの第1の属性特徴情報に該当するかを判別し、該当する第1の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第1の属性検索ステップと、
前記人物情報管理手段により管理されている前記第2の属性特徴情報と前記検索条件設定ステップにより設定された検索条件とを第2の属性検索手段により比較することにより、前記検索条件設定ステップにより設定された検索条件が前記人物情報管理手段により管理されている第2の属性特徴情報の中のどの第2の属性特徴情報に該当するかを判別し、該当する第2の属性特徴情報と対応する顔画像を前記人物情報管理手段から検索する第2の属性検索ステップと、
前記顔検索ステップにより得られた検索結果および前記第1、第2の属性検索ステップにより得られた各検索結果を前記検索条件設定ステップにより設定された内容にあわせて出力手段により出力する出力ステップと、
を具備したことを特徴とする顔画像検索方法。 An image input step of inputting an image including at least a human face image by an image input means;
A face detection step of detecting at least one face region by the face detection means from the input image input in the image input step;
A search condition setting step for setting the type of attribute to be searched for setting the search condition and the output method of the search result by the search condition setting means,
A facial feature extraction step of extracting facial feature information indicating personal features of the face obtained from the facial region detected by the facial detection step by facial feature extraction means;
Face feature information for the input image extracted in the face feature extraction step, face image registered in advance, face feature information for the face image, and first attribute feature information automatically given using the image feature; By comparing the face feature information managed by the person information management means that manages the second attribute feature information given manually by the face search means, the face feature information for the input image becomes the person. The similarity of which facial feature information is similar to the facial feature information managed by the information management means is obtained, and a plurality of corresponding facial images determined in advance in descending order of similarity are said person. A face search step for searching from information management means;
Setting by the search condition setting step by comparing the first attribute feature information managed by the person information management means with the search condition set by the search condition setting step by the first attribute search means. It is determined which first attribute feature information in the first attribute feature information managed by the person information management means corresponds to the corresponding first attribute feature information. A first attribute search step of searching for a face image from the person information management means;
Setting by the search condition setting step by comparing the second attribute feature information managed by the person information management means with the search condition set by the search condition setting step by the second attribute search means It is determined which second attribute feature information in the second attribute feature information managed by the person information management means corresponds to the corresponding second attribute feature information. A second attribute search step of searching for a face image from the person information management means;
An output step for outputting the search results obtained by the face search step and the search results obtained by the first and second attribute search steps by output means in accordance with the contents set by the search condition setting step; ,
A face image search method characterized by comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010139789A JP5444137B2 (en) | 2010-06-18 | 2010-06-18 | Face image search device and face image search method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010139789A JP5444137B2 (en) | 2010-06-18 | 2010-06-18 | Face image search device and face image search method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012003623A true JP2012003623A (en) | 2012-01-05 |
| JP5444137B2 JP5444137B2 (en) | 2014-03-19 |
Family
ID=45535506
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010139789A Active JP5444137B2 (en) | 2010-06-18 | 2010-06-18 | Face image search device and face image search method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5444137B2 (en) |
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013232093A (en) * | 2012-04-27 | 2013-11-14 | Rakuten Inc | Information processing device, information processing method, and information processing program |
| JP2014182480A (en) * | 2013-03-18 | 2014-09-29 | Toshiba Corp | Person recognition device and method |
| US8861801B2 (en) | 2011-06-06 | 2014-10-14 | Kabushiki Kaisha Toshiba | Facial image search system and facial image search method |
| WO2017013936A1 (en) * | 2015-07-21 | 2017-01-26 | ソニー株式会社 | Information processing device, information processing method, and program |
| JP2017054210A (en) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | Person search system and person search method |
| WO2017056948A1 (en) * | 2015-09-28 | 2017-04-06 | 株式会社日立国際電気 | Image processing system |
| WO2018030129A1 (en) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | Collator and method for displaying result of collation |
| JP2018165980A (en) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Face authentication method and apparatus |
| JP2018198056A (en) * | 2017-05-23 | 2018-12-13 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| CN109872379A (en) * | 2017-12-05 | 2019-06-11 | 富士通株式会社 | Data processing apparatus and method |
| CN109993039A (en) * | 2018-01-02 | 2019-07-09 | 上海银晨智能识别科技有限公司 | Portrait identification method and device, computer readable storage medium |
| JP2019175463A (en) * | 2018-03-29 | 2019-10-10 | 株式会社東芝 | Image search apparatus, image search method, and program |
| JP2019531560A (en) * | 2016-07-05 | 2019-10-31 | ナウト, インコーポレイテッドNauto, Inc. | Automatic driver identification system and method |
| JP2020107037A (en) * | 2018-12-27 | 2020-07-09 | 日本電気株式会社 | Information processing apparatus, information processing method, and program |
| JP2020107038A (en) * | 2018-12-27 | 2020-07-09 | 日本電気株式会社 | Information processing apparatus, information processing method, and program |
| JP2021096701A (en) * | 2019-12-18 | 2021-06-24 | 大日本印刷株式会社 | Renaming apparatus and printed matter selling system |
| WO2022153451A1 (en) * | 2021-01-14 | 2022-07-21 | 日本電気株式会社 | Collation device |
| JP2022183917A (en) * | 2021-05-31 | 2022-12-13 | 大日本印刷株式会社 | Rename processing device and print sales system |
| CN115516530A (en) * | 2020-05-08 | 2022-12-23 | 富士通株式会社 | Recognition method, generation method, recognition program and recognition device |
| JP2023006150A (en) * | 2021-06-30 | 2023-01-18 | 株式会社日立エルジーデータストレージ | Face authentication system |
| CN116569226A (en) * | 2020-10-12 | 2023-08-08 | 亚萨合莱有限公司 | Access Control Using Facial Recognition and Heterogeneous Information |
| WO2024190123A1 (en) * | 2023-03-16 | 2024-09-19 | 日本電気株式会社 | Processing device, processing method, and recording medium |
| US12174885B2 (en) | 2020-05-14 | 2024-12-24 | Nec Corporation | Image selection apparatus, image selection method, and non-transitory computer-readable medium |
| WO2026023011A1 (en) * | 2024-07-25 | 2026-01-29 | Ntt株式会社 | Training device, inference device, training method, and program |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0775660B2 (en) | 1991-05-28 | 1995-08-16 | 新日本製鐵株式会社 | Drum mixer with lump remover |
| KR102912682B1 (en) * | 2022-02-25 | 2026-01-15 | 주식회사 랄라 | Education system for child and operation method thereof |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11175724A (en) * | 1997-12-11 | 1999-07-02 | Toshiba Tec Corp | Person attribute identification device |
| JP2002183205A (en) * | 2000-12-11 | 2002-06-28 | Minolta Co Ltd | Computer-readable recording medium with database construction program recorded thereon, method and device for constructing database, computer-readable recording medium with database retrieval program recorded thereon, and method and device for retrieving database |
| JP2004240741A (en) * | 2003-02-06 | 2004-08-26 | Toshiba Corp | Face matching device |
| JP2006018630A (en) * | 2004-07-02 | 2006-01-19 | Canon Inc | Data search method and apparatus, program, and computer-readable memory |
| JP2006318375A (en) * | 2005-05-16 | 2006-11-24 | Matsushita Electric Ind Co Ltd | Face image search device and face image search method |
-
2010
- 2010-06-18 JP JP2010139789A patent/JP5444137B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11175724A (en) * | 1997-12-11 | 1999-07-02 | Toshiba Tec Corp | Person attribute identification device |
| JP2002183205A (en) * | 2000-12-11 | 2002-06-28 | Minolta Co Ltd | Computer-readable recording medium with database construction program recorded thereon, method and device for constructing database, computer-readable recording medium with database retrieval program recorded thereon, and method and device for retrieving database |
| JP2004240741A (en) * | 2003-02-06 | 2004-08-26 | Toshiba Corp | Face matching device |
| JP2006018630A (en) * | 2004-07-02 | 2006-01-19 | Canon Inc | Data search method and apparatus, program, and computer-readable memory |
| JP2006318375A (en) * | 2005-05-16 | 2006-11-24 | Matsushita Electric Ind Co Ltd | Face image search device and face image search method |
Cited By (45)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8861801B2 (en) | 2011-06-06 | 2014-10-14 | Kabushiki Kaisha Toshiba | Facial image search system and facial image search method |
| JP2013232093A (en) * | 2012-04-27 | 2013-11-14 | Rakuten Inc | Information processing device, information processing method, and information processing program |
| JP2014182480A (en) * | 2013-03-18 | 2014-09-29 | Toshiba Corp | Person recognition device and method |
| WO2017013936A1 (en) * | 2015-07-21 | 2017-01-26 | ソニー株式会社 | Information processing device, information processing method, and program |
| JPWO2017013936A1 (en) * | 2015-07-21 | 2018-05-10 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| US10916044B2 (en) | 2015-07-21 | 2021-02-09 | Sony Corporation | Information processing apparatus, information processing method, and program |
| JP2017054210A (en) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | Person search system and person search method |
| US10303927B2 (en) | 2015-09-07 | 2019-05-28 | Kabushiki Kaisha Toshiba | People search system and people search method |
| WO2017056948A1 (en) * | 2015-09-28 | 2017-04-06 | 株式会社日立国際電気 | Image processing system |
| JPWO2017056948A1 (en) * | 2015-09-28 | 2018-07-19 | 株式会社日立国際電気 | Image processing system and image processing method |
| JP2019531560A (en) * | 2016-07-05 | 2019-10-31 | ナウト, インコーポレイテッドNauto, Inc. | Automatic driver identification system and method |
| US11580756B2 (en) | 2016-07-05 | 2023-02-14 | Nauto, Inc. | System and method for determining probability that a vehicle driver is associated with a driver identifier |
| US10956717B2 (en) | 2016-08-08 | 2021-03-23 | Panasonic Intellectual Property Management Co., Ltd. | Collator and method for displaying result of collation |
| WO2018030129A1 (en) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | Collator and method for displaying result of collation |
| EP3499455A4 (en) * | 2016-08-08 | 2019-07-10 | Panasonic Intellectual Property Management Co., Ltd. | INTERCLASSE AND METHOD FOR DISPLAYING COLLATION RESULT |
| JPWO2018030129A1 (en) * | 2016-08-08 | 2019-06-06 | パナソニックIpマネジメント株式会社 | Verification device and verification result display method |
| JP2018165980A (en) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Face authentication method and apparatus |
| JP7046625B2 (en) | 2017-03-28 | 2022-04-04 | 三星電子株式会社 | Face recognition method and equipment |
| JP7375101B2 (en) | 2017-05-23 | 2023-11-07 | キヤノン株式会社 | Information processing device, information processing method and program |
| JP7130425B2 (en) | 2017-05-23 | 2022-09-05 | キヤノン株式会社 | Information processing device, information processing method and program |
| JP2022093550A (en) * | 2017-05-23 | 2022-06-23 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP2018198056A (en) * | 2017-05-23 | 2018-12-13 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| CN109872379B (en) * | 2017-12-05 | 2022-12-02 | 富士通株式会社 | Data processing device and method |
| CN109872379A (en) * | 2017-12-05 | 2019-06-11 | 富士通株式会社 | Data processing apparatus and method |
| JP2019102081A (en) * | 2017-12-05 | 2019-06-24 | 富士通株式会社 | Data processing apparatus and data processing method |
| JP7188015B2 (en) | 2017-12-05 | 2022-12-13 | 富士通株式会社 | Data processing device and data processing method |
| CN109993039A (en) * | 2018-01-02 | 2019-07-09 | 上海银晨智能识别科技有限公司 | Portrait identification method and device, computer readable storage medium |
| JP2019175463A (en) * | 2018-03-29 | 2019-10-10 | 株式会社東芝 | Image search apparatus, image search method, and program |
| JP2020107037A (en) * | 2018-12-27 | 2020-07-09 | 日本電気株式会社 | Information processing apparatus, information processing method, and program |
| JP2020107038A (en) * | 2018-12-27 | 2020-07-09 | 日本電気株式会社 | Information processing apparatus, information processing method, and program |
| JP7314509B2 (en) | 2018-12-27 | 2023-07-26 | 日本電気株式会社 | Information processing device, information processing method and program |
| JP7247579B2 (en) | 2018-12-27 | 2023-03-29 | 日本電気株式会社 | Information processing device, information processing method and program |
| JP2021096701A (en) * | 2019-12-18 | 2021-06-24 | 大日本印刷株式会社 | Renaming apparatus and printed matter selling system |
| CN115516530A (en) * | 2020-05-08 | 2022-12-23 | 富士通株式会社 | Recognition method, generation method, recognition program and recognition device |
| US12174885B2 (en) | 2020-05-14 | 2024-12-24 | Nec Corporation | Image selection apparatus, image selection method, and non-transitory computer-readable medium |
| CN116569226A (en) * | 2020-10-12 | 2023-08-08 | 亚萨合莱有限公司 | Access Control Using Facial Recognition and Heterogeneous Information |
| US12518562B2 (en) | 2020-10-12 | 2026-01-06 | Assa Abloy Ab | Access control with face recognition and heterogeneous information |
| WO2022153451A1 (en) * | 2021-01-14 | 2022-07-21 | 日本電気株式会社 | Collation device |
| JPWO2022153451A1 (en) * | 2021-01-14 | 2022-07-21 | ||
| JP7567939B2 (en) | 2021-01-14 | 2024-10-16 | 日本電気株式会社 | Collation Device |
| JP2022183917A (en) * | 2021-05-31 | 2022-12-13 | 大日本印刷株式会社 | Rename processing device and print sales system |
| JP2023006150A (en) * | 2021-06-30 | 2023-01-18 | 株式会社日立エルジーデータストレージ | Face authentication system |
| JP7599386B2 (en) | 2021-06-30 | 2024-12-13 | 株式会社日立エルジーデータストレージ | Face Recognition System |
| WO2024190123A1 (en) * | 2023-03-16 | 2024-09-19 | 日本電気株式会社 | Processing device, processing method, and recording medium |
| WO2026023011A1 (en) * | 2024-07-25 | 2026-01-29 | Ntt株式会社 | Training device, inference device, training method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5444137B2 (en) | 2014-03-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5444137B2 (en) | Face image search device and face image search method | |
| JP5649425B2 (en) | Video search device | |
| US8861801B2 (en) | Facial image search system and facial image search method | |
| US9171012B2 (en) | Facial image search system and facial image search method | |
| US8194939B2 (en) | Using relevance feedback in face recognition | |
| US20090091798A1 (en) | Apparel as event marker | |
| CN108933925A (en) | Information processing unit, information processing method and storage medium | |
| JP6529314B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
| JP2007272896A (en) | Digital image processing method and apparatus for performing human classification with adaptive context support | |
| JP2014182480A (en) | Person recognition device and method | |
| CN108898125A (en) | One kind being based on embedded human face identification and management system | |
| JP5787686B2 (en) | Face recognition device and face recognition method | |
| JP2014016968A (en) | Person retrieval device and data collection device | |
| JP2006031387A (en) | Image recognition apparatus, image recognition method, image recognition program, and recording medium on which image recognition program is recorded | |
| KR101107308B1 (en) | Image Search and Recognition Method | |
| Ravi et al. | A study on face recognition technique based on Eigenface | |
| Vaquero et al. | Attribute-based people search | |
| JP7247579B2 (en) | Information processing device, information processing method and program | |
| Hambarde et al. | Image-based human re-identification: Which covariates are actually (the most) important? | |
| KR101981634B1 (en) | Intelligent Face Photo Locator By learning face images by age group | |
| JP2006318375A (en) | Face image search device and face image search method | |
| Sun et al. | Complementary cohort strategy for multimodal face pair matching | |
| Jadhav et al. | Introducing Celebrities in an Images using HAAR Cascade algorithm | |
| Singothu et al. | Thermal Face Recognition: A Comprehensive Review Of Databases And Methodologies | |
| Singh et al. | PHOTOGENIC–A Tool for Best Photo Generation from Multiple Group Photographs |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130213 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131120 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131126 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131220 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5444137 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |