[go: up one dir, main page]

JP2020038731A - Image recognition device, image recognition method, and image recognition program - Google Patents

Image recognition device, image recognition method, and image recognition program Download PDF

Info

Publication number
JP2020038731A
JP2020038731A JP2019224879A JP2019224879A JP2020038731A JP 2020038731 A JP2020038731 A JP 2020038731A JP 2019224879 A JP2019224879 A JP 2019224879A JP 2019224879 A JP2019224879 A JP 2019224879A JP 2020038731 A JP2020038731 A JP 2020038731A
Authority
JP
Japan
Prior art keywords
face image
image
area
unit
small
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019224879A
Other languages
Japanese (ja)
Other versions
JP6852779B2 (en
Inventor
昭裕 早坂
Akihiro Hayasaka
昭裕 早坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019224879A priority Critical patent/JP6852779B2/en
Publication of JP2020038731A publication Critical patent/JP2020038731A/en
Priority to JP2021039200A priority patent/JP7124912B2/en
Application granted granted Critical
Publication of JP6852779B2 publication Critical patent/JP6852779B2/en
Priority to JP2022121851A priority patent/JP7302719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】システム構築にかかるコスト、および、識別時の処理負荷を増大させることなく、遮蔽領域を含む顔画像の認識精度をより向上させる技術を提供する。【解決手段】画像認識装置1は、判定部11と、識別部12とを備える。判定部11は、顔を表す画像である入力顔画像において遮蔽されている遮蔽領域を判定する。識別部12は、遮蔽領域の分布に基づく遮蔽パターンと関連付けられている除外領域を入力顔画像から除外して、入力顔画像の識別を行う。【選択図】 図1PROBLEM TO BE SOLVED: To provide a technique for further improving the recognition accuracy of a face image including a shielded area without increasing the cost for constructing a system and the processing load at the time of identification. An image recognition device 1 includes a determination unit 11 and an identification unit 12. The determination unit 11 determines a shielded area that is shielded in the input face image, which is an image representing the face. The identification unit 12 excludes the exclusion region associated with the shielding pattern based on the distribution of the shielding region from the input face image, and identifies the input face image. [Selection diagram] Fig. 1

Description

本発明は、遮蔽領域を含む顔画像を識別する技術に関する。   The present invention relates to a technique for identifying a face image including a shielding area.

顔画像を識別する画像認識装置が良く知られている。このような画像認識装置では、入力された顔画像または登録されている顔画像において顔の一部が眼鏡やサングラス、マスクなどの装着物によって遮蔽されている場合、認識精度が低下する。   An image recognition device for identifying a face image is well known. In such an image recognition device, when a part of the face is blocked by an attached object such as glasses, sunglasses, or a mask in an input face image or a registered face image, recognition accuracy is reduced.

このような問題に関連する技術の1つが、特許文献1に記載されている。特許文献1に記載の関連技術は、入力画像における複数の各小領域と、各小領域に対応する位置にある登録画像の各小領域との間で、パターン間距離値を算出する。そして、この関連技術は、パターン間距離値のうち小さい順に所定数だけを用いて算出した統合距離値に基づいて、入力画像を識別する。この関連技術では、入力画像および登録画像間でパターン間距離値が大きい小領域は識別に寄与しない。このため、この関連技術は、遮蔽によって入力画像および登録画像が大きく異なる小領域については、その小領域を避けて照合することができる。   One technique related to such a problem is described in Patent Document 1. The related art described in Patent Literature 1 calculates an inter-pattern distance value between a plurality of small regions in an input image and each small region of a registered image at a position corresponding to each small region. Then, this related technique identifies an input image based on an integrated distance value calculated using only a predetermined number in ascending order of the inter-pattern distance values. In this related technique, a small area having a large inter-pattern distance value between an input image and a registered image does not contribute to identification. Therefore, according to this related technique, for a small area in which an input image and a registered image are largely different due to occlusion, it is possible to perform matching while avoiding the small area.

また、このような問題に関連する他の技術が、特許文献2に記載されている。特許文献2に記載の関連技術は、利用者ごとに、装着物(眼鏡など)の装着状態が異なる複数の顔情報をあらかじめ登録しておく。そして、この関連技術は、複数の顔情報のうち、入力顔画像と類似する候補顔情報を特定する。さらに、この関連技術は、候補顔情報に対応する利用者について登録された複数の顔情報のうち、候補顔情報とは装着状態が異なる別種顔情報を特定する。そして、この関連技術は、装着物の装着領域以外の領域において、入力顔画像および別種顔情報が類似する場合に、入力顔画像が、候補顔情報に対応する利用者を表すと判定する。このように、この関連技術は、入力顔画像における装着物の装着状態がどちらの場合であっても、照合を行うことができる。   Another technique related to such a problem is described in Patent Document 2. In the related art described in Patent Literature 2, a plurality of pieces of face information having different wearing states of wearing objects (such as glasses) are registered in advance for each user. Then, this related technique specifies candidate face information similar to the input face image from among a plurality of pieces of face information. Furthermore, this related technology specifies different type face information having a different mounting state from the candidate face information among a plurality of face information registered for the user corresponding to the candidate face information. Then, in the related technique, when the input face image and the different-type face information are similar in an area other than the mounting area of the mounted object, the input face image is determined to represent the user corresponding to the candidate face information. As described above, according to this related technique, the collation can be performed regardless of the mounting state of the mounted object in the input face image.

また、このような問題に関連する他の技術が、特許文献3に記載されている。特許文献3に記載の関連技術は、顔画像について装着物ありと判定した場合、装着物領域を回避した領域から第1特徴量を抽出する。そして、この関連技術は、第1特徴量とともに、装着物ありの顔画像を登録しておく。また、この関連技術は、顔画像について装着物なしと判定した場合、第1特徴量に加えて、想定される装着物領域を含む領域から第2特徴量を抽出する。そして、この関連技術は、第1特徴量および第2特徴量とともに、装着物なしの顔画像を登録しておく。また、この関連技術は、入力顔画像から第1特徴量または第2特徴量を抽出し、登録画像の第1特徴量または第2特徴量との照合を行う。このように、この関連技術は、登録顔画像に装着物があり入力顔画像に装着物がない場合や、登録顔画像に装着物がなく入力顔画像に装着物がある場合も、照合を行うことができる。   Another technique related to such a problem is described in Patent Document 3. In the related art described in Patent Literature 3, when it is determined that there is a wearing object in a face image, a first feature amount is extracted from a region avoiding the wearing object region. In this related technique, a face image with an attached object is registered together with the first feature amount. Further, in the related art, when it is determined that there is no wearing object in the face image, the second feature amount is extracted from the region including the assumed wearing region in addition to the first feature amount. In this related technique, a face image without a wearing object is registered together with the first feature amount and the second feature amount. This related technique extracts a first feature amount or a second feature amount from an input face image and performs collation with the first feature amount or the second feature amount of a registered image. As described above, this related technology also performs matching when there is a wearing object in the registered face image and no wearing object in the input face image, or when there is no wearing object in the registered face image and there is a wearing object in the input face image. be able to.

また、このような問題に関連する他の関連技術が、特許文献4に記載されている。特許文献4に記載の関連技術は、入力顔画像および基準顔画像を、特徴点を頂点とする複数の小領域に分割し、対応する小領域ごとに比較する。そして、この関連技術は、比較結果に基づいて、入力顔画像の小領域ごとに、遮蔽領域であるか否かを判定する。   Another related technique relating to such a problem is described in Patent Document 4. The related art described in Patent Literature 4 divides an input face image and a reference face image into a plurality of small areas each having a feature point as a vertex, and compares each of the corresponding small areas. Then, this related technique determines whether or not each small area of the input face image is a shielding area based on the comparison result.

また、このような問題に関連する他の関連技術が、特許文献5に記載されている。特許文献5に記載の関連技術は、入力顔画像の部分的な遮蔽領域を、事前に学習させた連想記憶回路によって補完する。そして、この関連技術は、補完された想起画像を利用して照合を行う。このように、この関連技術は、全ての画像を遮蔽領域の無い画像として照合を行う。   Another related technique related to such a problem is described in Patent Document 5. In the related art described in Patent Literature 5, a partially occluded area of an input face image is complemented by an associative memory circuit that has been learned in advance. Then, this related technique performs collation using the complemented recall image. As described above, in the related technique, all images are collated as images without occluded regions.

特許第4803214号Patent No. 4803214 特開2014−115784号公報JP 2014-115784 A 特開2007−280250号公報JP 2007-280250 A 特開2011−60038号公報JP 2011-60038 A 特開2007−148872号公報JP 2007-148873 A

しかしながら、上述の関連技術には、以下の課題がある。   However, the above related art has the following problems.

特許文献1に記載の関連技術では、入力画像および登録画像のそれぞれ表す顔の人物が異なる場合であっても、各画像における遮蔽領域の配置や内容が類似する場合がある。このような場合、この関連技術は、パターン間距離値が小さい遮蔽領域を照合に用いてしまう。そのため、この関連技術は、実際には異なる人物を示す入力画像および登録画像を、同一人物を示すと判定してしまう場合がある。   In the related art described in Patent Literature 1, even when the face of each of the input image and the registered image is different from each other, the arrangement and the contents of the shielding areas in each image may be similar. In such a case, this related technique uses an occluded region having a small inter-pattern distance value for matching. For this reason, this related technique may determine that the input image and the registered image indicating different persons actually indicate the same person.

また、特許文献2に記載の関連技術では、利用者ごとに、装着状態の異なる複数の顔画像を登録する必要がある。しかしながら、どのような利用者も、そのような複数の顔画像を登録可能であるとは限らない。また、想定される装着物の種類が増えると、利用者は、装着物ごとに装着状態の異なる顔画像を登録しなければならない。これは、利便性の面での問題を生じる。   In the related art described in Patent Literature 2, it is necessary to register a plurality of face images having different wearing states for each user. However, not all users can register such a plurality of face images. Further, when the number of types of assumed wearing objects increases, the user must register face images having different wearing states for each of the wearing objects. This creates a problem in terms of convenience.

また、特許文献3に記載の関連技術では、想定される装着物の種類が増えると、各装着物について、想定される装着物領域を回避した第1特徴量を抽出する必要が生じる。したがって、この関連技術は、想定される装着物の種類数だけ異なるパターンの第1特徴量を抽出しなければならず、処理負荷が増加する。なお、想定される全ての装着物の装着物領域を避けた領域から第1特徴量を抽出すれば、想定される装着物の種類が増加しても、第1特徴量のパターン数は増加しない。しかしながら、この場合、想定される装着物の種類の増加に伴い、顔を表す領域のうちで照合に用いることができる領域が減少してしまう。その結果、認識精度が低下する。また、想定される装着物の種類の増加に応じて、装着物の有無を判定する機能の事前学習にかかるコストも増大する。   Further, in the related art described in Patent Literature 3, when the types of assumed attachments increase, it is necessary to extract a first feature amount of each attachment that avoids the assumed attachment area. Therefore, in this related technique, it is necessary to extract the first feature amount of the pattern that differs by the number of types of assumed wearing objects, and the processing load increases. Note that if the first feature amount is extracted from a region avoiding the assumed attachment region of all assumed attachments, the number of patterns of the first feature amount does not increase even if the number of assumed attachment types increases. . However, in this case, as the number of types of assumed wearing objects increases, the area that can be used for matching out of the areas representing the face decreases. As a result, recognition accuracy decreases. In addition, as the number of types of attachments assumed increases, the cost of pre-learning the function of determining the presence / absence of attachments also increases.

また、特許文献4に記載の関連技術は、入力画像の小領域ごとに、基準顔画像の小領域との輝度の差分に基づき遮蔽領域であるかないかを判定している。しかし、照明変動の影響により、小領域によっては、遮蔽領域でなくても基準顔画像との輝度の差分が大きい場合がある。この場合、この関連技術は、遮蔽領域でない小領域を遮蔽領域であると判定してしまう。また、入力顔画像の小領域がテクスチャの少ない遮蔽物によって遮蔽されており、対応する基準顔画像の小領域におけるテクスチャがもともと少ないことがある。このとき、そのような小領域間では、輝度の差分が少なくなる場合がある。この場合、この関連技術は、遮蔽領域である小領域を遮蔽領域でないと判定してしまう。例えば、白いマスクをした人物のマスクの一部と基準顔の肌との輝度の差分は少ない可能性がある。この場合、この関連技術は、マスクで遮蔽されている領域を遮蔽領域でないと判定してしまう。このように、この関連技術は、小領域ごとの遮蔽領域の判定精度に問題がある。   The related art described in Patent Literature 4 determines, for each small area of an input image, whether or not the small area of a reference face image is an occluded area based on a difference in luminance from a small area of a reference face image. However, due to the influence of illumination variation, the difference in luminance from the reference face image may be large even in a small area, even if the area is not a shielding area. In this case, this related technique determines that a small area that is not a shielding area is a shielding area. In addition, a small area of the input face image is covered by a shield having a small texture, and the texture in the corresponding small area of the reference face image may be originally small. At this time, the difference in luminance between such small areas may be small. In this case, the related art determines that the small area that is the shielding area is not the shielding area. For example, the difference in luminance between a part of the mask of a person wearing a white mask and the skin of the reference face may be small. In this case, the related art determines that the area shielded by the mask is not the shielded area. As described above, this related technique has a problem in the accuracy of determining a shielding area for each small area.

また、特許文献5に記載の関連技術は、登録画像に遮蔽領域がある場合に対応できない。これは、部分的な遮蔽領域を補完する想起画像生成のための学習には、遮蔽領域のない登録画像が必要となるからである。また、この関連技術は、登録画像の表す人物以外の人物を表す入力顔画像が入力された場合、登録画像の表す人物に近い想起画像を生成してしまう。そのため、この関連技術は、そのような入力顔画像について、実際には異なる人物を示す登録顔画像と同一人物を示すと判定してしまう可能性がある。   Further, the related art described in Patent Document 5 cannot cope with a case where a registered image has a shielding area. This is because learning for generating a recollection image that complements a partial occlusion region requires a registered image without occlusion regions. Further, in the related art, when an input face image representing a person other than the person represented by the registered image is input, a recollection image close to the person represented by the registered image is generated. Therefore, this related technique may determine that such an input face image actually indicates the same person as a registered face image indicating a different person.

本発明は、上述の課題を解決するためになされたものである。すなわち、本発明は、システム構築にかかるコストおよび識別時の処理負荷を増大させることなく、遮蔽領域を含む画像の認識精度をより向上させる技術を提供することを目的とする。   The present invention has been made to solve the above problems. That is, an object of the present invention is to provide a technique for further improving the recognition accuracy of an image including an occluded region without increasing the cost for system construction and the processing load at the time of identification.

本発明の画像認識装置は、顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定する判定部と、前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う識別部と、を備える。   An image recognition device according to the present invention compares an image representing a face (face image) with an image representing a standard face (standard face image) to determine a face occlusion pattern in the face image. And an identification unit that identifies the face image by excluding an area based on the shielding pattern in the face image.

また、本発明の画像認識方法は、顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定し、前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う。   Also, the image recognition method of the present invention determines a face occlusion pattern in the face image by comparing an image representing a face (face image) with an image representing a standard face (standard face image). And identifying the face image by excluding an area based on the shielding pattern in the face image.

また、本発明の画像認識プログラムは、顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定する判定ステップと、前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う識別ステップと、をコンピュータ装置に実行させる。   Further, the image recognition program of the present invention determines a face occlusion pattern in the face image by comparing an image representing a face (face image) with an image representing a standard face (standard face image). The computer device is caused to execute a determination step and an identification step of identifying the face image by excluding an area based on the shielding pattern in the face image.

本発明は、システム構築にかかるコストおよび識別時の処理負荷を増大させることなく、遮蔽領域を含む画像の認識精度をより向上させる技術を提供することができる。   The present invention can provide a technique for further improving the recognition accuracy of an image including an occluded region without increasing the cost of system construction and the processing load at the time of identification.

本発明の第1の実施の形態としての画像認識装置の機能ブロック図である。FIG. 1 is a functional block diagram of an image recognition device according to a first embodiment of the present invention. 本発明の第1の実施の形態としての画像認識装置のハードウェア構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of an image recognition device according to a first embodiment of the present invention. 本発明の第1の実施の形態としての画像認識装置の動作を説明するフローチャートである。5 is a flowchart illustrating an operation of the image recognition device according to the first embodiment of the present invention. 本発明の第2の実施の形態としての画像認識装置の機能ブロック図である。It is a functional block diagram of an image recognition device as a second embodiment of the present invention. 本発明の第2の実施の形態において顔画像が分割された小領域の一例を模式的に示す図である。FIG. 14 is a diagram schematically illustrating an example of a small area obtained by dividing a face image according to the second embodiment of the present invention. 本発明の第2の実施の形態において顔画像が分割された小領域の他の一例を模式的に示す図である。It is a figure which shows typically another example of the small area | region where the face image was divided in 2nd Embodiment of this invention. 本発明の第2の実施の形態において顔画像が分割された小領域の他の一例を模式的に示す図である。It is a figure which shows typically another example of the small area | region where the face image was divided in 2nd Embodiment of this invention. 本発明の第2の実施の形態において顔画像が分割された小領域の他の一例を模式的に示す図である。It is a figure which shows typically another example of the small area | region where the face image was divided in 2nd Embodiment of this invention. 本発明の第2の実施の形態としての画像認識装置の動作を説明するフローチャートである。9 is a flowchart illustrating an operation of the image recognition device according to the second embodiment of the present invention. 本発明の第3の実施の形態としての画像認識装置の機能ブロック図である。It is a functional block diagram of an image recognition device as a third embodiment of the present invention. 本発明の第3の実施の形態としての画像認識装置の動作を説明するフローチャートである。13 is a flowchart illustrating an operation of the image recognition device according to the third embodiment of the present invention. 本発明の第4の実施の形態としての画像認識装置の機能ブロック図である。It is a functional block diagram of an image recognition device as a fourth embodiment of the present invention. 本発明の第4の実施の形態としての画像認識装置の動作を説明するフローチャートである。13 is a flowchart illustrating an operation of the image recognition device according to the fourth embodiment of the present invention.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
本発明の第1の実施の形態としての画像認識装置1の構成を図1に示す。図1において、画像認識装置1は、判定部11と、識別部12とを含む。
(First Embodiment)
FIG. 1 shows a configuration of an image recognition device 1 according to a first embodiment of the present invention. In FIG. 1, the image recognition device 1 includes a determination unit 11 and an identification unit 12.

ここで、画像認識装置1は、図2に示すように、CPU(Central Processing Unit)1001と、RAM(Random Access Memory)1002と、ROM(Read Only Memory)1003と、ハードディスク等の記憶装置1004と、撮像装置1005と、出力装置1006とを含むコンピュータ装置によって構成可能である。ROM1003および記憶装置1004は、コンピュータ装置を本実施の形態の画像認識装置1として機能させるためのコンピュータ・プログラムおよび各種データを記憶している。撮像装置1005は、人物の顔を撮像することにより顔を表す画像を生成するカメラやビデオカメラ等の装置である。出力装置1006は、情報を出力するディスプレイ等の装置である。CPU1001は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行することにより、コンピュータ装置の各部を制御する。   Here, as shown in FIG. 2, the image recognition device 1 includes a CPU (Central Processing Unit) 1001, a RAM (Random Access Memory) 1002, a ROM (Read Only Memory) 1003, and a storage device 1004 such as a hard disk. , An imaging device 1005, and an output device 1006. The ROM 1003 and the storage device 1004 store a computer program and various data for causing a computer device to function as the image recognition device 1 of the present embodiment. The imaging device 1005 is a device such as a camera or a video camera that generates an image representing a face by imaging a person's face. The output device 1006 is a device such as a display that outputs information. The CPU 1001 controls each unit of the computer device by reading the computer program and various data stored in the ROM 1003 and the storage device 1004 into the RAM 1002 and executing them.

この場合、判定部11は、撮像装置1005と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。また、識別部12は、出力装置1006と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。なお、画像認識装置1およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。   In this case, the determination unit 11 includes an imaging device 1005 and a CPU 1001 that reads a computer program and various data stored in a ROM 1003 and a storage device 1004 into a RAM 1002 and executes the data. The identification unit 12 includes an output device 1006 and a CPU 1001 that reads a computer program and various data stored in a ROM 1003 and a storage device 1004 into a RAM 1002 and executes the data. Note that the hardware configuration of the image recognition device 1 and its functional blocks is not limited to the above-described configuration.

次に、画像認識装置1の各機能ブロックについて説明する。   Next, each functional block of the image recognition device 1 will be described.

判定部11は、顔画像および標準顔画像を比較することにより、顔画像における顔の遮蔽パターンを判定する。ここで、顔画像は、顔を表す画像である。例えば、判定部11は、顔画像を、撮像装置1005を介して取得する。また、標準顔画像は、標準的な顔を表す画像である。なお、標準顔画像は、あらかじめ定められており、例えば、記憶装置1004に記憶されているものとする。また、顔画像および標準顔画像は、該当する画像から顔を表す領域が切り出された画像であるものとする。また、本実施の形態では、顔画像および標準顔画像は、サイズや顔の向きなどが略同一であることを前提とする。   The determination unit 11 determines a face occlusion pattern in the face image by comparing the face image and the standard face image. Here, the face image is an image representing a face. For example, the determination unit 11 acquires a face image via the imaging device 1005. The standard face image is an image representing a standard face. The standard face image is determined in advance, and is stored, for example, in the storage device 1004. The face image and the standard face image are images obtained by cutting out a region representing a face from the corresponding image. In the present embodiment, it is assumed that the face image and the standard face image have substantially the same size, face direction, and the like.

また、遮蔽パターンとは、顔に対してどのような遮蔽物によりどの領域に遮蔽が発生しているかを表す情報である。具体的には、遮蔽パターンは、マスクで口が隠れている、サングラスで目が隠れている、といった情報であってもよい。例えば、判定部11は、顔画像および標準顔画像を比較することにより、顔が遮蔽物により遮蔽されている遮蔽領域を推定し、推定した遮蔽領域の分布を考慮して、遮蔽パターンを判定してもよい。   In addition, the shielding pattern is information indicating what area of the face has been blocked by what kind of blocking object. Specifically, the shielding pattern may be information such that the mouth is hidden by a mask or the eyes are hidden by sunglasses. For example, the determination unit 11 compares the face image and the standard face image to estimate a blocking area where the face is blocked by the blocking object, and determines a blocking pattern in consideration of the estimated blocking area distribution. You may.

識別部12は、顔画像中の遮蔽パターンに基づく領域を除外して、顔画像の識別を行う。除外領域は、想定される遮蔽パターンに応じてあらかじめ定められているものとする。なお、除外領域は、判定部21によって遮蔽パターンを判定する過程で推定された遮蔽領域と必ずしも一致していなくてもよい。また、顔画像の識別技術については、公知の技術を採用可能である。そして、識別部12は、識別結果を、出力装置1006に出力する。   The identification unit 12 identifies a face image by excluding a region based on a shielding pattern in the face image. It is assumed that the exclusion area is determined in advance according to an assumed shielding pattern. Note that the exclusion area does not necessarily need to match the shielding area estimated in the process of determining the shielding pattern by the determination unit 21. In addition, as a face image identification technique, a known technique can be adopted. Then, the identification unit 12 outputs the identification result to the output device 1006.

以上のように構成された画像認識装置1の動作について、図3を参照して説明する。   The operation of the image recognition device 1 configured as described above will be described with reference to FIG.

まず、判定部11は、入力された顔画像(入力顔画像)および標準顔画像を比較する(ステップS1)。   First, the determination unit 11 compares an input face image (input face image) with a standard face image (step S1).

次に、判定部11は、ステップS1の比較結果に基づいて、入力顔画像における遮蔽パターンを判定する(ステップS2)。   Next, the determination unit 11 determines a shielding pattern in the input face image based on the comparison result of Step S1 (Step S2).

次に、識別部12は、入力顔画像中で、ステップS2で判定された遮蔽パターンに基づく領域を除外して、入力顔画像の識別を行う。そして、識別部12は、識別結果を出力する(ステップS3)。   Next, the identification unit 12 identifies the input face image by excluding an area based on the occlusion pattern determined in step S2 in the input face image. Then, the identification unit 12 outputs an identification result (Step S3).

以上で、画像認識装置1は動作を終了する。   Thus, the operation of the image recognition device 1 ends.

次に、本発明の第1の実施の形態の効果について述べる。   Next, effects of the first exemplary embodiment of the present invention will be described.

本発明の第1の実施の形態としての画像認識装置は、システム構築にかかるコストおよび識別処理の負荷を増大させることなく、遮蔽領域を含む画像の認識精度をより向上させることができる。   The image recognition device according to the first embodiment of the present invention can further improve the recognition accuracy of an image including an occluded region without increasing the cost for constructing a system and the load of identification processing.

その理由は、判定部が、顔画像および標準顔画像を比較することにより、顔画像の遮蔽パターンを判定し、識別部が、顔画像中の遮蔽パターンに基づく領域を除外して、顔画像の識別を行うからである。   The reason is that the determination unit determines the occlusion pattern of the face image by comparing the face image and the standard face image, and the identification unit excludes an area based on the occlusion pattern in the face image, This is because identification is performed.

このように、本実施の形態は、顔画像を標準顔画像と比較して、顔画像における遮蔽領域の分布を考慮して遮蔽パターンを判定する。また、本実施の形態は、標準顔画像との比較により遮蔽されていると推定した遮蔽領域そのものを除外するのではなく、遮蔽領域の分布を考慮して判定した遮蔽パターンに対して定めておいた領域を除外して識別を行う。これにより、本実施の形態は、遮蔽領域の判定エラーに頑健な遮蔽検出を実現する。また、本実施の形態は、遮蔽領域の判定エラーに伴う認証精度の低下を防ぐことができ、顔画像の認識精度を向上させることができる。   As described above, in the present embodiment, the face image is compared with the standard face image, and the occlusion pattern is determined in consideration of the distribution of occluded regions in the face image. In addition, the present embodiment does not exclude the occluded area itself that is estimated to be occluded by comparison with the standard face image, but defines the occluded pattern determined in consideration of the distribution of the occluded area. The discrimination is performed by excluding the region that has existed. As a result, the present embodiment realizes occlusion detection that is robust against an occlusion region determination error. Further, according to the present embodiment, it is possible to prevent the authentication accuracy from being lowered due to the occlusion region determination error, and to improve the face image recognition accuracy.

また、本実施の形態は、遮蔽物の種類ごとに遮蔽物の有無を判定する機能の事前学習を必要としない。また、本実施の形態は、利用者毎の遮蔽有無に対応する複数画像の事前登録を必要としない。また、本実施の形態は、遮蔽物の種類数分の特徴量の抽出を必要としない。そして、本実施の形態は、標準顔画像をあらかじめ用意しておき、想定される遮蔽パターンに応じて除外する領域を定めておけばよく、システム構築のコストおよび識別処理の負荷を増大させることがない。   Further, the present embodiment does not require a prior learning of a function of determining the presence or absence of a shielding object for each type of shielding object. In addition, the present embodiment does not require pre-registration of a plurality of images corresponding to the presence or absence of shielding for each user. Further, in the present embodiment, it is not necessary to extract feature amounts corresponding to the number of types of shields. In the present embodiment, a standard face image is prepared in advance, and an area to be excluded may be determined according to an assumed shielding pattern, which may increase the cost of system construction and the load of identification processing. Absent.

(第2の実施の形態)
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第1の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Second embodiment)
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. In each of the drawings referred to in the description of the present embodiment, steps having the same configuration and the same operation as those in the first embodiment of the present invention are denoted by the same reference numerals, and detailed description in the present embodiment will be given. Description is omitted.

まず、本発明の第2の実施の形態としての画像認識装置2の構成を図4に示す。図4において、画像認識装置2は、本発明の第1の実施の形態としての画像認識装置1に対して、判定部11に替えて判定部21と、識別部12に替えて識別部22とを備え、さらに、分割部23と、信頼度算出部24とを有する。   First, the configuration of an image recognition device 2 according to a second embodiment of the present invention is shown in FIG. In FIG. 4, the image recognition device 2 differs from the image recognition device 1 according to the first embodiment of the present invention in that a determination unit 21 replaces the determination unit 11, and an identification unit 22 replaces the identification unit 12. And a dividing unit 23 and a reliability calculating unit 24.

ここで、画像認識装置2は、図2を参照して説明した本発明の第1の実施の形態の画像認識装置1と同様のハードウェア要素によって構成可能である。この場合、分割部23は、撮像装置1005と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。また、信頼度算出部24は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001によって構成される。なお、画像認識装置2およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。   Here, the image recognition device 2 can be configured by the same hardware elements as the image recognition device 1 according to the first embodiment of the present invention described with reference to FIG. In this case, the dividing unit 23 includes an imaging device 1005 and a CPU 1001 that reads a computer program and various data stored in a ROM 1003 and a storage device 1004 into a RAM 1002 and executes the data. Further, the reliability calculation unit 24 is configured by a CPU 1001 that reads a computer program and various data stored in the ROM 1003 and the storage device 1004 into the RAM 1002 and executes the data. Note that the hardware configuration of the image recognition device 2 and its functional blocks is not limited to the above-described configuration.

次に、画像認識装置2の各機能ブロックについて説明する。   Next, each functional block of the image recognition device 2 will be described.

分割部23は、顔画像を小領域(パッチともいう)に分割する。なお、分割部23は、撮像装置1005を介して顔画像を取得してもよい。例えば、分割部23は、顔画像を、同一形状の小領域に分割してもよい。また、分割部23は、顔画像を、ある小領域の形状が他の少なくとも一部と異なるように分割してもよい。また、分割された各小領域は、他の小領域と重なり合う部分があってもよい。なお、分割部23は、顔画像を、標準顔画像と同様の配置および形状の小領域に分割することが望ましい。例えば、分割部23は、あらかじめ標準顔画像を小領域に分割しておき、入力された顔画像を同様の小領域に分割すればよい。あるいは、分割部23は、小領域にあらかじめ分割された標準顔画像の情報を取得し、取得した小領域と同様の小領域に顔画像を分割してもよい。   The dividing unit 23 divides the face image into small areas (also called patches). Note that the dividing unit 23 may acquire a face image via the imaging device 1005. For example, the dividing unit 23 may divide the face image into small regions having the same shape. Further, the dividing unit 23 may divide the face image such that the shape of a certain small area is different from at least another part. Further, each of the divided small areas may have a portion that overlaps with another small area. It is desirable that the dividing unit 23 divides the face image into small areas having the same arrangement and shape as the standard face image. For example, the dividing unit 23 may divide the standard face image into small areas in advance, and divide the input face image into similar small areas. Alternatively, the dividing unit 23 may acquire information of a standard face image divided in advance into small areas and divide the face image into small areas similar to the acquired small areas.

なお、分割部23は、顔画像を分割する前に、顔画像を正規化する処理を行ってもよい。これは、画像認識装置2に入力される顔画像が、正規化されていない場合に対応するためである。具体的には、分割部23は、顔画像中の顔を正規化した顔画像を生成する。なお、ここでいう正規化とは、顔の角度、大きさ等が、所定の角度や大きさになるよう変形処理することをいうものとする。例えば、分割部23は、入力顔画像中の目や口などの特徴点を検出し、その特徴点が所定の位置にくるよう幾何変換をすればよい。また、分割部23は、画像認識装置2に入力される画像が顔より広い範囲を表す画像であった場合、該当する画像から顔画像を切り出してから、正規化を行ってもよい。例えば、分割部23は、顔画像の正規化処理に、特許4653606号の手法を採用してもよい。なお、分割部23は、その他の手法を用いて入力顔画像を正規化してもよい。   Note that the dividing unit 23 may perform a process of normalizing the face image before dividing the face image. This is to deal with a case where the face image input to the image recognition device 2 is not normalized. Specifically, the dividing unit 23 generates a face image in which the face in the face image is normalized. Note that the normalization here refers to performing a deformation process so that the face angle, size, and the like become a predetermined angle and size. For example, the dividing unit 23 may detect a feature point such as an eye or a mouth in the input face image and perform geometric transformation so that the feature point is located at a predetermined position. When the image input to the image recognition device 2 is an image representing a wider range than the face, the dividing unit 23 may perform normalization after cutting out the face image from the corresponding image. For example, the dividing unit 23 may employ the method of Japanese Patent No. 4653606 for normalizing the face image. Note that the dividing unit 23 may normalize the input face image using another method.

具体例として、例えば、分割部23は、正規化した顔画像を、図5に示すように、格子状の等サイズの矩形の小領域に分割してもよい。あるいは、図6に示すように、一部または全部の小領域が、他の小領域に重なるように分割されていても構わない。図6では、太線の実線の矩形が示す小領域は、破線の矩形が示す4つの小領域と重なっている。あるいは、分割部23は、正規化した顔画像を、図7に示すように、ある小領域のサイズが他の少なくとも一部の小領域のサイズと異なるよう分割してもよい。あるいは、分割部23は、正規化した顔画像を、図8に示すように、矩形以外の形状(例えば、三角形)の小領域に分割してもよい。分割部23は、信頼度算出部24および識別部22の処理に支障のない範囲であれば、任意の形状やサイズの小領域に分割を行ってよい。   As a specific example, for example, the dividing unit 23 may divide the normalized face image into small lattice-like rectangular small areas as shown in FIG. Alternatively, as shown in FIG. 6, some or all of the small areas may be divided so as to overlap with other small areas. In FIG. 6, the small area indicated by the bold solid line rectangle overlaps the four small areas indicated by the dashed rectangle. Alternatively, the dividing unit 23 may divide the normalized face image such that the size of a certain small area is different from the size of at least some other small areas, as shown in FIG. Alternatively, the dividing unit 23 may divide the normalized face image into small regions having shapes other than rectangles (for example, triangles), as shown in FIG. The division unit 23 may divide the image into small areas of any shape and size as long as the processing of the reliability calculation unit 24 and the identification unit 22 is not hindered.

信頼度算出部24は、顔画像を構成する小領域と、標準顔画像を構成する小領域とで、対応する小領域同士を比較する。そして、信頼度算出部24は、顔画像の小領域毎に、比較結果に基づいて信頼度を算出する。信頼度は、その小領域が、遮蔽物により顔が隠されている遮蔽領域であるか否かの可能性を表す。なお、信頼度は、その小領域が遮蔽領域である可能性が高いほど小さく、低いほど大きい値であってもよい。逆に、信頼度は、その小領域が遮蔽領域である可能性が高いほど大きく、低いほど小さい値であってもよい。   The reliability calculation unit 24 compares the corresponding small areas of the small area forming the face image with those of the small area forming the standard face image. Then, the reliability calculation unit 24 calculates the reliability based on the comparison result for each small area of the face image. The reliability indicates the possibility that the small area is an occluded area where the face is hidden by an occluder. The reliability may be smaller as the possibility that the small region is the shielding region is higher, and may be larger as the possibility is lower. Conversely, the reliability may be larger as the possibility that the small region is a blocking region is higher, and may be smaller as the probability is lower.

また、標準顔画像は、あらかじめ記憶装置1004に記憶されている。また、標準顔画像は、あらかじめ正規化されているものとする。例えば、標準顔画像は、遮蔽領域を含まない一般的な証明写真のような顔を表すものであってもよい。また、標準顔画像としては、より多くの顔画像と照合されやすい顔画像を採用するのが望ましい。例えば、標準顔画像としては、複数の人物の顔が平均化された平均顔を表す画像を利用してもよい。また、標準顔画像としては、ウルフ/ラム(複数の人物の顔との類似度が所定条件を満たすサンプル)を表す画像を利用してもよい。また、標準顔画像としては、複数の人物の顔と類似するよう人工的に作り出された物体(人工物)を表す画像を利用してもよい。また、標準顔画像は、あらかじめ小領域に分割されていてもよい。この場合、標準顔画像を構成する小領域は、分割部23によって分割されたものであってもよい。   The standard face image is stored in the storage device 1004 in advance. It is assumed that the standard face image has been normalized in advance. For example, the standard face image may represent a face like a general ID photo that does not include the occluded area. In addition, it is desirable to adopt a face image that is easily collated with more face images as the standard face image. For example, an image representing an average face obtained by averaging the faces of a plurality of persons may be used as the standard face image. As the standard face image, an image representing Wolf / Ram (a sample whose similarity with the faces of a plurality of persons satisfies a predetermined condition) may be used. As the standard face image, an image representing an object (artificial object) artificially created to be similar to the faces of a plurality of persons may be used. Further, the standard face image may be divided into small areas in advance. In this case, the small area constituting the standard face image may be one divided by the dividing unit 23.

例えば、信頼度算出部24は、対応する小領域間で、輝度値の差分の総和により信頼度を算出するようにしてもよい。ただし、輝度値を用いた信頼度は、照明変動の影響を受けやすい。そこで、信頼度算出部24は、小領域毎に特徴量ベクトルを用いて信頼度を算出してもよい。特徴量ベクトルは、例えば、顔認証でよく用いられるGaborフィルタやLBP(Local Binary Pattern)のような特徴抽出処理によって得られる情報であってもよい。あるいは、特徴量ベクトルは、顔検出でよく用いられるHaar−likeフィルタのような特徴抽出処理によって得られる情報であってもよい。そして、この場合、信頼度算出部24は、対応する小領域同士で、特徴量ベクトル間の距離または相関に基づき信頼度を算出可能である。このような特徴量ベクトルに基づくことにより、信頼度算出部24は、照明変動などの影響を低減した信頼度を算出できる。なお、特徴量ベクトル間の距離に基づく信頼度を算出した場合、信頼度は、値が大きいほど、遮蔽領域である可能性が高いことを表すことになる。また、特徴量ベクトル間の相関に基づく信頼度を算出した場合、信頼度は、値が小さいほど、遮蔽領域である可能性が高いことを表すことになる。例えば、信頼度算出部24は、特徴量ベクトル間の正規化相関値を計算し、各小領域の信頼度としてもよい。この場合、信頼度が1に近いほど非遮蔽領域である可能性が高く、0に近いほど遮蔽領域である可能性が高いとみなせる。以下では、信頼度が、正規化相関値である例を中心に説明する。   For example, the reliability calculating unit 24 may calculate the reliability based on the sum of the differences between the luminance values between the corresponding small areas. However, the reliability using the luminance value is easily affected by illumination fluctuation. Therefore, the reliability calculation unit 24 may calculate the reliability using the feature amount vector for each small area. The feature amount vector may be, for example, information obtained by a feature extraction process such as a Gabor filter or LBP (Local Binary Pattern) often used in face authentication. Alternatively, the feature amount vector may be information obtained by a feature extraction process such as a Haar-like filter often used in face detection. Then, in this case, the reliability calculation unit 24 can calculate the reliability based on the distance or the correlation between the feature vectors between the corresponding small regions. Based on such a feature amount vector, the reliability calculation unit 24 can calculate the reliability in which the influence of illumination fluctuation or the like is reduced. In the case where the reliability based on the distance between the feature amount vectors is calculated, the larger the value of the reliability, the higher the possibility that the area is the occlusion area. Further, when the reliability based on the correlation between the feature amount vectors is calculated, the smaller the value of the reliability, the higher the possibility that the region is the occluded region. For example, the reliability calculation unit 24 may calculate a normalized correlation value between the feature amount vectors and use the calculated correlation value as the reliability of each small region. In this case, it can be considered that the closer to 1 the reliability is, the higher the possibility of the non-blocking region, and the closer to 0, the higher the possibility of the blocking region. Hereinafter, an example in which the reliability is a normalized correlation value will be mainly described.

判定部21は、顔画像における小領域別の信頼度の分布に基づいて、遮蔽パターンを判定する。ここで、判定部21は、所定範囲の小領域群をまとめた中領域に対して、中領域を構成する小領域群の信頼度の分布が遮蔽条件を満たすか否かを判定してもよい。そして、遮蔽条件を満たす場合、判定部21は、その中領域が遮蔽領域であると推定してもよい。そして、判定部21は、推定した遮蔽領域の分布に基づいて、遮蔽パターンを判定してもよい。   The determining unit 21 determines the occlusion pattern based on the distribution of the reliability of each small area in the face image. Here, the determination unit 21 may determine whether or not the distribution of the reliability of the small region group forming the middle region satisfies the shielding condition with respect to the middle region obtained by combining the small region groups in the predetermined range. . Then, when the shielding condition is satisfied, the determination unit 21 may estimate that the middle region is the shielding region. Then, the determining unit 21 may determine the shielding pattern based on the estimated distribution of the shielding area.

例えば、判定部21は、中領域を構成する各小領域の信頼度が閾値より高いか低いかを判別してもよい。そして、判定部21は、周囲の小領域の判別結果と異なる判別結果となった小領域の信頼度をノイズであるとみなしてもよい。具体的には、判定部21は、中領域を構成する小領域群の信頼度が閾値よりも低くなる小領域がその小領域群の過半数以上であるという遮蔽条件を満たす場合に、その中領域を遮蔽領域であると推定してもよい。なお、遮蔽条件は、その他の条件であってもよい。そして、判定部21は、遮蔽領域と推定された中領域の分布に基づいて、遮蔽パターンを判定してもよい。なお、中領域は、段階的に設定されていてもよい。例えば、判定部21は、所定範囲の小領域群をまとめた中領域をさらに所定範囲でまとめて大領域とするような構成にしてもよい。このような場合、判定部21は、大領域を構成する中領域のうち遮蔽領域であると推定されたものの分布が遮蔽条件を満たす場合に、大領域が遮蔽領域であると推定してもよい。そして、この場合、判定部21は、遮蔽領域であると推定された大領域の分布に基づいて、遮蔽パターンを判定すればよい。また、小領域、中領域、大領域の3段階に限らず、小領域から大領域までがさらに多段に設計されていてもよい。   For example, the determination unit 21 may determine whether the reliability of each small region constituting the middle region is higher or lower than a threshold. Then, the determination unit 21 may regard the reliability of the small region having a different determination result from the determination result of the surrounding small region as noise. Specifically, the determination unit 21 determines that the small region in which the reliability of the small region group forming the middle region is lower than the threshold is a majority of the small region group or more, May be estimated to be a shielding area. Note that the shielding condition may be another condition. Then, the determining unit 21 may determine the shielding pattern based on the distribution of the middle region estimated as the shielding region. Note that the middle region may be set in a stepwise manner. For example, the determination unit 21 may have a configuration in which a middle area obtained by combining small area groups in a predetermined range is further combined into a predetermined area to form a large area. In such a case, the determination unit 21 may estimate that the large area is a shielded area when the distribution of the medium areas constituting the large area that is estimated to be the shielded area satisfies the shielding condition. . Then, in this case, the determination unit 21 may determine the shielding pattern based on the distribution of the large area estimated to be the shielding area. Further, the present invention is not limited to the three stages of the small region, the middle region, and the large region, and the small region to the large region may be designed in more stages.

例えば、判定部21は、顔画像中で鼻よりも上側の小領域群をまとめた顔上部領域を中領域に設定してもよい。この場合、判定部21は、顔上部領域における小領域群の信頼度の分布が遮蔽条件を満たす場合に、サングラスによる遮蔽パターンであると判定してもよい。また、判定部21は、鼻よりも下側の小領域群をまとめた顔下部領域を中領域に設定してもよい。この場合、判定部21は、顔下部領域における小領域群の信頼度の分布が遮蔽条件を満たす場合に、マスクによる遮蔽パターンであると判定してもよい。その他、判定部21は、想定される各種の遮蔽パターンに応じて中領域を設定しておけばよい。   For example, the determination unit 21 may set the upper face area in which the small area groups above the nose in the face image are put together as the middle area. In this case, when the distribution of the reliability of the small area group in the upper face area satisfies the shielding condition, the determination unit 21 may determine that the pattern is a shielding pattern using sunglasses. In addition, the determination unit 21 may set the lower face area in which the small area groups below the nose are put together as the middle area. In this case, when the distribution of the reliability of the small area group in the lower face area satisfies the shielding condition, the determination unit 21 may determine that the pattern is a masking mask pattern. In addition, the determination unit 21 may set the middle area according to various types of assumed shielding patterns.

ここで、小領域の信頼度の分布または遮蔽領域の分布に基づいて遮蔽パターンを判定することのメリットについて説明する。小領域毎に算出した信頼度は、撮影状況などにより結果が不安定になりやすい。そのため、仮に、小領域毎に、信頼度による遮蔽判定を行ったとすると、エラーが生じる可能性が高くなる。なお、ここでいうエラーとは、本来遮蔽領域である小領域を遮蔽領域でないと判定したり、本来遮蔽領域でない小領域を遮蔽領域であると判定することをいう。また、そのようなエラーを発生しうる信頼度は、ノイズであるといえる。仮に、このような小領域毎の遮蔽判定に基づき遮蔽領域以外を識別に用いるとすると、本来、識別の対象に適していない小領域(遮蔽領域)を遮蔽領域でないとして識別に利用する可能性がある。また、本来、識別の対象に適している小領域(遮蔽領域でない領域)を遮蔽領域であるとして識別に利用しない可能性がある。したがって、小領域毎の信頼度による遮蔽判定は、認証精度を低減してしまう。   Here, the merit of determining the shielding pattern based on the distribution of the reliability of the small region or the distribution of the shielding region will be described. The result of the reliability calculated for each small area is likely to be unstable depending on the shooting conditions. For this reason, if the occlusion determination based on the reliability is performed for each small area, an error is more likely to occur. Note that the error here means that a small area that is originally a shielding area is determined to be not a shielding area, and a small area that is not originally a shielding area is determined to be a shielding area. Also, the reliability at which such an error can occur can be said to be noise. If it is assumed that a region other than the shielding region is used for identification based on such a shielding determination for each small region, there is a possibility that a small region (shielding region) that is not originally suitable for identification is used for identification as a non-shielding region. is there. In addition, there is a possibility that a small area (an area that is not a shielding area) that is originally suitable for an identification target is not used for identification as a shielding area. Therefore, the occlusion determination based on the reliability of each small area reduces the authentication accuracy.

一方、日常生活でよく起こり得る顔の遮蔽パターンとしては、マスクやサングラスが代表的である。これらの遮蔽パターンは、顔の1/3ないしは1/2程度の非常に大きい範囲を遮蔽するものである。このような遮蔽パターンの特性を考慮すると、信頼度にノイズがないと仮定すれば、閾値より高い(あるいは低い)信頼度の小領域群の中に、閾値より低い(あるいは高い)信頼度の小領域がわずかに存在する可能性は低い。したがって、周囲の小領域の信頼度と明らかに異なる信頼度が算出された場合には、その信頼度はノイズであると考えることができる。   On the other hand, masks and sunglasses are typical examples of facial masking patterns that often occur in daily life. These shielding patterns are for shielding a very large area of about 1/3 or 1/2 of the face. Considering such characteristics of the shielding pattern, if it is assumed that there is no noise in the reliability, the small regions having the reliability lower (or higher) than the threshold are included in the small region group having the reliability higher (or lower) than the threshold. It is unlikely that the region is slightly present. Therefore, when a reliability that is clearly different from the reliability of the surrounding small area is calculated, the reliability can be considered to be noise.

そこで、前述のように、判定部21は、このようなエラー(ノイズ)を考慮して、所定範囲の小領域群をまとめた中領域における信頼度の分布が遮蔽条件を満たすか否かに基づいて、中領域が遮蔽領域であるか否かを推定する。これにより、判定部21は、小領域毎に信頼度のみを用いて遮蔽領域であるか否かを判定する場合と比べて、精度よく遮蔽領域を推定することができる。その結果、判定部21は、精度よく遮蔽パターンを判定可能となる。   Therefore, as described above, the determination unit 21 considers such an error (noise) and determines whether or not the distribution of the reliability in the middle region obtained by combining the small region groups in the predetermined range satisfies the shielding condition. Then, it is estimated whether or not the middle area is a shielding area. Accordingly, the determination unit 21 can estimate the shielding area with higher accuracy than when determining whether or not the small area is a shielding area using only the reliability. As a result, the determination unit 21 can accurately determine the shielding pattern.

識別部22は、入力された顔画像中で、遮蔽パターンに基づく除外領域以外において、小領域毎に識別を行う。除外領域は、本発明の第1の実施の形態と同様に、遮蔽パターンに応じてあらかじめ定められているものとする。例えば、マスクによる遮蔽パターンであれば、顔の下半分の領域を除外領域として定めておいてもよい。また、サングラスによる遮蔽パターンであれば、顔の上半分の領域を除外領域として定めておいてもよい。なお、除外領域は、判定部21による遮蔽パターンの判定の過程で推定された遮蔽領域と必ずしも一致していなくてよい。   The identification unit 22 identifies each small area in the input face image other than the exclusion area based on the shielding pattern. It is assumed that the exclusion area is determined in advance according to the shielding pattern, as in the first embodiment of the present invention. For example, in the case of a masking pattern using a mask, the lower half area of the face may be defined as an exclusion area. In addition, in the case of a shielding pattern using sunglasses, the upper half area of the face may be defined as the exclusion area. Note that the exclusion area does not necessarily need to match the shielding area estimated in the process of determining the shielding pattern by the determination unit 21.

そして、識別部22は、除外領域以外の小領域毎の識別結果に基づいて、顔画像の識別を行う。例えば、識別部22は、顔画像中の遮蔽パターンに基づく除外領域以外において、小領域毎に識別スコアを算出してもよい。その場合、識別部22は、算出した各小領域別の識別スコアを統合した統合スコアを算出し、統合スコアを、識別結果として出力してもよい。   Then, the identification unit 22 identifies the face image based on the identification result for each small area other than the exclusion area. For example, the identification unit 22 may calculate an identification score for each small area other than the exclusion area based on the occlusion pattern in the face image. In that case, the identification unit 22 may calculate an integrated score obtained by integrating the calculated identification scores of the respective small areas, and output the integrated score as the identification result.

具体的には、識別部22は、入力された顔画像が分割された各小領域と、登録顔画像を構成する各小領域との間で、対応する小領域同士を照合することにより、識別スコアを算出してもよい。この場合、識別部22は、入力顔画像中および登録画像中の各遮蔽パターンに基づくいずれの除外領域にも含まれない領域において、対応する小領域同士の比較を行う。そして、識別部22は、各小領域間の比較結果に基づいて、除外領域以外の小領域毎に識別スコアを算出する。そして、識別部22は、識別スコアを統合して統合スコアを算出し、識別結果として出力する。   Specifically, the identification unit 22 compares the small areas obtained by dividing the input face image with the small areas constituting the registered face image by comparing the corresponding small areas with each other. A score may be calculated. In this case, the identification unit 22 compares the corresponding small areas in an area that is not included in any of the exclusion areas based on each shielding pattern in the input face image and the registered image. Then, the identification unit 22 calculates an identification score for each small area other than the exclusion area based on the comparison result between the small areas. Then, the identification unit 22 integrates the identification scores, calculates an integrated score, and outputs the integrated score.

ここで、登録顔画像は、あらかじめ記憶装置1004に記憶されているものとする。また、記憶装置1004には、登録顔画像とともに、その登録顔画像の遮蔽パターンを表す情報が記憶されていてもよい。また、記憶装置1004には、登録顔画像とともに、登録顔画像を構成する小領域を表す情報が記憶されていてもよい。なお、登録顔画像の遮蔽パターンについては、登録顔画像が登録される際に判定部21によって判定された情報であってもよい。また、登録顔画像を構成する小領域については、登録顔画像が登録される際に分割部23によって分割された情報であってもよい。   Here, it is assumed that the registered face image is stored in the storage device 1004 in advance. Further, the storage device 1004 may store information indicating a shielding pattern of the registered face image together with the registered face image. Further, the storage device 1004 may store information indicating a small area constituting the registered face image together with the registered face image. The shielding pattern of the registered face image may be information determined by the determining unit 21 when the registered face image is registered. Further, the small area constituting the registered face image may be information divided by the dividing unit 23 when the registered face image is registered.

また、識別部22は、対応する小領域間の識別スコアとして、特徴量ベクトル間の距離ないし相関に基づく値を用いてもよい。この場合、各小領域の特徴量ベクトルは、例えば、GaborフィルまたはLBPのような特徴抽出処理によって得られる情報であってもよい。ただし、識別部22は、登録顔画像との識別処理に、標準顔画像との信頼度算出時に用いられた特徴量ベクトルよりも識別能力が高い特徴量ベクトルを利用するのが望ましい。例えば、識別部22は、学習データから抽出した特徴量ベクトルに対して線形判別分析(Linear Discriminant Analysis)を行うことにより、低次元への変換行列を学習しておいてもよい。この場合、学習データは、人物ごとに正しくラベル付けされた顔画像であってもよい。そのような学習データは、登録顔画像であってもよい。例えば、画像認識装置2の利用者が全員特定可能なケース(例えば、入退場管理に用いられるケース)では、学習データとして、システム利用者全員の登録顔画像を用いることが望ましい。あるいは、学習データは、登録顔画像に限らず、その他のラベル付けされた顔画像であってもよい。例えば、画像認識装置2が不特定多数の人物の認証に用いられるケース(例えば、不審者検出に用いられるケース)であれば、学習データとしては、システム利用者か否かにかかわらず、ラベル付された多数の人物の顔画像を用いることが望ましい。そして、識別部22は、入力顔画像および登録顔画像の小領域毎の特徴量ベクトルに対して、前述の変換行列を作用させることにより、識別能力を高めた低次元特徴量ベクトルを生成すればよい。   In addition, the identification unit 22 may use a value based on a distance or a correlation between feature amount vectors as an identification score between corresponding small regions. In this case, the feature amount vector of each small region may be information obtained by a feature extraction process such as Gabor fill or LBP. However, it is preferable that the identification unit 22 uses a feature amount vector having a higher identification ability than the feature amount vector used in calculating the reliability with the standard face image in the identification process with the registered face image. For example, the identification unit 22 may learn a low-dimensional conversion matrix by performing a linear discriminant analysis (Linear Discriminant Analysis) on the feature amount vector extracted from the learning data. In this case, the learning data may be a face image correctly labeled for each person. Such learning data may be a registered face image. For example, in a case where all users of the image recognition apparatus 2 can be identified (for example, a case used for entrance / exit management), it is desirable to use registered face images of all system users as learning data. Alternatively, the learning data is not limited to the registered face image, and may be another labeled face image. For example, in a case where the image recognition device 2 is used for authentication of an unspecified number of persons (for example, a case where it is used for detecting a suspicious individual), as the learning data, regardless of whether the user is a system user or not, the labeled data is used. It is desirable to use face images of a large number of humans. Then, the identification unit 22 generates a low-dimensional feature amount vector with improved identification ability by applying the above-described conversion matrix to the feature amount vector for each small region of the input face image and the registered face image. Good.

以上のように構成された画像認識装置2の動作について、図9を参照して説明する。なお、記憶装置1004には、標準顔画像および登録顔画像があらかじめ記憶されているものとする。また、標準顔画像は、あらかじめ小領域に分割されているものとする。また、登録顔画像も、あらかじめ小領域に分割されているものとする。また、登録顔画像は、遮蔽パターンを表す情報とともに記憶されているものとする。   The operation of the image recognition device 2 configured as described above will be described with reference to FIG. It is assumed that a standard face image and a registered face image are stored in the storage device 1004 in advance. It is also assumed that the standard face image has been divided into small areas in advance. It is also assumed that the registered face image has been divided into small areas in advance. Also, it is assumed that the registered face image is stored together with information indicating the shielding pattern.

図9において、まず、分割部23は、入力された顔画像(入力顔画像)を正規化する(ステップS21)。   9, first, the dividing unit 23 normalizes the input face image (input face image) (step S21).

次に、分割部23は、ステップS21で正規化した入力顔画像を小領域に分割する(ステップS22)。   Next, the dividing unit 23 divides the input face image normalized in step S21 into small areas (step S22).

次に、信頼度算出部24は、ステップS22で分割された顔画像の各小領域と、標準顔画像の各小領域との間で、対応する小領域同士を比較する。これにより、信頼度算出部24は、各小領域の信頼度を算出する(ステップS23)。   Next, the reliability calculation unit 24 compares the corresponding small areas between each small area of the face image divided in step S22 and each small area of the standard face image. Thereby, the reliability calculating unit 24 calculates the reliability of each small area (Step S23).

次に、判定部21は、中領域を構成する小領域群について信頼度の分布が遮蔽条件を満たすか否かに基づいて、入力顔画像の遮蔽パターンを判定する(ステップS24)。   Next, the determining unit 21 determines the shielding pattern of the input face image based on whether or not the distribution of the reliability satisfies the shielding condition for the small region group forming the middle region (Step S24).

具体的には、前述のように、判定部21は、顔の上半分または下半分を表す中領域の信頼度の分布が遮蔽条件を満たせば、その中領域が遮蔽領域であると推定する。一方、判定部21は、顔の上半分または下半分を表す中領域の信頼度の分布が遮蔽条件を満たさなければ、その中領域が遮蔽領域でないと推定する。そして、そのような中領域が遮蔽領域であると推定した場合、判定部21は、設定した中領域に対応する遮蔽パターンを判定すればよい。例えば、判定部21は、上半分領域が遮蔽領域であると推定した場合、サングラスによる遮蔽パターンであると判定する。また、判定部21は、下半分領域が遮蔽領域であると推定した場合、マスクによる遮蔽パターンであると判定する。   Specifically, as described above, when the distribution of the reliability of the middle region representing the upper half or the lower half of the face satisfies the shielding condition, the determination unit 21 estimates that the middle region is the shielding region. On the other hand, if the distribution of the reliability of the middle region representing the upper half or the lower half of the face does not satisfy the shielding condition, the determination unit 21 estimates that the middle region is not the shielding region. Then, when it is estimated that such a middle region is a shielding region, the determination unit 21 may determine a shielding pattern corresponding to the set middle region. For example, when the determination unit 21 estimates that the upper half area is a shielding area, it determines that the pattern is a shielding pattern using sunglasses. In addition, when the determination unit 21 estimates that the lower half area is the shielding area, it determines that the lower half area is the shielding pattern by the mask.

次に、識別部22は、入力顔画像が分割された各小領域と、登録顔画像を構成する各小領域との間で、対応する小領域同士を照合する。これにより、識別部22は、各小領域間の識別スコアを算出する(ステップS25)。   Next, the identification unit 22 collates the corresponding small areas between each of the small areas into which the input face image is divided and each of the small areas constituting the registered face image. Thereby, the identification unit 22 calculates an identification score between the small areas (Step S25).

前述のように、識別部22は、識別スコアを、特徴量ベクトルまたは低次元特徴量ベクトル間の距離ないしは相関から算出すればよい。   As described above, the identification unit 22 may calculate the identification score from the distance or the correlation between the feature vectors or the low-dimensional feature vectors.

次に、識別部22は、ステップS24で判定した遮蔽パターンに基づく領域を除外して、ステップS25で算出した各小領域間の識別スコアを統合した統合スコアを算出する(ステップS26)。   Next, the identification unit 22 calculates an integrated score obtained by integrating the identification scores between the small areas calculated in step S25, excluding the area based on the shielding pattern determined in step S24 (step S26).

ここでは、識別部22は、入力顔画像および登録顔画像間で、対応する小領域の一方または両方が、各画像の遮蔽パターンに基づく除外領域に含まれる場合、その小領域間の識別スコアを統合に用いない。そして、識別部22は、対応する小領域の両方が、各画像の遮蔽パターンに基づく除外領域に含まれない場合、その小領域間の識別スコアを統合に用いる。   Here, when one or both of the corresponding small areas are included in the exclusion area based on the occlusion pattern of each image between the input face image and the registered face image, the identification unit 22 determines the identification score between the small areas. Not used for integration. Then, when both of the corresponding small regions are not included in the exclusion region based on the shielding pattern of each image, the identification unit 22 uses the identification score between the small regions for integration.

例えば、識別部22は、該当する小領域の識別スコアの平均値を統合スコアとしてもよい。もし、入力顔画像および登録顔画像の双方について、いずれの遮蔽パターンも判定されていない場合、識別部22は、すべての小領域の識別スコアの平均値を統合スコアとする。例えば、入力顔画像および登録顔画像の一方または両方でマスクの遮蔽パターンが判定されている場合、識別部22は、顔の下半分を除外領域として、上半分の小領域の識別スコアについて、その平均値を統合スコアとしてもよい。また、例えば、識別部22は、対象となる各小領域の識別スコアに各小領域の信頼度を乗じた上で平均をとり、重み付き平均値を統合スコアとしてもよい。   For example, the identification unit 22 may use the average value of the identification scores of the corresponding small areas as the integrated score. If no occlusion pattern has been determined for both the input face image and the registered face image, the identification unit 22 sets the average value of the identification scores of all the small areas as the integrated score. For example, when a mask occlusion pattern is determined in one or both of the input face image and the registered face image, the identification unit 22 sets the lower half of the face as an exclusion area, and determines the identification score of the upper half small area. The average value may be used as the integrated score. Further, for example, the identification unit 22 may multiply the identification score of each target small region by the reliability of each small region, take an average, and use a weighted average value as an integrated score.

以上で、画像認識装置2は、動作を終了する。   As described above, the operation of the image recognition device 2 ends.

次に、本発明の第2の実施の形態の効果について述べる。   Next, effects of the second exemplary embodiment of the present invention will be described.

本発明の第2の実施の形態としての画像認識装置は、システム構築にかかるコストおよび識別処理の負荷を増大させることなく、遮蔽領域を含む顔画像の認識精度をさらに向上させることができる。   The image recognition device according to the second embodiment of the present invention can further improve the recognition accuracy of the face image including the occluded region without increasing the cost for constructing the system and the load of the identification process.

その理由は、分割部が、顔画像を小領域に分割し、信頼度算出部が、顔画像および標準顔画像間で、対応する小領域同士を比較することにより小領域毎の信頼度を算出するからである。そして、判定部が、小領域毎の信頼度の分布に基づいて、顔画像の遮蔽領域を推定し、遮蔽領域の分布に基づいて遮蔽パターンを判定するからである。そして、識別部が、顔画像中の遮蔽パターンに基づき定められた領域を除外して、小領域毎に識別を行い、各識別結果に基づいて、顔画像全体の識別を行うからである。   The reason is that the dividing unit divides the face image into small regions, and the reliability calculating unit calculates the reliability of each small region by comparing the corresponding small regions between the face image and the standard face image. Because you do. Then, the determination unit estimates the occlusion area of the face image based on the distribution of the reliability of each small area, and determines the occlusion pattern based on the distribution of the occlusion area. Then, the identification unit excludes an area defined based on the occlusion pattern in the face image, identifies each small area, and identifies the entire face image based on each identification result.

このように、本実施の形態は、顔画像を構成する個々の小領域についてその信頼度のみで遮蔽領域であるか否かを判定するのではなく、より広い範囲の信頼度の分布に基づいて、遮蔽領域を推定する。その結果、本実施の形態は、小領域毎の遮蔽判定のエラーの影響を少なくすることができ、より正確な遮蔽領域を推定することができる。そして、本実施の形態は、推定した遮蔽領域の分布に基づいて遮蔽パターンを判定するので、遮蔽判定のエラーの影響をさらに少なくして、より高精度に遮蔽パターンを判定できる。そして、本実施の形態は、遮蔽領域として推定した領域をそのまま除外するのではなく、判定した遮蔽パターンに応じて定められた領域を除外して識別を行う。このため、本実施の形態は、遮蔽判定エラーに対してさらに頑健である。そして、本実施の形態は、そのような領域を除外して、小領域毎の識別結果に基づいて、顔画像の識別を行う。これにより、本実施の形態は、遮蔽領域の判定エラーに頑健な遮蔽検出を実現し、顔画像の認識精度を向上させることができる。   As described above, the present embodiment does not determine whether each of the small regions constituting the face image is a shielding region based on the reliability alone, but based on the distribution of the reliability over a wider range. Estimate the occluded area. As a result, in the present embodiment, it is possible to reduce the influence of an error in the occlusion determination for each small area, and to estimate a more accurate occluded area. In the present embodiment, the shielding pattern is determined based on the estimated distribution of the shielding region. Therefore, the influence of the error in the shielding determination can be further reduced, and the shielding pattern can be determined with higher accuracy. Then, in the present embodiment, the identification is performed by excluding the area estimated according to the determined shielding pattern, instead of excluding the area estimated as the shielding area as it is. For this reason, the present embodiment is more robust against occlusion determination errors. Then, in the present embodiment, such a region is excluded, and the face image is identified based on the identification result for each small region. As a result, the present embodiment can realize occlusion detection that is robust against occlusion region determination errors, and improve face image recognition accuracy.

さらには、本実施の形態は、標準顔1枚との比較で遮蔽領域および遮蔽パターンの判定を行うため、既存の技術では遮蔽領域や遮蔽パターンの判定のために必要であった大量の学習データを必要としない。その結果、本実施の形態は、システム構築のコストを大幅に低減することができる。   Furthermore, in the present embodiment, since the occlusion region and the occlusion pattern are determined by comparison with one standard face, a large amount of learning data required for the occlusion region and occlusion pattern determination by the existing technology is used. Do not need. As a result, this embodiment can significantly reduce the cost of system construction.

なお、本実施の形態において、登録画像は、その遮蔽パターンおよび分割された小領域の情報とともにあらかじめ記憶装置に記憶されている例を中心に説明した。これに限らず、本実施の形態は、入力顔画像の識別時に、登録画像についても分割および遮蔽パターンの判定を行ってもよい。   In the present embodiment, an example has been described in which the registered image is stored in the storage device in advance together with the information on the shielding pattern and the divided small areas. However, the present embodiment is not limited to this, and the identification and the occlusion pattern of the registered image may be determined when the input face image is identified.

(第3の実施の形態)
次に、本発明の第3の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第3の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Third embodiment)
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. In each of the drawings referred to in the description of the present embodiment, steps having the same configuration and the same operation as those in the third embodiment of the present invention are denoted by the same reference numerals, and detailed description in the present embodiment will be given. Description is omitted.

まず、本発明の第3の実施の形態としての画像認識装置3の構成を図10に示す。図10において、画像認識装置3は、本発明の第2の実施の形態としての画像認識装置2と同一の構成に加えて、全体識別部35と、切替部36とを有する。   First, FIG. 10 shows the configuration of an image recognition device 3 according to a third embodiment of the present invention. In FIG. 10, the image recognition device 3 includes an overall identification unit 35 and a switching unit 36 in addition to the same configuration as the image recognition device 2 according to the second embodiment of the present invention.

ここで、画像認識装置3は、図2を参照して説明した本発明の第1の実施の形態の画像認識装置1と同様のハードウェア要素によって構成可能である。この場合、全体識別部35は、出力装置1006と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。また、切替部36は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001によって構成される。なお、画像認識装置3およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。   Here, the image recognition device 3 can be configured by the same hardware elements as the image recognition device 1 according to the first embodiment of the present invention described with reference to FIG. In this case, the overall identification unit 35 includes an output device 1006 and a CPU 1001 that reads a computer program and various data stored in a ROM 1003 and a storage device 1004 into a RAM 1002 and executes the same. The switching unit 36 is configured by a CPU 1001 that reads a computer program and various data stored in a ROM 1003 and a storage device 1004 into a RAM 1002 and executes the data. Note that the hardware configuration of the image recognition device 3 and its functional blocks is not limited to the above-described configuration.

次に、画像認識装置3の各機能ブロックについて説明する。   Next, each functional block of the image recognition device 3 will be described.

全体識別部35は、顔画像における顔の全域を表す情報を用いて、顔画像の識別を行う。具体的には、例えば、全体識別部35は、顔の全域から特徴抽出を行って特徴量ベクトルを求める。また、全体識別部35は、登録顔画像からも、顔の全域についての特徴量ベクトルを求める。そして、全体識別部35は、入力顔画像の顔全域の特徴量ベクトルおよび登録顔画像の顔全域の特徴量ベクトルに基づいて、全体識別スコアを算出してもよい。この場合、全体識別部35は、全体識別スコアを、識別結果として出力する。   The overall identification unit 35 identifies a face image using information representing the entire area of the face in the face image. Specifically, for example, the overall identification unit 35 obtains a feature vector by performing feature extraction from the entire face. Further, the overall identifying unit 35 also obtains a feature amount vector for the entire face from the registered face image. Then, the overall identification section 35 may calculate the overall identification score based on the feature vector of the entire face of the input face image and the feature vector of the entire face of the registered face image. In this case, the overall identification unit 35 outputs the overall identification score as an identification result.

切替部36は、判定部21による遮蔽パターンの判定結果に基づいて、入力された顔画像の識別に、識別部22を用いるか全体識別部35を用いるかを切り替える。   The switching unit 36 switches whether to use the identification unit 22 or the overall identification unit 35 to identify the input face image based on the determination result of the shielding pattern by the determination unit 21.

以上のように構成された画像認識装置3の動作を、図11を用いて説明する。なお、以下では、登録顔画像は、遮蔽パターンおよび小領域を表す情報とともに記憶装置1004に記憶されているものとする。   The operation of the image recognition device 3 configured as described above will be described with reference to FIG. In the following, it is assumed that the registered face image is stored in the storage device 1004 together with the information indicating the shielding pattern and the small area.

図11において、まず、画像認識装置3は、ステップS21〜S24まで、本発明の第2の実施の形態としての画像認識装置2と同様に動作して、入力顔画像の遮蔽パターンを判定する。   11, first, the image recognition device 3 operates in the same manner as the image recognition device 2 according to the second embodiment of the present invention in steps S21 to S24, and determines the occlusion pattern of the input face image.

次に、切替部36は、判定された遮蔽パターンに基づいて後続の処理を切り替える。具体的には、切替部36は、入力顔画像および登録顔画像の少なくともいずれかに、種類は問わず遮蔽パターンがあると判定されているか否かを判断する(ステップS31)。   Next, the switching unit 36 switches subsequent processing based on the determined shielding pattern. Specifically, the switching unit 36 determines whether or not it is determined that at least one of the input face image and the registered face image has a shielding pattern regardless of the type (step S31).

ここで、少なくともいずれかに遮蔽パターンがあると判定されている場合、切替部36は、識別部22を制御して、本発明の第2の実施の形態と同様にステップS25〜S26を実行させる。   Here, when it is determined that at least one of the patterns has the shielding pattern, the switching unit 36 controls the identification unit 22 to execute steps S25 to S26 as in the second embodiment of the present invention. .

一方、入力顔画像および登録顔画像のいずれにも遮蔽パターンがないと判定されている場合、切替部36は、全体識別部35を制御して、以下のステップS32を実行させる。   On the other hand, if it is determined that neither the input face image nor the registered face image has the occlusion pattern, the switching unit 36 controls the overall identification unit 35 to execute the following step S32.

ここでは、全体識別部35は、入力顔画像の顔の全域の情報と、登録顔画像の顔の全域の情報とを用いて識別を行う。具体的には、全体識別部35は、入力顔画像の顔全域から求めた特徴量ベクトルと、登録顔画像の顔全域から求めた特徴量ベクトルとを用いて、全体識別スコアを算出する(ステップS32)。   Here, the overall identification unit 35 performs identification using the information on the entire face of the input face image and the information on the entire face of the registered face image. Specifically, the overall identification unit 35 calculates an overall identification score using the feature amount vector obtained from the entire face of the input face image and the feature amount vector obtained from the entire face of the registered face image (step). S32).

例えば、全体識別部35は、GaborフィルタやLBPのような特徴抽出処理によって、各画像の顔全域からの特徴量ベクトルを求めればよい。そして、全体識別部35は、入力顔画像および登録顔画像それぞれの顔全域の特徴量ベクトルおよび間の距離または相関から、全体識別スコアを算出すればよい。   For example, the overall identification unit 35 may obtain a feature vector from the entire face of each image by a feature extraction process such as a Gabor filter or LBP. Then, the overall identification unit 35 may calculate the overall identification score from the feature amount vectors of the entire face of each of the input face image and the registered face image and the distance or correlation therebetween.

以上で、画像認識装置3は、動作を終了する。   Thus, the operation of the image recognition device 3 ends.

次に、本発明の第3の実施の形態の効果について述べる。   Next, effects of the third exemplary embodiment of the present invention will be described.

本発明の第3の実施の形態としての画像認識装置は、本発明の第2の実施の形態と同様の効果に加えて、さらに、遮蔽領域がない場合に顔画像の認証精度を低下させないようにすることができる。   The image recognition device according to the third embodiment of the present invention has the same effect as the second embodiment of the present invention, and further, does not reduce the authentication accuracy of the face image when there is no occluded area. Can be

その理由は、切替部が、入力顔画像または登録顔画像のいずれにも遮蔽パターンがない場合には、小領域毎の識別結果を用いずに、顔全域の情報を用いて識別を行うよう処理を切り替えるからである。また、切替部が、入力顔画像または登録顔画像の少なくともいずかに遮蔽パターンがある場合には、小領域毎の識別結果を用いて識別を行うよう処理を切り替えるからである。   The reason is that if there is no occlusion pattern in either the input face image or the registered face image, the switching unit performs the identification using the information of the entire face without using the identification result for each small area. Is to switch. In addition, the switching unit switches the process to perform the identification using the identification result for each small area when at least one of the input face image or the registered face image has a shielding pattern.

ここで、遮蔽パターンがなく領域を除外する必要がない場合には、顔全域の情報を用いた識別結果のほうが、小領域毎の識別結果の統合より精度がよい傾向がある。したがって、本実施の形態は、両画像の少なくとも一方に遮蔽パターンがある場合の高い認証精度を維持しつつ、両画像ともに遮蔽パターンがない場合にも照合精度を低下させることがない。   Here, when there is no occlusion pattern and it is not necessary to exclude a region, the classification result using information on the entire face tends to be more accurate than the integration of the classification result for each small region. Therefore, the present embodiment maintains the high authentication accuracy when at least one of the two images has the shielding pattern, and does not lower the matching accuracy even when there is no shielding pattern in both images.

なお、本実施の形態において、識別部および全体識別部は、特徴量ベクトル間の距離や相関に基づき識別スコアを算出する例について説明したが、識別部は、その他の技術を採用して識別を行ってもよい。   Note that, in the present embodiment, an example has been described in which the identification unit and the overall identification unit calculate the identification score based on the distance and the correlation between the feature amount vectors, but the identification unit employs another technology to perform the identification. May go.

(第4の実施の形態)
次に、本発明の第4の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第3の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings. In each of the drawings referred to in the description of the present embodiment, steps having the same configuration and the same operation as those in the third embodiment of the present invention are denoted by the same reference numerals, and detailed description in the present embodiment will be given. Description is omitted.

まず、本発明の第4の実施の形態としての画像認識装置4の構成を図12に示す。図12において、画像認識装置4は、本発明の第3の実施の形態としての画像認識装置3に対して、識別部22に替えて識別部42と、信頼度算出部24に替えて信頼度算出部44と、全体識別部35に替えて全体識別部45とを備え、さらに、特徴抽出部47を備える点が異なる。   First, FIG. 12 shows a configuration of an image recognition device 4 according to a fourth embodiment of the present invention. 12, the image recognition device 4 is different from the image recognition device 3 according to the third embodiment of the present invention in that an identification unit 42 is used instead of the identification unit 22 and a reliability level is used instead of the reliability calculation unit 24. The difference is that a calculation unit 44 and an overall identification unit 45 are provided in place of the overall identification unit 35, and a feature extraction unit 47 is further provided.

ここで、画像認識装置4は、図2を参照して説明した本発明の第1の実施の形態の画像認識装置1と同様のハードウェア要素によって構成可能である。この場合、特徴抽出部47は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001によって構成される。なお、画像認識装置4およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。   Here, the image recognition device 4 can be configured by the same hardware elements as the image recognition device 1 according to the first embodiment of the present invention described with reference to FIG. In this case, the feature extraction unit 47 is configured by a CPU 1001 that reads a computer program and various data stored in a ROM 1003 and a storage device 1004 into a RAM 1002 and executes the same. The hardware configuration of the image recognition device 4 and its functional blocks is not limited to the above-described configuration.

特徴抽出部47は、分割部23により分割された顔画像の小領域毎に、特徴量ベクトルを抽出する。特徴量ベクトルの抽出には、前述の各種フィルタや技術を用いればよい。例えば、特徴抽出部47は、Gaborフィルタを使ったGabor特徴量を抽出してもよい。具体的には、特徴抽出部47は、入力顔画像について、分割部23によって正規化・分割された小領域毎に特徴量ベクトルを算出し、記憶装置1004に記憶しておく。また、特徴抽出部47は、標準顔画像および登録顔画像についても、小領域毎にあらかじめ特徴量ベクトルを算出しておいてもよい。本実施の形態では、標準顔画像は、小領域毎の特徴量ベクトルとして記憶装置1004に記憶されていればよく、顔画像自体のデータは記憶されていなくてもよい。同様に、登録顔画像は、小領域毎の特徴量ベクトルとして記憶装置1004に記憶されていればよく、登録顔画像自体のデータは記憶されていなくてもよい。   The feature extracting unit 47 extracts a feature vector for each small area of the face image divided by the dividing unit 23. The above-described various filters and techniques may be used to extract the feature amount vector. For example, the feature extracting unit 47 may extract a Gabor feature using a Gabor filter. More specifically, the feature extracting unit 47 calculates a feature amount vector for each of the small areas normalized and divided by the dividing unit 23 with respect to the input face image, and stores it in the storage device 1004. In addition, the feature extracting unit 47 may calculate a feature amount vector in advance for each small area for the standard face image and the registered face image. In the present embodiment, the standard face image only needs to be stored in the storage device 1004 as a feature amount vector for each small area, and the data of the face image itself need not be stored. Similarly, the registered face image only needs to be stored in the storage device 1004 as a feature amount vector for each small area, and the data of the registered face image itself need not be stored.

信頼度算出部44は、本発明の第2〜第3の実施の形態における信頼度算出部24と略同様に構成される。すなわち、信頼度算出部44は、入力顔画像および標準顔画像の間で、対応する小領域間ごとに特徴量ベクトルを用いて信頼度を算出する。ただし、信頼度算出部44は、入力顔画像および標準顔画像について各小領域の特徴量ベクトルを、算出する代わりに記憶装置1004から取得する点が、信頼度算出部24と異なる。   The reliability calculation unit 44 is configured in substantially the same manner as the reliability calculation unit 24 according to the second and third embodiments of the present invention. That is, the reliability calculation unit 44 calculates the reliability between the input face image and the standard face image for each corresponding small area using the feature amount vector. However, the reliability calculating unit 44 is different from the reliability calculating unit 24 in that the feature amount vector of each small area for the input face image and the standard face image is obtained from the storage device 1004 instead of calculating.

識別部42は、本発明の第2〜第3の実施の形態における識別部22と略同様に構成される。すなわち、識別部42は、入力顔画像および登録顔画像の間で、対応する小領域間ごとに特徴量ベクトルを用いて識別スコアを算出する。ただし、識別部42は、入力顔画像および登録顔画像について各小領域の特徴量ベクトルを、算出する代わりに記憶装置1004から取得する点が、識別部22と異なる。また、識別部42は、本発明の第2〜第3の実施の形態と同様に、事前に特徴量ベクトルを低次元へ変換する変換行列を学習しておいてもよい。その場合、識別部42は、小領域毎の特徴量ベクトルを低次元に変換したものを用いて、識別スコアを算出する。例えば、識別部42は、入力顔画像および登録顔画像について、対応する各小領域の低次元特徴量ベクトル間の正規化相関値を、識別スコアとして算出すればよい。そして、識別部42は、入力顔画像および登録顔画像の遮蔽パターンに基づくいずれの領域も除外した上で、小領域毎の識別結果を統合して統合スコアを算出する。   The identification unit 42 has substantially the same configuration as the identification unit 22 in the second and third embodiments of the present invention. That is, the identification unit 42 calculates an identification score between the input face image and the registered face image using the feature amount vector for each corresponding small area. However, the identification unit 42 is different from the identification unit 22 in that a feature amount vector of each small area is obtained from the storage device 1004 for the input face image and the registered face image instead of calculating the feature amount vector. Further, the identification unit 42 may previously learn a conversion matrix for converting a feature amount vector into a low dimension, as in the second and third embodiments of the present invention. In this case, the identification unit 42 calculates an identification score using a low-dimensional feature vector for each small area. For example, the identification unit 42 may calculate the normalized correlation value between the low-dimensional feature vectors of the corresponding small areas for the input face image and the registered face image as the identification score. Then, the identification unit 42 calculates an integrated score by excluding any areas based on the occlusion patterns of the input face image and the registered face image, and integrating the identification results of the small areas.

全体識別部45は、入力顔画像の連結特徴量ベクトルと、登録顔画像の連結特徴量ベクトルとに基づいて、全体識別スコアを算出する。ここで、連結特徴量ベクトルとは、各小領域の特徴量ベクトルを連結して生成される。例えば、3つの小領域についてn1行1列、n2行1列、n3行1列の特徴量ベクトルがそれぞれ抽出されているとする。n1、n2、n3は、それぞれ正の整数である。これらは、全て同じ値であってもよいし、少なくとも一部が他と異なる値であってもよい。この場合、全体識別部45は、各特徴量ベクトルを連結し、(n1+n2+n3)行1列の連結特徴量ベクトルを生成可能である。つまり、連結特徴量ベクトルは、各小領域の特徴量ベクトルより次元数が増加している。なお、連結の順序は任意である。   The overall identification unit 45 calculates an overall identification score based on the connected feature vector of the input face image and the connected feature vector of the registered face image. Here, the connected feature vector is generated by connecting the feature vectors of the respective small areas. For example, it is assumed that feature amount vectors of n1 row and 1 column, n2 row and 1 column, and n3 row and 1 column have been extracted for three small regions. n1, n2, and n3 are positive integers, respectively. These may all be the same value, or at least some may be different from the others. In this case, the overall identifying unit 45 can generate a connected feature vector of (n1 + n2 + n3) rows and 1 column by connecting the feature vectors. That is, the number of dimensions of the connected feature vector is larger than that of the feature vector of each small area. The order of connection is arbitrary.

また、全体識別部45は、連結特徴量ベクトルについても、事前に、学習データに対する線形判別分析により、連結特徴量ベクトルを低次元の連結特徴量ベクトルへと変換する変換行列を学習しておいてもよい。この場合、全体識別部45は、低次元連結特徴量ベクトル同士の正規化相関値を、全体識別スコアとして算出すればよい。   Also, for the connected feature vector, the overall identification unit 45 also learns in advance a conversion matrix for converting the connected feature vector into a low-dimensional connected feature vector by linear discriminant analysis on the learning data. Is also good. In this case, the overall identification unit 45 may calculate the normalized correlation value between the low-dimensional connected feature vectors as the overall identification score.

以上のように構成された画像認識装置4の動作について、図13を参照して説明する。なお、以下では、標準顔画像の小領域毎の特徴量ベクトルが、記憶装置1004に記憶されているものとする。また、登録顔画像の小領域毎の特徴量ベクトルが、あらかじめ判定部21により判定された遮蔽パターンと共に、記憶装置1004に記憶されているものとする。   The operation of the image recognition device 4 configured as described above will be described with reference to FIG. In the following, it is assumed that the feature amount vector for each small area of the standard face image is stored in the storage device 1004. It is also assumed that the feature amount vector for each small area of the registered face image is stored in the storage device 1004 together with the shielding pattern determined by the determination unit 21 in advance.

図13では、まず、分割部23は、本発明の第2の実施の形態と同様にステップS21〜S22を実行し、入力顔画像を正規化・分割する。   In FIG. 13, first, the dividing unit 23 executes steps S21 to S22 in the same manner as in the second embodiment of the present invention, and normalizes and divides the input face image.

次に、特徴抽出部47は、入力顔画像の小領域毎に特徴量を抽出し、記憶装置1004に記憶する(ステップS41)。   Next, the feature extracting unit 47 extracts a feature amount for each small area of the input face image and stores the feature amount in the storage device 1004 (step S41).

次に、信頼度算出部44は、ステップS41で記憶装置1004に記憶された入力顔画像の各小領域の特徴量ベクトルと、記憶装置1004に記録されている標準顔画像の各小領域の特徴量ベクトルとで、対応する各小領域間の信頼度を算出する(ステップS42)。   Next, the reliability calculation unit 44 calculates the feature amount vector of each small area of the input face image stored in the storage device 1004 in step S41 and the feature amount vector of each small area of the standard face image stored in the storage device 1004. With the quantity vector, the reliability between the corresponding small areas is calculated (step S42).

次に、判定部21は、本発明の第2の実施の形態と同様にステップS24を実行し、遮蔽パターンを判定する。   Next, the determining unit 21 executes Step S24 as in the second embodiment of the present invention, and determines a shielding pattern.

次に、切替部36により入力顔画像および登録顔画像の一方または両方で遮蔽パターンありと判断された場合、識別部42は、ステップS43、S26を実行する。   Next, when the switching unit 36 determines that one or both of the input face image and the registered face image has the occlusion pattern, the identification unit 42 executes steps S43 and S26.

ここでは、識別部42は、入力顔画像および登録顔画像について、記憶装置1004に記憶されている小領域の特徴量ベクトルを用いて、対応する小領域間の識別スコアを算出する(ステップS43)。   Here, the identification unit 42 calculates the identification score between the corresponding small areas for the input face image and the registered face image using the feature amount vector of the small area stored in the storage device 1004 (step S43). .

例えば、前述のように、識別部42は、対応する各小領域の特徴量ベクトルを低次元に変換した低次元特徴量ベクトル間で、正規化相関値を識別スコアとして算出してもよい。そして、識別部42は、本発明の第2の実施の形態と同様にステップS26を実行し、統合スコアを算出する。   For example, as described above, the identification unit 42 may calculate the normalized correlation value as the identification score between the low-dimensional feature vectors obtained by converting the feature vectors of the corresponding small regions into low dimensions. Then, the identification unit 42 executes Step S26 as in the second embodiment of the present invention, and calculates an integrated score.

一方、切替部36により入力顔画像および登録顔画像のどちらにも遮蔽パターンなしと判断された場合、全体識別部45は、ステップS44〜S45を実行する。   On the other hand, when the switching unit 36 determines that neither the input face image nor the registered face image has the occlusion pattern, the overall identifying unit 45 executes steps S44 to S45.

ここでは、全体識別部45は、入力顔画像および登録顔画像について、記憶装置1004に記憶されている小領域の特徴量ベクトルを連結した連結特徴量ベクトルをそれぞれ生成する(ステップS44)。   Here, the overall identifying unit 45 generates, for the input face image and the registered face image, a connected feature vector obtained by connecting the feature vectors of the small areas stored in the storage device 1004 (step S44).

そして、全体識別部45は、入力顔画像および登録顔画像について、連結特徴量ベクトル間の比較により、全体識別スコアを算出する(ステップS45)。   Then, the overall identification unit 45 calculates an overall identification score for the input face image and the registered face image by comparing the connected feature vectors (step S45).

例えば、前述のように、全体識別部45は、連結特徴量ベクトルを低次元に変換してから、低次元連結特徴量ベクトル間の正規化相関値を、全体識別スコアとして算出してもよい。   For example, as described above, the overall identification unit 45 may calculate the normalized correlation value between the low-dimensional connected feature amount vectors as the overall identification score after converting the connected feature amount vector into a low-dimensional one.

以上で、画像認識装置4は、動作を終了する。   Thus, the operation of the image recognition device 4 ends.

次に、本発明の第4の実施の形態の効果について述べる。   Next, effects of the fourth embodiment of the present invention will be described.

本発明の第4の実施の形態としての画像認識装置は、遮蔽領域を含む顔画像について高い認証精度を保ちながら、さらに処理を効率化し高速化を実現する。   The image recognition device according to the fourth embodiment of the present invention realizes further efficient processing and higher speed while maintaining high authentication accuracy for a face image including an occluded area.

その理由は、特徴抽出部が、入力顔画像、標準顔画像、および、登録顔画像を構成する各小領域について、特徴量ベクトルを抽出して記憶しておくからである。これにより、信頼度算出部、識別部、および、全体識別部は、既に抽出された特徴量ベクトルを共通で利用することができ、各処理を効率化・高速化できる。   The reason is that the feature extraction unit extracts and stores a feature amount vector for each of the small areas constituting the input face image, the standard face image, and the registered face image. Thus, the reliability calculation unit, the identification unit, and the overall identification unit can commonly use the already extracted feature amount vectors, and can increase the efficiency and speed of each process.

なお、上述した本発明の第2から第4の各実施の形態において、識別部および全体識別部が、登録画像との照合により入力顔画像を識別する例を中心に説明した。これに限らず、各実施の形態の識別部および全体識別部は、登録画像を用いずに、入力顔画像の表す人物の性別推定、姿勢推定、表情認識等を行ってもよい。このように、各実施の形態は、遮蔽領域を含む顔画像について、登録画像を用いない各種識別処理を行う用途にも適用可能である。   In each of the second to fourth embodiments of the present invention described above, an example in which the identification unit and the overall identification unit identify an input face image by collating with a registered image has been mainly described. However, the identification unit and the overall identification unit in each embodiment may perform gender estimation, posture estimation, facial expression recognition, and the like of the person represented by the input face image without using the registered image. As described above, each of the embodiments can be applied to the use of performing various kinds of identification processing without using a registered image on a face image including an occluded region.

また、上述した本発明の第2から第4の各実施の形態において、判定部、識別部、および、全体識別部が、特徴量ベクトル間の距離または相関を用いて遮蔽パターンの判定および入力顔画像の識別を行う例を中心に説明した。これに限らず、各実施の形態のこれらの機能ブロックは、その他の手法により領域間を比較して信頼度または識別スコアを算出してもよい。なお、その場合、本発明の第4の実施の形態の特徴抽出部は、該当する画像の小領域について、比較に用いる情報を算出して記憶しておけばよい。   In each of the above-described second to fourth embodiments of the present invention, the determination unit, the identification unit, and the overall identification unit determine the occlusion pattern using the distance or the correlation between the feature amount vectors and determine the input face. An example in which an image is identified has been mainly described. However, the present invention is not limited to this, and these functional blocks of the embodiments may calculate the reliability or the identification score by comparing the regions by another method. In this case, the feature extraction unit according to the fourth embodiment of the present invention may calculate and store information used for comparison for a small area of the corresponding image.

また、上述した本発明の各実施の形態において、遮蔽パターンの一例としてマスクやサングラスによる遮蔽を説明したが、遮蔽パターンの種類を限定するものではない。   Further, in each of the embodiments of the present invention described above, the shielding by the mask or the sunglasses is described as an example of the shielding pattern, but the type of the shielding pattern is not limited.

また、上述した本発明の各実施の形態において、入力顔画像、標準顔画像、登録顔画像とは、該当する画像に含まれる顔を表す領域の部分を指すものとする。これらの顔画像は、あらかじめ顔の領域が切り出されたものであってもよいし、処理時に切り出されたものであってもよい。   In each of the above-described embodiments of the present invention, the input face image, the standard face image, and the registered face image indicate a part of a region representing a face included in the corresponding image. These face images may be images in which a face area has been cut out in advance, or may have been cut out during processing.

また、上述した本発明の各実施の形態において、画像認識装置の各機能ブロックが、記憶装置またはROMに記憶されたコンピュータ・プログラムを実行するCPUによって実現される例を中心に説明した。これに限らず、各機能ブロックの一部、全部、または、それらの組み合わせが専用のハードウェアにより実現されていてもよい。   Further, in each of the embodiments of the present invention described above, an example has been described centering on an example in which each functional block of the image recognition device is realized by a CPU that executes a computer program stored in a storage device or a ROM. The present invention is not limited to this, and some, all, or a combination of the functional blocks may be realized by dedicated hardware.

また、上述した本発明の各実施の形態において、画像認識装置の機能ブロックは、複数の装置に分散されて実現されてもよい。   In each of the embodiments of the present invention described above, the functional blocks of the image recognition device may be implemented by being distributed to a plurality of devices.

また、上述した本発明の各実施の形態において、各フローチャートを参照して説明した画像認識装置の動作を、本発明の画像認識プログラムとしてコンピュータの記憶装置(記憶媒体)に格納しておいてもよい。そして、係るコンピュータ・プログラムを当該CPUが読み出して実行するようにしてもよい。そして、このような場合において、本発明は、係るコンピュータ・プログラムのコードあるいは記憶媒体によって構成される。   In each of the embodiments of the present invention described above, the operation of the image recognition device described with reference to each flowchart may be stored in a storage device (storage medium) of a computer as an image recognition program of the present invention. Good. Then, the CPU may read and execute the computer program. In such a case, the present invention is constituted by the code of the computer program or the storage medium.

また、上述した各実施の形態は、適宜組み合わせて実施されることが可能である。   In addition, the above-described embodiments can be implemented in appropriate combinations.

また、本発明は、上述した各実施の形態に限定されず、様々な態様で実施されることが可能である。   Further, the present invention is not limited to the above-described embodiments, and can be implemented in various modes.

また、上述した各実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定する判定部と、
前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う識別部と、
を備えた画像認識装置。
(付記2)
前記判定部は、前記顔画像を構成する各小領域と、前記標準顔画像において前記顔画像の各小領域に対応する小領域との比較に基づく信頼度の分布に基づいて、前記遮蔽パターンを判定することを特徴とする付記1に記載の画像認識装置。
(付記3)
前記判定部は、所定範囲の前記小領域群をまとめた中領域に対して、その中領域を構成する小領域群の信頼度の分布が所定の遮蔽条件を満たす場合に、その中領域に基づき遮蔽パターンを判定することを特徴とする付記2に記載の画像認識装置。
(付記4)
前記判定部は、前記顔画像中で鼻よりも上側の小領域群をまとめた顔上部領域を前記中領域として、該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、サングラスによる遮蔽パターンであると判定することを特徴とする付記3に記載の画像認識装置。
(付記5)
前記判定部は、前記顔画像中で鼻よりも下側の小領域群をまとめた顔下部領域を前記中領域として、該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、マスクによる遮蔽パターンであると判定することを特徴とする付記3または付記4に記載の画像認識装置。
(付記6)
前記顔画像を前記小領域に分割する分割部と、
前記顔画像および前記標準顔画像について、対応する前記小領域間を比較することにより前記信頼度を算出する信頼度算出部と、
をさらに備えることを特徴とする付記2から付記5のいずれか1つに記載の画像認識装置。
(付記7)
前記識別部は、前記顔画像中の前記遮蔽パターンに基づく領域以外における前記小領域毎に識別を行い、前記小領域毎の識別結果に基づいて、前記顔画像の識別を行うことを特徴とする付記2から付記6のいずれか1つに記載の画像認識装置。
(付記8)
前記顔画像について、顔全域の情報を用いて識別を行う全体識別部と、
前記判定部の判定結果に基づいて、前記識別部および前記全体識別部のいずれを用いるかを切り替える切替部と、
をさらに備えることを特徴とする付記1から付記7のいずれか1つに記載の画像認識装置。
(付記9)
前記標準顔画像として、複数の人物の顔が平均化された平均顔を表す顔画像を用いることを特徴とする付記1から付記8のいずれか1つに記載の画像認識装置。
(付記10)
前記標準顔画像として、複数の人物の顔画像との類似度が所定条件を満たす顔画像を用いることを特徴とする付記1から付記8のいずれか1つに記載の画像認識装置。
(付記11)
前記標準顔画像として、標準的な顔の人工物を表す顔画像を用いることを特徴とする付記1から付記8のいずれか1つに記載の画像認識装置。
(付記12)
前記顔画像および前記標準顔画像として、特徴量ベクトルで表された情報を用いることを特徴とする付記1から付記11のいずれか1つに記載の画像認識装置。
(付記13)
顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定し、
前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う画像認識方法。
(付記14)
顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定する判定ステップと、
前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う識別ステップと、
をコンピュータ装置に実行させる画像認識プログラム。
In addition, some or all of the above-described embodiments may be described as in the following supplementary notes, but are not limited thereto.
(Appendix 1)
A determination unit that determines a face occlusion pattern in the face image by comparing an image representing a face (face image) with an image representing a standard face (standard face image);
Excluding an area based on the shielding pattern in the face image, an identification unit that identifies the face image,
An image recognition device comprising:
(Appendix 2)
The determination unit determines the shielding pattern based on a distribution of reliability based on a comparison between each small area forming the face image and a small area corresponding to each small area of the face image in the standard face image. The image recognition device according to claim 1, wherein the determination is performed.
(Appendix 3)
When the distribution of the reliability of the small region group constituting the middle region satisfies a predetermined shielding condition for the middle region obtained by combining the small region groups in a predetermined range, the determination unit is configured based on the middle region. 3. The image recognition apparatus according to claim 2, wherein a shielding pattern is determined.
(Appendix 4)
The determination unit is configured to use the sunglasses when the distribution of the reliability satisfies the shielding condition in the middle region, where the upper face region in which the small region groups above the nose are grouped in the face image is the middle region. 4. The image recognition device according to claim 3, wherein the image recognition device determines that the pattern is a shielding pattern.
(Appendix 5)
The determination unit includes a mask lower face area in which the small area group below the nose is grouped in the face image as the middle area, and the distribution of the reliability in the middle area satisfies the shielding condition. The image recognition device according to Supplementary Note 3 or 4, wherein the image recognition apparatus determines that the pattern is a shielding pattern.
(Appendix 6)
A dividing unit that divides the face image into the small areas;
For the face image and the standard face image, a reliability calculation unit that calculates the reliability by comparing the corresponding small areas,
The image recognition device according to any one of Supplementary Notes 2 to 5, further comprising:
(Appendix 7)
The identification unit performs identification for each of the small areas other than the area based on the shielding pattern in the face image, and identifies the face image based on an identification result for each of the small areas. The image recognition device according to any one of supplementary notes 2 to 6.
(Appendix 8)
For the face image, an overall identification unit that performs identification using information on the entire face,
A switching unit that switches which of the identification unit and the overall identification unit is used based on a determination result of the determination unit,
The image recognition device according to any one of supplementary notes 1 to 7, further comprising:
(Appendix 9)
The image recognition device according to any one of supplementary notes 1 to 8, wherein a face image representing an average face obtained by averaging a plurality of human faces is used as the standard face image.
(Appendix 10)
The image recognition device according to any one of supplementary notes 1 to 8, wherein a face image whose similarity with a plurality of face images of a plurality of persons satisfies a predetermined condition is used as the standard face image.
(Appendix 11)
The image recognition device according to any one of supplementary notes 1 to 8, wherein a face image representing a standard facial artifact is used as the standard face image.
(Appendix 12)
The image recognition device according to any one of Supplementary Notes 1 to 11, wherein information represented by a feature vector is used as the face image and the standard face image.
(Appendix 13)
By comparing an image representing a face (face image) with an image representing a standard face (standard face image), a face occlusion pattern in the face image is determined,
An image recognition method for identifying the face image by excluding an area based on the shielding pattern in the face image.
(Appendix 14)
A determination step of determining a face occlusion pattern in the face image by comparing an image representing a face (face image) with an image representing a standard face (standard face image);
Excluding an area based on the shielding pattern in the face image, an identification step of identifying the face image,
Recognition program for causing a computer device to execute.

1、2、3、4 画像認識装置
11、21 判定部
12、22、42 識別部
23 分割部
24、44 信頼度算出部
35、45 全体識別部
36 切替部
47 特徴抽出部
1001 CPU
1002 RAM
1003 ROM
1004 記憶装置
1005 撮像装置
1006 出力装置
1, 2, 3, 4 Image recognition device 11, 21 Judgment unit 12, 22, 42 Identification unit 23 Division unit 24, 44 Reliability calculation unit 35, 45 Overall identification unit 36 Switching unit 47 Feature extraction unit 1001 CPU
1002 RAM
1003 ROM
1004 storage device 1005 imaging device 1006 output device

Claims (10)

顔を表す画像である入力顔画像において遮蔽されている遮蔽領域を判定する判定部と、
前記遮蔽領域の分布に基づく遮蔽パターンと関連付けられている除外領域を前記入力顔画像から除外して、前記入力顔画像の識別を行う識別部と、
を備えた画像認識装置。
A determining unit that determines a blocked area that is blocked in an input face image that is an image representing a face;
An exclusion region associated with a shielding pattern based on the distribution of the shielding region is excluded from the input face image, and an identification unit that identifies the input face image,
An image recognition device comprising:
前記判定部は、前記入力顔画像を構成する複数の小領域と、標準的な顔を表す画像である標準顔画像において前記入力顔画像の各小領域に対応する小領域との比較に基づく信頼度の分布に基づいて、前記遮蔽パターンを判定する請求項1に記載の画像認識装置。   The determination unit is configured to determine a reliability based on a comparison between a plurality of small regions constituting the input face image and a small region corresponding to each small region of the input face image in a standard face image representing a standard face. The image recognition device according to claim 1, wherein the occlusion pattern is determined based on a degree distribution. 前記判定部は、所定範囲の前記小領域をまとめた小領域群である中領域について、当該中領域を構成する前記小領域の信頼度の分布が所定の遮蔽条件を満たす場合に、前記遮蔽パターンを判定する請求項2に記載の画像認識装置。   The determination unit is configured such that, for a middle area which is a small area group obtained by combining the small areas in a predetermined range, when the distribution of the reliability of the small areas constituting the middle area satisfies a predetermined shielding condition, the shielding pattern The image recognition device according to claim 2, wherein the determination is made. 前記判定部は、前記入力顔画像における鼻よりも上側の前記小領域をまとめた顔上部領域を前記中領域とし、当該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、サングラスによる遮蔽パターンであると判定する請求項3に記載の画像認識装置。   The determination unit sets the upper face area in which the small areas above the nose in the input face image are put together as the middle area. The image recognition device according to claim 3, wherein the image recognition device determines that the pattern is a shielding pattern. 前記判定部は、前記入力顔画像における鼻よりも下側の前記小領域をまとめた顔下部領域を前記中領域とし、当該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、マスクによる遮蔽パターンであると判定する請求項3または請求項4に記載の画像認識装置。   The determining unit sets the lower face area in which the small areas below the nose in the input face image are grouped as the middle area, and, when the distribution of the reliability satisfies the shielding condition in the middle area, a mask. The image recognition device according to claim 3, wherein the image recognition device determines that the pattern is a shielding pattern. 前記入力顔画像を前記小領域に分割する分割部と、
前記入力顔画像および前記標準顔画像について、対応する前記小領域間を比較することにより前記信頼度を算出する信頼度算出部と、
をさらに備える請求項2から請求項5のいずれか1項に記載の画像認識装置。
A dividing unit that divides the input face image into the small areas;
For the input face image and the standard face image, a reliability calculation unit that calculates the reliability by comparing the corresponding small areas,
The image recognition device according to any one of claims 2 to 5, further comprising:
前記識別部は、前記入力顔画像における前記遮蔽パターンに基づいて定めた領域以外における前記小領域毎に識別を行い、前記小領域毎の識別結果に基づいて、前記入力顔画像の識別を行う請求項2から請求項6のいずれか1項に記載の画像認識装置。   The said identification part performs identification for every said small area other than the area | region determined based on the said shielding pattern in the said input face image, and performs identification of the said input face image based on the identification result for every said small area. The image recognition device according to any one of claims 2 to 6. 前記入力顔画像について、顔全域の情報を用いて識別を行う全体識別部と、
前記判定部の判定結果に基づいて、前記識別部および前記全体識別部のいずれを用いるかを切り替える切替部と、
をさらに備える請求項1から請求項7のいずれか1項に記載の画像認識装置。
For the input face image, an overall identification unit that performs identification using information on the entire face,
A switching unit that switches which of the identification unit and the overall identification unit is used based on a determination result of the determination unit,
The image recognition device according to any one of claims 1 to 7, further comprising:
顔を表す画像である入力顔画像において遮蔽されている遮蔽領域を判定し、
前記遮蔽領域の分布に基づく遮蔽パターンと関連付けられている除外領域を前記入力顔画像から除外して、前記入力顔画像の識別を行う画像認識方法。
Determine an occluded area that is occluded in the input face image that is an image representing the face,
An image recognition method for identifying the input face image by excluding an exclusion area associated with a shielding pattern based on the distribution of the shielding area from the input face image.
顔を表す画像である入力顔画像において遮蔽されている遮蔽領域を判定する処理と、
前記遮蔽領域の分布に基づく遮蔽パターンと関連付けられている除外領域を前記入力顔画像から除外して、前記入力顔画像の識別を行う処理と、
をコンピュータ装置に実行させる画像認識プログラム。
A process of determining an occluded area that is occluded in an input face image that is an image representing a face;
A process of excluding an exclusion region associated with a shielding pattern based on the distribution of the shielding region from the input face image, and identifying the input face image;
Recognition program for causing a computer device to execute.
JP2019224879A 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program Active JP6852779B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019224879A JP6852779B2 (en) 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program
JP2021039200A JP7124912B2 (en) 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program
JP2022121851A JP7302719B2 (en) 2019-12-12 2022-07-29 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019224879A JP6852779B2 (en) 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014210530A Division JP6630999B2 (en) 2014-10-15 2014-10-15 Image recognition device, image recognition method, and image recognition program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021039200A Division JP7124912B2 (en) 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2020038731A true JP2020038731A (en) 2020-03-12
JP6852779B2 JP6852779B2 (en) 2021-03-31

Family

ID=69738579

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019224879A Active JP6852779B2 (en) 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program
JP2021039200A Active JP7124912B2 (en) 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021039200A Active JP7124912B2 (en) 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (2) JP6852779B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210174387A1 (en) * 2018-01-23 2021-06-10 Rideflag Technologies Inc. Vehicle Occupancy Multiple Verification Utilizing Proximity Confirmation
KR20220056618A (en) * 2020-10-28 2022-05-06 한국전자통신연구원 Method for recognizing identity adaptable to mask environment and apparatus using the same
KR20220107536A (en) * 2021-01-25 2022-08-02 상명대학교산학협력단 Method and system for robust face recognition system to wearing a mask
JP2022552754A (en) * 2020-09-22 2022-12-20 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド IMAGE DETECTION METHOD AND RELATED DEVICE, DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
JP2004158013A (en) * 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2007128262A (en) * 2005-11-02 2007-05-24 Omron Corp Face matching device
JP2007280250A (en) * 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face recognition system
JP2011060038A (en) * 2009-09-10 2011-03-24 Seiko Epson Corp Image processing apparatus
US20120230545A1 (en) * 2009-11-30 2012-09-13 Tong Zhang Face Recognition Apparatus and Methods
JP2012212969A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5480532B2 (en) * 2009-04-30 2014-04-23 グローリー株式会社 Image processing apparatus, image processing method, and program for causing computer to execute the method
JP6150491B2 (en) * 2012-10-26 2017-06-21 セコム株式会社 Face recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (en) * 2002-02-27 2003-11-14 Nec Corp Image recognition system and method and its program
JP2004158013A (en) * 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2007128262A (en) * 2005-11-02 2007-05-24 Omron Corp Face matching device
JP2007280250A (en) * 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face recognition system
JP2011060038A (en) * 2009-09-10 2011-03-24 Seiko Epson Corp Image processing apparatus
US20120230545A1 (en) * 2009-11-30 2012-09-13 Tong Zhang Face Recognition Apparatus and Methods
JP2012212969A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210174387A1 (en) * 2018-01-23 2021-06-10 Rideflag Technologies Inc. Vehicle Occupancy Multiple Verification Utilizing Proximity Confirmation
JP2022552754A (en) * 2020-09-22 2022-12-20 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド IMAGE DETECTION METHOD AND RELATED DEVICE, DEVICE, STORAGE MEDIUM, AND COMPUTER PROGRAM
KR20220056618A (en) * 2020-10-28 2022-05-06 한국전자통신연구원 Method for recognizing identity adaptable to mask environment and apparatus using the same
KR102686848B1 (en) * 2020-10-28 2024-07-19 한국전자통신연구원 Method for recognizing identity adaptable to mask environment and apparatus using the same
KR20220107536A (en) * 2021-01-25 2022-08-02 상명대학교산학협력단 Method and system for robust face recognition system to wearing a mask
KR102563153B1 (en) * 2021-01-25 2023-08-04 상명대학교산학협력단 Method and system for robust face recognition system to wearing a mask

Also Published As

Publication number Publication date
JP7124912B2 (en) 2022-08-24
JP6852779B2 (en) 2021-03-31
JP2021103538A (en) 2021-07-15

Similar Documents

Publication Publication Date Title
JP6630999B2 (en) Image recognition device, image recognition method, and image recognition program
JP7124912B2 (en) Information processing device, information processing method, and information processing program
JP5010905B2 (en) Face recognition device
US9563821B2 (en) Method, apparatus and computer readable recording medium for detecting a location of a face feature point using an Adaboost learning algorithm
US8331698B2 (en) Ethnicity classification using multiple features
US8837773B2 (en) Apparatus which detects moving object from image and method thereof
KR101314293B1 (en) Face recognition system robust to illumination change
Boehnen et al. A fast multi-modal approach to facial feature detection
BR122018007961B1 (en) METHOD IMPLEMENTED BY COMPUTER AND SYSTEM
KR20120069922A (en) Face recognition apparatus and method thereof
KR20130048076A (en) Face recognition apparatus and control method for the same
JP2007265367A (en) Gaze detection method, apparatus, and program
JP2017016593A (en) Image processing apparatus, image processing method, and program
JP7151875B2 (en) Image processing device, image processing method, and program
KR102563153B1 (en) Method and system for robust face recognition system to wearing a mask
Benlamoudi et al. Face spoofing detection using multi-level local phase quantization (ML-LPQ)
EP4120184A1 (en) Information processing device, information processing method, and program
JP7302719B2 (en) Information processing device, information processing method, and information processing program
Ganakwar et al. Face detection using boosted cascade of simple feature
Mandalapu et al. Image quality and texture-based features for reliable textured contact lens detection
Uhl et al. Fusion of iris segmentation results
JP2006244365A (en) Biometrics verification method
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus
Sa Gender Classification from Facial Images using PCA and SVM
JP2007323104A (en) Eye state determination method, apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6852779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150