[go: up one dir, main page]

JP2008165314A - Personal identification device and personal identification method - Google Patents

Personal identification device and personal identification method Download PDF

Info

Publication number
JP2008165314A
JP2008165314A JP2006351350A JP2006351350A JP2008165314A JP 2008165314 A JP2008165314 A JP 2008165314A JP 2006351350 A JP2006351350 A JP 2006351350A JP 2006351350 A JP2006351350 A JP 2006351350A JP 2008165314 A JP2008165314 A JP 2008165314A
Authority
JP
Japan
Prior art keywords
period
dictionary data
dictionary
data
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006351350A
Other languages
Japanese (ja)
Other versions
JP2008165314A5 (en
Inventor
Yuka Eura
由佳 江浦
Tamaki Kojima
環 児嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006351350A priority Critical patent/JP2008165314A/en
Publication of JP2008165314A publication Critical patent/JP2008165314A/en
Publication of JP2008165314A5 publication Critical patent/JP2008165314A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

【課題】長期間に亘る個人の識別をするために好適な個人識別装置を提供する。
【解決手段】個人Pi(i=1,2,・・・)を識別するための辞書データとして、複数個の異なる期間のそれぞれにおける個人を識別するための識別要素から抽出された特徴データから生成した複数個の期間辞書データTDi,n(n=1,2,・・・,N)を備える。個人の異なる期間のそれぞれにおける識別は、対応する期間の期間辞書データTDi,nを用いて行なう。
【選択図】図8
A personal identification device suitable for identifying an individual over a long period of time is provided.
Dictionary data for identifying an individual Pi (i = 1, 2,...) Is generated from feature data extracted from an identification element for identifying an individual in a plurality of different periods. A plurality of period dictionary data TDi, n (n = 1, 2,..., N) are provided. Identification of each individual different period is performed using the period dictionary data TDi, n of the corresponding period.
[Selection] Figure 8

Description

この発明は、例えば、個人の顔画像、声などの個人を識別するための識別要素を用いて個人を識別する個人識別装置および個人識別方法に関する。   The present invention relates to a personal identification device and a personal identification method for identifying an individual using an identification element for identifying the individual, such as an individual's face image or voice.

例えば、識別すべき複数の人の顔、声などの識別要素の特徴データを、辞書データとして、予め保存しておき、取り込まれた識別すべき個人の上記識別要素の特徴データと、辞書データとして記憶されている識別要素の特徴データとを比較することにより、取り込まれた個人の識別要素が誰の識別要素であるかを識別するようにする個人識別手法が知られている。   For example, characteristic data of identification elements such as faces and voices of a plurality of persons to be identified are stored in advance as dictionary data, and the characteristic data of the identification elements of the individual to be identified and the dictionary data A personal identification method is known in which the identification element of a captured individual is identified by comparing it with characteristic data of the stored identification element.

この個人識別手法において、識別要素として顔画像を例に取ると、辞書データは、前記識別しようとする個人の顔画像を取り込んで、その顔画像から抽出した特徴データを用いて生成する。この場合において、従来は、辞書データは1個だけ生成する。そして、一般には、識別要素としての顔画像の取り込み時の撮像条件や顔の向きなどの取り込み誤差を平均化するために、同じ個人について複数の顔画像を取り込んで、特徴データを平均化したものを当該個人の識別用の辞書データとして記憶するようにする(特許文献1(特開2003−271958号公報)参照)。   In this personal identification method, if a face image is taken as an example of an identification element, the dictionary data is generated using the feature data extracted from the face image of the individual to be identified. In this case, conventionally, only one dictionary data is generated. In general, in order to average capture errors such as imaging conditions and face orientation when capturing facial images as identification elements, feature data is averaged by capturing multiple facial images for the same individual. Is stored as dictionary data for identifying the individual (see Japanese Patent Application Laid-Open No. 2003-271958).

そして、通常は、新たに各個人毎の顔画像の識別が行なわれたときに、識別された個人の顔画像の特徴データを、当該1個の識別用辞書データに反映させることで、各個人用の顔画像の辞書データの更新を行なうようにしている。   Normally, when a face image for each individual is newly identified, the feature data of the identified individual face image is reflected in the one identification dictionary data, so that each individual The dictionary data of the face image for use is updated.

上記の特許文献は、次の通りである。
特開2003−271958号公報
The above-mentioned patent documents are as follows.
JP 2003-271958 A

従来の顔識別技術を用いた個人識別技術は、セキュリティシステム用に用いられる場合が殆どで、現時点における個人の顔画像などの識別要素と、辞書データとの照合を行なうようにしている。このため、過去の顔よりも、現時点の顔の識別精度向上に焦点が当てられた1個の顔識別用辞書データを用いることで、顔識別が行なわれる。そして、当該1個の辞書データは、現在の顔に追従するように過去の登録画像を削除しつつ、辞書データ自体を更新するようにして更新されている。   The personal identification technique using the conventional face identification technique is mostly used for a security system, and the identification element such as a personal face image at the present time is compared with dictionary data. For this reason, face identification is performed by using one face identification dictionary data focused on improving the identification accuracy of the current face rather than the past face. The one dictionary data is updated by updating the dictionary data itself while deleting past registered images so as to follow the current face.

ところで、最近は、デジタルスチルカメラの普及と、パーソナルコンピュータの記憶容量の大容量化により、パーソナルコンピュータの大容量記憶装置に、撮影した大量の写真画像を取り込んで、アルバムを作成したりして写真管理することができるようになっている。また、同様の写真管理サービスをWeb上で行なうサイトも登場している。   By the way, recently, with the widespread use of digital still cameras and the increased storage capacity of personal computers, a large number of photographed images are taken into a large-capacity storage device of a personal computer to create an album. It can be managed. There are also sites that offer similar photo management services on the Web.

このような場合に、パーソナルコンピュータで用いる写真管理アプリケーションや、Webサービスでは、取り込む写真画像が常に新しい顔画像の場合に限られる訳ではなく、過去の写真画像が取り込まれることも予想される。   In such a case, the photo management application used in the personal computer and the Web service are not limited to the case where the photograph image to be captured is always a new face image, and it is also expected that a past photograph image is captured.

人の顔や声は、年月と共に、変化してゆくのが通常であるので、上述の写真管理アプリケーションや、Webサービスで、従来の顔識別技術で用いられる、現在の顔画像に追従するように更新して作成する1個の辞書データを用いて顔識別する手法では、過去の写真画像を同一人物として識別することができなくなるおそれがある。   Since human faces and voices usually change over time, it seems to follow the current face image used in the conventional face identification technology in the above-mentioned photo management application and Web service. In the method of identifying a face using one dictionary data created by updating to the past, there is a possibility that past photo images cannot be identified as the same person.

また、上述のように、同じ個人について取り込んだ複数の顔画像の特徴データを平均化した更新する従来の1個の顔識別用辞書データを、上記のような写真管理に用いた場合、長期間における個人の顔識別をしたときに、過去から現在の写真まで、長期間の顔画像を元に辞書が作成され、かえって個人の特徴が平均化されてしまい、精度向上はみられないと考えられる。   In addition, as described above, when one piece of conventional face identification dictionary data that is updated by averaging feature data of a plurality of face images captured for the same individual is used for the above-described photo management, a long period of time is required. When a person's face is identified in, a dictionary is created based on long-term face images from the past to the current photo, and the personal features are averaged, and no improvement in accuracy is expected. .

人の顔のみではなく、人の声も、年月と共に、変化してゆくことが知られており、人の声により個人識別を行なう場合にも同様のことが言える。   It is known that not only a person's face but also a person's voice changes over time, and the same can be said when personal identification is performed using a person's voice.

この発明は、以上の点にかんがみ、長期間に亘る個人の識別をするために好適な個人識別装置を提供することを目的とする。   In view of the above points, an object of the present invention is to provide a personal identification device suitable for identifying an individual over a long period of time.

上記の課題を解決するために、この発明の個人識別装置は、
個人を識別するための辞書データとして、複数個の異なる期間のそれぞれにおける前記個人を識別するための識別要素から抽出された特徴データから生成した複数個の期間辞書データを備え、
前記個人の前記異なる期間のそれぞれにおける識別は、対応する期間の前記期間辞書データを用いて行なうことを特徴とする。
In order to solve the above problems, the personal identification device of the present invention is:
As dictionary data for identifying an individual, a plurality of period dictionary data generated from feature data extracted from an identification element for identifying the individual in each of a plurality of different periods,
The identification of the individual in each of the different periods is performed using the period dictionary data of the corresponding period.

上述の構成のこの発明による個人識別装置によれば、複数個の異なる期間のそれぞれにおける複数個の期間辞書データを備えていて、個人の異なる期間のそれぞれにおける識別は、対応する期間の期間辞書を用いて行なうので、過去から現在に亘り、人の識別要素の変化に対応した個人識別が可能となる。   According to the personal identification device of the present invention having the above-described configuration, a plurality of period dictionary data for each of a plurality of different periods are provided, and the identification of each individual different period is performed by using the period dictionary for the corresponding period. Therefore, personal identification corresponding to changes in human identification elements is possible from the past to the present.

この発明によれば、複数個の異なる期間のそれぞれにおける複数個の期間辞書データを用いて、対応する期間における個人の識別を行なうようにしたことにより、過去から現在に亘り、人の識別要素の変化に対応した個人識別が可能となる。   According to the present invention, by using a plurality of period dictionary data in each of a plurality of different periods to identify an individual in a corresponding period, the identification element of a person from the past to the present can be obtained. Individual identification corresponding to changes is possible.

以下、この発明による個人識別装置の実施形態を、顔画像を、個人を識別するための識別要素として個人識別する装置の場合を例に、図を参照しながら説明する。   Hereinafter, an embodiment of a personal identification device according to the present invention will be described with reference to the drawings, taking as an example a personal identification device as an identification element for identifying a face image.

[第1の実施形態]
図1は、この実施形態の顔画像による個人識別装置の構成例を示すブロック図である。この図1の例は、例えばパーソナルコンピュータに、顔画像による個人識別装置を構成した場合の例であり、ブロックで示したものの一部は、ソフトウエア構成とすることもできるものである。
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration example of a personal identification device based on face images according to this embodiment. The example of FIG. 1 is an example in the case where a personal identification device based on a face image is configured in a personal computer, for example, and some of the components shown in blocks can also have a software configuration.

図1に示すように、この実施形態の顔画像による個人識別装置は、CPU(Central Processing Unit)1に対してシステムバス2を介して、プログラム等が記憶されているROM(Read Only Memory)3と、ワークエリア用のRAM(Random Access Memory)4と、操作部インターフェース5と、ディスプレイインターフェース76と、画像データ入力インターフェース7とが接続されている。   As shown in FIG. 1, the personal identification device based on a facial image of this embodiment is a ROM (Read Only Memory) 3 in which a program or the like is stored via a system bus 2 with respect to a CPU (Central Processing Unit) 1. A work area RAM (Random Access Memory) 4, an operation unit interface 5, a display interface 76, and an image data input interface 7 are connected.

操作部インターフェース5には、キーボードやマウスなどの操作入力部8が接続されている。また、ディスプレイインターフェース6には、例えばLCD(Liquid Crystal Display;液晶ディスプレイ)などからなるディスプレイ9が接続されている。   An operation input unit 8 such as a keyboard or a mouse is connected to the operation unit interface 5. The display interface 6 is connected to a display 9 such as an LCD (Liquid Crystal Display).

画像データ入力インターフェース7は、例えば、USB(Universal Serial Bus)インターフェースを備える撮像カメラ(デジタルカメラ)等の画像出力装置からの画像データを受け取る場合には、USB端子およびUSBインターフェースからなる。   The image data input interface 7 includes a USB terminal and a USB interface when receiving image data from an image output device such as an imaging camera (digital camera) having a USB (Universal Serial Bus) interface, for example.

また、画像データ入力インターフェース7は、画像データが格納されたカード型メモリからの画像データを受け取る場合には、当該カード型メモリが装填されるメモリリーダで構成される。   The image data input interface 7 includes a memory reader in which the card type memory is loaded when receiving image data from the card type memory storing the image data.

また、画像データ入力インターフェース7は、画像データが格納された光ディスクからの画像データを受け取る場合には、当該光ディスクからの画像データの読み出しが可能な光ディスクドライブで構成される。   Further, the image data input interface 7 is configured by an optical disk drive capable of reading image data from the optical disk when receiving image data from the optical disk storing the image data.

なお、画像データ入力インターフェース7は、画像データのみでなく、画像データに付随する、例えば撮像時刻の情報、撮像条件などからなる情報(例えば、Exif(Exchange image file format)形式の情報など)も取り込むものである。   Note that the image data input interface 7 captures not only image data but also information (for example, information in the format of an exchange image file (Exif)) that is associated with the image data and includes, for example, imaging time information and imaging conditions. Is.

この場合に、画像データ入力インターフェース7を通じて取り込まれる画像データに、もしも、撮像時刻の情報が含まれていない場合には、図示は省略するが、CPU1は、ユーザに対し、撮影時刻の情報が存在しないので撮影時刻の入力をするように促すメッセージを、ディスプレイ9に表示し、このメッセージに対応してユーザが入力する撮像時刻の情報を取り込まれた画像データに対応させて取得するようにする。   In this case, if the image data taken in through the image data input interface 7 does not include information on the imaging time, the CPU 1 does not provide information on the imaging time to the user, although illustration is omitted. Therefore, a message prompting the user to input the shooting time is displayed on the display 9, and information on the imaging time input by the user corresponding to this message is acquired in correspondence with the captured image data.

また、画像データ入力インターフェース7は、印画紙にプリントされた写真をスキャンして取り込むスキャナであっても良い。その場合には、撮影時刻の情報は、ユーザが入力するようにする。   The image data input interface 7 may be a scanner that scans and captures a photograph printed on photographic paper. In this case, the user inputs the shooting time information.

また、この実施形態においては、システムバス2には、顔識別用辞書データベース10と、顔識別用画像処理部11と、顔識別処理部12と、表示情報生成部13と、辞書データ更新処理部14とが接続されている。   In this embodiment, the system bus 2 includes a face identification dictionary database 10, a face identification image processing unit 11, a face identification processing unit 12, a display information generation unit 13, and a dictionary data update processing unit. 14 is connected.

顔識別用辞書データベース10は、例えばハードディスク装置などの記憶装置の全部あるいは一部の記憶エリアが用いられて構成されている。この実施形態では、この顔識別用辞書データベース10には、顔画像による個人識別すべく登録された複数の個人Pi(i=1,2,・・・以下同じ。iは個人番号に対応する。例えばi=1は「Aさん」、i=2は「Bさん」の如くである)のそれぞれについての個人辞書データDiが、それぞれの個人を特定するための個人特定情報(個人識別データ)と対応付けられて記憶保持されている。なお、以下の説明において、「顔識別」は、「顔画像による個人識別」と同義である。   The face identification dictionary database 10 is configured by using all or a part of a storage area of a storage device such as a hard disk device. In this embodiment, a plurality of individuals Pi (i = 1, 2,..., Registered in the face identification dictionary database 10 for personal identification based on face images are the same. I corresponds to a personal number. For example, personal dictionary data Di for each of i = 1 is “Mr. A” and i = 2 is “Mr. B” and personal identification information (personal identification data) for identifying each individual. Correspondingly stored and held. In the following description, “face identification” is synonymous with “personal identification by face image”.

顔識別用画像処理部11は、図2に示すように、画像データ入力インターフェース7を通じて取り込んだ原画の画像データから、顔検出および目検出を行い、検出した両目の位置が水平になるように、目の位置に合わせて顔画像の回転をする。目の位置に合わせて顔画像を回転するのは、後述のように、顔識別においては、正面を向いた顔画像であって、両目が水平になっている顔画像を基準にしているからである。   As shown in FIG. 2, the face identifying image processing unit 11 performs face detection and eye detection from the image data of the original image taken in through the image data input interface 7 so that the detected positions of both eyes are horizontal. The face image is rotated according to the eye position. The face image is rotated according to the position of the eyes because, as will be described later, in face identification, the face image is a face image that faces the front and both eyes are horizontal. is there.

そして、さらに、顔識別用画像処理部11では、顔画像を識別するための特徴部位(例えば眉、目、鼻、口など)の特徴データを抽出するための特徴点プロット(特徴点サンプリング)を行い、当該取り込まれた顔画像Finについての特徴データとしての特徴ベクトルVinを取得する。ここで、特徴ベクトルVinは、複数種の特徴量を変数とする関数からなるものである。   Further, the face identifying image processing unit 11 performs a feature point plot (feature point sampling) for extracting feature data of feature parts (for example, eyebrows, eyes, nose, mouth, etc.) for identifying the face image. Then, a feature vector Vin as feature data for the captured face image Fin is acquired. Here, the feature vector Vin is composed of a function having a plurality of types of feature values as variables.

なお、顔識別用画像処理部11における顔検出、目検出、特徴ベクトルVinの算出などの処理に関しては、特許文献2(特開2006−72770号公報)、特許文献3(特開2005−44330号公報)、非特許文献(佐部浩太郎、日台健一、“ピクセル差分特徴を用いた実時間任意姿勢顔検出器の学習”、第10回画像センシングシンポジウム講演論文集、pp.547-552,2004年6月)などに詳しく記載されているので、ここでは省略することとする。   In addition, regarding processing such as face detection, eye detection, and calculation of a feature vector Vin in the face identification image processing unit 11, Patent Document 2 (Japanese Patent Laid-Open No. 2006-72770) and Patent Document 3 (Japanese Patent Laid-Open No. 2005-44330). Gazette), non-patent literature (Kotaro Sabe, Kenichi Hidai, "Learning a Real-Time Arbitrary Posture Face Detector Using Pixel Difference Features", Proceedings of the 10th Image Sensing Symposium, pp. 547-552, 2004 (June of year) etc., and will be omitted here.

顔識別用画像処理部11は、取り込まれた顔画像Finについて取得した特徴データとしての特徴ベクトルVinを、顔識別処理部12に供給する。   The face identification image processing unit 11 supplies the feature vector Vin as feature data acquired for the captured face image Fin to the face identification processing unit 12.

また、顔識別用画像処理部11において、顔検出や目検出ができなかった場合、または、顔検出や目検出ができても、特徴ベクトルの算出ができなかった場合には、その旨を顔識別処理部12や表示情報生成部13に送るようにする。   In addition, when face detection or eye detection cannot be performed in the face identification image processing unit 11, or when face detection or eye detection can be performed but a feature vector cannot be calculated, this is indicated. The data is sent to the identification processing unit 12 and the display information generation unit 13.

顔識別処理部12は、顔識別用画像処理部11からの取り込まれた画像から取得された顔画像Finの特徴データとしての特徴ベクトルVinを受けて、この特徴ベクトルVinと、顔識別用辞書データベース10に格納されている複数の個人の個人辞書データDiとを比較して照合し、一致していると判定することができる個人辞書データDiを検出するようにする。   The face identification processing unit 12 receives the feature vector Vin as the feature data of the face image Fin acquired from the image captured from the face identification image processing unit 11, and the feature vector Vin and the face identification dictionary database The personal dictionary data Di of a plurality of individuals stored in 10 are compared and collated, and the personal dictionary data Di that can be determined to match is detected.

そして、顔識別処理部12は、一致していると判定することができる個人辞書データDiが検出できたときには、その旨と、検出できた個人辞書データDiに対応する個人特定情報(個人識別データ)、この例では、個人の氏名とを、表示情報生成部13に送る。   When the personal dictionary data Di that can be determined to match can be detected, the face identification processing unit 12 and the personal identification information (personal identification data) corresponding to the detected personal dictionary data Di. In this example, the personal name is sent to the display information generating unit 13.

また、顔識別処理部12は、一致していると判定することができる個人辞書データDiが検出できなかったときには、その旨を、表示情報生成部13に送る。   Further, when the personal dictionary data Di that can be determined to match is not detected, the face identification processing unit 12 sends a message to that effect to the display information generation unit 13.

なお、顔識別処理部12は、顔識別用画像処理部11から、顔検出や目検出ができなかった旨、または、顔検出や目検出ができても、特徴ベクトルの算出ができなかった旨の通知を受けたときには、上述した顔識別処理は実行しない。   Note that the face identification processing unit 12 cannot detect the face or eyes from the face identification image processing unit 11, or does not calculate the feature vector even if face detection or eye detection is possible. Is received, the face identification process described above is not executed.

表示情報生成部13は、顔識別処理部12から、顔識別ができた旨および顔識別結果として個人特定情報としての個人の氏名を受け取ったときには、図3に示すような、顔識別結果をユーザに確認させるための顔識別結果確認画面の表示情報を生成し、ディスプレイインターフェース6を通じてディスプレイ9の画面に表示させるようにする。   When the display information generation unit 13 receives from the face identification processing unit 12 that the face has been identified and the name of the individual as personal identification information as the face identification result, the display information generation unit 13 displays the face identification result as shown in FIG. Display information of a face identification result confirmation screen for confirmation by the user is generated and displayed on the screen of the display 9 through the display interface 6.

図3に示すように、この顔識別結果確認画面には、取り込んだ顔画像Finの表示画像21が表示されると共に、顔識別結果が正しいかどうかをユーザに問い合わせるメッセージ「この人は、「○○○○」さんですか?」の表示22と、当該問い合わせメッセージ22に対する回答のボタンアイコン23,24とが表示される。問い合わせメッセージ22のうちの、「○○○○」の部分には、顔識別結果の氏名が表示される。   As shown in FIG. 3, a display image 21 of the captured face image Fin is displayed on the face identification result confirmation screen, and a message “This person asks whether the face identification result is correct” Is it ○○○? ”And button icons 23 and 24 for answers to the inquiry message 22 are displayed. The name of the face identification result is displayed in the portion of “XX” in the inquiry message 22.

図3の例では、顔識別処理部12では、取り込まれた顔画像の特徴データは、「田中太郎」さんの個人辞書データDiの顔画像の特徴データと一致したと判定したので、問い合わせメッセージ22の「○○○○」の部分には、「田中太郎」が表示されている。   In the example of FIG. 3, the face identification processing unit 12 determines that the feature data of the captured face image matches the feature data of the face image in the personal dictionary data Di of “Taro Tanaka”. “Taro Tanaka” is displayed in the “XXX” part of

回答のボタンアイコン23は、肯定の回答用であり、また、回答のボタンアイコン24は、否定の回答用である。   The answer button icon 23 is for an affirmative answer, and the answer button icon 24 is for a negative answer.

図3の画面において、ユーザが、操作入力部8を用いて肯定の回答用のボタンアイコン23をクリックしたときには、表示情報生成部13は、CPU1の制御に従って、顔識別結果の氏名の情報を辞書データ更新処理部14に供給する。辞書データ更新処理部14は、後述するように、受け取った氏名で特定される個人特定情報に対応して顔識別用辞書データベース10に記憶されている個人辞書データDiの新規生成(新規登録)または更新処理を行なう。   In the screen of FIG. 3, when the user clicks the button icon 23 for an affirmative answer using the operation input unit 8, the display information generation unit 13 stores the name information of the face identification result in the dictionary under the control of the CPU 1. The data is supplied to the data update processing unit 14. As will be described later, the dictionary data update processing unit 14 newly generates (newly registers) personal dictionary data Di stored in the face identification dictionary database 10 corresponding to the personal identification information specified by the received name. Update processing is performed.

また、図3の画面において、ユーザが、操作入力部8を用いて否定の回答用のボタンアイコン24をクリックしたときには、表示情報生成部13は、図4に示すような、顔識別結果が不正解であることをユーザに報知する顔識別結果不正解画面の表示情報を生成し、ディスプレイインターフェース6を通じてディスプレイ9の画面に表示させるようにする。   In addition, when the user clicks the negative answer button icon 24 using the operation input unit 8 on the screen of FIG. 3, the display information generation unit 13 displays a face identification result as shown in FIG. Display information of a face identification result incorrect answer screen that informs the user that the answer is correct is generated and displayed on the screen of the display 9 through the display interface 6.

この顔識別結果不正解画面には、図4に示すように、取り込んだ顔画像Finの表示画像21と、当該取り込んだ顔画像Finが誰の顔画像であるか、氏名を入力するように促すメッセージ25を表示する。ユーザは、このメッセージ25中の氏名入力欄26に、表示画像21として表示されている個人の氏名を入力するようにする。   In this face identification result incorrect answer screen, as shown in FIG. 4, the display image 21 of the captured face image Fin and the name of the person who is the captured face image Fin are prompted to input a name. Message 25 is displayed. The user inputs the personal name displayed as the display image 21 in the name input field 26 in the message 25.

このユーザによる氏名の入力を受け付けると、表示情報生成部13は、CPU1の制御に従って、その入力された氏名の情報を、辞書データ更新処理部14に供給する。辞書データ更新処理部14は、後述するように、受け取った氏名からなる個人特定情報に対応して顔識別用辞書データベース10に記憶されている個人辞書データDiの新規生成または更新処理を行なう。   When receiving the name input by the user, the display information generation unit 13 supplies the input name information to the dictionary data update processing unit 14 according to the control of the CPU 1. As will be described later, the dictionary data update processing unit 14 performs new generation or update processing of the personal dictionary data Di stored in the face identification dictionary database 10 corresponding to the personal identification information including the received name.

なお、氏名入力欄26に氏名の入力がなされずに、ユーザから顔識別の処理の終了が指示されたときには、表示情報生成部13からは、氏名の情報が伝達されず、CPU1の制御に従って辞書更新をしない旨の通知が辞書データ更新処理部14に通知される。したがって、辞書データ更新処理部14は、個人辞書データの生成または更新処理は行なわない。   When the user is instructed to end the face identification process without inputting the name in the name input field 26, the display information generating unit 13 does not transmit the name information, and the dictionary is controlled according to the control of the CPU 1. The dictionary data update processing unit 14 is notified that the update is not performed. Therefore, the dictionary data update processing unit 14 does not generate or update personal dictionary data.

また、表示情報生成部13は、顔識別処理部12から、顔識別結果として顔識別用辞書データベース10中に、取り込まれた顔画像と一致する個人辞書データDiがない旨の通知を受け取ったときには、図5に示すような、顔識別結果として「一致無し」をユーザに報知させるための顔識別結果一致無し画面の表示情報を生成し、ディスプレイインターフェース6を通じてディスプレイ9の画面に表示させるようにする。   Further, when the display information generation unit 13 receives a notification from the face identification processing unit 12 that there is no personal dictionary data Di that matches the captured face image in the face identification dictionary database 10 as a face identification result. As shown in FIG. 5, display information of a face identification result non-match screen for informing the user of “no match” as the face identification result is generated and displayed on the screen of the display 9 through the display interface 6. .

この顔識別結果一致無し画面には、図5に示すように、取り込んだ顔画像Finの表示画像21と、当該取り込んだ顔画像Finが誰の顔画像であるか、氏名を入力するように促すメッセージ27を表示する。ユーザは、このメッセージ27中の氏名入力欄28に、表示画像21として表示されている個人の氏名を入力するようにする。   On this face identification result non-match screen, as shown in FIG. 5, the display image 21 of the captured face image Fin and the name of the person who is the captured face image Fin are prompted to input a name. Message 27 is displayed. The user inputs the personal name displayed as the display image 21 in the name input field 28 in the message 27.

このユーザによる氏名の入力を受け付けると、表示情報生成部13は、その入力された氏名の情報を、辞書データ更新処理部14に供給する。辞書データ更新処理部14は、後述するように、受け取った氏名を個人特定情報とする個人辞書データDiの新規生成または更新処理を行なう。   When receiving the input of the name by the user, the display information generation unit 13 supplies the input name information to the dictionary data update processing unit 14. As will be described later, the dictionary data update processing unit 14 performs new generation or update processing of personal dictionary data Di using the received name as personal identification information.

なお、氏名入力欄28に氏名の入力がなされずに、ユーザから顔識別の処理の終了が指示されたときには、表示情報生成部13からは、氏名の情報が伝達されず、辞書更新をしない旨の通知が辞書データ更新処理部14に通知される。したがって、辞書データ更新処理部14は、辞書データの生成または更新は行なわない。   When the user is instructed to end the face identification process without inputting the name in the name input field 28, the display information generating unit 13 does not transmit the name information and does not update the dictionary. Is notified to the dictionary data update processing unit 14. Therefore, the dictionary data update processing unit 14 does not generate or update dictionary data.

また、表示情報生成部13は、顔識別用画像処理部11から、顔検出や目検出、最終的には、特徴ベクトルの算出ができなかった旨の通知を受けたときには、図6に示すような、照合不能通知画面の表示情報を生成し、ディスプレイインターフェース6を通じてディスプレイ9の画面に表示させるようにする。   When the display information generation unit 13 receives a notification from the face identification image processing unit 11 that face detection, eye detection, and finally calculation of a feature vector cannot be performed, as shown in FIG. Further, the display information of the non-verification notification screen is generated and displayed on the screen of the display 9 through the display interface 6.

この照合不能通知画面には、図6に示すように、取り込まれた顔画像は、辞書データの更新には用いられない旨のメッセージ29が表示される。そして、CPU1の制御に従って、表示情報生成部13は、辞書データの更新をしない旨の通知を辞書データ更新処理部14に通知する。   As shown in FIG. 6, a message 29 indicating that the captured face image is not used for updating the dictionary data is displayed on this incompatibility notification screen. Then, according to the control of the CPU 1, the display information generation unit 13 notifies the dictionary data update processing unit 14 of a notification that the dictionary data is not updated.

辞書データ更新処理部14は、この実施形態では、顔識別処理部13での識別結果に基づいて個人特定情報が特定されたとき、当該個人特定情報に対応する個人辞書データDiの更新処理を実行する。   In this embodiment, the dictionary data update processing unit 14 performs update processing of the personal dictionary data Di corresponding to the personal identification information when the personal identification information is specified based on the identification result in the face identification processing unit 13. To do.

この場合、上述の説明から分かるように、「顔識別処理部13での識別結果に基づいて個人特定情報が特定されたとき」には、顔識別結果が正解であって個人特定情報が個人識別装置において特定される場合と、顔識別結果が不正解であって、ユーザにより入力された個人の氏名により個人特定情報が特定される場合と、顔識別の結果、一致するものがなくて新規の顔画像の取り込みの場合であってユーザにより入力された個人の氏名により個人特定情報が特定される場合と、を含むものである。   In this case, as can be seen from the above description, when the personal identification information is specified based on the identification result in the face identification processing unit 13, the face identification result is correct and the personal identification information is personal identification. When the device is specified, the face identification result is incorrect, and the personal identification information is specified by the personal name entered by the user. This includes the case of capturing a face image and the case where the individual specifying information is specified by the name of the individual input by the user.

顔識別用画像処理部11で、顔検出や目検出、最終的には、特徴ベクトルの算出ができなかった旨の通知を受けたときには、辞書データ更新処理部14は、前記個人辞書データDiの更新処理は行なわない。また、取り込まれた顔画像についての個人特定情報の特定が最終的にできなかったときにも、辞書データ更新処理部14は、前記個人辞書データDiの更新処理は行なわない。   When the face identification image processing unit 11 receives notification that face detection, eye detection, and finally feature vector calculation cannot be performed, the dictionary data update processing unit 14 stores the personal dictionary data Di. Update processing is not performed. In addition, even when the personal identification information about the captured face image cannot be finally specified, the dictionary data update processing unit 14 does not perform the update process of the personal dictionary data Di.

顔識別用辞書データベース10の個人辞書データDiとしては、従来は、各個人に対して、1個の顔識別用の辞書データが登録されていて、当該各個人に対する1個の顔識別用辞書データのそれぞれと、取り込まれた個人の識別要素から抽出された特徴データとを照合することで、取り込まれた識別要素を備える個人を識別するようにする。   Conventionally, as personal dictionary data Di of the face identification dictionary database 10, one face identification dictionary data is registered for each individual, and one face identification dictionary data for each individual is registered. And the feature data extracted from the captured individual identification element are identified to identify the individual having the captured identification element.

これに対して、この実施形態の顔識別用辞書データベース10においては、「Aさん」、「Bさん」、「Cさん」・・・の各個人辞書データDiとしては、異なる複数個の期間についての複数個の期間辞書データが設けられる。   On the other hand, in the face identification dictionary database 10 of this embodiment, each personal dictionary data Di of “Mr. A”, “Mr. B”, “Mr. C”,. A plurality of period dictionary data are provided.

すなわち、この実施形態では、顔識別用辞書データベース10には、図8に示すように、一人当たりの個人辞書データDiとして、互いに異なる複数個の期間、例えば、期間1、期間2、・・・、期間N、についての複数個の期間辞書データTDi,1、TDi,2、・・・、TDi,Nが設けられ、これら複数個の期間辞書データが、各個人の個人特定情報である個人識別データIDiに対応付けられて格納されている。   That is, in this embodiment, as shown in FIG. 8, the face identification dictionary database 10 includes a plurality of different periods such as period 1, period 2,... As personal dictionary data Di per person. A plurality of period dictionary data TDi, 1, TDi, 2,..., TDi, N are provided for period N, and the plurality of period dictionary data are personal identification information that is individual identification information of each individual. It is stored in association with data IDi.

ここで、個人特定情報(個人識別データIDi)としては、この実施形態では、個人名(氏名)が登録される。個人特定情報としては、個人名(氏名)に限らず、個人識別番号や記号、その他、個人情報を用いるようにしても良いし、それらの個人を特定するための情報の組み合わせを用いるようにしても良い。   In this embodiment, a personal name (name) is registered as the personal identification information (personal identification data IDi). The personal identification information is not limited to the personal name (name), but may be personal identification numbers, symbols, or other personal information, or a combination of information for identifying those individuals. Also good.

また、この実施形態では、図8に示すように、個人辞書データDiの一部として、複数個の期間辞書データTDi,j(j=1,2,・・・,N)のそれぞれの期間を定める基準となる基準時刻データRtが格納される。この実施形態では、この基準時刻データとしては、対応する個人Piについて最初に取り込んだ顔画像の撮影時刻のデータが用いられる。なお、この場合、撮影時刻は、撮影がなされた年、月、日、時、分、秒からなるが、この実施形態で期間を定める場合には、日を最小単位とするので、期間を定めるための基準時刻としては年月日のみを用いるものとしている。   In this embodiment, as shown in FIG. 8, each period of a plurality of period dictionary data TDi, j (j = 1, 2,..., N) is used as a part of the personal dictionary data Di. Reference time data Rt serving as a reference to be set is stored. In this embodiment, as the reference time data, data of the photographing time of the face image first captured for the corresponding individual Pi is used. In this case, the shooting time includes the year, month, day, hour, minute, and second when the shooting was performed. However, in this embodiment, when the period is set, the day is set as the minimum unit, so the period is set. As a reference time, only the date is used.

各個人の複数個の期間辞書データTDi,jのそれぞれは、それぞれの期間辞書データTDi,jが対応する期間内で撮影された当該対応する個人の顔画像の取り込みがあったときに、当該取り込まれた顔画像から抽出された特徴データが用いられて、新規に生成される。   Each of the plurality of period dictionary data TDi, j of each individual is captured when the corresponding individual face image photographed within the period corresponding to each period dictionary data TDi, j is captured. The feature data extracted from the extracted face image is used to generate a new one.

そして、期間辞書データTDi,jが生成された後に、対応する期間内で撮影された当該対応する個人の顔画像の更なる取り込みがあったときには、当該更なる取り込みがなされた顔画像から抽出された特徴データが用いられて、当該期間辞書データTDi,jが更新される。   Then, after the generation of the period dictionary data TDi, j, when there is further capture of the corresponding individual face image photographed within the corresponding period, it is extracted from the further captured face image. The period dictionary data TDi, j is updated using the feature data.

したがって、この例の場合、各個人の個人辞書データDiを構成する複数個の期間辞書データTDi,1、TDi,2、・・・、TDi,Nの数Nは、通常、各個人Pi毎に異なるものとなる。   Therefore, in this example, the number N of the plurality of period dictionary data TDi, 1, TDi, 2,..., TDi, N constituting the personal dictionary data Di of each individual is usually set for each individual Pi. It will be different.

そして、この実施形態の個人識別装置では、期間辞書データTDi,jが対応する期間の長さを、ユーザが設定可能な固定長とする場合(固定長モード)と、識別対象の個人の年齢に応じて可変長とする場合(可変長モード)の2つの期間モードのいずれかを、ユーザが選択設定可能とされている。   In the personal identification device of this embodiment, when the length of the period corresponding to the period dictionary data TDi, j is a fixed length that can be set by the user (fixed length mode), the age of the individual to be identified is set. Accordingly, the user can select and set one of two period modes when the variable length is set (variable length mode).

期間辞書データTDi,jが対応する期間の長さを一定にする固定長モードは、顔の変化具合が一定であることを前提とする場合、例えば、壮年期などのみを個人の識別対象期間とする場合などに有効である。   In the fixed length mode in which the length of the period corresponding to the period dictionary data TDi, j is constant, for example, when it is assumed that the degree of change of the face is constant, for example, only the middle age period is set as the individual identification target period. This is effective when

一方、個人の識別対象期間を長く考えた場合には、年齢によって期間を変化させる、という方法が有効であると考えられる。成長が早い幼いころの期間辞書データが対応する期間は短くし、成長とともに、期間辞書データが対応する期間を徐徐に長くする、という方法である。   On the other hand, when the individual identification target period is considered to be long, a method of changing the period depending on the age is considered effective. In this method, the period dictionary data corresponding to the early growth period is shortened, and the period corresponding to the period dictionary data is gradually increased with the growth.

また、この実施形態では、2個の期間辞書データの期間が隣接する場合においては、重複期間を設けるようにしている。このように重複期間を設けるのは、一人の個人についての複数個の期間辞書データにおいて、隣接する期間において急激な変化が生じないようにするためである。   In this embodiment, an overlap period is provided when two period dictionary data periods are adjacent to each other. The reason for providing the overlapping period in this way is to prevent abrupt change in adjacent periods in a plurality of period dictionary data for one individual.

例えば、ある期間辞書データTDaが2004年に、また、期間辞書データTDbが2005年に、それぞれ撮影されたある個人Pxの顔画像の特徴データを基に作成されたものとした場合に、2004年12月31日に撮影された顔画像の特徴データは、重複期間がなければ期間辞書データTDaのみを更新するためにのみ用いられる。しかし、2004年12月31日は、期間的には、2005年に近いために、期間辞書データTDbをも更新するために用いられるべきである。そこで、この実施形態では、例えば2004年12月の1ヶ月を、期間辞書データTDaの対応期間と、期間辞書データTDbの対応期間における重複期間とするようにする。   For example, if the period dictionary data TDa is created in 2004 and the period dictionary data TDb is created in 2005 based on the feature data of the face image of a certain individual Px, the year 2004 The feature data of the face image taken on December 31 is used only to update only the period dictionary data TDa if there is no overlapping period. However, since December 31, 2004 is close to 2005 in terms of period, it should be used to update the period dictionary data TDb. Therefore, in this embodiment, for example, one month of December 2004 is set as an overlapping period in the corresponding period of the period dictionary data TDa and the corresponding period of the period dictionary data TDb.

すると、2004年12月の1ヶ月分に撮影された顔画像の特徴データは、期間辞書データTDaと、期間辞書データTDbとの両方についての更新対象データとなり、辞書データの特徴データの急激な変化を回避することができる。   Then, the feature data of the face image photographed for one month in December 2004 becomes the update target data for both the period dictionary data TDa and the period dictionary data TDb, and abrupt changes in the feature data of the dictionary data Can be avoided.

この第1の実施形態では、顔識別用辞書データベース10全体として、期間モードとして、固定長モードまたは可変長モードのいずれかが予め設定されるものである。この期間モードは、期間辞書データを新規に作成(新規登録)する場合に用いられる。   In the first embodiment, either the fixed length mode or the variable length mode is set in advance as the period mode for the entire face identification dictionary database 10. This period mode is used when period dictionary data is newly created (new registration).

すなわち、個人の識別要素としての顔画像を新たに取り込んで、個人識別したときに、当該顔画像の時点(例えば当該顔画像の撮影時点)を含む期間の期間辞書データが見つからなかったときには、顔識別用辞書データベースに対して期間辞書データを新規に作成して登録(新規登録)するが、その際に、この期間モードを参照して、新規に作成する期間辞書データが対応する期間および重複期間を設定するようにする。   That is, when a face image as a personal identification element is newly acquired and personal identification is performed, if no dictionary data is found for a period including the time point of the face image (for example, the time of shooting the face image), Period dictionary data is newly created and registered (new registration) in the identification dictionary database. At that time, referring to this period mode, the period dictionary data to be newly created corresponds to the period and overlap period. To set.

この実施形態では、ユーザは、固定長モードを選択するときには、固定の期間長を、選択設定することができるように構成されている。すなわち、この実施形態では、例えば図9(A)に示すような、固定辞書期間テーブルTBLxが用意されており、当該固定辞書期間テーブルTBLxから、ユーザが固定の期間長を選択設定することができるように構成されている。   In this embodiment, the user can select and set a fixed period length when selecting the fixed length mode. That is, in this embodiment, for example, a fixed dictionary period table TBLx as shown in FIG. 9A is prepared, and the user can select and set a fixed period length from the fixed dictionary period table TBLx. It is configured as follows.

この図9(A)の例の固定辞書期間テーブルTBLxにおいては、テーブル番号に対して、辞書期間の期間長(以下、辞書期間幅という)WDと、当該辞書期間幅WDに対応する重複期間の期間長(以下、重複期間幅という)Wovとが、1対1に対応して設定されている。この場合、辞書期間幅WDが長くなるにつれて、重複期間幅Wovも徐徐に長くなるように選定されている。   In the fixed dictionary period table TBLx in the example of FIG. 9A, the length of the dictionary period (hereinafter referred to as the dictionary period width) WD and the overlap period corresponding to the dictionary period width WD are associated with the table number. A period length (hereinafter referred to as overlapping period width) Wov is set in a one-to-one correspondence. In this case, the overlap period width Wov is selected to gradually increase as the dictionary period width WD increases.

後述するように、この実施形態では、ユーザが固定長モードを選択したときには、この固定辞書期間テーブルTBLxがユーザに呈示され、ユーザが、当該テーブルTBLxのテーブル番号を選択指定するにより、対応する辞書時間幅WDおよび重複期間幅Wovが選択設定されることになる。   As will be described later, in this embodiment, when the user selects the fixed-length mode, the fixed dictionary period table TBLx is presented to the user, and the user selects and designates the table number of the table TBLx, so that the corresponding dictionary is displayed. The time width WD and the overlapping period width Wov are selected and set.

そして、基準時刻データRtと、新たに取り込まれた顔画像の撮影時刻とから、選択設定された辞書時間幅WDおよび重複期間幅Wovを考慮して、新たに生成しようとする期間辞書データについての期間の始点STと終点EDとが計算されて、期間が特定され、その特定された期間についての期間辞書データTDi,jが生成されて、顔識別用辞書データベース10に新規登録される。この新規登録の際に、後述するように、辞書時間幅WDおよび重複期間幅Wov、期間の始点STと終点EDなどが、期間辞書データTDi,jに対応して付随情報として記憶される。   Then, from the reference time data Rt and the photographing time of the newly captured face image, the dictionary time width WD and the overlapping period width Wov selected and set are taken into consideration, and the period dictionary data to be newly generated The start point ST and end point ED of the period are calculated, the period is specified, period dictionary data TDi, j for the specified period is generated, and newly registered in the face identification dictionary database 10. At the time of this new registration, as will be described later, the dictionary time width WD and overlapping period width Wov, the start point ST and end point ED of the period, etc. are stored as accompanying information corresponding to the period dictionary data TDi, j.

また、この実施形態では、ユーザが、可変長モードを選択したときには、期間辞書データの新規登録の際に、新たに取り込まれた顔画像を有していたときの個人の年齢の入力が、ユーザに対して促され、例えば図9(B)に示すような可変辞書期間テーブルTBLvが用いられて、入力された年齢に応じた辞書期間幅WDおよび重複期間幅Wovが設定される。   Further, in this embodiment, when the user selects the variable length mode, when the period dictionary data is newly registered, the input of the personal age when the user has a newly captured face image is For example, a variable dictionary period table TBLv as shown in FIG. 9B is used to set the dictionary period width WD and the overlapping period width Wov according to the input age.

そして、固定長モードの場合と同様にして、基準時刻データRtと、新たに取り込まれた顔画像の撮影時刻とから、選択設定された辞書時間幅WDおよび重複期間幅Wovを考慮して、新たに生成しようとする期間辞書データについての期間の始点STと終点EDとが計算されて、期間が特定され、その特定された期間についての期間辞書データTDi,jが生成されて、顔識別用辞書データベース10に新規登録される。そして、固定長モードの場合と同様にして、この新規登録の際に、後述するように、辞書時間幅WDおよび重複期間幅Wov、期間の始点STと終点EDなどが、期間辞書データTDi,jに対応して付随情報として記憶される。   Then, in the same manner as in the fixed-length mode, the reference time data Rt and the newly captured face image shooting time are newly taken into consideration in the selected dictionary time width WD and overlap period width Wov. The period start point ST and end point ED for the period dictionary data to be generated are calculated, the period is specified, the period dictionary data TDi, j for the specified period is generated, and the face identification dictionary It is newly registered in the database 10. Then, as in the fixed length mode, at the time of this new registration, as will be described later, the dictionary time width WD and the overlapping period width Wov, the start point ST and the end point ED of the period, etc. are stored in the period dictionary data TDi, j Is stored as accompanying information.

図9(A)の固定辞書期間テーブルTBLxおよび図9(B)の可変辞書期間テーブルTBLvは、図8に示すように、辞書期間テーブルデータTBLとして、顔識別用辞書データベース10に格納されている。   The fixed dictionary period table TBLx in FIG. 9A and the variable dictionary period table TBLv in FIG. 9B are stored in the face identification dictionary database 10 as dictionary period table data TBL, as shown in FIG. .

図10は、この第1の実施形態における顔識別用辞書データベース10の格納データのフォーマットを説明するための図である。   FIG. 10 is a diagram for explaining the format of data stored in the face identification dictionary database 10 according to the first embodiment.

この第1の実施形態では、図10に示すように、顔識別用辞書データベース10全体について、前述した辞書期間テーブルデータTBLと、期間モードの選択指定データおよび選択された期間モードが固定長モードのときにはテーブル番号を含み、また、可変長モードのときには、可変辞書期間テーブルへの参照ポインタを含むユーザ期間設定情報ファイルUSとが格納される。   In the first embodiment, as shown in FIG. 10, the dictionary period table data TBL, the period mode selection designation data, and the selected period mode are fixed length mode for the entire face identification dictionary database 10. Sometimes the table number is included, and in the variable length mode, the user period setting information file US including the reference pointer to the variable dictionary period table is stored.

そして、前述したように、各個人Piについての個人辞書データDiは、各期間1、期間2、・・・に対応する複数個の期間辞書データTDi,1,TDi,2,・・・からなる。そして、各期間辞書データTDi,1,TDi,2,・・・のそれぞれは、この実施形態では、それぞれ対応する期間で取り込まれた顔画像の特徴データの平均値からなる顔識別用辞書データFRDi,1、FRDi,2・・・のそれぞれと、付随情報ATRi,1、ATRi,2・・・のそれぞれとからなる。   As described above, the personal dictionary data Di for each individual Pi is composed of a plurality of period dictionary data TDi, 1, TDi, 2,... Corresponding to each period 1, period 2,. . In this embodiment, each of the period dictionary data TDi, 1, TDi, 2,... Is face identification dictionary data FRDi consisting of an average value of feature data of the face image captured in the corresponding period. , 1, FRDi, 2... And accompanying information ATRi, 1, ATRi, 2.

付随情報ATRi,1、ATRi,2、・・・、ATRi,n、・・・のそれぞれは、図11に示すように、当該期間辞書データTDi,nが対応する期間よりも前の期間であって、重複期間を共有する期間辞書データを指し示す前辞書ポインタと、当該期間辞書データTDi,nが対応する期間よりも後の期間であって、重複期間を共有する期間辞書データを指し示す後辞書ポインタと、辞書期間パラメータと、期間内全画像数と、期間情報とを備える。   Each of the accompanying information ATRi, 1, ATRi, 2,..., ATRi, n,... Is a period before the period corresponding to the period dictionary data TDi, n, as shown in FIG. The previous dictionary pointer that points to the period dictionary data that shares the overlapping period, and the subsequent dictionary pointer that points to the period dictionary data that is after the period corresponding to the period dictionary data TDi, n and that shares the overlapping period A dictionary period parameter, the total number of images in the period, and period information.

前辞書ポインタおよび後辞書ポインタは、対応する重複期間を共有する他の期間辞書データが存在するときには、当該前の期間辞書データや後の期間辞書データを指し示す識別データあるいはその記憶アドレス位置の情報とされ、また、対応する重複期間を共有する他の期間辞書データが存在していないときには、それを意味する「NULL」データとされる。   When there is other period dictionary data sharing the corresponding overlapping period, the previous dictionary pointer and the subsequent dictionary pointer are identification data indicating the previous period dictionary data or the subsequent period dictionary data, or information on the storage address position thereof. In addition, when there is no other period dictionary data sharing the corresponding overlapping period, “NULL” data is meant.

辞書期間パラメータは、当該期間辞書データTDi,nに対応する辞書期間幅へのポインタと、重複期間幅へのポインタとからなる。辞書期間幅へのポインタおよび重複期間幅へのポインタは、固定長モードの場合には、固定辞書期間テーブルTBLxからユーザが選択指定した辞書期間幅および重複期間幅のメモリアドレス(顔識別用辞書データベース上でのアドレス)であり、可変長モードの場合には、当該期間辞書データの期間が対応する年齢に応じて可変辞書期間テーブルTBLvから選択された辞書期間幅および重複期間幅のメモリアドレス(顔識別用辞書データベース上でのアドレス)である。   The dictionary period parameter includes a pointer to the dictionary period width corresponding to the period dictionary data TDi, n and a pointer to the overlapping period width. In the fixed-length mode, the pointer to the dictionary period width and the pointer to the overlap period width are the memory addresses of the dictionary period width and the overlap period width selected by the user from the fixed dictionary period table TBLx (face identification dictionary database). In the case of the variable length mode, the memory address (face of the dictionary period width and the overlapping period width selected from the variable dictionary period table TBLv according to the age corresponding to the period of the period dictionary data. Address on the dictionary database for identification).

期間内全画像数は、当該期間辞書データTDi,nが対応する期間内において、過去に取り込まれた顔画像数であり、この実施形態では、当該期間の前半の顔画像数と、当該期間の後半の顔画像数とが別々に記憶されている。   The total number of images in the period is the number of face images captured in the past in the period corresponding to the period dictionary data TDi, n. In this embodiment, the number of face images in the first half of the period and the number of face images in the period The number of face images in the latter half is stored separately.

期間情報は、当該期間辞書データTDi,nが対応する期間の先頭の時刻を示す始点データSTと、最後の時刻を示す終点データEDとからなる。なお、基準時刻についての説明と同様に、この実施形態では、期間は、最小単位を日に定めているので、始点データSTおよび終点データEDは、それぞれ年月日を表すデータとされている。   The period information includes start point data ST indicating the start time of the period corresponding to the period dictionary data TDi, n and end point data ED indicating the end time. As in the description of the reference time, in this embodiment, since the minimum unit of the period is set to the day, the start point data ST and the end point data ED are data representing the year, month, and day, respectively.

この図11の付随情報は、主として、個人識別のために新たに個人の顔画像が取り込まれたときの辞書検索の際に利用される。   The accompanying information in FIG. 11 is mainly used when searching a dictionary when a personal face image is newly taken in for personal identification.

以上のようにして期間辞書データTDi,nが生成される結果、固定長モードにおいては、図12(A)に示すようにして、また、可変長モードにおいては、図12(B)に示すようにして、時間の流れに従って、複数個の期間辞書データTDi,nが、一人の個人に対して生成されることになる。   As a result of generating the period dictionary data TDi, n as described above, as shown in FIG. 12A in the fixed-length mode, and as shown in FIG. 12B in the variable-length mode. Thus, a plurality of period dictionary data TDi, n are generated for one individual according to the flow of time.

固定長モードの場合を示す図12(A)は、「Aさん」についての複数個の期間辞書データをDA1,DA2,DA3,・・・として示したもので、固定長モードであるので、期間辞書データDA1,DA2,DA3,・・・のそれぞれの辞書期間の幅は、すべて、ユーザにより固定辞書期間テーブルTBLxから選択された所定の辞書期間WDxとされる。そして、期間辞書データDA1,DA2,DA3,・・・の間での重複期間の幅は、すべて、辞書期間WDxに対応して選定される重複期間幅Wovxとされる。   FIG. 12A showing the case of the fixed length mode shows a plurality of period dictionary data for “Mr. A” as DA1, DA2, DA3,... The width of each dictionary period of the dictionary data DA1, DA2, DA3,... Is set to a predetermined dictionary period WDx selected from the fixed dictionary period table TBLx by the user. And the width of the overlap period between the period dictionary data DA1, DA2, DA3,... Is all set to the overlap period width Wovx selected corresponding to the dictionary period WDx.

また、可変長モードの場合を示す図12(B)においては、「Aさん」についての、年齢に応じた期間1における複数個の期間辞書データをDA11,DA12,DA13,・・・として示し、年齢に応じた期間2における複数個の期間辞書データをDA21,DA22,DA23,・・・として示し、年齢に応じた期間3における複数個の期間辞書データをDA31,DA32,DA33,・・・として示したものである。例えば可変辞書期間テーブルTBLvにおいて、期間1は年齢0〜1歳の期間、期間2は1〜3歳の期間、期間3は20〜24歳の期間とされる。   Also, in FIG. 12B showing the case of the variable length mode, a plurality of period dictionary data for “Mr. A” in period 1 according to age are shown as DA11, DA12, DA13,. A plurality of period dictionary data in period 2 according to age is shown as DA21, DA22, DA23,..., And a plurality of period dictionary data in period 3 according to age is shown as DA31, DA32, DA33,. It is shown. For example, in the variable dictionary period table TBLv, period 1 is a period of 0 to 1 year of age, period 2 is a period of 1 to 3 years, and period 3 is a period of 20 to 24 years.

したがって、各期間辞書データの辞書期間幅および重複期間幅は、期間1では、当該期間1の年齢に応じた辞書期間幅WD1、重複期間幅Wov1とされ、期間2では、当該期間2の年齢に応じた辞書期間幅WD2、重複期間幅Wov2とされ、期間3では、当該期間3の年齢に応じた辞書期間幅WD3、重複期間幅Wov3とされている。この例の場合、図9の可変辞書期間テーブルTBLvから明らかなように、WD1<WD2<WD3であり、また、Wov1<Wov2<Wov3となっている。   Accordingly, the dictionary period width and the overlapping period width of each period dictionary data are set to the dictionary period width WD1 and the overlapping period width Wov1 according to the age of the period 1 in the period 1, and to the age of the period 2 in the period 2. The corresponding dictionary period width WD2 and the overlapping period width Wov2 are set. In the period 3, the dictionary period width WD3 and the overlapping period width Wov3 corresponding to the age of the period 3 are set. In this example, as is apparent from the variable dictionary period table TBLv in FIG. 9, WD1 <WD2 <WD3 and Wov1 <Wov2 <Wov3.

なお、図12では、時間の流れに従って複数個の期間辞書データが、期間の隙間なく生成されているが、実際には、個人の顔画像が識別のために取り込まれた期間に対応する期間辞書データが生成され、個人について、すべての期間辞書データが生成されるわけではない。   In FIG. 12, a plurality of period dictionary data are generated without a gap between periods according to the flow of time, but in reality, a period dictionary corresponding to a period during which a personal face image is captured for identification. Data is generated and not all period dictionary data is generated for an individual.

したがって、ある時点では、他の期間辞書データと重複期間を有することなく単独で存在している期間辞書データもあるし、ある年齢に対しては一つの期間辞書データしか存在しない状態もある。個人の顔画像が識別のために、異なる期間のものが多数取り込まれることにより、期間辞書データが増加してゆく。そして、他の期間辞書データと重複期間を共有する期間辞書データも増加してゆく。   Therefore, at a certain point in time, there is a period dictionary data that exists alone without having an overlapping period with other period dictionary data, and there is a state in which only one period dictionary data exists for a certain age. Periodic dictionary data is increased by acquiring a large number of personal face images for different periods for identification. Then, the period dictionary data sharing the overlapping period with other period dictionary data also increases.

この実施形態の個人識別処理においては、画像データ入力インターフェース7を通じて個人の顔画像データが識別のために取り込まれたときには、顔識別処理部12は、当該取り込まれた顔画像の撮影時刻を含む期間に対応する期間辞書データを、顔識別用辞書データベース10に蓄積されている複数個の個人辞書データから検索する。   In the personal identification processing of this embodiment, when personal face image data is captured for identification through the image data input interface 7, the face identification processing unit 12 includes a period including the shooting time of the captured facial image. Is retrieved from a plurality of personal dictionary data stored in the face identification dictionary database 10.

そして、顔識別処理部12は、その検索の結果、取り込まれた顔画像の撮影時刻を含む期間に対応する期間辞書データが1個以上、検出できたか否か判別し、その判別結果を出力すると共に、1個以上検出したら、その対応する期間辞書データと、取り込まれた顔画像から抽出された特徴データとを比較参照し、取り込まれた顔画像の特徴データと一致していると判定することができる期間辞書データを探す。   Then, as a result of the search, the face identification processing unit 12 determines whether one or more period dictionary data corresponding to the period including the captured time of the captured face image has been detected, and outputs the determination result. At the same time, if one or more are detected, the corresponding period dictionary data and the feature data extracted from the captured face image are compared and referenced to determine that the feature data matches the feature data of the captured face image. Look for dictionary data for a period of time.

表示情報生成部13は、顔識別処理部12からの出力から、取り込まれた顔画像の撮影時刻を含む期間に対応する期間辞書データが1個も検出できなかった旨の通知を受け取ったときには、図7に示すような、対応する期間辞書データが存在していないことをユーザに報知させるための期間辞書無し画面を表示させるようにする。   When the display information generation unit 13 receives from the output from the face identification processing unit 12 a notification that no period dictionary data corresponding to the period including the shooting time of the captured face image has been detected, As shown in FIG. 7, a period dictionary non-existing screen is displayed to notify the user that the corresponding period dictionary data does not exist.

この期間辞書無し画面には、図7に示すように、取り込んだ顔画像Finの表示画像21と、当該取り込んだ顔画像Finが誰の顔画像であるか、氏名を入力するように促すメッセージ30を表示する。ユーザは、このメッセージ30中の氏名入力欄31に、表示画像21として表示されている個人の氏名を入力するようにする。   As shown in FIG. 7, on this period non-dictionary screen, as shown in FIG. 7, a display image 21 of the captured face image Fin and a message 30 prompting the user to input the name of the face image Fin that has been captured. Is displayed. The user inputs the individual name displayed as the display image 21 in the name input field 31 in the message 30.

このユーザによる氏名の入力を受け付けると、表示情報生成部13は、その入力された氏名の情報を、辞書データ更新処理部14に供給する。辞書データ更新処理部14は、後述するように、受け取った氏名を個人特定情報とする個人辞書データDiの期間辞書データの新規生成処理を行なう。   When receiving the input of the name by the user, the display information generation unit 13 supplies the input name information to the dictionary data update processing unit 14. As will be described later, the dictionary data update processing unit 14 performs a new generation process of the period dictionary data of the personal dictionary data Di using the received name as personal identification information.

なお、顔識別処理部12において、検索の結果、取り込まれた顔画像の撮影時刻を重複期間に含む2個の期間辞書データが見つかったときには、両方の期間辞書データを特徴データとの照合に用いても良いが、この実施形態では、照合時間の短縮のため、顔識別処理部12は、次のようにして、一方の期間辞書データのみを選択して照合に用いるようにする。   When the face identification processing unit 12 finds two period dictionary data including the shooting time of the captured face image in the overlap period as a result of the search, both period dictionary data are used for matching with the feature data. However, in this embodiment, in order to shorten the collation time, the face identification processing unit 12 selects only one period dictionary data and uses it for collation as follows.

今、例えば、取り込まれた顔画像の撮影時刻を重複期間に含む2個の期間辞書データとして、図13に示すような2個の期間辞書データDnおよびDn+1とが検出されたとする。この図13の下方において、時間軸バー上に○印で示すものは、過去の顔画像の撮影時刻を示し、また、☆印で示すものは、今回、取り込まれた顔画像の撮影時刻である。この図13の例においては、辞書期間幅はWDであり、また、重複期間幅はWovである。   Now, for example, it is assumed that two period dictionary data Dn and Dn + 1 as shown in FIG. 13 are detected as two period dictionary data including the capturing time of the captured face image in the overlapping period. In the lower part of FIG. 13, the mark indicated by a circle on the time axis bar indicates the shooting time of the past face image, and the mark indicated by ☆ indicates the shooting time of the currently captured face image. . In the example of FIG. 13, the dictionary period width is WD, and the overlapping period width is Wov.

そして、この実施形態では、2個の期間辞書データDnおよびDn+1の辞書期間幅の前半における顔画像の画像数をそれぞれDn_a、Dn+1_a、また、後半における顔画像の画像数をそれぞれDn_b、Dn+1_bとしたとき、顔識別処理部12は、重複期間を共有する期間辞書データDnの辞書期間幅の後半における顔画像の画像数Dn_bと、期間辞書データDn+1の辞書期間幅の前半における顔画像の画像数Dn+1_aとを比較し、画像数が多い方の期間辞書データを、取り込まれた顔画像の特徴データとの照合に用いるようにする。   In this embodiment, the number of face images in the first half of the dictionary period width of the two period dictionary data Dn and Dn + 1 is Dn_a and Dn + 1_a, respectively, and the number of face images in the second half is Dn_b and Dn + 1_b, respectively. At this time, the face identification processing unit 12 counts the number of face images Dn_b in the second half of the dictionary period width of the period dictionary data Dn sharing the overlapping period and the number of face images Dn + 1_a in the first half of the dictionary period width of the period dictionary data Dn + 1. The period dictionary data having the larger number of images is used for collation with the feature data of the captured face image.

図13の例であれば、Dn_b=5であり、また、Dn+1_a=3であるので、顔識別処理部12は、期間辞書データDnを取り込まれた顔画像の特徴データとの照合に用いるように決定する。   In the example of FIG. 13, since Dn_b = 5 and Dn + 1_a = 3, the face identification processing unit 12 uses the period dictionary data Dn for collation with the feature data of the captured face image. decide.

そして、期間辞書データと取り込まれた顔画像の特徴データとの照合の結果、取り込まれた顔画像の特徴データと一致していると判定することができる期間辞書データが見つからなかったときには、CPU1は、顔識別処理部12からのその旨の通知に従って、表示情報生成部13を通じてディスプレイ9に、ユーザに、取り込まれた顔画像の個人の個人名などの個人特定情報の入力を行なわせるためのメッセージを表示する。CPU1は、そのメッセージに応じて入力される個人特定情報に対応して、当該顔画像の撮影時刻を含む期間の期間辞書データを新規に作成するように辞書データ更新処理部14に指示する。   If the period dictionary data that can be determined to match the feature data of the captured face image is not found as a result of matching between the period dictionary data and the feature data of the captured face image, the CPU 1 In response to the notification from the face identification processing unit 12, a message for allowing the user to input personal identification information such as the personal name of the captured face image on the display 9 through the display information generation unit 13. Is displayed. The CPU 1 instructs the dictionary data update processing unit 14 to newly create the period dictionary data for the period including the photographing time of the face image in response to the personal identification information input according to the message.

この場合に、ユーザにより入力された個人特定情報が、顔識別用辞書データベース10には未だ存在していない新規の個人Piの個人特定情報であるときには、まず、辞書データ更新処理部14は、顔識別用辞書データベース10に、当該新規の個人Piについての個人辞書データDiのエリアを確保し、前記個人特定情報を個人識別データIDiとして格納すると共に、取り込まれた顔画像の撮影時刻を、期間辞書データの期間を定める基準時点とするため、基準時刻データRtとして格納するようにする。   In this case, when the personal identification information input by the user is personal identification information of a new individual Pi that does not yet exist in the face identification dictionary database 10, first, the dictionary data update processing unit 14 In the identification dictionary database 10, an area of the personal dictionary data Di for the new individual Pi is secured, the personal identification information is stored as the personal identification data IDi, and the shooting time of the captured face image is stored in the period dictionary. The reference time data Rt is stored in order to set it as the reference time point for determining the data period.

次に、辞書データ更新処理部14は、顔識別用辞書データベース10に辞書期間テーブルデータTBLと共に記憶されている、ユーザにより予め設定されたユーザ期間設定情報ファイルUSの期間モードを参照し、辞書期間幅を定める。このとき、期間モードが可変長モードである場合には、辞書データ更新処理部14は、取り込まれた顔画像の撮影時刻の時点における個人Piの年齢の入力をユーザに促すメッセージを生成してディスプレイ9に表示させるように表示情報生成部13に指示を出す。そして、そのメッセージに応じた年齢の入力を受けて、辞書データ更新処理部14は、可変辞書期間テーブルTBLvから、辞書期間幅を定める。   Next, the dictionary data update processing unit 14 refers to the period mode of the user period setting information file US preset by the user and stored in the face identification dictionary database 10 together with the dictionary period table data TBL. Determine the width. At this time, if the period mode is the variable length mode, the dictionary data update processing unit 14 generates a message that prompts the user to input the age of the individual Pi at the time of capturing the captured face image. The display information generation unit 13 is instructed to display the image on the display 9. Then, upon receiving the input of the age according to the message, the dictionary data update processing unit 14 determines the dictionary period width from the variable dictionary period table TBLv.

辞書期間幅が定まったら、辞書データ更新処理部14は、基準時刻データRtとして記憶した基準時点を始点とする期間を定めて、取り込まれた顔画像の特徴データを用いて、期間辞書データを作成して、顔識別用辞書データベース10に新規登録する。   When the dictionary period width is determined, the dictionary data update processing unit 14 determines a period starting from the reference time stored as the reference time data Rt, and creates period dictionary data using the feature data of the captured face image. Then, it is newly registered in the face identification dictionary database 10.

また、ユーザにより入力された個人特定情報が、顔識別用辞書データベース10に既に存在している個人Piの個人特定情報であるときには、顔識別用辞書データベース10には、既に、前記個人Piの個人辞書データDiは存在し、基準時刻データRtが記憶されている。したがって、この場合には、辞書データ更新処理部14は、前述と同様にして、ユーザにより予め設定されたユーザ期間設定情報ファイルUSの期間モードなどの設定情報を参照し、必要な年齢情報の入力を受けて辞書期間幅および重複期間幅を定め、前記基準時刻データRtを基にして、新たに作成する期間辞書データについての期間の始点および終点を決定し、取り込まれた顔画像の特徴データを用いて、期間辞書データを作成して、顔識別用辞書データベース10に新規登録する。   When the personal identification information input by the user is the personal identification information of the individual Pi already existing in the face identification dictionary database 10, the personal identification information of the individual Pi is already stored in the face identification dictionary database 10. Dictionary data Di exists and reference time data Rt is stored. Therefore, in this case, the dictionary data update processing unit 14 refers to setting information such as the period mode of the user period setting information file US set in advance by the user in the same manner as described above, and inputs necessary age information. In response, the dictionary period width and the overlap period width are determined, and based on the reference time data Rt, the start and end points of the period for the newly created period dictionary data are determined, and the feature data of the captured face image is obtained. Using this, period dictionary data is created and newly registered in the face identification dictionary database 10.

このとき、取り込まれた顔画像の撮影時刻が、求められた辞書期間における重複期間内であったときには、辞書データ更新処理部14は、期間辞書データとしては、当該重複期間を共有する2個の期間辞書データを生成して、当該2個の期間辞書データを新規登録するようにする。   At this time, when the photographing time of the captured face image is within the overlap period in the determined dictionary period, the dictionary data update processing unit 14 uses two pieces of period dictionary data sharing the overlap period. Period dictionary data is generated, and the two period dictionary data are newly registered.

次に、取り込まれた顔画像の特徴データと一致していると判定することができる期間辞書データが見つかったときには、顔識別処理部12は、表示情報生成部13に指示して、その期間辞書データが属する個人辞書データの個人特定情報、つまりこの例では個人名を、照合結果として表示出力させて、前述したようにユーザに確認させるようにする。その確認結果として、照合結果が正しいと判定されたときには、顔識別処理部12は、取り込まれた顔画像の特徴データと一致していると判定された期間辞書データを、新たに取り込んだ顔画像の特徴データを用いて更新するように、辞書データ更新処理部14に指示するようにする。   Next, when period dictionary data that can be determined to match the feature data of the captured face image is found, the face identification processing unit 12 instructs the display information generation unit 13 to indicate the period dictionary. The personal identification information of the personal dictionary data to which the data belongs, that is, the personal name in this example is displayed and output as a collation result so that the user can confirm it as described above. As a result of the confirmation, when it is determined that the collation result is correct, the face identification processing unit 12 newly captures the dictionary data during the period determined to match the feature data of the captured face image. The dictionary data update processing unit 14 is instructed to update using the feature data.

辞書データ更新処理部14は、この指示を受けて、取り込まれた顔画像の特徴データと一致していると判定された期間辞書データの更新処理を実行する。   In response to this instruction, the dictionary data update processing unit 14 performs an update process of dictionary data for a period determined to match the feature data of the captured face image.

そして、辞書データ更新処理部14は、さらに、取り込まれた顔画像の撮影時刻が更新された期間辞書データの重複期間内であって、しかも、当該重複期間を共有する他の期間辞書データが存在する場合、つまり、図13を用いて説明したような方法で、一方の期間辞書データが、取り込まれた顔画像の特徴データとの照合用として選定されたものである場合には、残りの他方の期間辞書データも、撮影時刻がその重複期間内である取り込まれた顔画像の特徴データを用いて更新するようにする。   Then, the dictionary data update processing unit 14 further includes another period dictionary data that is within the overlapping period of the period dictionary data in which the captured time of the captured face image is updated and that shares the overlapping period. In other words, if one period dictionary data is selected for comparison with the feature data of the captured face image by the method described with reference to FIG. The period dictionary data is also updated using the feature data of the captured face image whose shooting time is within the overlapping period.

この第1の実施形態では、顔識別用辞書データFRDi,jの更新は、当該期間辞書データTDi,jが対応する期間について取り込まれた顔画像の特徴データの単純平均とされている。   In the first embodiment, the update of the face identification dictionary data FRDi, j is a simple average of the feature data of the face image captured for the period corresponding to the period dictionary data TDi, j.

[第1の実施形態の個人識別装置における処理動作]
次に、第1の実施形態の個人識別装置における処理動作を更に説明する。
[Processing in the personal identification device of the first embodiment]
Next, the processing operation in the personal identification device of the first embodiment will be further described.

[辞書期間パラメータの設定]
上述したように、この実施形態の個人識別装置においては、事前に、ユーザによる期間モードなどの辞書期間パラメータの設定を受けるようにする。図14は、この辞書期間パラメータ設定処理の際の動作を説明するためのフローチャートである。この図14のフローチャートの各ステップの処理は、CPU1が、ROM3のプログラムにしたがって、RAM4をワークエリアとして用いて実行するものである。
[Dictionary period parameter setting]
As described above, in the personal identification device of this embodiment, the setting of dictionary period parameters such as the period mode by the user is received in advance. FIG. 14 is a flowchart for explaining the operation in the dictionary period parameter setting process. Processing of each step in the flowchart of FIG. 14 is executed by the CPU 1 using the RAM 4 as a work area according to the program in the ROM 3.

CPU1は、ユーザの辞書期間パラメータの設定スタート指示を受けて、図14のフローチャートを開始し、まず、表示情報生成部13、ディスプレイインターフェース6を制御して、辞書期間を固定長の固定長モードとするか、あるいは可変長の可変長モードとするかの期間モードの選択設定を促すメッセージを含む期間モード選択画面を、ディスプレイ9に表示させるようにする(ステップS101)。   The CPU 1 receives the user's instruction to start setting the dictionary period parameter and starts the flowchart of FIG. 14. First, the CPU 1 controls the display information generation unit 13 and the display interface 6 to set the dictionary period to the fixed length fixed length mode. A period mode selection screen including a message prompting the selection setting of the period mode to be changed or set to the variable length variable length mode is displayed on the display 9 (step S101).

そして、CPU1は、操作入力部8からの、ディスプレイ9の表示画面に表示された期間モード選択画面を通じたユーザの期間モード選択入力を受け付け(ステップS102)、期間モードとして固定長モードと可変長モードとのいずれが選択されたか判別する(ステップS103)。   Then, the CPU 1 accepts the user's period mode selection input from the operation input unit 8 through the period mode selection screen displayed on the display screen of the display 9 (step S102), and the fixed length mode and the variable length mode are set as the period modes. Are selected (step S103).

このステップS103で、固定長モードが選択されたと判別したときには、CPU1は、顔識別用辞書データベース10の辞書期間テーブルデータTBLから固定辞書期間テーブルTBLxを読み出し、表示情報生成部13およびディスプレイインターフェース6を制御して、固定長の辞書期間はWDと、重複期間幅Wovとを、固定辞書期間テーブルのテーブル番号により選択するようにすることを促すメッセージを含む期間設定画面を、ディスプレイ9に表示させるようにする(ステップS104)。   When it is determined in this step S103 that the fixed length mode has been selected, the CPU 1 reads the fixed dictionary period table TBLx from the dictionary period table data TBL of the face identification dictionary database 10, and displays the display information generation unit 13 and the display interface 6. The display 9 displays a period setting screen including a message prompting the user to select the fixed-length dictionary period WD and the overlapping period width Wov according to the table number of the fixed dictionary period table. (Step S104).

そして、CPU1は、操作入力部8からの、ディスプレイ9の表示画面に表示された期間設定画面を通じたテーブル番号の選択入力を受け付け(ステップS105)、期間モードが固定長モードであることと、選択されたテーブル番号とを、ユーザ期間設定情報ファイルUSに保存する(ステップS106)。そして、この辞書期間パラメータ設定の処理ルーチンを終了する。   Then, the CPU 1 accepts a selection input of the table number through the period setting screen displayed on the display screen of the display 9 from the operation input unit 8 (step S105), and that the period mode is the fixed length mode and is selected. The obtained table number is stored in the user period setting information file US (step S106). Then, the dictionary period parameter setting processing routine is terminated.

また、ステップS103で、可変長モードが選択されたと判別したときには、CPU1は、期間モードが可変長モードであることを、ユーザ期間設定情報ファイルUSに保存する(ステップS107)。そして、この辞書期間パラメータ設定の処理ルーチンを終了する。   If it is determined in step S103 that the variable length mode is selected, the CPU 1 stores in the user period setting information file US that the period mode is the variable length mode (step S107). Then, the dictionary period parameter setting processing routine is terminated.

なお、この実施形態では、固定長モードにおける辞書期間幅と重複期間幅とは、テーブル番号により対として設定するようにしたが、固定長モードにおいて、辞書期間幅と、重複期間幅とを、それぞれ別々に設定することができるようにしても良い。   In this embodiment, the dictionary period width and the overlap period width in the fixed length mode are set as a pair according to the table number, but in the fixed length mode, the dictionary period width and the overlap period width are respectively set. You may enable it to set separately.

また、この実施形態では、可変長モードにおいては、可変辞書期間テーブルTBLvは一つしたので、テーブル選択は不要としたが、各年齢における辞書期間幅および重複期間幅が異なる複数個の可変辞書期間テーブルを辞書期間テーブルデータTBLに用意しておき、その複数個の可変辞書期間テーブルの中から、ユーザが選択設定することができるように構成することもできる。   In this embodiment, in the variable length mode, since there is one variable dictionary period table TBLv, it is not necessary to select a table, but a plurality of variable dictionary periods having different dictionary period widths and overlapping period widths for each age are used. A table may be prepared in the dictionary period table data TBL so that the user can select and set from the plurality of variable dictionary period tables.

また、この実施形態では、期間モードは、顔識別用辞書データベース10の全体について設定するようにしたが、各個人Piの個人辞書データDiの最初の作成時に、上述の図14のフローチャートに示したユーザ設定をさせるように構成して、各個人Pi毎に期間モードを設定することができるようにしても良い。   Further, in this embodiment, the period mode is set for the entire face identification dictionary database 10, but when the personal dictionary data Di of each individual Pi is first created, it is shown in the flowchart of FIG. It may be configured to allow user setting so that the period mode can be set for each individual Pi.

その場合における顔識別用辞書データベース10の格納データのフォーマットは、図10に代わって、図15に示すようなものとなり、ユーザ期間設定情報ファイルUSが、個人識別データIDに対応して、個人辞書データDi毎に設けられるものとなる。   In this case, the format of the data stored in the face identification dictionary database 10 is as shown in FIG. 15 instead of FIG. 10, and the user period setting information file US corresponds to the personal identification data ID in accordance with the personal dictionary. It is provided for each data Di.

[顔識別処理および辞書データ生成更新処理]
次に、上述の構成の個人識別装置における顔識別処理動作および辞書データ生成更新処理動作について説明する。図16〜図22は、顔識別処理動作およびこれに関連する期間辞書データの検索処理動作、期間辞書データの新規登録並びに更新処理動作を説明するためのフローチャートである。この図16〜図22を用いて説明する処理動作は、CPU1の制御の下に、画像データ入力インターフェース部7、顔識別用画像処理部11、顔識別処理部12、表示情報生成部13、辞書データ更新処理部14の各部が実行するものである。
[Face identification processing and dictionary data generation update processing]
Next, the face identification processing operation and the dictionary data generation update processing operation in the personal identification device having the above-described configuration will be described. FIGS. 16 to 22 are flowcharts for explaining the face identification processing operation and the period dictionary data search processing operation, period dictionary data new registration and update processing operations related thereto. The processing operation described with reference to FIGS. 16 to 22 is performed under the control of the CPU 1. The image data input interface unit 7, the face identification image processing unit 11, the face identification processing unit 12, the display information generation unit 13, the dictionary Each unit of the data update processing unit 14 executes.

なお、CPU1が、ROM3に格納されたソフトウエアプログラムに基づいてRAM4をワークエリアとして用いて、上記各部の処理をソフトウエア処理として実行するように構成して上記各部を省略しても良いことは、前述した通りである。   It should be noted that the CPU 1 may be configured to execute the processing of each unit as software processing by using the RAM 4 as a work area based on a software program stored in the ROM 3, and omitting each unit. As described above.

まず、CPU1は、画像データ入力インターフェース7を通じて、顔画像を含む画像データおよびそれに付随するExif(Exchange image file format)情報を含む情報を取り込み、顔識別用画像処理部11に転送する(ステップS111)。なお、顔画像の画像データに付随するExif情報が存在しない場合には、ユーザに撮影時刻の入力を促して、撮影時刻を入力させることで、撮影時刻の情報を取得するようにするのは、前述した通りである。   First, the CPU 1 takes in image data including a face image and information including Exif (Exchange image file format) information accompanying the image data through the image data input interface 7, and transfers the information to the face identifying image processing unit 11 (step S111). . If there is no Exif information attached to the image data of the face image, the user is prompted to input the shooting time, and the shooting time is input to acquire the shooting time information. As described above.

顔識別用画像処理部11は、CPU1からの制御開始指示に基づき、受け取った画像データから、前述したように、顔画像、目検出、検出した目の位置に基づく顔回転処理を行ない、特徴点プロットしたデータから特徴ベクトルを生成するようにする(ステップS112)。このとき、画像データに付随するExif情報から撮影時刻の情報を抽出して保持したり、ユーザにより入力された撮影時刻を保持したりするようにする。   Based on the control start instruction from the CPU 1, the face identification image processing unit 11 performs face rotation processing based on the face image, eye detection, and detected eye position from the received image data as described above. A feature vector is generated from the plotted data (step S112). At this time, shooting time information is extracted from Exif information attached to the image data and held, or the shooting time input by the user is held.

そして、顔識別用画像処理部11は、特徴ベクトルの生成に成功したときには、その旨の情報と生成した特徴ベクトルを出力し、顔画像の画像データサイズが小さすぎたりして特徴ベクトルの生成に失敗したときには、特徴ベクトルの生成を失敗した旨の情報を出力する。   Then, when the feature identifying image processing unit 11 succeeds in generating the feature vector, the face identifying image processing unit 11 outputs information indicating that fact and the generated feature vector, and the image data size of the face image is too small to generate the feature vector. When it fails, information indicating that generation of the feature vector has failed is output.

CPU1は、顔識別用画像処理部11からの情報により、取り込まれた顔画像の特徴ベクトルの生成に成功したか否かを判別する(ステップS113)。そして、顔識別用画像処理部11から顔画像の特徴ベクトルの生成に失敗した旨の情報が出力されていて、特徴ベクトルの生成に失敗したと判別したときには、その情報を表示情報生成部13に転送する。   The CPU 1 determines whether or not the feature vector of the captured face image has been successfully generated based on the information from the face identifying image processing unit 11 (step S113). When it is determined that the generation of the feature vector of the face image has been output from the face identification image processing unit 11 and it is determined that the generation of the feature vector has failed, the information is sent to the display information generation unit 13. Forward.

表示情報生成部13は、この顔画像の特徴ベクトルの生成に失敗した旨の情報を受け取ると、図6に示した照合不能通知画面の表示情報を生成し、出力する。CPU1は、この照合不能通知画面の表示情報をディスプレイインターフェース6を通じてディスプレイ9に送って、図6に示したように、取り込まれた顔画像を用いては照合が不能であり、かつ、辞書に利用しない旨のメッセージ29を表示する(ステップS114)。   When the display information generation unit 13 receives information indicating that the generation of the feature vector of the face image has failed, the display information generation unit 13 generates and outputs the display information of the non-collation notification screen illustrated in FIG. The CPU 1 sends the display information of the non-verification notification screen to the display 9 through the display interface 6, and as shown in FIG. 6, it cannot be collated using the captured face image and is used for the dictionary. A message 29 to the effect is displayed (step S114).

また、CPU1は、ステップS113で、顔識別用画像処理部11から顔画像の特徴ベクトルの生成に成功した旨の情報と、生成された特徴ベクトルとが出力されていると判別したときには、当該成功した旨の情報と、生成された特徴ベクトルと、撮影時刻の情報とを、顔識別処理部12に転送させるようにする。   If the CPU 1 determines in step S113 that information indicating that the facial image feature vector has been successfully generated from the face identifying image processing unit 11 and the generated feature vector have been output, the CPU 1 The face identification processing unit 12 is caused to transfer the information indicating that it has been performed, the generated feature vector, and the shooting time information.

顔識別処理部12では、まず、受け取った撮影時刻を含む期間に対応する期間辞書データを、顔識別用辞書データベース10から検索し、検索の結果、1以上の期間辞書データが得られたかどうか判断し、その判断結果を出力すると共に、1以上の期間辞書データが得られたときには、その期間辞書データを照合用期間辞書データとして照合用メモリにロードしてセットするようにする(図17のステップS121)。   The face identification processing unit 12 first searches the dictionary database for face identification 10 for period dictionary data corresponding to the period including the received shooting time, and determines whether one or more period dictionary data has been obtained as a result of the search. The determination result is output, and when one or more period dictionary data is obtained, the period dictionary data is loaded and set in the verification memory as the verification period dictionary data (step of FIG. 17). S121).

CPU1は、顔識別処理部12からの出力を受けて、顔識別処理部12での検索の結果、照合用の期間辞書データが1個以上見つかったか否か判別し(ステップS122)、照合用の期間辞書データが1個も見つからなかったと判別したときには、その旨の通知を表示情報生成部13に送る。表示情報生成部13は、この通知を受けて、図7に示したような、期間辞書無し画面の表示情報を生成し、出力する。CPU1は、その表示情報をディスプレイインターフェース6を通じてディスプレイ9に送り、取り込んだ顔画像が誰の顔画像であるか、氏名を入力するようにユーザに促すメッセージ30を表示する(ステップS123)。   The CPU 1 receives the output from the face identification processing unit 12 and determines whether or not one or more period dictionary data for matching is found as a result of the search in the face identification processing unit 12 (step S122). When it is determined that no period dictionary data has been found, a notification to that effect is sent to the display information generation unit 13. Upon receiving this notification, the display information generation unit 13 generates and outputs display information for the period dictionary-less screen as shown in FIG. The CPU 1 sends the display information to the display 9 through the display interface 6, and displays a message 30 that prompts the user to input the name of who the captured face image is (step S123).

そして、CPU1は、このメッセージ30中の氏名入力欄31へのユーザによる氏名の入力を待ち(図18のステップS135)、氏名の入力を受け付けたと判別したときには、顔識別用辞書データベース10に、当該入力された氏名の個人辞書データDiがあるか否か判別する(ステップS136)。そして、入力された氏名の個人辞書データDiがあると判別したときには、図17のステップS128に飛んで、顔識別用辞書データベース10の更新ルーチンを実行するようにする。   Then, the CPU 1 waits for the input of the name by the user in the name input field 31 in the message 30 (step S135 in FIG. 18), and when it is determined that the input of the name has been accepted, It is determined whether or not there is personal dictionary data Di of the input name (step S136). When it is determined that there is the personal dictionary data Di having the inputted name, the process jumps to step S128 in FIG. 17 to execute the update routine of the face identification dictionary database 10.

また、ステップS136で、入力された氏名の個人辞書データDiが、顔識別用辞書データベース10に存在しないと判別したときには、CPU1は、入力された氏名を個人特定情報として、これに対応させた個人辞書データDiを、顔識別用辞書データベース10に保存して新規登録する(図18のステップS133)。そして、この処理ルーチンを終了する。   If it is determined in step S136 that the personal dictionary data Di of the input name does not exist in the face identification dictionary database 10, the CPU 1 uses the input name as personal identification information and corresponds to this The dictionary data Di is stored in the face identification dictionary database 10 and newly registered (step S133 in FIG. 18). Then, this processing routine ends.

この顔識別用辞書データベース10への個人辞書データDiの新規登録については後で詳述する。なお、この顔識別用辞書データベース10への個人辞書データDiの新規登録は、後述する顔識別用辞書データベース10の更新処理の一部の処理として実行するようにすることもできる。   The new registration of the personal dictionary data Di in the face identification dictionary database 10 will be described in detail later. The new registration of the personal dictionary data Di to the face identification dictionary database 10 can be executed as a part of the update process of the face identification dictionary database 10 described later.

また、ステップS122で、顔識別処理部12からの出力に基づき、照合用の期間辞書データが1個以上見つかったと判別したときには、CPU1は、顔識別処理部12に照合開始指示を送る。これを受けた顔識別処理部12では、顔識別用画像処理部11から受け取った取り込まれた顔画像の特徴ベクトルと、顔識別用辞書データベース10から検索して照合用メモリにロードした期間辞書データTDi,nとを照合し、一致していると判断できる期間辞書データTDi,nを探す。そして、顔識別処理部12は、一致していると判断できる期間辞書データTDi,nを検出できたときには、その旨の情報と、当該一致したと判断した期間辞書データTDi,nに対応する個人特定情報、この例では、個人の氏名の情報を出力し、一致していると判断できる期間辞書データTDi,nを検出できなかったときには、その旨の情報を出力する(ステップS124)。   In step S122, when it is determined that one or more matching period dictionary data has been found based on the output from the face identification processing unit 12, the CPU 1 sends a collation start instruction to the face identification processing unit 12. In response to this, the face identification processing unit 12 receives the feature vector of the captured face image received from the face identification image processing unit 11 and the period dictionary data retrieved from the face identification dictionary database 10 and loaded into the matching memory. TDi, n is collated to search for period dictionary data TDi, n that can be determined to match. When the face identification processing unit 12 can detect the period dictionary data TDi, n that can be determined to match, the face identification processing unit 12 detects that information and the individual corresponding to the period dictionary data TDi, n that is determined to match. The specific information, in this example, the personal name information is output. When the dictionary data TDi, n cannot be detected for a period that can be determined to match, the information to that effect is output (step S124).

CPU1は、顔識別処理部12からの出力を受けて、一致していると判断できる顔識別用辞書データFRDiが検出されたか否か判別し(ステップS125)、一致していると判断できる期間辞書データTDi,nが検出されたと判別したときには、顔識別処理部12から受けた、一致しているとされた期間辞書データTDi,nに対応する個人特定情報としての個人の氏名の情報を、顔識別ができた旨の情報と共に、表示情報生成部13に転送する。   The CPU 1 receives the output from the face identification processing unit 12, determines whether or not face identification dictionary data FRDi that can be determined to match is detected (step S 125), and a period dictionary that can be determined to match When it is determined that the data TDi, n is detected, the personal name information as the personal identification information corresponding to the period dictionary data TDi, n received from the face identification processing unit 12 and corresponding to The information is transferred to the display information generation unit 13 together with information indicating that the identification has been completed.

表示情報生成部13は、顔識別ができた旨の情報と、個人の氏名の情報を受け取ると、図3に示したような、顔識別結果をユーザに確認させるための顔識別結果確認画面の表示情報を生成し、出力する。CPU1は、この顔識別結果確画面の表示情報を、ディスプレイインターフェース6を通じてディスプレイ9に送って、図3に示したような、顔識別結果が正しいかどうかをユーザに問い合わせるメッセージ22を表示する(ステップS126)。   When the display information generating unit 13 receives the information indicating that the face has been identified and the personal name information, the display information generating unit 13 displays a face identification result confirmation screen for allowing the user to confirm the face identification result as illustrated in FIG. Generate and output display information. The CPU 1 sends the display information of the face identification result confirmation screen to the display 9 through the display interface 6, and displays a message 22 for inquiring the user whether the face identification result is correct as shown in FIG. S126).

そして、CPU1は、ユーザによる図3の画面を通じての確認操作入力を待ち、当該確認操作入力が顔識別の照合結果が正解であるか否か判別する(ステップS127)。そして、CPU1は、ユーザによる確認操作入力が、照合結果は「正解」であることを示すものであると判別したときには、顔識別用辞書データベース10の更新ルーチンを実行するようにする(ステップS128)。そして、この処理ルーチンを終了する。ステップS128における顔識別用辞書データベース10の更新ルーチンの詳細については、後述する。   Then, the CPU 1 waits for the confirmation operation input through the screen of FIG. 3 by the user, and determines whether or not the confirmation operation input is a correct result of the face identification collation (step S127). When the CPU 1 determines that the confirmation operation input by the user indicates that the collation result is “correct”, the CPU 1 executes an update routine of the face identification dictionary database 10 (step S128). . Then, this processing routine ends. Details of the routine for updating the face identification dictionary database 10 in step S128 will be described later.

また、ステップS127で、ユーザによる確認操作入力が、照合結果は「不正解」であることを示すものであると判別したときには、そのことを示す情報を表示情報生成部13に送る。すると、表示情報生成部13は、図4に示したような顔識別結果不正解画面の表示情報を生成し、出力するので、CPU1は、その表示情報をディスプレイインターフェース6を通じてディスプレイ9に送り、図4に示した、取り込んだ顔画像が誰の顔画像であるか、氏名を入力するようにユーザに促すメッセージ25を表示する(図18のステップS134)。   If it is determined in step S127 that the confirmation operation input by the user indicates that the collation result is “incorrect”, information indicating that is sent to the display information generation unit 13. Then, the display information generation unit 13 generates and outputs the display information of the incorrect face identification result screen as shown in FIG. 4, so that the CPU 1 sends the display information to the display 9 through the display interface 6. A message 25 shown in 4 for prompting the user to input his / her name as to which face image the captured face image is is displayed (step S134 in FIG. 18).

そして、CPU1は、このメッセージ25中の氏名入力欄26へのユーザによる氏名の入力を待ち(ステップS135)、氏名の入力を受け付けたと判別したときには、顔識別用辞書データベース10に、当該入力された氏名の個人辞書データDiがあるか否か判別する(ステップS136)。そして、入力された氏名の個人辞書データDiがあると判別したときには、図17のステップS128に飛んで、顔識別用辞書データベース10の更新ルーチンを実行するようにする。   Then, the CPU 1 waits for the input of the name by the user in the name input field 26 in the message 25 (step S135), and when determining that the input of the name has been accepted, the CPU 1 inputs the input to the face identification dictionary database 10. It is determined whether there is personal dictionary data Di of the name (step S136). When it is determined that there is the personal dictionary data Di having the inputted name, the process jumps to step S128 in FIG. 17 to execute the update routine of the face identification dictionary database 10.

また、ステップS136で、入力された氏名の個人辞書データDiが、顔識別用辞書データベース10に存在しないと判別したときには、CPU1は、入力された氏名を個人特定情報として、これに対応させた個人辞書データDiを、顔識別用辞書データベース10に保存して新規登録する(ステップS133)。そして、この処理ルーチンを終了する。   If it is determined in step S136 that the personal dictionary data Di of the input name does not exist in the face identification dictionary database 10, the CPU 1 uses the input name as personal identification information and corresponds to this The dictionary data Di is stored in the face identification dictionary database 10 and newly registered (step S133). Then, this processing routine ends.

次に、図17のステップS125で、取り込んだ顔画像の特徴ベクトルと一致していると判断できる期間辞書データTDi,nが検出されなかったと判別したときには、CPU1は、その旨の情報を表示情報生成部13に送る。表示情報生成部13は、一致していると判断できる期間辞書データTDi,nが検出されなかった旨の情報を受け取ると、図5に示したような、顔識別結果として「一致無し」をユーザに報知させるための顔識別結果一致無し画面の表示情報を生成し、出力する。CPU1は、その表示情報を、ディスプレイインターフェース6を通じてディスプレイ9に送り、図6に示した、取り込んだ顔画像が誰の顔画像であるか、氏名を入力するようにユーザに促すメッセージ27を表示する(図18のステップS131)。   Next, when it is determined in step S125 in FIG. 17 that the dictionary data TDi, n has not been detected for a period that can be determined to match the feature vector of the captured face image, the CPU 1 displays information to that effect as display information. The data is sent to the generation unit 13. When the display information generation unit 13 receives information indicating that the period dictionary data TDi, n that can be determined to match is not detected, the display information generation unit 13 sets “no match” as the face identification result as shown in FIG. Display information of the screen without matching face identification result for informing the user is generated and output. The CPU 1 sends the display information to the display 9 through the display interface 6 and displays a message 27 shown in FIG. 6 urging the user to input the name of who the captured face image is. (Step S131 in FIG. 18).

そして、CPU1は、このメッセージ27中の氏名入力欄28へのユーザによる氏名の入力を待ち(ステップS132)、氏名の入力を受け付けたと判別したときには、入力された氏名を個人特定情報として、これに対応させた個人辞書データDiを、顔識別用辞書データベース10に保存して新規登録する(ステップS133)。そして、この処理ルーチンを終了する。   Then, the CPU 1 waits for the input of the name by the user in the name input field 28 in the message 27 (step S132), and when it is determined that the input of the name has been accepted, the input name is used as personal identification information. The corresponding personal dictionary data Di is stored in the face identification dictionary database 10 and newly registered (step S133). Then, this processing routine ends.

[期間辞書データの検索処理]
図17におけるステップS121での、顔識別処理部12で実行される期間辞書データの検索処理ルーチンの一例のフローチャートを、図19に示す。
[Periodic dictionary data search processing]
FIG. 19 shows a flowchart of an example of a period dictionary data search processing routine executed by the face identification processing unit 12 in step S121 in FIG.

顔識別処理部12は、まず、顔識別用辞書データベース10から、最初の個人辞書データDiの最初の期間辞書データを指定して取り出す(ステップS141)。次に、顔識別処理部12は、顔識別用辞書データベース10からすべての期間辞書データを取り出したか否か判別し(ステップS142)、すべてを取り出したので今回取り出すべき期間辞書データはないと判別したときには、この処理ルーチンを終了する。   First, the face identification processing unit 12 designates and extracts the first period dictionary data of the first personal dictionary data Di from the face identification dictionary database 10 (step S141). Next, the face identification processing unit 12 determines whether or not all period dictionary data has been extracted from the face identification dictionary database 10 (step S142), and determines that there is no period dictionary data to be extracted this time because all the period dictionary data has been extracted. Sometimes this processing routine is terminated.

ステップS142で、未だ、顔識別用辞書データベース10からすべての期間辞書データは取り出してはおらず、期間辞書データを顔識別用辞書データベース10から取り出したと判別したときには、取り出した期間辞書データが対応する期間を、対応する付随情報から検出して、当該検出した期間と、個人識別を行なうべく今回取り込んだ顔画像の撮影時刻との対応を調べる(ステップS143)。   If it is determined in step S142 that all the period dictionary data has not yet been extracted from the face identification dictionary database 10 and it has been determined that the period dictionary data has been extracted from the face identification dictionary database 10, the extracted period dictionary data corresponds to the period. Is detected from the corresponding incidental information, and the correspondence between the detected period and the photographing time of the face image captured this time for personal identification is examined (step S143).

そして、顔識別処理部12は、取り込んだ顔画像の撮影時刻が、期間辞書データが対応する期間内の時刻か否かを判別する(ステップS144)。このステップS144で、取り込んだ顔画像の撮影時刻が、期間辞書データが対応する期間内ではないと判別したときには、顔識別処理部12は、顔識別用辞書データベース10の、参照が終了していない次の期間辞書データを指定し(ステップS148)、ステップS142に戻り、このステップS142以降の処理を繰り返す。   Then, the face identification processing unit 12 determines whether or not the photographing time of the captured face image is a time within a period corresponding to the period dictionary data (step S144). When it is determined in step S144 that the captured time of the captured face image is not within the period corresponding to the period dictionary data, the face identification processing unit 12 has not finished referring to the face identification dictionary database 10. The next period dictionary data is designated (step S148), the process returns to step S142, and the processes after step S142 are repeated.

また、ステップS144で、取り込んだ顔画像の撮影時刻が、期間辞書データが対応する期間内であると判別したときには、顔識別処理部12は、取り込んだ顔画像の撮影時刻は、期間辞書データが対応する期間の重複期間内であるか否か判別する(ステップS145)。   In step S144, when it is determined that the shooting time of the captured face image is within the period corresponding to the period dictionary data, the face identification processing unit 12 sets the shooting time of the captured face image in the period dictionary data. It is determined whether or not it is within the overlapping period of the corresponding period (step S145).

ステップS145で、撮影時刻が重複期間内ではないと判別したときには、顔識別処理部12は、当該期間辞書データを照合用としてセットし(ステップS146)、照合用メモリに格納する(ステップS147)。そして、顔識別処理部12は、顔識別用辞書データベース10の、参照が終了していない次の期間辞書データを指定し(ステップS148)、その後、ステップS142に戻り、このステップS142以降の処理を繰り返す。   When it is determined in step S145 that the shooting time is not within the overlapping period, the face identification processing unit 12 sets the period dictionary data for verification (step S146) and stores it in the verification memory (step S147). Then, the face identification processing unit 12 designates the dictionary data for the next period in the face identification dictionary database 10 that has not been referred to (step S148), and then returns to step S142 to perform the processing after step S142. repeat.

また、ステップS145で、撮影時刻が重複期間内であると判別したときには、顔識別処理部12は、重複期間を共有する期間辞書データが既に作成されて存在しているか否か判別し(図20のステップS151)、未だ作成されていないと判別したときには、当該期間辞書データを照合用としてセットし(ステップS146)、照合用メモリに格納する(ステップS147)。そして、顔識別処理部12は、顔識別用辞書データベース10の、参照が終了していない次の期間辞書データを指定し(ステップS148)、その後、ステップS142に戻り、このステップS142以降の処理を繰り返す。   If it is determined in step S145 that the shooting time is within the overlapping period, the face identification processing unit 12 determines whether or not period dictionary data that shares the overlapping period has already been created (FIG. 20). In step S151), if it is determined that it has not been created yet, the period dictionary data is set for verification (step S146) and stored in the verification memory (step S147). Then, the face identification processing unit 12 designates the dictionary data for the next period in the face identification dictionary database 10 that has not been referred to (step S148), and then returns to step S142 to perform the processing after step S142. repeat.

また、ステップS151で、重複期間を共有する期間辞書データが既に作成されて存在していると判別したときには、顔識別処理部12は、図13を用いて説明したように、2個の期間辞書データDnとDn+1とで、その重複期間を挟む、それぞれの1/2辞書期間幅の期間での画像数Dn_bと、画像数Dn+1_aとを比較する(ステップS152)。   When it is determined in step S151 that the period dictionary data sharing the overlapping period has already been created and exists, the face identification processing unit 12 uses two period dictionaries as described with reference to FIG. Data Dn and Dn + 1 are compared with the number of images Dn_b and the number of images Dn + 1_a in the respective half-dictionary period widths across the overlap period (step S152).

顔識別処理部12は、ステップS152での比較の結果、Dn_b>Dn+1_aであると判別したときには、期間辞書データDnを照合用にセットし(ステップS154)、Dn_b≦Dn+1_aであると判別したときには、期間辞書データDn+1を照合用にセットする(ステップS155)。そして、ステップS154およびステップS155の後は、顔識別処理部12は、照合用にセットした期間辞書データのみではなく、重複する2個の期間辞書データを照合用メモリに格納しておく(ステップS156)。これは、後で、期間辞書データを更新する際には、照合用にセットした期間辞書データのみではなく、重複する2個の期間辞書データを更新する必要があるためである。   When it is determined that Dn_b> Dn + 1_a as a result of the comparison in step S152, the face identification processing unit 12 sets the period dictionary data Dn for collation (step S154), and when it is determined that Dn_b ≦ Dn + 1_a, Period dictionary data Dn + 1 is set for verification (step S155). After step S154 and step S155, the face identification processing unit 12 stores not only the period dictionary data set for collation but also two overlapping period dictionary data in the collation memory (step S156). ). This is because, when updating the period dictionary data later, it is necessary to update not only the period dictionary data set for collation but also two overlapping period dictionary data.

[新規登録]
図18のステップS133で、辞書データ更新処理部14により実行される新規登録の処理ルーチンの一例のフローチャートを図21に示す。
[sign up]
FIG. 21 shows a flowchart of an example of a new registration processing routine executed by the dictionary data update processing unit 14 in step S133 of FIG.

辞書データ更新処理部14は、まず、ユーザにより入力された個人特定情報が、顔識別用辞書データベース10には未だ存在していない新規の個人Piの個人特定情報であるか否か判別し(ステップS161)、新規の個人Piの個人特定情報であると判別したときには、顔識別用辞書データベース10に、当該新規の個人Piについての個人辞書データDiのエリアを確保し(ステップS162)、前記個人特定情報を個人識別データIDiとして格納すると共に、取り込まれた顔画像の撮影時刻を、期間辞書データの期間を定める基準時点とするため、基準時刻データRtとして格納するようにする(ステップS163)。   First, the dictionary data update processing unit 14 determines whether or not the personal identification information input by the user is personal identification information of a new individual Pi that does not yet exist in the face identification dictionary database 10 (Step S1). S161) When it is determined that the information is the personal identification information of the new individual Pi, an area of the personal dictionary data Di for the new individual Pi is secured in the face identification dictionary database 10 (step S162), and the personal identification is performed. Information is stored as personal identification data IDi, and the captured time of the captured face image is stored as reference time data Rt so as to be a reference time for determining the period of the period dictionary data (step S163).

次に、辞書データ更新処理部14は、ユーザ期間設定情報ファイルUSを読み込み(ステップS164)、期間モードは固定長モードか、可変長モードかを判別する(ステップS165)。   Next, the dictionary data update processing unit 14 reads the user period setting information file US (step S164), and determines whether the period mode is the fixed length mode or the variable length mode (step S165).

そして、ステップS165で期間モードは固定長モードであると判別したときには、辞書データ更新処理部14は、テーブル番号を参照して辞書期間幅および重複期間幅を決定し、これら辞書期間幅および重複期間幅と基準時刻データRtとを用いて、新規に作成する期間辞書データTDi,1の辞書期間を設定する(ステップS166)。   When it is determined in step S165 that the period mode is the fixed length mode, the dictionary data update processing unit 14 refers to the table number to determine the dictionary period width and the overlapping period width, and the dictionary period width and the overlapping period. Using the width and the reference time data Rt, the dictionary period of the newly created period dictionary data TDi, 1 is set (step S166).

続いて、辞書データ更新処理部14は、取り込んだ顔画像から抽出した特徴データを用いて期間辞書データTDi,1を作成し、個人辞書データDiの顔識別用辞書データFRDi,1として格納する。そして、その付随情報ATRi,1をも作成し、格納する(ステップS167)。そして、この処理ルーチンを終了する。   Subsequently, the dictionary data update processing unit 14 creates period dictionary data TDi, 1 using the feature data extracted from the captured face image, and stores it as face identification dictionary data FRDi, 1 of the personal dictionary data Di. Then, the accompanying information ATRi, 1 is also created and stored (step S167). Then, this processing routine ends.

また、ステップS165で、期間モードは可変長モードであると判別したときには、辞書データ更新処理部14は、表示情報生成部13に、取り込まれた顔画像の撮影時刻の時点における個人Piの年齢の入力をユーザに促すメッセージを生成してディスプレイ9に表示させるように制御する(ステップS168)。   When it is determined in step S165 that the period mode is the variable length mode, the dictionary data update processing unit 14 causes the display information generation unit 13 to indicate the age of the individual Pi at the time of capturing the captured face image. Control is performed so that a message prompting the user to input is generated and displayed on the display 9 (step S168).

そして、そのメッセージに応じた年齢の入力を受けて(ステップS169)、辞書データ更新処理部14は、可変辞書期間テーブルTBLvから、辞書期間幅および重複期間幅を定める。そして、基準時刻Rtと、定めた辞書期間幅および重複期間幅とを用いて、新規に作成する期間辞書データTDi,1の辞書期間を設定する(ステップS170)。   Then, upon receiving the input of the age according to the message (step S169), the dictionary data update processing unit 14 determines the dictionary period width and the overlapping period width from the variable dictionary period table TBLv. Then, using the reference time Rt and the determined dictionary period width and overlapping period width, the dictionary period of the newly created period dictionary data TDi, 1 is set (step S170).

続いて、辞書データ更新処理部14は、取り込んだ顔画像から抽出した特徴データを用いて期間辞書データTDi,1を作成し、個人辞書データDiの顔識別用辞書データFRDi,1として格納する。そして、その付随情報ATRi,1をも作成し、格納する(ステップS167)。そして、この処理ルーチンを終了する。   Subsequently, the dictionary data update processing unit 14 creates period dictionary data TDi, 1 using the feature data extracted from the captured face image, and stores it as face identification dictionary data FRDi, 1 of the personal dictionary data Di. Then, the accompanying information ATRi, 1 is also created and stored (step S167). Then, this processing routine ends.

[更新登録]
図17のステップS128で、辞書データ更新処理部14により実行される新規登録の処理ルーチンの一例のフローチャートを図22に示す。
[Registration]
FIG. 22 shows a flowchart of an example of a new registration processing routine executed by the dictionary data update processing unit 14 in step S128 of FIG.

辞書データ更新処理部14は、まず、更新すべき期間辞書データTDi,nの付随情報の期間情報および辞書期間パラメータを参照して、当該更新すべき期間辞書データTDi,nの辞書期間および重複期間を検知する(ステップS181)。   First, the dictionary data update processing unit 14 refers to the period information and dictionary period parameters of the accompanying information of the period dictionary data TDi, n to be updated, and the dictionary period and overlapping period of the period dictionary data TDi, n to be updated. Is detected (step S181).

次に、辞書データ更新処理部14は、取り込まれた顔画像の撮影時刻は、検知された重複期間内であるか否か判別し(ステップS182)、取り込まれた顔画像の撮影時刻は、重複期間内ではないと判別したときには、更新対象の一つの既存の期間辞書データを更新する。すなわち、取り込まれた顔画像の特徴データを、その前までの辞書データに加えて平均することで、辞書データの更新を行なう(ステップS183)。そして、この処理ルーチンを終了する。   Next, the dictionary data update processing unit 14 determines whether or not the capture time of the captured face image is within the detected overlap period (step S182), and the capture time of the captured face image is overlapped. When it is determined that it is not within the period, one existing period dictionary data to be updated is updated. That is, the feature data of the captured face image is averaged in addition to the previous dictionary data, thereby updating the dictionary data (step S183). Then, this processing routine ends.

また、ステップS182で、取り込まれた顔画像の撮影時刻は、検知された重複期間内であると判別したときには、辞書データ更新処理部14は、重複期間を共有する2個の期間辞書データは既に存在しているか否か判別する(ステップS184)。この判別は、前述したように、この実施形態では、照合用メモリには、重複期間を共有する既存の期間辞書データが記憶されているので、照合用メモリを参照して、そのような重複期間を共有する期間辞書データが存在しているかどうかを探索することでできる。   In step S182, when it is determined that the shooting time of the captured face image is within the detected overlap period, the dictionary data update processing unit 14 has already stored two period dictionary data sharing the overlap period. It is determined whether or not it exists (step S184). As described above, in this embodiment, since the existing period dictionary data sharing the overlapping period is stored in the verification memory, the determination is performed by referring to the verification memory. It is possible to search whether there is dictionary data for a period to share

ステップS184で、重複期間を共有する期間辞書データは、未だ存在していないと判別したときには、辞書データ更新処理部14は、重複期間を共有する既存の期間辞書データは前述のようにして更新処理すると共に、重複期間を共有する他の期間辞書データを、前述の新規登録と同様にして、新規に作成して新規登録する(ステップS185)。そして、この処理ルーチンを終了する。   If it is determined in step S184 that the period dictionary data sharing the overlapping period does not yet exist, the dictionary data update processing unit 14 updates the existing period dictionary data sharing the overlapping period as described above. At the same time, other period dictionary data sharing the overlapping period is newly created and newly registered in the same manner as the above-described new registration (step S185). Then, this processing routine ends.

また、ステップS184で、重複期間を共有する2個の期間辞書データは既に存在していると判別したときには、辞書データ更新処理部14は、重複期間を共有する既存の2個の期間辞書データを前述のようにして更新処理する(ステップS186)。そして、この処理ルーチンを終了する。   When it is determined in step S184 that two period dictionary data sharing the overlapping period already exist, the dictionary data update processing unit 14 stores the existing two period dictionary data sharing the overlapping period. Update processing is performed as described above (step S186). Then, this processing routine ends.

[変形例]
上述の実施形態の説明では、期間モードは、ユーザが設定するように説明したが、個人識別装置を工場出荷する前に、メーカ側で設定しておくようにしてもよい。
[Modification]
In the above description of the embodiment, the period mode has been described as being set by the user. However, the personal identification device may be set by the manufacturer before shipment from the factory.

また、期間辞書データが対応する辞書期間を定める基準は、上述の説明では、各個人Piについて、最初に取り込んだ顔画像の撮影時刻としたが、これに限られるものではない。例えば、各個人Piについての誕生日を入力してもらい、当該誕生日を基準に、辞書期間を求めるようにしても良い。また、特定の年月日を基準時として、ユーザに入力してもらうようにしても良い。   In addition, in the above description, the reference for determining the dictionary period to which the period dictionary data corresponds is the shooting time of the first captured face image for each individual Pi, but is not limited thereto. For example, the birthday of each individual Pi may be input, and the dictionary period may be obtained based on the birthday. Moreover, you may make it ask a user to input on the basis of specific date.

なお、以上説明した第1の実施形態は、この発明を顔識別処理装置に適用した場合であるが、顔識別に限らず、識別要素として声を用いる場合にも適用することができることは言うまでもない。   In addition, although 1st Embodiment described above is a case where this invention is applied to a face identification processing apparatus, it cannot be overemphasized that it can apply not only to face identification but when using a voice as an identification element. .

[第2の実施形態]
上述の第1の実施形態では、期間辞書データは、対応する期間で撮影された顔画像データから抽出された特徴データを単純平均したものとした。しかし、各期間辞書データが対応する期間内においても、個人の顔や声は、識別要素時間の経過により変化するものであるので、その時間の経過による個人の識別要素の変化を考慮して辞書データを更新することにより、より個人識別性能を向上させることができると考えられる。
[Second Embodiment]
In the first embodiment described above, the period dictionary data is obtained by simply averaging feature data extracted from face image data photographed in a corresponding period. However, even during the period corresponding to each period dictionary data, the face and voice of the individual changes with the passage of the identification element time, so the dictionary considering the change of the individual identification element with the passage of the time It is considered that the personal identification performance can be further improved by updating the data.

この第2の実施形態では、このような観点から、顔画像から抽出した特徴データに、撮影時刻に応じて重み付けし、その重み付けした特徴データを期間辞書データの更新するようにする。   In the second embodiment, from such a viewpoint, the feature data extracted from the face image is weighted according to the photographing time, and the weighted feature data is updated in the period dictionary data.

図23は、この第2の実施形態の顔画像による個人識別装置の構成例を示すブロック図である。この図23で、図1に示した第1の実施形態の個人識別装置の構成例のブロック図と同一部分は、同一番号を付して、その詳細な説明は省略する。この第2の実施形態においても、各ブロックで示したものの一部は、ソフトウエア構成とすることもできるものである。   FIG. 23 is a block diagram illustrating a configuration example of the personal identification device based on face images according to the second embodiment. In FIG. 23, the same parts as those in the block diagram of the configuration example of the personal identification device according to the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. Also in the second embodiment, a part of what is shown in each block can be a software configuration.

この第2の実施形態では、辞書データ更新処理部14は、重み係数算出部15と、辞書データ生成・更新部16とを備えている。その他は、ハードウエア構成としては、第1の実施形態と同様に構成される。   In the second embodiment, the dictionary data update processing unit 14 includes a weight coefficient calculation unit 15 and a dictionary data generation / update unit 16. Other than that, the hardware configuration is the same as that of the first embodiment.

この第2の実施形態では、顔識別用辞書データベース10のデータフォーマットは、図24に示すように構成される。すなわち、各期間辞書データDi,nとしては、顔識別用辞書データFRDi,nと、付随情報ATRi,nとに加えて、この第2の実施形態では、辞書データ生成用情報配列ARi,nを備えるようにされる。   In the second embodiment, the data format of the face identification dictionary database 10 is configured as shown in FIG. That is, as each period dictionary data Di, n, in addition to the face identification dictionary data FRDi, n and the accompanying information ATRi, n, in the second embodiment, the dictionary data generation information array ARi, n is used. To be prepared.

辞書データ生成用情報配列ARi,nは、図25に示すように、1個以上のk個(k=1,2,・・・,K)の辞書データ生成用情報DPIi,n,kからなる。   As shown in FIG. 25, the dictionary data generation information array ARi, n is composed of one or more k (k = 1, 2,..., K) dictionary data generation information DPIi, n, k. .

辞書データ生成用情報DPIi,n,kは、顔識別対象である一人の個人Piの期間辞書データTDi,nが対応する期間において、異なる時点で取り込まれたk個(k=1〜K、最大K個)の顔画像についての情報からなるもので、この実施形態では、図25に示すように、時刻の情報Ti,n,kと、取り込まれた顔画像の特徴データVi,n,kと、取り込まれた顔画像の特徴データVi,n,kを用いて顔識別用辞書データを更新するために用いる、特徴データVi,n,kについての重み係数Wi,n,kとが、この辞書データ生成用情報DPIi,n,kに含まれる。重み係数Wi,n,kについては、後で詳述する。   The dictionary data generation information DPIi, n, k includes k pieces (k = 1 to K, maximum) taken at different points in the period corresponding to the period dictionary data TDi, n of one individual Pi that is a face identification target. In this embodiment, as shown in FIG. 25, time information Ti, n, k and captured face image feature data Vi, n, k The weight coefficient Wi, n, k for the feature data Vi, n, k used for updating the face identification dictionary data using the feature data Vi, n, k of the captured face image is the dictionary. It is included in the data generation information DPIi, n, k. The weighting factors Wi, n, k will be described in detail later.

この第2の実施形態では、一つの期間辞書データTDin当たりとして、最大K個、例えば40個の辞書データ生成用情報が、蓄積可能とされている。これは、辞書データベース10として使用する記憶容量を考慮したものである。そして、この実施形態では、辞書データ生成用情報DPIi,n,kとして蓄積されるデータは、常に最新のN個のデータを残すようにして、蓄積する辞書データ生成用情報DPIi,n,kを更新するようにする。   In the second embodiment, a maximum of K pieces, for example, 40 pieces of dictionary data generation information can be stored per one period dictionary data TDin. This is in consideration of the storage capacity used as the dictionary database 10. In this embodiment, the data stored as the dictionary data generation information DPIi, n, k always keeps the latest N pieces of data so that the dictionary data generation information DPIi, n, k to be stored is stored. Try to update.

この第2の実施形態では、各期間辞書データTDi,nの顔識別用辞書データFRDi,nは、後述するように、当該期間辞書データTDi,nに対応付けられて顔識別用辞書データベース10に格納されている辞書データ生成用情報DPIi,n,kのそれぞれの特徴データ(特徴ベクトル)を、その特徴データについての重み係数によりそれぞれ重み付けし、その重み付けしたものを用いて、後述のようにして生成する。   In the second embodiment, the face identification dictionary data FRDi, n of each period dictionary data TDi, n is associated with the period dictionary data TDi, n in the face identification dictionary database 10 as will be described later. Each feature data (feature vector) of the stored dictionary data generation information DPIi, n, k is weighted by a weighting factor for the feature data, and the weighted data is used as described later. Generate.

また、この第2の実施形態では、後述するように、重み係数Wi,n,kの算出方法(設定方法)として、複数通りの算出方法が用意されており、ユーザが当該用意されている複数の重み係数Wi,n,kの算出方法の中の一つを選択することができるようにされている。そして、その選択された重み係数の算出方法を特定するための情報として、図24に示すように、重み係数パラメータ設定情報STが、顔識別用辞書データベース10に記憶されている。   In the second embodiment, as will be described later, a plurality of calculation methods are prepared as the calculation methods (setting methods) of the weighting factors Wi, n, k, and a plurality of users prepared by the user are provided. One of the calculation methods of the weighting factors Wi, n, k can be selected. Then, as shown in FIG. 24, weight coefficient parameter setting information ST is stored in the face identification dictionary database 10 as information for specifying the selected weight coefficient calculation method.

なお、重み係数の算出方法は、識別する個人の個人辞書データDi毎に選択設定するようにしても良いが、この実施形態では、顔識別用辞書データベース10全体として、一つの重み係数算出方法を選択設定するようにしている。   The weighting factor calculation method may be selected and set for each individual personal dictionary data Di to be identified, but in this embodiment, one weighting factor calculation method is used for the face identification dictionary database 10 as a whole. The selection is set.

辞書データ更新処理部14は、顔識別辞書データベース10において、特定された個人特定情報に対応する個人辞書データDiの期間辞書データTDi,nの更新の実行に際しては、この実施形態では、まず、前記期間辞書データTDi,nに含まれる辞書データ生成用情報DPIi,n,kの数を参照し、その数が最大値であるK個よりも少ないときには、新たに取得した顔画像の特徴ベクトルVinと、その撮像時刻情報とを、最新の辞書データ生成用情報として、期間辞書データTDi,nに追加記憶する。   In this embodiment, the dictionary data update processing unit 14 first updates the period dictionary data TDi, n of the personal dictionary data Di corresponding to the specified personal identification information in the face identification dictionary database 10. When the number of dictionary data generation information DPIi, n, k included in the period dictionary data TDi, n is referred to and the number is less than the maximum K, the newly acquired face image feature vector Vin The imaging time information is additionally stored in the period dictionary data TDi, n as the latest dictionary data generation information.

また、辞書データ更新処理部14は、顔識別辞書データベース10において、更新対象の個人特定情報に対応する期間辞書データTDi,nに含まれる辞書データ生成用情報DPIi,n,kの数が、最大であるK個であるときには、そのときに辞書データ生成用情報DPIi,n,k中で最古である辞書データ生成用情報DPIi,1を廃棄し、かつ、各辞書データ生成用情報DPIi,n,kのそれぞれの時間順位を順次下げて、
DPIi,n,k→DPIi,n,k−1
とする。
Further, the dictionary data update processing unit 14 has the maximum number of dictionary data generation information DPIi, n, k included in the period dictionary data TDi, n corresponding to the personal identification information to be updated in the face identification dictionary database 10. Is the oldest dictionary data generation information DPIi, 1 among the dictionary data generation information DPIi, n, k at that time, and each dictionary data generation information DPIi, n , K in order,
DPIi, n, k → DPIi, n, k-1
And

そして、新たに取り込んだ顔画像の特徴ベクトルVinと、撮像時刻の情報とを、最新の辞書データ生成用情報DPIi,n,Kの情報として記憶して、期間辞書データTDi,nを更新する。この時点では、重み係数は算出されていないので、記憶されていた重み係数は、元のままである。   Then, the newly fetched feature vector Vin of the face image and the information on the imaging time are stored as the latest dictionary data generation information DPIi, n, K information, and the period dictionary data TDi, n is updated. At this time, since the weighting factor is not calculated, the stored weighting factor remains unchanged.

重み係数は、上述のように更新された期間辞書データTDi,nに含まれる撮像時刻の情報が用いられて、少なくとも最新の辞書データ生成用情報DPIi,n,Kについては算出されて記憶される。その他の元々期間辞書データTDi,nとして記憶されていた辞書データ生成用情報についての重み係数は、後述するように、選択される重み係数算出方法に応じて更新される場合と、更新されずにそのまま用いられる場合とがある。   The weighting coefficient is calculated and stored for at least the latest dictionary data generation information DPIi, n, K using information on the imaging time included in the period dictionary data TDi, n updated as described above. . As will be described later, the weighting factors for the dictionary data generation information originally stored as the other period dictionary data TDi, n may or may not be updated according to the selected weighting factor calculation method. It may be used as it is.

辞書データ更新処理部14は、重み係数算出部15に、重み係数パラメータ設定情報STを渡して、後述するように、重み係数算出部15で実行する重み係数算出の方法を指示すると共に、重み係数算出部15に、最新の辞書データ生成用情報DPIi,n,Kの撮像時刻情報Ti,n,Kおよび必要な過去の辞書データ生成用情報DPIi,n,Kを渡して、重み係数の算出を指示する。   The dictionary data update processing unit 14 passes the weighting factor parameter setting information ST to the weighting factor calculation unit 15 and instructs the weighting factor calculation method executed by the weighting factor calculation unit 15 as will be described later. The calculation unit 15 is passed the imaging time information Ti, n, K of the latest dictionary data generation information DPIi, n, K and necessary past dictionary data generation information DPIi, n, K, and the weighting coefficient is calculated. Instruct.

重み係数算出部15は、この第2の実施形態では、顔識別処理部13での識別結果に基づいて個人特定情報が特定されたとき、当該個人特定情報に対応する期間辞書データTDi,nの顔識別用辞書データFRDi,nを更新する際に使用する、特徴ベクトルについての重み係数を、最新の撮像時刻情報および過去の撮像時刻情報を用いて算出する。   In the second embodiment, the weight coefficient calculation unit 15 specifies the period dictionary data TDi, n corresponding to the personal identification information when the personal identification information is identified based on the identification result in the face identification processing unit 13. The weighting coefficient for the feature vector used when updating the face identification dictionary data FRDi, n is calculated using the latest imaging time information and past imaging time information.

前述したように、この第2の実施形態の個人識別装置は、この重み係数の算出方法(設定方法)として複数通り、この例では、4通りの算出方法を用意しており、ユーザの選択により、当該4通りの重み係数算出方法のどの方法を用いるかが選択設定され、その選択設定情報が顔識別用辞書データベース10に格納される。   As described above, the personal identification device according to the second embodiment provides a plurality of calculation methods (setting methods) for the weighting coefficient, and in this example, four calculation methods are prepared. Which of the four weight coefficient calculation methods is used is selected and set, and the selection setting information is stored in the face identification dictionary database 10.

この実施形態においては、ユーザが操作入力部8を通じて、例えば設定メニューから、「重み係数の設定方法の選択」を指示すると、図26に示すような「重み係数の設定方法選択画面」がディスプレイ9に表示される。   In this embodiment, when the user instructs “selection of weighting factor setting method” from the setting menu, for example, through the operation input unit 8, a “weighting factor setting method selection screen” as shown in FIG. Is displayed.

図26に示すように、この実施形態では、重み係数算出方法(設定方法)としては、
(1)撮像順に線形的に重み係数を設定、
(2)撮像順に非線形的に重み係数を設定、
(3)撮像間隔に応じて重み係数を設定(区間)、
(4)撮像間隔に応じて重み係数を設定(前画像との時間差)、
の4通りが、選択設定できる重み係数算出方法候補の一覧として表示される。各算出方法の詳細については後述する。
As shown in FIG. 26, in this embodiment, as a weighting factor calculation method (setting method),
(1) Set weighting factors linearly in the order of imaging,
(2) A weighting factor is set nonlinearly in the order of imaging,
(3) A weighting factor is set according to the imaging interval (section),
(4) A weighting factor is set according to the imaging interval (time difference from the previous image),
Are displayed as a list of weight coefficient calculation method candidates that can be selected and set. Details of each calculation method will be described later.

そして、図26に示すように、この例では、各重み係数算出方法候補の先頭には、ユーザが選択設定するためのチェックマーク記入欄30が設けられている。ユーザは、この図26の一覧表示画面において、自分が希望する重み係数算出方法候補の先頭に設けられるチェック欄32を、マウスなどのポインティングデバイスでクリックすることで、当該重み係数算出方法候補を使用する重み係数算出方法として、選択設定することができる。図26の例では、「(1)撮像順に線形的に重み係数を設定」が選択されている状態を示している。   As shown in FIG. 26, in this example, a check mark entry field 30 for the user to select and set is provided at the top of each weight coefficient calculation method candidate. The user uses the weighting factor calculation method candidate by clicking on the check column 32 provided at the head of the weighting factor calculation method candidate desired by the user with a pointing device such as a mouse on the list display screen of FIG. It is possible to select and set the weighting coefficient calculation method to be performed. The example of FIG. 26 shows a state where “(1) linearly set weight coefficients in the order of imaging” is selected.

なお、この場合に、重み係数算出部15は、選択される重み係数の算出方法によっては、新たに取り込んだ顔画像の特徴ベクトルについての重み係数のみを算出する場合と、新たに取り込んだ顔画像の特徴ベクトルについての重み係数のみならず、個人特定情報に対応して記憶されている過去に取り込んだ顔画像の特徴ベクトルについての重み係数をも再計算する場合とがある。   In this case, depending on the selected weighting factor calculation method, the weighting factor calculating unit 15 calculates only the weighting factor for the feature vector of the newly captured face image, or the newly captured face image. In addition to the weighting coefficient for the feature vector, the weighting coefficient for the feature vector of the face image captured in the past stored corresponding to the personal identification information may be recalculated.

次に、この実施形態で用いる4種の重み係数算出方法のそれぞれについて、さらに説明する。   Next, each of the four types of weighting factor calculation methods used in this embodiment will be further described.

[第1の例;撮像順に線形的に重み係数を設定(線形算出方法)]
図27は、撮像順に線形的に重み係数を算出(設定)する方法を説明するための図である。この重み係数算出方法を、以下、線形算出方法と称することとする。
[First example: linearly setting weighting factors in order of imaging (linear calculation method)]
FIG. 27 is a diagram for explaining a method of calculating (setting) weighting factors linearly in the order of imaging. This weighting factor calculation method is hereinafter referred to as a linear calculation method.

この線形算出方法が採用される場合には、新たに取り込まれた顔画像による識別に基づいて特定された個人特定情報に対応して記憶されている個人辞書データDiの特徴データについての重み係数は、最新の辞書データ生成用情報DPIi,n,New(N個の辞書データ生成用情報が記憶されているときには、DPIi,n,New=DPIi,n,K)の重み係数Wi,Newのみではなく、過去に取り込まれて保存されている辞書データ生成用情報DPIi,n,k(k=1,2,・・・)の重み係数Wi,n,kのすべてが、再計算されて更新される。   When this linear calculation method is adopted, the weighting factor for the feature data of the personal dictionary data Di stored corresponding to the personal identification information specified based on the identification by the newly captured face image is The latest dictionary data generation information DPIi, n, New (when N pieces of dictionary data generation information are stored, DPIi, n, New = DPIi, n, K) is not only a weight coefficient Wi, New. , All of the weight coefficients Wi, n, k of the dictionary data generation information DPIi, n, k (k = 1, 2,...) Captured and stored in the past are recalculated and updated. .

このため、この線形算出方法が採用される場合には、辞書データ更新処理部14は、更新されたすべての辞書データ生成用情報の撮像時刻の情報を、重み係数算出部15に渡す。   For this reason, when this linear calculation method is employed, the dictionary data update processing unit 14 passes the information on the imaging time of all the updated dictionary data generation information to the weighting coefficient calculation unit 15.

そして、この線形算出方法においては、重み係数算出部15においては、この実施形態では、まず、更新された期間辞書データTDi,nのうちの最古の辞書データ生成用情報の撮像時刻Ti,n,1を基準にするために、更新された期間辞書データTDi,nのそれぞれの辞書データ生成用情報の撮像時刻Ti,n,k(k=1,2,・・・,New)と、最古の撮像時刻Ti,n,1との時間差ΔTi(1_k)を算出する。   In this linear calculation method, in this embodiment, the weighting factor calculation unit 15 first captures the imaging time Ti, n of the oldest dictionary data generation information in the updated period dictionary data TDi, n. , 1 as a reference, the imaging times Ti, n, k (k = 1, 2,..., New) of the dictionary data generation information of the updated period dictionary data TDi, n A time difference ΔTi (1_k) from the old imaging time Ti, n, 1 is calculated.

そして、重み係数算出部15は、重み係数Wi,n,kを、図10に示すように、算出された時間差ΔTi(1_n)が大きいほど、線形的に大きくなるように、次の(式1)により算出する。   Then, as shown in FIG. 10, the weight coefficient calculation unit 15 linearly increases the weight coefficient Wi, n, k as the calculated time difference ΔTi (1_n) increases as ).

すなわち、重み係数算出部15は、
Wi,n,k=p×ΔTi(1_k)+q ・・・(式1)
により、各特徴ベクトルVi,n,kについての重み係数Wi,n,kを算出する。
That is, the weight coefficient calculation unit 15
Wi, n, k = p × ΔTi (1_k) + q (Expression 1)
Thus, the weighting coefficient Wi, n, k for each feature vector Vi, n, k is calculated.

なお、図27において、時間差ΔT(1_1)=0であり、このときの重み係数Wi,n,1は、予め定められた重み係数の最小値qになる。また、予め定められた重み係数の最大値をrとしたとき、最新の撮像時刻についての時間差ΔTi(1_New)のときの重み係数Wi,n,Newは、Wi,n,New=rとされる。   In FIG. 27, the time difference ΔT (1_1) = 0, and the weighting coefficient Wi, n, 1 at this time is the minimum value q of the predetermined weighting coefficient. In addition, when the maximum value of the predetermined weighting factor is r, the weighting factors Wi, n, New at the time difference ΔTi (1_New) with respect to the latest imaging time are set to Wi, n, New = r. .

また、図27の一次関数の直線の傾きpは、
p=(r−q)/(ΔTi(1_New)−ΔTi(1_1))
となり、更新された複数個の辞書データ生成用情報DPIi,n,kのうちの、最新の撮像時刻と最古の撮像時刻との差(Ti,n,New−Ti,n,1)に応じたものとなり、一定ではなく、新たなデータが取り込まれる毎に変わるものとなる。
Further, the slope p of the straight line of the linear function of FIG.
p = (r−q) / (ΔTi (1_New) −ΔTi (1_1))
And according to the difference (Ti, n, New-Ti, n, 1) between the latest imaging time and the oldest imaging time among the plurality of updated dictionary data generation information DPIi, n, k. It is not constant and changes each time new data is fetched.

ここで、顔識別用辞書データベース10において、個人特定情報に対応して記憶される各期間辞書データTDi,nについてのK個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Kが記憶されている場合には、時間差ΔTi(1_New)は、
時間差ΔTi(1_New)=ΔTi(1_K)=Ti,n,K−Ti,n,1
である。しかし、顔識別用辞書データベース10には、新たに追加したとしても、個人特定情報に対応した辞書データ生成用情報が、K個未満しか記憶されていないときには、当該K個未満の辞書データ生成用情報の最新のものの撮像時刻が最新の撮像時刻となり、その撮像時刻と最古の撮像時刻Ti,n,1との時間差が、最新の撮像時刻についての時間差ΔTi(1_New)となる。
Here, in the face identification dictionary database 10, K pieces of dictionary data generation information DPIi, n, 1 to DPIi, n, K for each period dictionary data TDi, n stored in correspondence with the personal identification information are stored. If stored, the time difference ΔTi (1_New) is
Time difference ΔTi (1_New) = ΔTi (1_K) = Ti, n, K−Ti, n, 1
It is. However, even if it is newly added in the face identification dictionary database 10, if less than K pieces of dictionary data generation information corresponding to the personal identification information are stored, the less than K pieces of dictionary data generation information are generated. The imaging time of the latest information is the latest imaging time, and the time difference between the imaging time and the oldest imaging time Ti, n, 1 is the time difference ΔTi (1_New) for the latest imaging time.

なお、上述の説明では、更新された期間辞書データTDi,nのうちの最古の辞書データ生成用情報の撮像時刻Ti,n,1を基準に、各辞書データ生成用情報の撮像時刻Ti,n,kとの時間差ΔT(1_k)を算出し、その時間差ΔT(1_k)が大きいほど、重み係数Wi,n,kが線形的に大きくなるように設定したが、時間差を取る基準は、最新の撮像時刻Ti,n,Newとするようにしてもよい。   In the above description, the imaging times Ti, n, 1 of the dictionary data generation information are based on the imaging times Ti, n, 1 of the oldest dictionary data generation information in the updated period dictionary data TDi, n. The time difference ΔT (1_k) with respect to n, k is calculated, and the weight coefficient Wi, n, k is set so as to increase linearly as the time difference ΔT (1_k) increases. The imaging times Ti, n, and New may be used.

その場合には、時間差ΔT(New_New)(=0)のときに重み係数Wi,n,Newが最大値rとなり、時間差ΔT(New_k)が大きくなるほど線形的に小さくなり、最古の撮像時刻Ti,n,1との時間差ΔT(New_1)のときに、その重み係数Wi,n,1が最小値qとなる。   In this case, when the time difference ΔT (New_New) (= 0), the weight coefficient Wi, n, New becomes the maximum value r, and becomes linearly smaller as the time difference ΔT (New_k) increases, and the oldest imaging time Ti. , N, 1, the weight coefficient Wi, n, 1 becomes the minimum value q.

[第2の例;撮像順に非線形的に重み係数を設定(非線形算出方法)]
図28は、撮像順に非線形的に重み係数を算出(設定)する方法を説明するための図である。この重み係数算出方法を、以下、非線形算出方法と称することとする。
[Second Example: Setting Weighting Factor Nonlinearly in Order of Imaging (Nonlinear Calculation Method)]
FIG. 28 is a diagram for explaining a method of calculating (setting) weighting coefficients nonlinearly in the order of imaging. Hereinafter, this weighting factor calculation method is referred to as a nonlinear calculation method.

この非線形算出方法が採用される場合にも、新たに取り込まれた顔画像による識別に基づいて特定された個人特定情報に対応して記憶されている期間辞書データTDi,nの特徴データについての重み係数は、最新の辞書データ生成用情報DPIi,n,New(K個の辞書データ生成用情報が記憶されているときには、DPIi,n,New=DPIi,n,K)の重み係数Wi,n,Newのみではなく、過去に取り込まれて保存されている辞書データ生成用情報DPIi,n,k(k=1,2,・・・)の重み係数Wi,n,kのすべてが、再計算されて更新される。   Even when this non-linear calculation method is adopted, the weight for the feature data of the period dictionary data TDi, n stored corresponding to the personal identification information specified based on the identification by the newly captured face image The coefficient is the weight coefficient Wi, n, of the latest dictionary data generation information DPIi, n, New (when K dictionary data generation information is stored, DPIi, n, New = DPIi, n, K). Not only New, but all the weighting factors Wi, n, k of dictionary data generation information DPIi, n, k (k = 1, 2,...) Captured and stored in the past are recalculated. Updated.

このため、この非線形算出方法が採用される場合にも、辞書データ更新処理部14は、更新されたすべての辞書データ生成用情報の撮像時刻の情報を、重み係数算出部15に渡す。   For this reason, also when this nonlinear calculation method is adopted, the dictionary data update processing unit 14 passes the information on the imaging time of all the updated dictionary data generation information to the weight coefficient calculation unit 15.

この非線形算出方法においても、重み係数算出部15においては、この実施形態では、まず、更新された期間辞書データTDi,nのうちの最古の辞書データ生成用情報の撮像時刻Ti,n,1を基準にするために、更新された期間辞書データTDi,nのそれぞれの辞書データ生成用情報の撮像時刻Ti,n,k(k=1,2,・・・,New)と、最古の撮像時刻Ti,n,1との時間差ΔTi(1_n)を算出する。   Also in this nonlinear calculation method, in this embodiment, the weighting factor calculation unit 15 first captures the imaging time Ti, n, 1 of the oldest dictionary data generation information among the updated period dictionary data TDi, n. Is based on the imaging time Ti, n, k (k = 1, 2,..., New) of the dictionary data generation information of the updated period dictionary data TDi, n and the oldest A time difference ΔTi (1_n) from the imaging time Ti, n, 1 is calculated.

そして、重み係数算出部15は、重み係数Wi,n,kを、図28に示すように、算出された時間差ΔTi(1_k)が大きいほど、非線形的に大きくなるように、次の(式2)により算出する。   Then, as shown in FIG. 28, the weighting factor calculation unit 15 sets the weighting factors Wi, n, and k so as to increase nonlinearly as the calculated time difference ΔTi (1_k) increases. ).

すなわち、
時間差ΔTi(1_k)<ΔTθのとき、
Wi,n,k=f(ΔTi(1_k))+q
時間差ΔTi(1_k)≧ΔTθのとき、
Wi,n,k=r
・・・(式2)
により、各特徴ベクトルVi,n,kについての重み係数Wi,n,kを算出する。
That is,
When the time difference ΔTi (1_k) <ΔTθ,
Wi, n, k = f (ΔTi (1_k)) + q
When the time difference ΔTi (1_k) ≧ ΔTθ,
Wi, n, k = r
... (Formula 2)
Thus, the weighting coefficient Wi, n, k for each feature vector Vi, n, k is calculated.

(式2)におけるf(ΔTi(1_k))は、時間差ΔTi(1_k)を変数とする非線形関数であり、種々様々の非線形変化パターンの曲線関数を用いることができる。図28の例では、過去の顔画像の特徴ベクトルの重み係数を小さくして、顔識別用辞書データに対するその影響を抑え、最近の顔画像の特徴ベクトルほど重み係数を大きくして、顔識別用辞書データに対するその影響を強くするようにしてする曲線関数を用いている。   F (ΔTi (1_k)) in (Expression 2) is a non-linear function with the time difference ΔTi (1_k) as a variable, and a variety of non-linear change pattern curve functions can be used. In the example of FIG. 28, the weight coefficient of the feature vector of the past face image is reduced to suppress its influence on the face identification dictionary data, and the weight coefficient is increased as the feature vector of the recent face image is increased. A curve function is used to increase its influence on dictionary data.

そして、図28および(式2)から分かるように、この実施形態の非線形算出方法においては、最新の撮像時刻Ti,n,Newに対応する時間差ΔT(i_New)から所定の閾値時間差ΔTθ分だけ小さい時間差区間PTを優先区間として、この優先区間PT内に含まれる時間差ΔT(1_k)に対する重み係数Wi,n,kは最大値rに設定する。つまり、最近の顔画像の特徴ベクトルは最大重み係数として、顔識別辞書データに対する影響をより強くするようにする。   As can be seen from FIG. 28 and (Equation 2), in the nonlinear calculation method of this embodiment, the time difference ΔT (i_New) corresponding to the latest imaging time Ti, n, New is smaller by a predetermined threshold time difference ΔTθ. With the time difference interval PT as the priority interval, the weighting factors Wi, n, k for the time difference ΔT (1_k) included in the priority interval PT are set to the maximum value r. In other words, the feature vector of the recent face image is used as the maximum weight coefficient so that the influence on the face identification dictionary data is further increased.

そして、この実施形態では、閾値時間差ΔTθは、ユーザが調整設定することが可能とされている。すなわち、この実施形態では、図26に示した重み係数設定方法の選択設定画面において、2番目の「撮像順に非線形的に設定」がユーザにより選択されている場合において、個人特定情報が特定されて、対応する期間辞書データTDi,nの更新を行なうとCPU1が決定したとき、当該CPU1の制御にしたがって表示情報生成部13は、図12に示す「優先区間PT調整」の画面を生成してディスプレイ9に表示する。   In this embodiment, the user can adjust and set the threshold time difference ΔTθ. That is, in this embodiment, when the second “non-linear setting in imaging order” is selected by the user on the selection setting screen of the weighting factor setting method shown in FIG. When the CPU 1 determines that the corresponding period dictionary data TDi, n is to be updated, the display information generation unit 13 generates and displays the “priority section PT adjustment” screen shown in FIG. 12 according to the control of the CPU 1. 9 is displayed.

この「優先区間PT調整」の画面には、図29に示すように、更新対象となっている期間辞書データTDi,nとして記憶されている更新後の辞書データ生成用情報DPIi,n,kのそれぞれに含まれる撮像時刻の配列を、撮像時刻配列欄33に表示すると共に、その撮像時刻配列に対応して調整することが可能なように、優先区間PT調整欄34が設けられている。   In this “priority section PT adjustment” screen, as shown in FIG. 29, updated dictionary data generation information DPIi, n, k stored as period dictionary data TDi, n to be updated is displayed. A priority section PT adjustment column 34 is provided so that the arrangement of the imaging times included in each is displayed in the imaging time sequence column 33 and can be adjusted in accordance with the imaging time sequence.

撮像時刻配列欄33は、横方向を時間方向としており、それぞれ撮像時刻を縦線33aで示している。また、優先区間PT調整欄34は、前述した最古撮像時刻Ti,n,1との時間差ΔT(1_k)を、撮像時刻配列欄33に対応して横方向を時間差方向として横バー表示したものである。そして、優先区間PT調整欄34においては、ユーザは、調整点マーク35の位置を、横方向(時間差方向)に移動させることにより、優先区間PT、したがって、閾値時間差ΔTθを設定することができるようにされている。   In the imaging time array column 33, the horizontal direction is the time direction, and the imaging times are indicated by vertical lines 33a. Further, the priority section PT adjustment column 34 displays the time difference ΔT (1_k) from the above-mentioned oldest imaging time Ti, n, 1 as a horizontal bar corresponding to the imaging time array column 33 with the horizontal direction as the time difference direction. It is. In the priority section PT adjustment column 34, the user can set the priority section PT and therefore the threshold time difference ΔTθ by moving the position of the adjustment point mark 35 in the horizontal direction (time difference direction). Has been.

なお、優先区間PTはゼロとして、設けなくても勿論良い。   Of course, the priority section PT may be zero and not necessarily provided.

なお、この非線形算出方法においても、上述した線形算出方法と同様に、更新された期間辞書データTDi,nのうちの最古の辞書データ生成用情報の撮像時刻Ti,n,1を基準にする代わりに、最新の撮像時刻Ti,n,Newを基準として時間差を算出するようにしてもよい。   In this non-linear calculation method, similarly to the above-described linear calculation method, the imaging time Ti, n, 1 of the oldest dictionary data generation information in the updated period dictionary data TDi, n is used as a reference. Instead, the time difference may be calculated based on the latest imaging time Ti, n, New.

その場合には、重み係数の設定特性曲線は、最新の時間差と最古の時間差との中心の時間差の位置を対称軸線位置として、図28に示した特性曲線を、最新の時間差と最古の時間差との位置が反転するように、線対称に反転したものと等しいものとなる。   In this case, the weighting factor setting characteristic curve is obtained by using the center time difference position between the latest time difference and the oldest time difference as the symmetrical axis position, and the characteristic curve shown in FIG. It is the same as that reversed in line symmetry so that the position with respect to the time difference is reversed.

また、上述の説明では、優先区間PTの設定は、個人特定情報が特定されて重み係数の算出がなされる前に行なうようにしたが、図26に示した重み係数設定方法の選択設定画面において、2番目の「撮像順に非線形的に設定」がユーザにより選択されたときに、当該優先区間PTの大きさをユーザが設定するようにすることができるようにしてもよい。その場合には、ユーザは、重み係数を更新するたびに、優先区間PTの再設定をする必要はない。   In the above description, the priority section PT is set before the personal identification information is specified and the weighting coefficient is calculated. In the weighting coefficient setting method selection setting screen shown in FIG. When the second “non-linear setting in imaging order” is selected by the user, the size of the priority section PT may be set by the user. In this case, the user does not need to reset the priority section PT every time the weighting factor is updated.

なお、上述した第1の例の線形算出方法においても、時間差ΔT(1_k)が、所定の大きさの時間差ΔTθ以上となったときに、対応する重み係数Wi,n,kの値を最大値であるrとする優先区間PTを設けるようにしてもよい。   In the linear calculation method of the first example described above, when the time difference ΔT (1_k) is equal to or larger than the predetermined time difference ΔTθ, the value of the corresponding weight coefficient Wi, n, k is set to the maximum value. A priority section PT that is r may be provided.

[第3の例;撮像間隔に応じて重み係数を設定(区間)]
通常、撮像間隔が近い(撮像時刻が近い)場合には、それらの撮像時刻で取り込まれた個人の顔の変化はあまりなく、それらの特徴ベクトルはほぼ変化がないと考えられる。一方、撮像間隔が離れている場合には、個人の顔が変化している可能性があり、それらの特徴ベクトルの変化があると考えられる。
[Third example: Weighting coefficient is set according to imaging interval (section)]
Normally, when the imaging interval is close (the imaging time is close), there is not much change in the individual face captured at those imaging times, and it is considered that their feature vectors are almost unchanged. On the other hand, when the imaging interval is far away, there is a possibility that the individual's face has changed, and it is considered that there is a change in their feature vectors.

この第3の例においては、このことにかんがみ、撮像間隔を元に重み係数を設定するもので、撮像間隔が短い場合には、1つの顔画像による顔識別用辞書データへの影響を低くするため重み係数は小さい値に設定し、撮像間隔が長い場合には、1つの顔画像による顔識別用辞書データへの影響を高くするために重み係数は大きい値に設定する。   In this third example, in view of this, the weighting factor is set based on the imaging interval. When the imaging interval is short, the influence of one face image on the face identification dictionary data is reduced. Therefore, the weighting coefficient is set to a small value, and when the imaging interval is long, the weighting coefficient is set to a large value in order to increase the influence of one face image on the face identification dictionary data.

撮像間隔が短いか長いかを判定する方法としては、種々考えられるが、この第3の例の場合の重み係数算出方法においては、最古および最新の撮像時刻を含む期間を複数の区間に分割し、各分割区間における顔画像データの取り込み回数(撮像時刻の取り込み回数)を算出し、取り込み回数が少なければ撮像間隔が長いと判定し、取り込み間隔が多ければ撮像間隔が短いと判定し、その判定結果に応じて、各分割区間に含まれる撮像時刻に対応する重み係数を設定する。   There are various methods for determining whether the imaging interval is short or long, but in the weight coefficient calculation method in the case of the third example, the period including the oldest and latest imaging time is divided into a plurality of sections. Then, the number of times of capturing face image data (number of times of capturing image capturing time) in each divided section is calculated. If the capturing number is small, it is determined that the capturing interval is long, and if the capturing interval is large, it is determined that the capturing interval is short. A weighting factor corresponding to the imaging time included in each divided section is set according to the determination result.

この第3の例が採用される場合にも、新たに取り込まれた顔画像による識別に基づいて特定された個人特定情報に対応して記憶されている期間辞書データTDi,nの特徴データについての重み係数は、最新の辞書データ生成用情報DPIi,n,New(K個の辞書データ生成用情報が記憶されているときには、DPIi,n,New=DPIi,n,K)の重み係数Wi,n,Newのみではなく、過去に取り込まれて保存されている辞書データ生成用情報DPIi,n,k(k=1,2,・・・)の重み係数Wi,n,kのすべてが、再計算されて更新される。   Even when this third example is adopted, the feature data of the period dictionary data TDi, n stored corresponding to the personal identification information specified based on the identification by the newly captured face image The weighting factor is the weighting factor Wi, n of the latest dictionary data generation information DPIi, n, New (when K dictionary data generation information is stored, DPIi, n, New = DPIi, n, K). , New, and all of the weighting factors Wi, n, k of dictionary data generation information DPIi, n, k (k = 1, 2,...) Captured and stored in the past are recalculated. Has been updated.

したがって、この第3の算出方法が採用される場合にも、辞書データ更新処理部14は、更新されたすべての辞書データ生成用情報の撮像時刻の情報を、重み係数算出部15に渡す。重み係数算出部15は、それらの撮像時刻の情報を用いて、それぞれ対応する重み係数を算出するようにする。   Therefore, also when this third calculation method is adopted, the dictionary data update processing unit 14 passes the information on the imaging time of all the updated dictionary data generation information to the weight coefficient calculation unit 15. The weighting factor calculation unit 15 calculates the corresponding weighting factor using the information on the imaging time.

図30は、この第3の例の場合の重み係数算出方法を説明するための図である。図30(A)は、横方向に時間を取ったときの撮像時刻の分布を示す図で、丸印のそれぞれが撮像時刻を示している。また、図30(B)は、分割区間毎の重み係数の例を示している。   FIG. 30 is a diagram for explaining a weighting factor calculation method in the case of the third example. FIG. 30A is a diagram illustrating a distribution of imaging times when time is taken in the horizontal direction, and each of the circles indicates the imaging time. FIG. 30B shows an example of the weighting coefficient for each divided section.

すなわち、この第3の例においては、更新後の辞書データ生成用情報の最古の撮像時刻Ti,n,1を基準として、予め定められた所定時間長t毎に、分割区間を設定する。図30(B)に示し例では、4つの分割区間DV1,DV2,DV3,DV4が設定される。   That is, in the third example, the divided section is set for each predetermined time length t with the oldest imaging time Ti, n, 1 of the updated dictionary data generation information as a reference. In the example shown in FIG. 30B, four divided sections DV1, DV2, DV3, DV4 are set.

次に、各分割区間DV1,DV2,DV3,DV4に含まれる撮像時刻の数を計数する。そして、その計数結果の値が小さいほど大きい重み係数となるように、各分割区間DV1,DV2,DV3,DV4についての重み係数を決定する。   Next, the number of imaging times included in each divided section DV1, DV2, DV3, DV4 is counted. Then, the weighting coefficient for each of the divided sections DV1, DV2, DV3, DV4 is determined so that the smaller the count result value is, the larger the weighting coefficient is.

この場合に、各分割区間DV1,DV2,DV3,DV4に含まれる撮像時刻の数に対応する重み係数の決定に当たっては、撮像時刻の数に線形的に重み係数を割り当てる方法、撮像時刻の数に非線形に重み係数を割り当てる方法など、種々の方法を用いることができる。   In this case, in determining the weighting factor corresponding to the number of imaging times included in each of the divided sections DV1, DV2, DV3, DV4, a method of linearly assigning weighting factors to the number of imaging times, the number of imaging times Various methods such as a method of assigning weight coefficients in a non-linear manner can be used.

そして、各辞書データ生成用情報DPIi,n,kの撮像時刻Ti,n,kが、いずれの分割区間に含まれるかを判定し、その判定結果の分割区間に設定されている重み係数を、当該撮像時刻Ti,n,kに対応する重み係数Wi,n,kとして算出する。   Then, it is determined in which divided section the imaging time Ti, n, k of each dictionary data generation information DPIi, n, k is included, and the weighting factor set in the divided section of the determination result is The weighting factors Wi, n, k corresponding to the imaging times Ti, n, k are calculated.

なお、予め定められた所定時間長tは、固定的に定めても良いが、前述した優先区間PTの調整設定と同様にして、ユーザが調整設定することができるようにしてもよい。   Note that the predetermined predetermined time length t may be fixedly set, but may be adjusted and set by the user in the same manner as the adjustment setting of the priority section PT described above.

また、上述の例のように、最古の撮像時刻を基準にして、一定の区間長毎に分割区間を区切るのではなく、最古の撮像時刻から最新の撮像時刻までの時間区間を、所定数に分割するようにして分割区間を設定するようにしても良い。そのように分割区間を設定する場合に、最古の撮像時刻よりもマージン時間だけ前の時刻から、最新の撮像時刻よりもマージン時間だけ後の時刻までの区間を、所定数に分割するようにしてもよい。   Further, as in the above-described example, the time interval from the oldest imaging time to the latest imaging time is not a predetermined interval for each predetermined section length with reference to the oldest imaging time. Dividing sections may be set so as to be divided into numbers. When setting such a divided section, the section from the time before the oldest imaging time by the margin time to the time after the latest imaging time by the margin time is divided into a predetermined number. May be.

[第4の例;撮像間隔に応じて重み係数を設定(前画像との時間差)]
この第4の例の重み係数算出方法は、前述の第3の例と同様に撮像間隔に応じて重み係数を算出する方法であって、撮像間隔が短いか長いかを判定する方法として、最新の撮像時刻Ti,n,Newとその一つ前の撮像時刻との時間差を用いるものである。
[Fourth Example: Setting a weighting factor according to the imaging interval (time difference from the previous image)]
The weighting factor calculation method of the fourth example is a method of calculating a weighting factor according to the imaging interval as in the third example, and is the latest method for determining whether the imaging interval is short or long. The time difference between the imaging time Ti, n, New and the previous imaging time is used.

すなわち、この第4の例の重み係数算出方法が採用されている場合においては、新たに取り込まれた顔画像による識別に基づいて特定された個人特定情報に対応して記憶されている期間辞書データTDi,nが、上述したように更新されたら、辞書データ更新処理部14は、新たに取り込まれた顔画像についての最新の撮像時刻と、その一つ前の撮像時刻とを重み係数算出部15に渡す。   That is, in the case where the weighting factor calculation method of the fourth example is adopted, the period dictionary data stored corresponding to the personal identification information specified based on the identification by the newly captured face image When TDi, n is updated as described above, the dictionary data update processing unit 14 uses the latest imaging time for the newly captured face image and the previous imaging time as the weighting coefficient calculation unit 15. To pass.

重み係数算出部15は、受け取った2つの撮像時刻の情報から、最新の撮像時刻Ti,n,Newと、その一つ前の撮像時刻との時間差ΔT((New−1)_New)を算出する。そして、算出した時間差ΔT((New−1)_New)に対応する重み係数Wi,n,Newを算出する。   The weighting factor calculation unit 15 calculates a time difference ΔT ((New-1) _New) between the latest imaging time Ti, n, New and the previous imaging time from the information of the two received imaging times. . Then, a weight coefficient Wi, n, New corresponding to the calculated time difference ΔT ((New-1) _New) is calculated.

この第4の例の重み係数算出方法の場合には、最新の撮像時刻Ti,n,Newに対応する重み係数Wi,n,Newのみを算出すればよく、その他の過去の撮像時刻に対応する重み係数は、辞書データ生成用情報として記憶されている重み係数をそのまま用いることができ、それらの更新をする必要はない。   In the case of the weighting factor calculation method of the fourth example, only the weighting factors Wi, n, New corresponding to the latest imaging times Ti, n, New need be calculated, and other past imaging times are supported. As the weighting factor, the weighting factor stored as the dictionary data generation information can be used as it is, and it is not necessary to update them.

この第4の例において、算出した時間差ΔT((New−1)_New)に対応する重み係数Wi,n,Newの算出方法としては、線形的に求める方法、非線形的に求める方法のいずれも用いることができる。   In the fourth example, as a calculation method of the weighting factors Wi, n, New corresponding to the calculated time difference ΔT ((New-1) _New), either a linear calculation method or a non-linear calculation method is used. be able to.

図31に、この第4の例において、算出した時間差ΔT((New−1)_New)に対応する重み係数Wi,n,Newの算出方法としては、線形的に求める方法を採用した場合の例を示す。   FIG. 31 shows an example in which, in the fourth example, as a method for calculating the weighting factors Wi, n, New corresponding to the calculated time difference ΔT ((New-1) _New), a linearly determining method is employed. Indicates.

すなわち、この図31に示す例においては、重み係数算出部15は、
時間差ΔT((New−1)_New)<MAX_INTのときには、
Wi,n,k=p×ΔTi(1_k)+q
時間差ΔT((New−1)_New)≧MAX_INTのときには、
Wi,n,k=r
・・・(式3)
により、新たに取り込んだ顔画像の特徴ベクトルについての重み係数Wi,n,New(期間辞書データTDi,nとして、K個以上の辞書データ生成用情報が格納されている場合には、Wi,n,New=Wi,n,K)を算出する。
In other words, in the example shown in FIG.
When the time difference ΔT ((New-1) _New) <MAX_INT,
Wi, n, k = p × ΔTi (1_k) + q
When the time difference ΔT ((New-1) _New) ≧ MAX_INT,
Wi, n, k = r
... (Formula 3)
Thus, the weight coefficients Wi, n, New for the feature vector of the newly captured face image (when K or more pieces of dictionary data generation information are stored as the period dictionary data TDi, n, Wi, n , New = Wi, n, K).

ここで、閾値MAX_INTは、前に取り込んだ顔画像と新たに取り込んだ顔画像との間に変化があると考えられるような、比較的長い時間間隔に相当するものであり、この閾値MAX_INTよりも、算出した時間差ΔT((New−1)_New)が大きければ、その重み係数を最大にして、顔識別用辞書データに強い影響を与えるようにするものである。この例では閾値MAX_INTは、例えば24時間とする。   Here, the threshold value MAX_INT corresponds to a relatively long time interval in which it is considered that there is a change between the previously captured face image and the newly captured face image, and is greater than this threshold value MAX_INT. If the calculated time difference ΔT ((New-1) _New) is large, the weighting coefficient is maximized so as to strongly influence the face identification dictionary data. In this example, the threshold value MAX_INT is, for example, 24 hours.

[顔識別用辞書データFRDi,nの更新]
以上のようにして、重み係数算出部15において、更新された辞書データ生成用情報DPIi,n,kについての重み係数Wi,n,kの更新が終了すると、辞書データ更新処理部14は、その算出した重み係数Wi,n,kを、顔識別用辞書データベース10の個人特定情報に対応する期間辞書データTDi,nの各辞書データ生成用情報DPIi,n,kの更新された重み係数Wi,n,kとして保存すると共に、辞書データ生成・更新部16に渡し、顔識別用辞書データFRDi,nの生成または更新を実行させるようにする。
[Updating face identification dictionary data FRDi, n]
As described above, when the weight coefficient calculation unit 15 finishes updating the weight coefficient Wi, n, k for the updated dictionary data generation information DPIi, n, k, the dictionary data update processing unit 14 The calculated weighting factors Wi, n, k are used as the updated weighting factors Wi, n for each dictionary data generation information DPIi, n, k of the period dictionary data TDi, n corresponding to the personal identification information of the face identification dictionary database 10. The data is stored as n, k and is also transferred to the dictionary data generation / update unit 16 to generate or update face identification dictionary data FRDi, n.

辞書データ生成・更新部16は、特定された個人特定情報に対応する期間辞書データTDi,nの顔識別用辞書データFRDi,nの更新を、図32の(式4)に示す算出式により実行する。すなわち、辞書データ生成・更新部16は、最大K個の辞書データ生成用情報DPIi,1〜DPIi,Kのそれぞれに含まれる特徴ベクトルVi,n,kと、対応する重み係数Wi,n,kとを掛け算した結果の総和を、K個の重み係数Wi,n,kの総和で除算したものとして、更新した顔識別用辞書データFRDi,nを得るようにする。   The dictionary data generating / updating unit 16 updates the face identification dictionary data FRDi, n of the period dictionary data TDi, n corresponding to the specified individual specifying information by the calculation formula shown in (Formula 4) of FIG. To do. That is, the dictionary data generating / updating unit 16 includes the feature vectors Vi, n, k included in each of the maximum K pieces of dictionary data generating information DPIi, 1 to DPIi, K and the corresponding weight coefficients Wi, n, k. As a result of dividing the sum total obtained by multiplying by the sum of K weighting factors Wi, n, k, updated face identification dictionary data FRDi, n is obtained.

この顔識別用辞書データFRDi,n(特徴ベクトルに対応)は、従来は、図32の(式5)に示すように、N個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Kに含まれる特徴ベクトルの総和を、個数Kで除算した単純平均により求めていたものに比べて、N個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Nの重み係数Wi,n,kを用いた値となり、顔識別用辞書データFRDi,nの精度が向上する。   Conventionally, the face identification dictionary data FRDi, n (corresponding to the feature vector) is stored in N pieces of dictionary data generation information DPIi, n, 1 to DPIi, n, as shown in (Equation 5) of FIG. Compared to a value obtained by a simple average obtained by dividing the total sum of feature vectors included in K by the number K, N dictionary data generation information DPIi, n, 1 to DPIi, n, N weighting factors Wi, n and k are used, and the accuracy of the face identification dictionary data FRDi, n is improved.

そして、この実施形態においては、有限個であるK個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Kとして、常に、最新のものが顔識別用辞書データベース10に残るようにしているので、顔識別用辞書データFRDi,nは、より高精度のものに更新されることとなる。   In this embodiment, the latest dictionary data generation information DPIi, n, 1 to DPIi, n, K, which is a finite number, always remains in the face identification dictionary database 10. Therefore, the face identification dictionary data FRDi, n is updated with higher accuracy.

なお、顔識別用辞書データベース10に、期間辞書データTDi,nとして辞書データ生成用情報DPIi,n,kが、K個以下しか存在しないときには、辞書データ更新処理部14は、新たに取り込んだ顔画像についての特徴ベクトル、取得時刻情報、重み係数Wnewを、最新の辞書データ生成用情報DPIi,n,kとして顔識別用辞書データベース10に追加格納して更新し、顔識別用辞書データFRDi,nの生成または更新処理を実行する。   When the face identification dictionary database 10 has no more than K pieces of dictionary data generation information DPIi, n, k as the period dictionary data TDi, n, the dictionary data update processing unit 14 newly captures the face The feature vector, the acquisition time information, and the weighting coefficient Wnew about the image are additionally stored and updated in the face identification dictionary database 10 as the latest dictionary data generation information DPIi, n, k, and the face identification dictionary data FRDi, n Execute the generation or update process.

その場合における顔識別用辞書データFRDi,nの生成の際には、辞書データ生成・更新部16は、前記(式4)におけるKの代わりに、顔識別用辞書データベース10に当該期間辞書データTDi,nとして格納されている辞書データ生成用情報DPIi,n,kの個数を用いて、顔識別用辞書データFRDi,nの生成または更新処理を実行する。   In generating the face identification dictionary data FRDi, n in that case, the dictionary data generating / updating unit 16 stores the period dictionary data TDi in the face identification dictionary database 10 instead of K in (Equation 4). , N is used to generate or update face identification dictionary data FRDi, n, using the number of dictionary data generation information DPIi, n, k stored as n.

そして、顔識別用辞書データベース10に、期間辞書データTDi,nとして辞書データ生成用情報DPIi,n,kが、K個格納されたときから、辞書データ更新処理部14は、上述したように、最古の辞書データ生成用情報を廃棄すると共に、新たに取り込んだ顔画像の特徴データ、撮像時刻情報、重み係数の情報からなるデータを、最新の辞書データ生成用情報として記憶するようにすることで、期間辞書データTDi,nを構成する辞書データ生成用情報DPIi,n,kを更新し、当該更新された辞書データ生成用情報DPIi,n,kのそれぞれの重み係数Wi,n,kを用いた顔識別用辞書データFRDi,nの更新をするようにする。   Then, when K pieces of dictionary data generation information DPIi, n, k are stored as the period dictionary data TDi, n in the face identification dictionary database 10, the dictionary data update processing unit 14 performs the processing as described above. Discard the oldest dictionary data generation information and store the newly captured data of face image feature data, imaging time information, and weight coefficient information as the latest dictionary data generation information Then, the dictionary data generation information DPIi, n, k constituting the period dictionary data TDi, n is updated, and the respective weight coefficients Wi, n, k of the updated dictionary data generation information DPIi, n, k are set. The used face identification dictionary data FRDi, n is updated.

なお、以上説明した図23のブロック構成において、顔識別用画像処理部11、顔識別処理部12、表示情報生成部13、重み係数算出部15および辞書データ生成・更新部16を含む辞書データ更新処理部14の各部は、ハードウエアの構成としてもよいし、CPU1が、ROM3に格納されたソフトウエアプログラムに基づいて、RAM4をワークエリアとして用いてソフトウエア処理を実行するソフトウエア機能部として構成しても良い。   In the block configuration of FIG. 23 described above, the dictionary data update includes the face identification image processing unit 11, the face identification processing unit 12, the display information generation unit 13, the weight coefficient calculation unit 15, and the dictionary data generation / update unit 16. Each unit of the processing unit 14 may have a hardware configuration, or the CPU 1 may be configured as a software function unit that executes software processing using the RAM 4 as a work area based on a software program stored in the ROM 3. You may do it.

また、上述の構成では、辞書データ生成用情報DPIi,n,kとしては、特徴ベクトルと、時刻情報と、総合スコアと、重み係数を少なくとも含むものとしたが、重み係数は、保存せずに、顔識別用辞書データFRDi,nの更新時に、取り込んだ最新の撮像時刻と、保存した過去の撮像時刻から算出するようにしてもよい。ただし、第4の例の重み係数算出方法を採用する場合には、過去に算出された重み係数は更新されないので、重み係数をも保存しておいた方がよい。   In the above configuration, the dictionary data generation information DPIi, n, k includes at least a feature vector, time information, a total score, and a weighting factor. However, the weighting factor is not stored. When the face identification dictionary data FRDi, n is updated, it may be calculated from the latest captured imaging time and the stored past imaging time. However, when the weighting factor calculation method of the fourth example is adopted, since the weighting factor calculated in the past is not updated, it is better to save the weighting factor.

また、特徴ベクトルの代わりに、取り込んだ顔画像の情報を保存しておき、その保存した顔画像の情報から特徴ベクトルを抽出し直すようにしてもよい。その場合に、辞書データ生成用情報DPIi,n,kには、少なくとも顔画像の情報と、撮像時刻の情報とを含むようにすれば良い。   Further, instead of the feature vector, the captured face image information may be stored, and the feature vector may be extracted again from the stored face image information. In this case, the dictionary data generation information DPIi, n, k may include at least face image information and imaging time information.

[第2の実施形態の個人識別装置における処理動作]
次に、上述の構成の第2の実施形態の個人識別装置における顔識別用辞書データベースの更新処理動作および重み係数算出動作について説明する。
[Processing in the personal identification device of the second embodiment]
Next, the update processing operation and the weighting factor calculation operation of the face identification dictionary database in the personal identification device of the second embodiment having the above-described configuration will be described.

[顔識別用辞書データベースの更新処理]
図33は、この第2の実施形態における顔識別用辞書データベース10の個人辞書データDi中の期間辞書データTDi,nの更新処理の一例のフローチャートである。この図33の各処理ステップは、この実施形態では、重み係数算出部15と、辞書データ生成・更新部16とを備える辞書データ更新処理部14が、CPU1の制御にしたがって実行するものである。なお、CPU1が、ROM3に格納されたソフトウエアプログラムに基づいてRAM4をワークエリアとして用いて、上記各部の処理をソフトウエア処理として実行するように構成して、上記各部を省略しても良いことは、前述した通りである。
[Update processing of face identification dictionary database]
FIG. 33 is a flowchart of an example of a process for updating the period dictionary data TDi, n in the personal dictionary data Di of the face identification dictionary database 10 according to the second embodiment. In this embodiment, each processing step in FIG. 33 is executed by the dictionary data update processing unit 14 including the weight coefficient calculation unit 15 and the dictionary data generation / update unit 16 according to the control of the CPU 1. The CPU 1 may be configured to execute the process of each unit as a software process by using the RAM 4 as a work area based on a software program stored in the ROM 3, and the above units may be omitted. Is as described above.

なお、以下の説明は、簡単のため、期間辞書データTDi,nの辞書データ生成用情報DPIi,n,kは、K個が格納された後における処理とした場合である。   In the following description, for the sake of simplicity, the dictionary data generation information DPIi, n, k of the period dictionary data TDi, n is a process after K pieces are stored.

まず、辞書データ更新処理部14は、特定された個人特定情報に対応する期間辞書データTDi,nの辞書データ生成用情報DPIi,n,kのすべてを読み出し、その最古の撮像時刻の情報DPIi,n,1を廃棄して、辞書データ生成用情報DPIi,n,kの配列を、一つずつ撮像時刻が古い方に順次ずらす。そして、新規に取り込んだ特徴ベクトル、撮像時刻の情報を、最新の情報DPIi,n,Kとして、顔識別用辞書データベース10に再格納する(ステップS201)。   First, the dictionary data update processing unit 14 reads all the dictionary data generation information DPIi, n, k of the period dictionary data TDi, n corresponding to the specified individual specifying information, and information DPIi of the oldest imaging time. , N, 1 are discarded, and the arrangement of the dictionary data generation information DPIi, n, k is sequentially shifted to the one with the earlier imaging time one by one. Then, the newly acquired feature vector and imaging time information are stored again in the face identification dictionary database 10 as the latest information DPIi, n, K (step S201).

次に、辞書データ更新処理部14は、顔識別用辞書データベース10の重み係数パラメータ設定情報STを読み出して、それを重み係数算出部15に渡し、いずれの重み係数算出方法が採用されているかを重み係数算出部15に知らせる(ステップS202)。   Next, the dictionary data update processing unit 14 reads the weighting factor parameter setting information ST in the face identification dictionary database 10 and passes it to the weighting factor calculation unit 15 to determine which weighting factor calculation method is employed. The weighting coefficient calculation unit 15 is notified (step S202).

この重み係数パラメータ設定情報STを受けた重み係数算出部15は、まず、ユーザに選択された重み係数算出方法が、前述した第4の例である「撮像間隔に応じて重み係数設定(前画像との時間差)」であるか否か判別する(ステップS203)。   Upon receiving this weighting factor parameter setting information ST, the weighting factor calculation unit 15 first sets the weighting factor calculation method selected by the user to “weighting factor setting (previous image according to imaging interval)” in the above-described fourth example. It is determined whether or not the time difference between the two (step S203).

このステップS203で、ユーザにより選択された重み係数算出方法が、前述の第4の例ではないと判別したときには、重み係数算出部15は、更新された期間辞書データTDi,nの辞書データ生成用情報DPIi,n,kのすべての撮像時刻情報Ti,n,k(k=1〜K)を取得して、すべての重み係数Wi,n,k(k=1〜K)を再計算して更新する(ステップS204)。   When it is determined in step S203 that the weighting factor calculation method selected by the user is not the above-described fourth example, the weighting factor calculation unit 15 generates the dictionary data for the updated period dictionary data TDi, n. All the imaging time information Ti, n, k (k = 1 to K) of the information DPIi, n, k is acquired, and all the weighting factors Wi, n, k (k = 1 to K) are recalculated. Update (step S204).

そして、このステップS204の次においては、辞書データ生成・更新部16が、ステップS204で生成された重み係数Wi,n,k(k=1〜K)を取得し、当該取得した重み係数Wi,n,k(k=1〜K)により、対応する特徴ベクトルVi,n,kのそれぞれを重み付けし、そして、前述した図32の(式4)を用いて、顔識別用辞書データFRDi,nを生成または更新し、当該生成または更新した顔識別用辞書データFRDi,nを、顔識別用辞書データベース10に、前記個人特定情報に対応した顔識別用辞書データFRDi,nとして書き戻すようにする(ステップS206)。   After step S204, the dictionary data generation / update unit 16 acquires the weighting factors Wi, n, k (k = 1 to K) generated in step S204, and the acquired weighting factors Wi, Each of the corresponding feature vectors Vi, n, k is weighted by n, k (k = 1 to K), and the face identification dictionary data FRDi, n is obtained by using (Equation 4) of FIG. 32 described above. Is generated or updated, and the generated or updated face identification dictionary data FRDi, n is written back to the face identification dictionary database 10 as face identification dictionary data FRDi, n corresponding to the personal identification information. (Step S206).

また、ステップS203で、ユーザにより選択された重み係数算出方法が、前述の第4の例であると判別したときには、重み係数算出部15は、更新された個人辞書データDiの辞書データ生成用情報DPIi,n,kのうちの、最新の撮像時刻情報Ti,n,Kと、その一つ前の撮像時刻情報Ti,n,(K―1)とを取得して、最新の特徴ベクトルVi,n,Kについての重み係数Wi,n,Kを算出する(ステップS205)。   When it is determined in step S203 that the weighting factor calculation method selected by the user is the fourth example described above, the weighting factor calculation unit 15 uses the dictionary data generation information for the updated personal dictionary data Di. Of the DPIi, n, k, the latest imaging time information Ti, n, K and the previous imaging time information Ti, n, (K-1) are acquired, and the latest feature vector Vi, The weighting factors Wi, n and K for n and K are calculated (step S205).

このステップS205の次においては、辞書データ生成・更新部16が、ステップS204で生成された重み係数Wi,n,Kを取得すると共に、過去のすべての辞書データ生成用情報の重み係数Wi,n,k(k=1〜(K―1))を取得して、それらを用いて対応する特徴ベクトルVi,n,kのそれぞれを重み付けし、そして、前述した図32の(式4)を用いて、顔識別用辞書データFRDi,nを生成または更新し、当該生成または更新した顔識別用辞書データFRDi,nを、顔識別用辞書データベース10に、前記個人特定情報に対応した顔識別用辞書データFRDi,nとして書き戻すようにする(ステップS206)。   Following this step S205, the dictionary data generating / updating unit 16 acquires the weighting factors Wi, n, K generated in step S204, and the weighting factors Wi, n of all past dictionary data generation information. , K (k = 1 to (K−1)) are used to weight each of the corresponding feature vectors Vi, n, k, and using (Equation 4) of FIG. 32 described above. The face identification dictionary data FRDi, n is generated or updated, and the generated or updated face identification dictionary data FRDi, n is stored in the face identification dictionary database 10 in the face identification dictionary corresponding to the personal identification information. Data is written back as FRDi, n (step S206).

なお、期間辞書データTDi,nの新規登録の際には、重み係数を算出し、それを、辞書データ生成用情報DPIi,n,kの一部として記憶する点が異なるのみで、第1の実施形態の場合と同様であるので、その詳細な説明は省略する。   Note that when the period dictionary data TDi, n is newly registered, the weight coefficient is calculated and stored as a part of the dictionary data generation information DPIi, n, k. Since it is the same as that of the embodiment, its detailed description is omitted.

[重み係数の再計算]
次に、図33のステップS204およびステップS205として示した重み係数の算出処理について、図34およびその続きである図35を参照して説明する。なお、図33では、すべての特徴ベクトルについての重み係数を再計算するか、新規の撮像時刻に取り込んだ特徴ベクトルについてのみについての重み係数を算出するかという観点から、処理手順を記述したが、図34および図35では、重み係数パラメータ設定情報STが何であるかを、順次に判定して処理を実行するようにした場合としての例を示すものである。
[Recalculation of weighting factors]
Next, the weighting factor calculation process shown as step S204 and step S205 in FIG. 33 will be described with reference to FIG. 34 and FIG. In FIG. 33, the processing procedure is described from the viewpoint of recalculating the weighting factors for all feature vectors or calculating the weighting factors only for the feature vectors captured at the new imaging time. 34 and 35 show an example of the case where the processing is executed by sequentially determining what the weighting coefficient parameter setting information ST is.

なお、以下の説明は、簡単のため、期間辞書データTDi,nの辞書データ生成用情報DPIi,n,kは、K個が格納された後における処理とした場合である。   In the following description, for the sake of simplicity, the dictionary data generation information DPIi, n, k of the period dictionary data TDi, n is a process after K pieces are stored.

すなわち、図34に示すように、重み係数算出部15は、まず、ユーザにより選択された重み係数算出方法が、撮像順にしたがって重み係数を算出する方法であるか否かを判別する(ステップS301)。   That is, as shown in FIG. 34, the weighting factor calculation unit 15 first determines whether or not the weighting factor calculation method selected by the user is a method for calculating the weighting factor according to the imaging order (step S301). .

ステップS301で、撮像順にしたがって重み係数を算出する方法であると判別したときには、重み係数算出部15は、更新された期間辞書データTDi,nの辞書データ生成用情報DPIi,n,kのすべての撮像時刻情報Ti,n,k(k=1〜K)を取得して、最古の撮像時刻Ti,n,1と、それぞれの撮像時刻Ti,n,k(k=1〜K)との時間差ΔTi(1_k)(k=1〜K)を算出する(ステップS302)。   When it is determined in step S301 that the weighting coefficient is calculated in accordance with the imaging order, the weighting coefficient calculating unit 15 determines all the dictionary data generation information DPIi, n, k of the updated period dictionary data TDi, n. The imaging time information Ti, n, k (k = 1 to K) is obtained, and the oldest imaging time Ti, n, 1 and the respective imaging times Ti, n, k (k = 1 to K) are obtained. The time difference ΔTi (1_k) (k = 1 to K) is calculated (step S302).

そして、重み係数算出部15は、撮像順の重み係数設定方法は、線形的に設定する方法であるか否か判別し(ステップS303)、線形的に設定する方法であると判別したときには、線形算出方法として前述したように、前記(式1)により、各特徴ベクトルVi,n,kについての重み係数Wi,n,kを算出し、算出した重み係数Wi,n,kを辞書データ生成・更新部16に渡すようにする(ステップS304)。そして、この処理ルーチンを終了する。   Then, the weighting factor calculation unit 15 determines whether or not the weighting factor setting method in the imaging order is a method of linear setting (step S303), and when determining that the method of linear setting is linear, As described above as the calculation method, the weight coefficient Wi, n, k for each feature vector Vi, n, k is calculated by the above (formula 1), and the calculated weight coefficient Wi, n, k is generated as dictionary data. The data is passed to the update unit 16 (step S304). Then, this processing routine ends.

また、ステップS303で、撮像順の重み係数設定方法は、非線形的に設定する方法であると判別したときには、重み係数算出部15は、非線形算出方法として前述したように、前記(式2)により、各特徴ベクトルVi,n,kについての重み係数Wi,n,kを算出し、算出した重み係数Wi,n,kを辞書データ生成・更新部16に渡すようにする(ステップS305)。そして、この処理ルーチンを終了する。   If it is determined in step S303 that the weighting factor setting method in the imaging order is a nonlinear setting method, the weighting factor calculation unit 15 uses the (Equation 2) as described above as the nonlinear calculation method. The weight coefficients Wi, n, k for the feature vectors Vi, n, k are calculated, and the calculated weight coefficients Wi, n, k are passed to the dictionary data generation / update unit 16 (step S305). Then, this processing routine ends.

また、ステップS301で、ユーザにより選択された重み係数算出方法が、撮像順にしたがって重み係数を算出する方法ではないと判別したときには、重み係数算出部15は、ユーザにより選択された重み係数算出方法は、前述した第4の例の撮像間隔に応じて設定(前画像との差)であるか否か判別する(図35のステップS311)。   When it is determined in step S301 that the weighting factor calculation method selected by the user is not a method for calculating the weighting factor according to the imaging order, the weighting factor calculation unit 15 determines that the weighting factor calculation method selected by the user is Then, it is determined whether or not it is set (difference from the previous image) according to the imaging interval of the fourth example described above (step S311 in FIG. 35).

ステップS311で、ユーザにより選択された重み係数算出方法は、前述した第4の例の撮像間隔に応じて設定(前画像との差)ではなく、前述した第3の例の撮像間隔に応じて設定(区間)であると判別したときには、重み係数算出部15は、前述の図30を用いて説明したように、複数個の分割区間を設定し、当該設定した分割区間毎に、当該分割区間に含まれる撮像時刻の数kを計算する(ステップS312)。   In step S311, the weighting factor calculation method selected by the user is not set according to the imaging interval of the fourth example described above (difference from the previous image) but according to the imaging interval of the third example described above. When it is determined that it is a setting (section), the weighting factor calculation unit 15 sets a plurality of divided sections as described with reference to FIG. 30 described above, and for each set divided section, the divided section The number k of imaging times included in is calculated (step S312).

次に、重み係数算出部15は、算出した撮像時刻の数に応じて、各分割区間についての重み係数を設定する(ステップS313)。次に、重み係数算出部15は、撮像時刻Ti,n,kのそれぞれが、どの分割区間に属するかを判定し、その判定結果により、撮像時刻Ti,n,kのそれぞれに対応する重み係数Wi,n,kを算出する(ステップS314)。そして、この処理ルーチンを終了する。   Next, the weighting factor calculation unit 15 sets a weighting factor for each divided section according to the calculated number of imaging times (step S313). Next, the weighting factor calculation unit 15 determines which division section each of the imaging times Ti, n, k belongs to, and the weighting factor corresponding to each of the imaging times Ti, n, k based on the determination result. Wi, n, k are calculated (step S314). Then, this processing routine ends.

算出された重み係数Wi,n,kのそれぞれは、辞書データ生成・更新部16に渡されると共に、辞書データ生成用情報DPIi,n,kのそれぞれの情報として記憶される。   Each of the calculated weighting factors Wi, n, k is transferred to the dictionary data generation / update unit 16 and stored as information of the dictionary data generation information DPIi, n, k.

また、ステップS311で、ユーザにより選択された重み係数算出方法は、前述した第4の例の撮像間隔に応じて設定(前画像との差)であると判別したときには、重み係数算出部15は、新たに取り込んだ顔画像の撮像時刻Ti,n,Kと、それより一つ前の撮像時刻Ti,n,(K−1)との時間差ΔTi(K−1_K)を算出する(ステップS315)。   In step S311, when it is determined that the weighting factor calculation method selected by the user is set (difference from the previous image) according to the imaging interval of the fourth example described above, the weighting factor calculation unit 15 Then, a time difference ΔTi (K−1_K) between the imaging time Ti, n, K of the newly captured face image and the previous imaging time Ti, n, (K−1) is calculated (step S315). .

そして、重み係数算出部15は、新たな撮像時刻Ti,n,Kで取り込んだ顔画像の特徴ベクトルについての重み係数Wi,n,Kを、前述した(式3)の算出式にしたがって算出する(ステップS316)。以上で、この処理ルーチンを終了する。   Then, the weighting factor calculation unit 15 calculates the weighting factors Wi, n, K for the feature vector of the face image captured at the new imaging time Ti, n, K according to the calculation formula of (Formula 3) described above. (Step S316). Thus, this processing routine is finished.

算出された重み係数Wi,n,Kは、辞書データ生成・更新部16に渡されると共に、辞書データ生成用情報DPIi,n,Kの情報として記憶される。   The calculated weighting factors Wi, n, K are transferred to the dictionary data generation / update unit 16 and stored as dictionary data generation information DPIi, n, K information.

なお、以上の説明では、個人識別を行なった後には、当該個人識別に続いて、取り込んだ新たな顔画像を用いた顔識別用辞書データの更新を行なうようにしたが、新たに取り込んだ顔画像のデータあるいは特徴ベクトルと、時刻情報と、重み係数とを一時記憶しておき、個人識別時点の後の適当な時点において、顔識別用辞書データの更新を行うようにしても良い。   In the above description, after personal identification is performed, the face identification dictionary data is updated using the new captured face image following the personal identification. Image data or feature vectors, time information, and weighting factors may be temporarily stored, and the face identification dictionary data may be updated at an appropriate time after the personal identification time.

[第2の実施形態の効果]
以上説明したように、上述の実施形態においては、期間辞書データTDi,nの顔識別用辞書データFRDi,nの更新演算に際し、最大K個の辞書データ生成用情報DPIi,n,kのそれぞれの特徴ベクトルの単純平均を取るのではなく、それぞれの特徴ベクトルに、撮像時刻に基づいて算出した直近のものほど高くなる重み係数を乗算したものの総和を、重み係数の総和で除算するようにしたので、それぞれの特徴ベクトルは、その撮像時刻に応じて顔識別用辞書データFRDi,nの生成に寄与するようになるので、さらに高精度の辞書データを得ることができる。
[Effects of Second Embodiment]
As described above, in the above-described embodiment, when updating the face identification dictionary data FRDi, n of the period dictionary data TDi, n, each of the maximum K pieces of dictionary data generation information DPIi, n, k is calculated. Rather than taking the simple average of feature vectors, the sum of the feature vectors multiplied by the weighting factor that increases the most recently calculated based on the imaging time is divided by the sum of the weighting factors. Since each feature vector contributes to generation of the face identification dictionary data FRDi, n according to the imaging time, it is possible to obtain more accurate dictionary data.

[第2の実施形態の変形例]
以上の第2の実施形態の説明は、この発明を顔識別処理装置に適用した場合であるが、この発明の適用範囲は、このような顔画像を用いた個人識別装置の場合に限らないことは言うまでもない。
[Modification of Second Embodiment]
The above description of the second embodiment is a case where the present invention is applied to a face identification processing device, but the scope of application of the present invention is not limited to the case of a personal identification device using such a face image. Needless to say.

例えば、個人識別処理の場合において、人の声などの、時間の経過につれて変化をする識別要素として個人を識別する場合においても、それぞれそれらの識別要素を取り込んだ取り込み時刻に基づいて重み係数を算出して、個人識別用の辞書データを更新する場合にも適用することができる。   For example, in the case of individual identification processing, when identifying an individual as an identification element that changes over time, such as a human voice, the weighting factor is calculated based on the capture time when the identification element is incorporated. Thus, the present invention can also be applied when updating personal identification dictionary data.

[第3の実施形態]
この第3の実施形態の場合も、期間辞書データは、対応する期間で撮影された顔画像データから抽出された特徴データを単純平均したものとするのではなく、より個人識別性能を向上させることができるようにする。
[Third Embodiment]
Also in the case of the third embodiment, the period dictionary data is not a simple average of the feature data extracted from the face image data photographed in the corresponding period, but improves the individual identification performance. To be able to.

顔画像の識別においては、顔画像の大きさが例えば縦×横=64×64画素以上の大きさであること、顔画像は正面を向いていること、両目が水平に並んでいること、などの識別すべき画像としての基準条件を満足していることが必要である。   In the identification of a face image, the size of the face image is, for example, a size of vertical × horizontal = 64 × 64 pixels or more, the face image is facing the front, both eyes are aligned horizontally, etc. It is necessary to satisfy the reference condition as an image to be identified.

しかしながら、実際には、取り込んだ顔画像が、上記の基準条件をすべて満足している状態となっているわけではない。   However, actually, the captured face image does not satisfy all the above-mentioned reference conditions.

顔画像の識別処理に当たっては、前記基準条件を満足していないときには、当該基準条件をできるだけ満足するように、画像データ補間処理や画像回転処理などの画像補正処理を取り込んだ顔画像の画像データに対して施すことにより、顔識別処理を可能にしている。   In the face image identification processing, when the reference condition is not satisfied, the image data of the face image that has been subjected to image correction processing such as image data interpolation processing or image rotation processing is applied so that the reference condition is satisfied as much as possible. By applying to this, face identification processing is enabled.

そして、従来は、取り込んだ顔画像について個人識別することができた場合には、その顔画像の特徴データを、有効な特徴データとしてすべて等しい重みを持つものとして、辞書データの生成および更新している。すなわち、従来は、上述のように基準条件を満足していない顔画像の特徴データと、基準条件を満足する顔画像の特徴データとを、同じ重みのデータとして取り扱って、辞書データの生成および更新している。   Conventionally, when the captured face image can be identified personally, the feature data of the face image is generated and updated as valid feature data having all equal weights. Yes. That is, conventionally, the feature data of the face image that does not satisfy the reference condition as described above and the feature data of the face image that satisfies the reference condition are treated as data having the same weight, and the dictionary data is generated and updated. is doing.

このように、取り込んだ顔画像が識別できた場合に、その特徴データを、すべて同じ重みで使用して、各個人用の顔画像の辞書データの作成および更新を行った場合には、作成または更新した辞書データの正確性が損なわれてしまうおそれがある。   In this way, when the captured face image can be identified, the feature data is all used with the same weight, and the dictionary data of each personal face image is created and updated. The accuracy of the updated dictionary data may be impaired.

上述のようなことは、顔画像の辞書データの生成や更新に限らず、取り込む画像について予め定められている基準条件が存在しているにもかかわらず、取り込んだ画像について同じ重みを持って処理を行なうすべての場合に存在する。   The above is not limited to the generation and update of face image dictionary data, but the captured image is processed with the same weight even though there is a predetermined reference condition for the captured image. Present in all cases of doing.

以上のことは、取り込む個人の識別要素としての情報が、顔画像だけではなく、声紋などの識別要素である場合における音声情報についても同様のことが言える。   The same can be said for the voice information when the information as an individual identification element to be captured is not only a face image but also an identification element such as a voiceprint.

この第3の実施形態では、上述の点にかんがみ、取り込む情報について予め定められている基準条件を参照した処理を行なうことにより、顔画像などの識別要素を用いて個人識別を行なう場合に使用する辞書データとして、より正確な辞書データの作成および/または更新を可能にするようにする。   In view of the above points, the third embodiment is used when individual identification is performed using an identification element such as a face image by performing processing with reference to a predetermined standard condition for information to be captured. As dictionary data, more accurate dictionary data can be created and / or updated.

図36は、この第3の実施形態の顔画像による個人識別装置の構成例を示すブロック図である。この図36で、図1に示した第1の実施形態の個人識別装置の構成例のブロック図と同一部分は、同一番号を付して、その詳細な説明は省略する。この第3の実施形態においても、各ブロックで示したものの一部は、ソフトウエア構成とすることもできるものである。   FIG. 36 is a block diagram showing a configuration example of the personal identification device based on face images of the third embodiment. 36, the same parts as those in the block diagram of the configuration example of the personal identification device according to the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted. Also in the third embodiment, a part of what is shown in each block can be a software configuration.

この第3の実施形態では、顔識別を行なう上での信頼度(信頼性)の度合いの情報であるスコアを算出するスコア算出部17がシステムバスに対して接続されて設けられ、顔識別用画像処理部11からの情報が、このスコア算出部17に供給される。ハードウエア的には、その他の構成は、図1に示した第1の実施形態と同様である。   In the third embodiment, a score calculation unit 17 for calculating a score, which is information on the degree of reliability (reliability) in performing face identification, is provided connected to the system bus and is used for face identification. Information from the image processing unit 11 is supplied to the score calculation unit 17. In terms of hardware, other configurations are the same as those of the first embodiment shown in FIG.

そして、この第3の実施形態においても、上述した第2の実施形態と同様に、顔識別用辞書データベース10の個人辞書データDiの期間辞書データTDi,nのそれぞれは、辞書データ生成用情報配列ARi,nを備える。   Also in the third embodiment, as in the second embodiment described above, each of the period dictionary data TDi, n of the personal dictionary data Di of the face identification dictionary database 10 is a dictionary data generation information array. ARi, n is provided.

そして、辞書データ生成用情報配列ARi,nを構成する、最大K個の辞書データ生成用情報DPIi,n,kのそれぞれは、この第3の実施形態においては、図37に示すように、時刻の情報Ti,n,kと、取り込まれた顔画像の特徴データVi,n,kと、取り込まれた顔画像の特徴データVi,n,kを用いて顔識別用辞書データを更新するために用いる、特徴データVi,n,kについての重み係数Wi,n,kと、総合スコアSOi,n,kと、を含む。   Then, in the third embodiment, each of the maximum K pieces of dictionary data generation information DPIi, n, k constituting the dictionary data generation information array ARi, n is shown in FIG. To update the face identification dictionary data using the information Ti, n, k, the feature data Vi, n, k of the captured face image, and the feature data Vi, n, k of the captured face image The weight coefficient Wi, n, k for the feature data Vi, n, k to be used and the total score SOi, n, k are included.

第2の実施形態では、重み係数Wi,n,kは、取り込まれた顔画像の撮影時刻に基づいて計算されたが、この第3の実施形態では、後述するように、総合スコアSOi,n,kに基づいて計算される。   In the second embodiment, the weighting factors Wi, n, k are calculated based on the shooting time of the captured face image, but in this third embodiment, as will be described later, the total score SOi, n , K.

この第3の実施形態では、総合スコアSOi,n,kを算出する点と、重み係数Wi,n,kが総合スコアSOi,n,kに基づいて計算される点の他は、前述した第2の実施形態と同様の構成および処理動作を行なう。   In the third embodiment, except for the point of calculating the total score SOi, n, k and the point that the weighting coefficient Wi, n, k is calculated based on the total score SOi, n, k, The same configuration and processing operation as in the second embodiment are performed.

この第3の実施形態でも、期間辞書データTDi,nのそれぞれに対しては、最大K個、例えば40個の辞書データ生成用情報DPIi,n,kが、蓄積可能とされている。これは、辞書データベースとして使用する記憶容量を考慮したものである。そして、この第3の実施形態では、期間辞書データTDi,nとして蓄積されるデータは、後述する総合スコアを参照して、総合スコアの高いもののみを残す(すなわち、格納する)ようにして、蓄積する期間辞書データTDi,nは更新するようにする。   Also in the third embodiment, a maximum of K pieces, for example, 40 pieces of dictionary data generation information DPIi, n, k can be stored for each period dictionary data TDi, n. This takes into account the storage capacity used as a dictionary database. In the third embodiment, the data accumulated as the period dictionary data TDi, n is referred to the overall score to be described later so that only the data with a high overall score is left (that is, stored), The accumulated period dictionary data TDi, n is updated.

また、この第3の実施形態においては、期間辞書データTDi,nについては、新たな顔画像の取り込みを行なったときに、必ず、新規作成あるいは更新処理をするのではなく、当該期間辞書データTDi,nの新規作成あるいは更新をする方が良いかどうかを、総合スコアに基づいて判断し、その判断の結果、新規作成あるいは更新をした方が良いと判別したときに、実際に当該期間辞書データTDi,nの新規作成あるいは更新処理を実行するようにする。   In the third embodiment, the period dictionary data TDi, n is not necessarily newly created or updated when a new face image is captured, but the period dictionary data TDi. , N is determined based on the total score, and it is determined that it is better to newly create or update the period dictionary data. A new creation or update process of TDi, n is executed.

そして、この第3の実施形態においては、顔識別用画像処理部11は、顔検出結果の顔画像データ、目検出結果のデータなどをスコア算出部15に供給する。この例においては、顔識別用画像処理部11からスコア算出部15に供給される顔検出結果の顔画像データには、検出できた顔画像の画像データサイズが付加される。ここで、顔画像の画像データサイズは、顔検出結果の顔画像の縦方向のピクセル数(画素数)と、顔画像の横方向のピクセル数(画素数)とからなる。   In the third embodiment, the face identifying image processing unit 11 supplies the face calculating result face image data, the eye detecting result data, and the like to the score calculating unit 15. In this example, the image data size of the detected face image is added to the face image data of the face detection result supplied from the face identifying image processing unit 11 to the score calculation unit 15. Here, the image data size of the face image is composed of the number of pixels in the vertical direction (number of pixels) of the face image of the face detection result and the number of pixels in the horizontal direction (number of pixels) of the face image.

スコア算出部17は、この例では、顔識別用画像処理部11からの顔検出結果のデータおよび目検出結果のデータを受け取って、画像データ入力インターフェース7を通じて取り込まれた画像から抽出された顔画像について、顔識別を行なう上での信頼度(信頼性)の度合いの情報であるスコアの算出を行なう。顔識別用画像処理部11から、顔検出や目検出、最終的には、特徴ベクトルの算出ができなかった旨の通知を受けたときには、スコア算出部17は、取り込まれた顔画像についてのスコアの算出処理は行なわない。   In this example, the score calculation unit 17 receives the face detection result data and the eye detection result data from the face identification image processing unit 11, and extracts the face image extracted from the image captured through the image data input interface 7. A score, which is information on the degree of reliability (reliability) in performing face identification, is calculated. When receiving a notification from the face identification image processing unit 11 that face detection, eye detection, and finally feature vector calculation has failed, the score calculation unit 17 obtains a score for the captured face image. The calculation process is not performed.

この実施形態では、スコア算出部17は、取り込まれた顔画像についての、顔識別を行なう上での信頼度の度合いの情報であるスコアは、顔識別用の顔画像の基準条件からのずれを検出することに基づいて算出する。   In this embodiment, the score calculation unit 17 uses the score, which is information on the degree of reliability in performing face identification, for the captured face image as a deviation from the reference condition of the face image for face identification. Calculate based on detection.

ここで、顔識別用の顔画像の基準条件は、この例では、
(A)顔画像のデータは、少なくとも横方向および縦方向に所定画素数を含むこと。この実施形態では、例えば、横×縦=64画素×64画素以上のデータサイズの顔画像データであること
(B)顔が正面に正対していること(正面を向いていること)
(C)両目が水平に一直線上に並んでいること
をあげることができる。
Here, the reference condition of the face image for face identification is, in this example,
(A) The face image data includes a predetermined number of pixels at least in the horizontal and vertical directions. In this embodiment, for example, the face image data having a data size of horizontal × vertical = 64 pixels × 64 pixels or more (B) the face is facing the front (facing the front)
(C) It can be mentioned that both eyes are aligned horizontally.

以上の基準条件に基づき、この実施形態では、取り込んだ顔画像の特徴データについて、4個のスコアSa,Sb,Sc,Sdを算出するようにする。そして、この実施形態では、これら算出した4個のスコアSa,Sb,Sc,Sdから、取り込んだ顔画像の特徴データについて総合スコアSOを算出するようにする。なお、スコアSa,Sb,Sc,Sdのそれぞれの値は、「0」〜「1」で表され、スコアの値が「0」のときには信頼性がないことを意味し、スコアの値が「1」に近づくにつれ、より信頼性が高くなり、スコアの値が「1」のときには信頼性が十分に高いことを意味している。   Based on the above reference conditions, in this embodiment, four scores Sa, Sb, Sc, and Sd are calculated for the feature data of the captured face image. In this embodiment, the total score SO is calculated for the feature data of the captured face image from the four calculated scores Sa, Sb, Sc, and Sd. Each value of the scores Sa, Sb, Sc, and Sd is represented by “0” to “1”. When the score value is “0”, it means that there is no reliability, and the score value is “ As the value approaches “1”, the reliability becomes higher. When the score value is “1”, the reliability is sufficiently high.

[スコアSa;顔画像のデータサイズ]
4個のスコアのうちのスコアSaは、取り込まれた画像から検出された顔画像のデータサイズに関するものである。
[Score Sa; Data size of face image]
The score Sa among the four scores relates to the data size of the face image detected from the captured image.

顔識別用の顔画像の基準条件(A)から、顔識別に必要な顔画像の最小データサイズを、MIN_SIZEとし、顔識別処理が十二分に実施可能な顔画像のデータサイズMAX_SIZEとしたとき、この実施形態では、このスコアSaは、取り込んだ顔画像のデータサイズXaに対して、図38に示すような関係の値として算出される。   When the minimum face image data size required for face identification is MIN_SIZE and the face image data size MAX_SIZE is sufficient for face identification processing based on the reference condition (A) for the face image for face identification In this embodiment, the score Sa is calculated as a value having a relationship as shown in FIG. 38 with respect to the data size Xa of the captured face image.

すなわち、
Xa<MIN_SIZEのときには、Sa=0である。
MIN_SIZE≦Xa≦MAX_SIZEのときには、Sa=k・Xa+q(q<0)である。ただし、kは、k>0である比例定数である。
MAX_SIZE<Xaのときには、Sa=1である。
That is,
Sa = 0 when Xa <MIN_SIZE.
When MIN_SIZE ≦ Xa ≦ MAX_SIZE, Sa = k · Xa + q (q <0). However, k is a proportionality constant where k> 0.
When MAX_SIZE <Xa, Sa = 1.

ここで、この実施形態では、MIN_SIZEは、例えば、横×縦=64画素×64画素のデータサイズに等しく選定されている。また、MAX_SIZEは、64画素×64画素のデータサイズよりは大きく、かつ、顔画像の識別が十二分に行なえるデータサイズである。   Here, in this embodiment, MIN_SIZE is selected to be equal to the data size of horizontal × vertical = 64 pixels × 64 pixels, for example. Further, MAX_SIZE is a data size that is larger than the data size of 64 pixels × 64 pixels and that can sufficiently identify the face image.

ここで、取り込まれた顔画像のデータサイズとは、画像データ入力インターフェース7を通じて取り込まれた元画像から検出された顔画像のデータサイズであって、顔識別用画像処理部11でデータ補間処理などを施した後の顔画像のデータサイズではない。   Here, the data size of the captured face image is the data size of the face image detected from the original image captured through the image data input interface 7, and includes data interpolation processing by the face identification image processing unit 11. It is not the data size of the face image after applying.

顔識別用画像処理部11では、顔識別処理用の顔画像データとしては、前述した最小のデータサイズ、この例では、横×縦=64画素×64画素以上のデータサイズが必要であるので、検出された顔画像のデータサイズがこれよりも小さい場合には、データ補間処理を行って、最小のデータサイズ以上の顔画像のデータサイズとして、特徴ベクトルの検出を試みるようにしている。また、前述した両目の水平方向の位置を補正するために、検出した顔画像を回転するようにするが、その際にも、画素データの補間処理を伴う場合がある。このような補間処理をした顔画像であっても、特徴ベクトルを抽出することができれば、顔識別が可能となる場合があるのである。   The face identification image processing unit 11 requires the minimum data size described above as the face image data for face identification processing, in this example, a data size of horizontal × vertical = 64 pixels × 64 pixels or more. When the data size of the detected face image is smaller than this, a data interpolation process is performed to try to detect a feature vector as the data size of the face image larger than the minimum data size. In addition, the detected face image is rotated in order to correct the horizontal position of both eyes described above. In this case, pixel data may be interpolated. Even a face image subjected to such an interpolation process may be able to identify a face if a feature vector can be extracted.

上述したスコアSaは、以上のような顔識別用画像処理部11での画素補間処理を行なう前の顔画像のデータサイズについての信頼度の度合いの情報である。   The score Sa described above is information on the degree of reliability of the data size of the face image before the pixel interpolation processing in the face identification image processing unit 11 as described above.

この実施形態では、顔画像のデータサイズXaがMIN_SIZEよりも小さい場合には、顔識別用の特徴ベクトルの信頼度は殆どないと判断し、Sa=0とする。また、顔画像のデータサイズXaがMAX_SIZEよりも大きい場合には、顔識別用の特徴ベクトルの信頼度は非常に高いと判断し、Sa=1とする。また、顔画像のデータサイズXaが、MIN_SIZEよりも大きく、MAX_SIZEよりも小さい場合には、顔識別用の特徴ベクトルの信頼度はデータサイズXaの大きさに応じた(比例する)ものと判断し、スコアSaは、データサイズXaに比例した値とするものである。   In this embodiment, when the face image data size Xa is smaller than MIN_SIZE, it is determined that there is almost no reliability of the feature vector for face identification, and Sa = 0. If the face image data size Xa is larger than MAX_SIZE, it is determined that the reliability of the feature vector for face identification is very high, and Sa = 1. When the face image data size Xa is larger than MIN_SIZE and smaller than MAX_SIZE, it is determined that the reliability of the feature vector for face identification corresponds to (proportional to) the data size Xa. The score Sa is a value proportional to the data size Xa.

なお、図38の例では、顔画像のデータサイズXaが、MIN_SIZEよりも大きく、MAX_SIZEよりも小さい場合には、顔識別用の特徴ベクトルの信頼度としてのスコアSaは、データサイズXaの大きさにリニア(線形)に比例するものとしたが、データサイズXaの大きさに対して、ノンリニア(非線形)に変化、例えばXaの2乗に応じた値とするものとしても、もちろんよい。   In the example of FIG. 38, when the face image data size Xa is larger than MIN_SIZE and smaller than MAX_SIZE, the score Sa as the reliability of the feature vector for face identification is the size of the data size Xa. However, it is of course possible to change the data size Xa in a non-linear manner (for example, a value corresponding to the square of Xa).

[スコアSb;顔画像の正面正対状態からのずれ(顔の向き)の閾値]
前述したように、顔識別用の顔画像は、正面に正対している状態が基準である。そして、一般的には、所定の許容範囲を超えて、顔画像の向きが正面正対状態からずれている場合には、当該顔画像についての特徴ベクトルの算出は不可能とされている。そこで、この実施形態では、この顔画像の正面正対状態からのずれに基づいて、スコアSbを算出する。
[Score Sb: Threshold of deviation (face orientation) of face image from front facing state]
As described above, the face image for face identification is based on the state of facing the front. In general, when a face image is deviated from the front facing state beyond a predetermined allowable range, it is impossible to calculate a feature vector for the face image. Therefore, in this embodiment, the score Sb is calculated based on the deviation of the face image from the front facing state.

ここで、このスコアSbは、顔画像についての特徴ベクトルの算出が可能か否かに基づく信頼度の度合いを表すものである。   Here, the score Sb represents the degree of reliability based on whether or not the feature vector for the face image can be calculated.

顔の向き(角度)について想定される変化の方向は、図39に示すように、顔の正面方向から背面方向に貫くように想定された回転軸41を中心した回転方向であるロール(roll)方向と、このロール方向についての回転軸41に対して、水平方向に直交する回転軸42を中心とした回転方向であるピッチ(pitch)方向と、ロール方向についての回転軸41に対して、垂直方向に直交する回転軸43を中心とした回転方向であるヨー(yaw)方向との3方向である。   As shown in FIG. 39, the direction of change assumed for the orientation (angle) of the face is a roll that is a rotation direction about a rotation axis 41 assumed to penetrate from the front direction of the face to the back direction. The direction, the pitch direction that is the rotation direction around the rotation axis 42 orthogonal to the horizontal direction, and the rotation axis 41 about the roll direction, and the rotation direction 41 perpendicular to the rotation direction 41 about the roll direction. The three directions are the yaw direction, which is the rotation direction around the rotation axis 43 orthogonal to the direction.

上記3方向のうち、ロール方向に関しては、顔識別用画像処理部11において、両目の位置を水平方向に揃えるように画像を回転して補正して、顔識別処理をするので、この実施形態では、このスコアSbの算出については考慮しない。   Among the three directions, regarding the roll direction, the face identification image processing unit 11 rotates and corrects the image so that the positions of both eyes are aligned in the horizontal direction, and performs face identification processing. The calculation of the score Sb is not considered.

この実施形態では、ピッチ方向と、ヨー方向との2方向についてのみを考慮して、スコアSbを算出する。この実施形態では、ピッチ方向とヨー方向のいずれかについて、顔画像についての特徴ベクトルの算出ができない程度に、顔画像の向きが正面生態状態からずれているときには、スコアSb=0とする。また、ピッチ方向とヨー方向の両方について、顔画像の向きの正面生態状態からのずれ量が、顔画像についての特徴ベクトルの算出ができる範囲内の場合には、スコアSb=1とする。   In this embodiment, the score Sb is calculated considering only the two directions of the pitch direction and the yaw direction. In this embodiment, the score Sb = 0 when the orientation of the face image is deviated from the frontal biological state to the extent that the feature vector for the face image cannot be calculated for either the pitch direction or the yaw direction. For both the pitch direction and the yaw direction, the score Sb = 1 is set when the amount of deviation from the frontal biological state of the face image is within the range in which the feature vector for the face image can be calculated.

この実施形態では、ピッチ方向の正面正対状態からの顔画像の向きのずれの角度を、Apitchとし、ヨー方向の正面正対状態からの顔画像の向きのずれの角度を、Ayawとしたとき、顔画像についての特徴ベクトルの算出ができる範囲内は、例えば、
−15度≦Apitch≦+15度
−15度≦Ayaw≦+15度
とされている。
In this embodiment, when the angle of the face image orientation deviation from the front facing state in the pitch direction is Apitch and the angle of the face image orientation deviation from the front facing state in the yaw direction is Ayaw. The range within which the feature vector for the face image can be calculated is, for example,
−15 degrees ≦ Apitch ≦ + 15 degrees
−15 degrees ≦ Ayaw ≦ + 15 degrees.

そこで、この実施形態では、
−15度≦Apitch≦+15度、かつ、−15度≦Ayaw≦+15度
を満足するときには、スコアSb=1とする。上記角度条件を満足しないときには、スコアSb=0とする。
Therefore, in this embodiment,
When −15 degrees ≦ Apitch ≦ + 15 degrees and −15 degrees ≦ Ayaw ≦ + 15 degrees are satisfied, the score Sb = 1. When the angle condition is not satisfied, the score Sb = 0.

[スコアSc;ロール方向のずれ量]
スコアScは、スコアSbでは考慮しなかったロール方向のずれ量に応じた顔識別上の顔画像の信頼度の度合いである。したがって、スコア算出部14には、ロール方向の回転補正がなされる前の、検出された顔画像が供給される。
[Score Sc: Deviation amount in roll direction]
The score Sc is a degree of reliability of the face image on the face identification according to the roll direction deviation amount which is not considered in the score Sb. Therefore, the detected face image before the rotation correction in the roll direction is performed is supplied to the score calculation unit 14.

この実施形態では、ロール方向のずれ量は、図40に示すように、回転補正する前の顔画像において、パーツ検出処理により検出された左右両目の間の垂直方向の距離(両目が水平方向に一直線上に並んでいる状態からのずれであって、左目の垂直方向の位置と、右目の垂直方向の位置との距離)Xcとして算出する。   In this embodiment, as shown in FIG. 40, the amount of deviation in the roll direction is the vertical distance between the left and right eyes detected by the part detection process (both eyes in the horizontal direction) in the face image before rotation correction. It is a deviation from the state of being aligned on a straight line, and is calculated as a distance Xc) between the vertical position of the left eye and the vertical position of the right eye.

すなわち、検出された両目が、図40(A)に示すように、水平方向に一直線に並んでいる場合には、両目の間の垂直方向の距離Xcは、Xc=0である。そして、図40(B),(C)に示すように、検出された顔画像がロール方向に回転していた場合、その回転量の大きさが大きいほど、検出された両目の間の垂直方向の距離Xcは、大きくなる。   That is, when the detected eyes are aligned in a straight line in the horizontal direction as shown in FIG. 40A, the vertical distance Xc between the eyes is Xc = 0. Then, as shown in FIGS. 40B and 40C, when the detected face image is rotated in the roll direction, the larger the amount of rotation, the higher the vertical direction between the detected eyes. The distance Xc becomes larger.

スコアScは、両目が水平方向に一直線に並んでいるとき、すなわち、両目の間の垂直方向の距離Xc=0の場合に、一番大きく、Sc=1とする。そして、両目の間の垂直方向の距離Xcが大きくなればなるほど、スコアScの値は小さくなって、0に近くなる。この実施形態では、このスコアScは、図41に示すように、両目の間の垂直方向の距離Xcを変数としたガウス分布関数に従った値をとるように構成されている。   The score Sc is largest when both eyes are aligned in the horizontal direction, that is, when the distance Xc = 0 between the eyes in the vertical direction is Sc = 1. As the vertical distance Xc between the eyes increases, the value of the score Sc decreases and approaches zero. In this embodiment, as shown in FIG. 41, the score Sc is configured to take a value according to a Gaussian distribution function with a vertical distance Xc between the eyes as a variable.

図42に、スコアScの算出式を(式6)として示す。この図42に示す(式6)において、bは、両目の間の垂直方向の距離XcがXc=0のときにSc=1となる値、δは標準偏差、μは平均値、であり、これらの値は、実際の多数個の顔画像サンプルを用いて、統計解析で求められるものである。   FIG. 42 shows a formula for calculating the score Sc as (Formula 6). In (Expression 6) shown in FIG. 42, b is a value that becomes Sc = 1 when the vertical distance Xc between both eyes is Xc = 0, δ is a standard deviation, μ is an average value, These values are obtained by statistical analysis using a large number of actual face image samples.

[スコアSd;許容範囲内におけるヨー方向のずれ量]
前述したスコアSbの算出においては、顔画像の正面正対状態からのヨー方向のずれ量が許容範囲内であれば、ピッチ方向のずれ量も許容範囲内であるという条件の下、スコアSb=1として、信頼度の度合いは同じとした。
[Score Sd: Deviation amount in yaw direction within allowable range]
In the above-described calculation of the score Sb, if the amount of deviation in the yaw direction from the front-facing state of the face image is within the allowable range, the score Sb = 1, the degree of reliability is the same.

このスコアSdは、顔画像の正面正対状態からのヨー方向のずれ量が許容範囲内であっても、より詳細に、取り込んだ顔画像の顔識別上での信頼度の度合いを表す値である。   This score Sd is a value that represents the degree of reliability in the face identification of the captured face image in more detail even if the amount of deviation in the yaw direction from the front facing state of the face image is within the allowable range. is there.

この実施形態では、顔画像の正面正対状態からのヨー方向のずれ量は、図43に示すように、顔画像の中心線51(目、鼻、口などを無視して顔画像の輪郭50のみについて考えた場合に、前述したヨー方向の回転軸43(図39参照)に平行な線であって、少なくとも目の位置における、顔画像の輪郭50の水平方向の中央位置を通る線)と、検出された両目の間隔の中点位置52との距離Xdとして算出する。   In this embodiment, as shown in FIG. 43, the amount of deviation in the yaw direction from the face-to-face state of the face image is the center line 51 of the face image (the contour 50 Only the line parallel to the rotation axis 43 in the yaw direction (see FIG. 39) and passing through the center position in the horizontal direction of the contour 50 of the face image at least at the eye position). , The distance Xd from the midpoint position 52 of the detected distance between the eyes is calculated.

なお、両目の間隔の中点位置52は、ロール方向の回転補正がなされた顔画像であっても、また、回転補正がなされる前の顔画像であっても、同じ位置になる。この実施形態では、スコア算出部17では、ロール方向の回転補正がなされる前の顔画像から、距離Xdが求められる。   Note that the midpoint position 52 between the eyes is the same position regardless of whether the face image has been subjected to rotation correction in the roll direction or is a face image that has not been subjected to rotation correction. In this embodiment, the score calculation unit 17 obtains the distance Xd from the face image before the roll direction rotation correction is performed.

図43(A)に示すように、検出された両目の間隔の中点位置52が、顔画像の中心線51上にあれば、Xd=0であって、顔画像は正面正対状態であると考えられるので、より精度の良い特徴ベクトルが抽出することができると考えられ、スコアSdは、Sd=1とする。   As shown in FIG. 43A, if the midpoint position 52 of the detected distance between the eyes is on the center line 51 of the face image, Xd = 0 and the face image is in front-facing state. Therefore, it is considered that a more accurate feature vector can be extracted, and the score Sd is Sd = 1.

そして、図43(B),(C)に示すように、検出された両目の間隔の中点位置52と、顔画像の中心線51との距離Xdが大きくなるにつれて、スコアSdの値は、小さくなって0に近づく。この実施形態では、このスコアSdは、図44に示すように、検出された両目の間隔の中点位置52と、顔画像の中心線51との距離Xdを変数としたガウス分布関数に従った値をとるように構成されている。   Then, as shown in FIGS. 43B and 43C, as the distance Xd between the midpoint position 52 of the detected distance between the eyes and the center line 51 of the face image increases, the value of the score Sd becomes It gets smaller and approaches zero. In this embodiment, as shown in FIG. 44, the score Sd follows a Gaussian distribution function with the distance Xd between the detected midpoint position 52 between the eyes and the center line 51 of the face image as a variable. It is configured to take a value.

図45に、スコアSdの算出式を(式7)として示す。この図45に示す(式7)において、cは、検出された両目の間隔の中点位置52と顔画像の中心線51との距離Xd=0のときにSd=1となる値、δは標準偏差、μは平均値、であり、これらの値は、実際の多数個の顔画像サンプルを用いて、統計解析で求められるものである。   FIG. 45 shows a formula for calculating the score Sd as (Formula 7). In (Equation 7) shown in FIG. 45, c is a value at which Sd = 1 when the distance Xd = 0 between the midpoint position 52 of the detected distance between the eyes and the center line 51 of the face image, and δ is Standard deviation, μ is an average value, and these values are obtained by statistical analysis using a large number of actual face image samples.

[総合スコア]
この第3の実施形態では、以上説明した4個のスコアSa,Sb,Sc,Sdから、スコア算出部17は、以下に示す(式8)を用いて総合スコアSOを算出する。ここで、スコア算出部17で算出するのは、新たに取り込んだ顔画像のデータについての総合スコアであるので、当該スコア算出部17で算出された総合スコアは、SOnewと記述することとする。
[Total score]
In the third embodiment, from the four scores Sa, Sb, Sc, and Sd described above, the score calculation unit 17 calculates the total score SO using (Equation 8) shown below. Here, since what is calculated by the score calculation unit 17 is the total score for the newly captured face image data, the total score calculated by the score calculation unit 17 is described as SOnew.

SOnew=Sa×Sb×Sc×Sd ・・・(式8)。   SOnew = Sa × Sb × Sc × Sd (Equation 8)

なお、(式8)は、総合スコアSOnewの算出方法の一例であり、その他種々の算出方法を用いることができる。例えば、
SOnew=Sa+Sb+Sc+Sd ・・・(式9)
として総合スコアSOnewを求めても良い。
(Equation 8) is an example of a method for calculating the total score SOnew, and various other calculation methods can be used. For example,
SOnew = Sa + Sb + Sc + Sd (Formula 9)
As a result, the total score SOnew may be obtained.

また、4個のスコアSa,Sb,Sc,Sdのそれぞれについて、重み係数ka,kb,kc,kdを定め、
SOnew=ka・Sa×kb・Sb×kc・Sc×kd・Sd ・・・(式10)
として総合スコアSOnewを求めても良いし、また、
SOnew=ka・Sa+kb・Sb+kc・Sc+kd・Sd ・・・(式11)
として総合スコアSOnewを求めても良い。
Further, for each of the four scores Sa, Sb, Sc, Sd, weight coefficients ka, kb, kc, kd are determined,
SOnew = ka * Sa * kb * Sb * kc * Sc * kd * Sd (Formula 10)
You may ask for the total score SOnew as
SOnew = ka · Sa + kb · Sb + kc · Sc + kd · Sd (Formula 11)
As a result, the total score SOnew may be obtained.

[顔画像の特徴ベクトルの重み係数W]
総合スコアSOを、そのまま、期間辞書データTDi,nの顔画像識別用辞書データFRDi,nの更新に用いても良いが、この実施形態では、総合スコアSOから、顔画像の特徴ベクトルについての重み係数Wを求め、この重み係数Wを用いた顔画像識別用辞書データFRDi,nの更新処理を行なう。
[Weight coefficient W of face image feature vector]
The total score SO may be used as it is for updating the face image identification dictionary data FRDi, n of the period dictionary data TDi, n. In this embodiment, the weight for the feature vector of the face image is calculated from the total score SO. A coefficient W is obtained, and update processing of the face image identification dictionary data FRDi, n using the weight coefficient W is performed.

そこで、この実施形態では、スコア算出部17は、総合スコアSOnewから、新たに取り込んだ顔画像の特徴ベクトルについての重み係数Wnewを算出する。   Therefore, in this embodiment, the score calculation unit 17 calculates the weight coefficient Wnew for the feature vector of the newly captured face image from the total score SOnew.

この実施形態では、重み係数Wnewは、総合スコアSOnewに線形に比例するものとして生成するようにする。すなわち、比例定数をCsとしたとき、
Wnew=Cs・SOnew ・・・(式12)
として、重み係数Wnewを算出する。Cs=1のときには、重み係数Wnewとして、総合スコアSOnewをそのまま用いるものとなる。
In this embodiment, the weighting factor Wnew is generated as being linearly proportional to the total score SOnew. That is, when the proportionality constant is Cs,
Wnew = Cs · SOnew (Equation 12)
The weight coefficient Wnew is calculated as follows. When Cs = 1, the total score SOnew is used as it is as the weighting coefficient Wnew.

なお、重み係数Wnewの算出方法は、上記(式12)による方法に限られるものではなく、重み係数Wnewは、総合スコアSOnewの値に非線形に対応する、例えば
Wnew=Cs・(SOnew) ・・・(式13)
として、重み係数Wnewを算出するようにしてもよい。
Note that the method of calculating the weighting factor Wnew is not limited to the method according to the above (Equation 12), and the weighting factor Wnew corresponds nonlinearly to the value of the total score SOnew. For example, Wnew = Cs · (SOnew) 2 · .. (Formula 13)
As an alternative, the weighting coefficient Wnew may be calculated.

また、総合スコアSOnewが、予め設定した第1の閾値以下のときには、重み係数Wnew=0とすると共に、総合スコアSOnewが、前記第1の閾値より大きいときには、上記(式12)や(式13)により算出するようにしても良い。   Further, when the total score SOnew is equal to or less than the first threshold value set in advance, the weighting factor Wnew = 0, and when the total score SOnew is greater than the first threshold value, the above (formula 12) and (formula 13) are set. ).

さらに、総合スコアSOnewが、予め設定した第1の閾値以下のときには、重み係数Wnew=0とすると共に、予め設定した第2の閾値(第2の閾値は第1の閾値よりも大きい)よりも大きいときには、Wnew=1とし、そして、総合スコアSOnewが、第1の閾値よりも大きく、第2の閾値よりも小さい範囲においては、上記(式12)や(式13)により算出するようにしても良い。   Furthermore, when the total score SOnew is equal to or lower than the first threshold value set in advance, the weighting factor Wnew = 0 and the preset second threshold value (the second threshold value is larger than the first threshold value). When it is larger, Wnew = 1, and when the total score SOnew is larger than the first threshold value and smaller than the second threshold value, it is calculated by the above (Formula 12) and (Formula 13). Also good.

以上のようにして、スコア算出部17は、取り込んだ顔画像毎に総合スコアSOnewを算出し、その総合スコアSOnewに基づいて重み係数Wnewを算出する。そして、算出した総合スコアSOnewおよび重み係数Wnewを、辞書データ更新処理部14に渡すようにする。   As described above, the score calculation unit 17 calculates the total score SOnew for each captured face image, and calculates the weighting coefficient Wnew based on the total score SOnew. Then, the calculated total score SOnew and the weight coefficient Wnew are passed to the dictionary data update processing unit 14.

[顔識別用辞書データFRDiの更新]
辞書データ更新処理部14は、この第3の実施形態では、顔識別処理部13での識別結果に基づいて個人特定情報が特定されたとき、当該個人特定情報に対応する個人辞書データDiの期間辞書データTDi,nの辞書データ生成用情報DPIi,n,kを更新し、その更新した辞書データ生成用情報DPIi,n,kを用いて、当該個人特定情報に対応する期間辞書データTDi,nの顔識別用辞書データFRDi,nを更新する。
[Updating face identification dictionary data FRDi]
In the third embodiment, the dictionary data update processing unit 14 determines the period of the personal dictionary data Di corresponding to the personal identification information when the personal identification information is identified based on the identification result in the face identification processing unit 13. The dictionary data generation information DPIi, n, k of the dictionary data TDi, n is updated, and using the updated dictionary data generation information DPIi, n, k, the period dictionary data TDi, n corresponding to the personal identification information The face identification dictionary data FRDi, n is updated.

すなわち、顔識別用辞書データベース10に、新たに取り込んだ顔画像を持つ個人Piの個人辞書データDiとして既に蓄えられている期間辞書データTDi,nの辞書データ生成用情報DPIi,n,kの総合スコアSOi,n,kのそれぞれと、新たに取り込んだ顔画像についての総合スコアSOnewとを比較して、顔識別用辞書データベース10中に格納されている辞書データ生成用情報DPIi,n,kの総合スコアSOi,n,kの中に、新たに取り込んだ顔画像についての総合スコアSOnewよりも小さいものがあるかどうか、つまり、新たに取り込んだ顔画像についての総合スコアSOnewが、顔識別用辞書データベース10中に格納されている辞書データ生成用情報DPIi,n,kの総合スコアSOi,n,kのいずれかよりも大きいかどうかを判別する。   That is, the dictionary data generation information DPIi, n, k of the period dictionary data TDi, n already stored in the face identification dictionary database 10 as the personal dictionary data Di of the individual Pi having the newly captured face image. Each of the scores SOi, n, k is compared with the total score SOnew for the newly captured face image, and the dictionary data generation information DPIi, n, k stored in the face identification dictionary database 10 is compared. Whether or not the total score SOnew, n, k is smaller than the total score SOnew for the newly captured face image, that is, the total score SOnew for the newly captured face image is the face identification dictionary. The total score SOi, n, k of the dictionary data generation information DPIi, n, k stored in the database 10 To determine whether or not greater than or Re.

そして、辞書データ更新処理部14は、新たに取り込んだ顔画像についての総合スコアSOnewが、顔識別用辞書データベース10中に格納されている辞書データ生成用情報DPIi,n,kの総合スコアSOi,n,kのいずれかよりも大きいと判別したときには、当該期間辞書データTDi,nの顔識別用辞書データFRDi,nの更新を行なうようにする。   Then, the dictionary data update processing unit 14 obtains the total score SOi of the dictionary data generation information DPIi, n, k stored in the face identification dictionary database 10 for the total score SOnew for the newly captured face image. When it is determined that it is larger than either n or k, the face identification dictionary data FRDi, n of the period dictionary data TDi, n is updated.

この顔識別用辞書データFRDi,nの更新時には、辞書データ更新処理部14は、顔識別用辞書データベース10中の当該期間辞書データTDi,nに格納されている辞書データ生成用情報DPIi,n,kのうちの一番総合スコアSOi,n,kが小さいデータを削除する。そして、辞書データ更新処理部14は、新たに取り込んだ顔画像についての特徴ベクトルおよび時刻データ、重み係数Wnew、総合スコアSOnewなどを、削除した辞書データ生成用情報DPIi,n,kの代わりのデータとして、顔識別用辞書データベース10に取り込む。   At the time of updating the face identification dictionary data FRDi, n, the dictionary data update processing unit 14 uses the dictionary data generation information DPIi, n, stored in the period dictionary data TDi, n in the face identification dictionary database 10. Data with the smallest total score SOi, n, k of k is deleted. The dictionary data update processing unit 14 then replaces the deleted dictionary data generation information DPIi, n, k with the feature vector and time data, the weighting coefficient Wnew, the total score SOnew, and the like of the newly captured face image. As shown in FIG.

そして、顔識別用辞書データFRDi,nの更新を、第2の実施形態の説明でも用いた図32の(式4)に示す算出式により実行する。すなわち、辞書データ更新処理部14は、K個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Kのそれぞれに含まれる特徴ベクトルVi,n,kと、対応する重み係数Wi,n,kとを掛け算した結果の総和を、N個の重み係数の総和で除算したものとして、更新した顔識別用辞書データFRDi,nを得るようにする。   Then, the update of the face identification dictionary data FRDi, n is executed by the calculation formula shown in (Formula 4) of FIG. 32 used in the description of the second embodiment. That is, the dictionary data update processing unit 14 includes the feature vectors Vi, n, k included in each of the K pieces of dictionary data generation information DPIi, n, 1 to DPIi, n, K and the corresponding weight coefficients Wi, n. , K is divided by the sum of N weighting coefficients, and updated face identification dictionary data FRDi, n is obtained.

前述もしたように、この顔識別用辞書データFRDi,n(特徴ベクトルに対応)は、従来は、図32の(式5)に示すように、K個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Kに含まれる特徴ベクトルの総和を、個数Kで除算した単純平均により求めていたものに比べて、K個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Kの総合スコアに応じた重み係数を用いた値となり、顔識別用辞書データFRDi,nの精度が向上する。   As described above, this face identification dictionary data FRDi, n (corresponding to the feature vector) has conventionally been K pieces of dictionary data generation information DPIi, n, 1 to DPIi, n, and K, the dictionary data generation information DPIi, n, 1 to DPIi, n, compared to that obtained by a simple average obtained by dividing the sum of feature vectors by the number K. It becomes a value using a weighting coefficient corresponding to the total score of K, and the accuracy of the face identification dictionary data FRDi, n is improved.

そして、K個の辞書データ生成用情報DPIi,n,1〜DPIi,n,Kとしては、常に、総合スコアが高いものが顔識別用辞書データベース10に残るようにしているので、顔識別用辞書データFRDi,nは、より高精度のものに更新されることとなる。   Since K dictionary data generation information DPIi, n, 1 to DPIi, n, K always has a high total score, it remains in the face identification dictionary database 10. The data FRDi, n is updated with higher accuracy.

新たに取り込んだ顔画像についての総合スコアSOnewが、顔識別用辞書データベース10中に格納されている辞書データ生成用情報DPIi,n,kのいずれよりも小さいと判別したときには、個人辞書データDiの顔識別用辞書データFRDi,nの更新は行なわない。新たに取り込んだ顔画像についての特徴ベクトルの総合スコアSOnewを用いた更新を行なうと、顔識別用辞書データFRDiの精度が悪くなってしまうからである。   When it is determined that the total score SOnew for the newly captured face image is smaller than any of the dictionary data generation information DPIi, n, k stored in the face identification dictionary database 10, the personal dictionary data Di The face identification dictionary data FRDi, n is not updated. This is because if the update using the total score SOnew of the feature vector for the newly captured face image is performed, the accuracy of the face identification dictionary data FRDi deteriorates.

なお、顔識別用辞書データベース10において、期間辞書データTDi,nに辞書データ生成用情報DPIi,n,kが、最大数であるK個以下しか存在しないときには、辞書データ更新処理部14は、新たに取り込んだ顔画像のデータについての総合スコアSOnewと、顔識別用辞書データベース10に格納されている辞書データ生成用情報DPIi,n,kとの比較は行なわずに、新たに取り込んだ顔画像についての特徴ベクトル、取得時刻情報、算出された総合スコアSOnew、重み係数Wnewなどを、最新の辞書データ生成用情報DPIi,n,kとして顔識別用辞書データベース10に格納し、顔識別用辞書データFRDi,nの生成・更新処理を実行する。その場合における顔識別用辞書データFRDi,nの生成の際には、辞書データ更新処理部14は、前記(式4)におけるKの代わりに、顔識別用辞書データベース10に、当該期間辞書データTDi,nの一部として格納されている辞書データ生成用情報DPIi,n,kの個数を用いて、顔識別用辞書データFRDi,nの生成・更新処理を実行する。   When the dictionary data generation information DPIi, n, k is less than or equal to the maximum number in the period dictionary data TDi, n in the face identification dictionary database 10, the dictionary data update processing unit 14 The total score SOnew for the face image data captured in step S3 is not compared with the dictionary data generation information DPIi, n, k stored in the face identification dictionary database 10, and the newly captured face image is compared. Are stored in the face identification dictionary database 10 as the latest dictionary data generation information DPIi, n, k, and the face identification dictionary data FRDi. , N generation / update processing is executed. In generating the face identification dictionary data FRDi, n in that case, the dictionary data update processing unit 14 stores the period dictionary data TDi in the face identification dictionary database 10 in place of K in (Expression 4). , N is used to generate / update face identification dictionary data FRDi, n using the number of dictionary data generation information DPIi, n, k stored as part of n.

そして、顔識別用辞書データベース10に、期間辞書データTDi,nの一部として辞書データ生成用情報DPIi,n,kが、最大数K個格納されたときから、辞書データ更新処理部14は、上述した、新たに取り込んだ顔画像についての総合スコアSOnewと、格納されている辞書データ生成用情報DPIi,n,kのそれぞれの総合スコアSOi,n,kとの比較を行なって、総合スコアのより高いものを用いた顔識別用辞書データFRDi,nの更新をするようにする。   When the maximum number K of dictionary data generation information DPIi, n, k is stored in the face identification dictionary database 10 as part of the period dictionary data TDi, n, the dictionary data update processing unit 14 The above-described total score SOnew for the newly captured face image is compared with the total score SOi, n, k of the stored dictionary data generation information DPIi, n, k, and the total score The face identification dictionary data FRDi, n using a higher one is updated.

なお、以上説明した図1のブロック構成において、顔識別用画像処理部11、顔識別処理部12、表示情報生成部13、辞書データ更新処理部14、スコア算出部17の各部は、ハードウエアの構成としてもよいし、CPU1が、ROM3に格納されたソフトウエアプログラムに基づいて、RAM4をワークエリアとして用いてソフトウエア処理を実行するソフトウエア機能部として構成しても良い。   In the block configuration shown in FIG. 1 described above, each of the face identification image processing unit 11, the face identification processing unit 12, the display information generation unit 13, the dictionary data update processing unit 14, and the score calculation unit 17 includes hardware components. The CPU 1 may be configured as a software function unit that executes software processing using the RAM 4 as a work area based on a software program stored in the ROM 3.

また、上述の構成では、辞書データ生成用情報DPIi,n,kとしては、特徴ベクトルと、時刻情報と、総合スコアと、重み係数を少なくとも含むものとしたが、重み係数は、保存せずに、後で、保存した総合スコアから算出するようにしてもよい。   In the above configuration, the dictionary data generation information DPIi, n, k includes at least a feature vector, time information, a total score, and a weighting factor. However, the weighting factor is not stored. Later, it may be calculated from the stored total score.

また、特徴ベクトルの代わりに、取り込んだ顔画像の情報を保存しておき、その保存した顔画像の情報から特徴ベクトルを抽出し直すようにしてもよい。総合スコアと、重み係数も、保存した顔画像の情報から算出しなおすようにしても良い。その場合には、辞書データ生成用情報DPIi,n,kには、少なくとも顔画像の情報を含むようにすれば良い。   Further, instead of the feature vector, the captured face image information may be stored, and the feature vector may be extracted again from the stored face image information. The total score and the weighting factor may be recalculated from the stored face image information. In that case, the dictionary data generation information DPIi, n, k may include at least face image information.

[第3の実施形態の個人識別装置における処理動作]
次に、上述の構成の第3の実施形態の個人識別装置における取り込んだ顔画像の特徴データについてのスコア算出動作および顔識別用辞書データの更新処理動作について説明する。
[Processing in the personal identification device of the third embodiment]
Next, the score calculation operation for the captured face image feature data and the update processing operation for the face identification dictionary data in the personal identification device of the third embodiment having the above-described configuration will be described.

[顔識別用辞書データベースの更新処理]
この第3の実施形態における顔識別用辞書データベース10の期間辞書データの更新処理を説明する。図46は、この顔識別用辞書データベース10の期間辞書データTDi,nの顔識別用辞書データFRDi,nの更新処理の一例のフローチャートである。この図46の各処理ステップは、この実施形態では、スコア算出部17と、辞書データ更新処理部14とが、CPU1の制御にしたがって実行するものである。なお、CPU1が、ROM3に格納されたソフトウエアプログラムに基づいてRAM4をワークエリアとして用いて、上記各部の処理をソフトウエア処理として実行するように構成して、上記各部を省略しても良いことは、前述した通りである。
[Update processing of face identification dictionary database]
The period dictionary data update processing of the face identification dictionary database 10 in the third embodiment will be described. FIG. 46 is a flowchart of an example of an update process of the face identification dictionary data FRDi, n of the period dictionary data TDi, n of the face identification dictionary database 10. In this embodiment, each processing step in FIG. 46 is executed by the score calculation unit 17 and the dictionary data update processing unit 14 according to the control of the CPU 1. The CPU 1 may be configured to execute the process of each unit as a software process by using the RAM 4 as a work area based on a software program stored in the ROM 3, and the above units may be omitted. Is as described above.

まず、CPU1は、スコア算出部17に総合スコアSOnewの算出開始指示を出す。これを受けたスコア算出部17は、前述したようにして、総合スコアSOnewおよび重み係数Wnewを算出し、その算出結果を出力する(ステップS401)。この総合スコアSOnewおよび重み係数Wnewの算出処理の詳細な流れについては、後で詳述する。CPU1は、この総合スコアSOnewおよび重み係数Wnewを、辞書データ更新処理部14に転送する。   First, the CPU 1 instructs the score calculation unit 17 to start calculation of the total score SOnew. Upon receiving this, the score calculation unit 17 calculates the total score SOnew and the weighting coefficient Wnew as described above, and outputs the calculation result (step S401). A detailed flow of the calculation process of the total score SOnew and the weighting coefficient Wnew will be described in detail later. The CPU 1 transfers the total score SOnew and the weighting coefficient Wnew to the dictionary data update processing unit 14.

なお、この実施形態のように、スコア算出部17をハードウエアとして独立して持つ場合には、顔識別用画像処理部11で、特徴ベクトルの生成が成功したときには、検出した顔画像データと、目検出出力などを、スコア算出部17で受け取り、その時点から総合スコアSOnewおよび重み係数Wnewの算出処理を、顔識別処理と平行して行なっておくようにしてもよい。その場合には、顔識別用辞書データベース10の更新タイミングでは、スコア算出部17で、既に総合スコアSOnewおよび重み係数Wnewが算出済みであって、それらがワークエリアRAM4に保存されているので、ステップS401では、CPU1は、ワークエリアRAM4に保存されているそれら総合スコアSOnewおよび重み係数Wnewを読み出して、辞書データ更新処理部14に転送するようにする。   In the case where the score calculation unit 17 is independently provided as hardware as in this embodiment, when the face identification image processing unit 11 successfully generates the feature vector, the detected face image data, An eye detection output or the like may be received by the score calculation unit 17 and the calculation process of the total score SOnew and the weighting coefficient Wnew may be performed in parallel with the face identification process from that point. In this case, at the update timing of the face identification dictionary database 10, the score calculation unit 17 has already calculated the total score SOnew and the weighting coefficient Wnew and stored them in the work area RAM 4. In S401, the CPU 1 reads out the total score SOnew and the weighting coefficient Wnew stored in the work area RAM 4 and transfers them to the dictionary data update processing unit 14.

辞書データ更新処理部14は、ステップS401で算出された(得られた)取り込んだ顔画像の特徴ベクトルについての総合スコアSOnewの値が、SOnew=0であるか否か判別し(ステップS402)、SOnew=0であれば、その旨をCPU1に知らせる。CPU1は、この通知を受けて、取り込んだ顔画像の特徴ベクトルは辞書データの更新には使用できない信頼性の無い特徴ベクトルであると判断して、そのままこの処理ルーチンを終了する。   The dictionary data update processing unit 14 determines whether or not the value of the total score SOnew for the feature vector of the captured face image calculated (obtained) in step S401 is SOnew = 0 (step S402). If SOnew = 0, this is notified to the CPU 1. Upon receiving this notification, the CPU 1 determines that the feature vector of the captured face image is an unreliable feature vector that cannot be used for updating the dictionary data, and ends this processing routine as it is.

また、ステップS402で、SOnew=0ではないと判別したときには、辞書データ更新処理部14は、照合結果として正解とされた照合対象者、あるいは、図4または図5などの画面においてユーザにより氏名が入力された照合対象者の辞書データ生成用情報DPIi,n,kとしては、蓄積可能個数として最大であるK個が、既に蓄積済みであるか否か判別する(ステップS403)。   If it is determined in step S402 that SOnew = 0 is not satisfied, the dictionary data update processing unit 14 determines the name of the person to be collated as a collation result or the user on the screen of FIG. 4 or FIG. As the input dictionary data generation information DPIi, n, k of the person to be collated, it is determined whether or not K, which is the maximum storable number, has already been accumulated (step S403).

K個の辞書データ生成用情報DPIi,n,kが蓄積済みではないと判別したときには、辞書データ更新処理部14は、取り込んだ顔画像についての特徴ベクトル、時刻情報、総合スコアSOnew、重み係数Wnewなどを、照合対象者(照合結果として正解とされた照合対象者と、ユーザにより氏名が入力された照合対象者の両方を含む。以下同じ)の新たな辞書データ生成用情報DPIi,n,kとして、顔識別用辞書データベース10に追加する(ステップS404)。   When it is determined that the K pieces of dictionary data generation information DPIi, n, k have not been accumulated, the dictionary data update processing unit 14 determines the feature vector, time information, total score SOnew, and weight coefficient Wnew for the captured face image. And the like, including new dictionary data generation information DPIi, n, k for a collation target person (including both a collation target person who is correct as a collation result and a collation target person whose name is entered by the user; the same applies hereinafter). Is added to the face identification dictionary database 10 (step S404).

そして、辞書データ更新処理部14は、当該照合対象者の顔識別用辞書データFRDi,nを、前述した(式4)により生成して、更新する(ステップS408)。なお、このときには、辞書データ生成用情報DPIi,n,kはK個以下であるので、(式4)においては、Kの代わりに、辞書データ生成用情報DPIi,n,kとして保存されている数が用いられて、演算が行なわれることになる。   Then, the dictionary data update processing unit 14 generates and updates the face identification dictionary data FRDi, n of the person to be collated according to (Equation 4) described above (step S408). At this time, the number of dictionary data generation information DPIi, n, k is K or less, so in (Equation 4), the dictionary data generation information DPIi, n, k is stored instead of K. A number is used to perform the operation.

そして、ステップS203で、最大数であるK個の辞書データ生成用情報DPIi,n,kが蓄積済みであると判別したときには、辞書データ更新処理部14は、照合対象者のK個の辞書データ生成用情報DPIi,n,kの総合スコアSOi,n,kを順次に読み出して、新たに取り込んだ顔画像について算出した総合スコアSOnewと比較する(ステップS405)。   When it is determined in step S203 that the maximum number K of dictionary data generation information DPIi, n, k has already been accumulated, the dictionary data update processing unit 14 determines the K dictionary data of the person to be verified. The total score SOi, n, k of the generation information DPIi, n, k is sequentially read and compared with the total score SOnew calculated for the newly captured face image (step S405).

そして、辞書データ更新処理部14は、N個の辞書データ生成用情報DPIi,n,kのそれぞれの総合スコアSOi,n,kのうちに、取り込んだ顔画像についての総合スコアSOnewよりも小さい値のものがあるか否か判別し(ステップS406)、なければ、辞書データの更新の必要はないとして、このままこの処理ルーチンを終了する。   Then, the dictionary data update processing unit 14 has a value smaller than the total score SOnew for the captured face image among the total scores SOi, n, k of the N pieces of dictionary data generation information DPIi, n, k. It is determined whether or not there is any data (step S406). If there is no such data, it is determined that there is no need to update the dictionary data, and this processing routine is terminated.

また、ステップS406で、K個の辞書データ生成用情報DPIi,n,kのそれぞれの総合スコアSOi,n,kの中に、取り込んだ顔画像についての総合スコアSOnewよりも小さい値のものがあると判別したときには、辞書データ更新処理部14は、K個の辞書データ生成用情報DPIi,n,kの中で、総合スコアSOi,n,kが最小であるものを検出し、その検出した総合スコアSOi,n,kが最小である辞書データ生成用情報DPIi,n,kの蓄積内容と、総合スコアSOnewである顔画像についての特徴ベクトル、時刻情報、総合スコア、重み係数などからなる辞書データ生成用情報と同一内容とを入れ替える(ステップS407)。   In step S406, the total score SOi, n, k of each of the K dictionary data generation information DPIi, n, k has a value smaller than the total score SOnew for the captured face image. Is determined, the dictionary data update processing unit 14 detects the one having the minimum total score SOi, n, k among the K pieces of dictionary data generation information DPIi, n, k, and the detected total Dictionary data consisting of the accumulated contents of dictionary data generation information DPIi, n, k having the smallest score SOi, n, k, and feature vectors, time information, total score, weighting coefficient, etc. for the face image that is the total score SOnew The information for generation is replaced with the same content (step S407).

そして、ステップS407での入れ替えにより、K個の辞書データ生成用情報DPIi,n,kの内容が変わったことから、それらのK個の辞書データ生成用情報DPIi,n,kの重み係数と、特徴ベクトルとを用いて、前述した(式4)に基づく演算を行なって、当該照合対象者についての顔識別用辞書データFRDi,nの更新処理を実行する(ステップS408)。   Since the contents of the K dictionary data generation information DPIi, n, k are changed by the replacement in step S407, the weight coefficients of the K dictionary data generation information DPIi, n, k, Using the feature vector, the calculation based on the above-described (Expression 4) is performed, and the update processing of the face identification dictionary data FRDi, n for the person to be collated is executed (step S408).

以上で、この辞書データベースの更新処理ルーチンを終了する。   This is the end of the dictionary database update processing routine.

なお、期間辞書データTDi,nの新規登録の際には、総合スコアを算出すると共に、重み係数を算出し、それらを、辞書データ生成用情報DPIi,n,kの一部として記憶する点が異なるのみで、第1の実施形態の場合と同様であるので、その詳細な説明は省略する。   In addition, when newly registering the period dictionary data TDi, n, a total score is calculated, a weighting coefficient is calculated, and these are stored as a part of the dictionary data generation information DPIi, n, k. Since only the differences are the same as in the case of the first embodiment, a detailed description thereof will be omitted.

[スコア算出処理]
次に、スコア算出部17における総合スコアおよび重み係数の算出処理について説明する。図47およびその続きである図48は、スコア算出部17における総合スコアおよび重み係数の算出処理の流れの一例を示すフローチャートである。
[Score calculation processing]
Next, the calculation process of the total score and the weighting coefficient in the score calculation unit 17 will be described. FIG. 47 and FIG. 48, which is a continuation thereof, are flowcharts illustrating an example of the flow of the total score and weight coefficient calculation processing in the score calculation unit 17.

すなわち、スコア算出部17は、顔識別用画像処理部11から受け取った顔検出データサイズXaを検出し(ステップS501)、検出した顔画像のデータサイズXaが、予め設定されている顔画像の最小データサイズMIN_SIZEより小さいか否か判別する(ステップS502)。   That is, the score calculation unit 17 detects the face detection data size Xa received from the face identification image processing unit 11 (step S501), and the detected face image data size Xa is the minimum of the preset face image. It is determined whether or not the data size is smaller than MIN_SIZE (step S502).

そして、スコア算出部17は、顔画像のデータサイズXaが最小データサイズMIN_SIZEよりも小さいと判別したときには、顔画像のデータサイズXaに基づくスコアSa値を、図38に示したように、Sa=0とする(ステップS503)。   When the score calculation unit 17 determines that the data size Xa of the face image is smaller than the minimum data size MIN_SIZE, the score Sa value based on the data size Xa of the face image is Sa = It is set to 0 (step S503).

また、顔画像のデータサイズXaが最小データサイズMIN_SIZEよりも小さくはないと判別したときには、スコア算出部17は、顔画像のデータサイズXaが、予め定めた十二分な顔画像のデータサイズMAX_SIZEよりも大きいか否か判別する(ステップS504)。   When it is determined that the face image data size Xa is not smaller than the minimum data size MIN_SIZE, the score calculation unit 17 determines that the face image data size Xa is a predetermined enough face image data size MAX_SIZE. It is determined whether or not the value is greater than (step S504).

また、スコア算出部17は、ステップS504で、顔画像のデータサイズXaが、予め定めた十二分なデータサイズMAX_SIZEよりも大きいと判別したときには、スコアSaの値を、図38に示したように、Sa=1とする(ステップS505)。   When the score calculation unit 17 determines in step S504 that the face image data size Xa is larger than the predetermined sufficient data size MAX_SIZE, the value of the score Sa is as shown in FIG. Sa = 1 is set (step S505).

そして、ステップS504で、顔画像のデータサイズXaが、予め定めた十二分なデータサイズMAX_SIZEよりも小さいと判別したときには、スコア算出部17は、スコアSaは、図38に示したように、検出された顔画像のデータサイズXaに応じた値とする(ステップS506)。   When it is determined in step S504 that the face image data size Xa is smaller than the predetermined sufficient data size MAX_SIZE, the score calculation unit 17 sets the score Sa as shown in FIG. A value corresponding to the data size Xa of the detected face image is set (step S506).

次に、スコア算出部17は、取り込んだ顔画像の顔の向き(顔の角度)を検出する(ステップS507)。そして、スコア算出部17は、ヨー方向の正面正対状態からの顔画像の向きのずれの角度Ayawおよびピッチ方向の正面正対状態からの顔画像の向きのずれの角度Apitchを検出し(ステップS507)、それらの角度AyawおよびApitchが、共に前述した許容範囲内であるか、つまり、
−15度≦Ayaw≦+15度
かつ
−15度≦Apitch≦+15度
であるか否か判別する(ステップS508)。
Next, the score calculation unit 17 detects the face direction (face angle) of the captured face image (step S507). Then, the score calculation unit 17 detects the angle Ayaw of the face image orientation deviation from the front facing state in the yaw direction and the angle Apitch of the face image orientation deviation from the front facing state in the pitch direction (step) S507), whether the angles Ayaw and Apitch are both within the allowable range described above, that is,
−15 degrees ≦ Ayaw ≦ + 15 degrees and −15 degrees ≦ Apitch ≦ + 15 degrees
It is determined whether or not (step S508).

そして、スコア算出部17は、ステップS508で、角度Ayawおよび角度Apitchの両方が、前記許容範囲になっていると判別したときには、顔の角度が許容範囲にあるかどうかについてのスコアSbの値を、Sb=1とする(ステップS509)。   Then, when the score calculation unit 17 determines in step S508 that both the angle Ayaw and the angle Apitch are within the allowable range, the score calculation unit 17 determines the value of the score Sb regarding whether the face angle is within the allowable range. , Sb = 1 (step S509).

また、スコア算出部17は、ステップS508で、角度Ayawおよび角度Apitchの両方あるいは一方が、前記許容範囲になっていないと判別したときには、前記スコアSbの値を、Sb=0とする(ステップS510)。   If the score calculation unit 17 determines in step S508 that both or one of the angle Ayaw and the angle Apitch is not within the allowable range, the score Sb is set to Sb = 0 (step S510). ).

そして、ステップS509またはステップS510の次には、図48のステップS511に進み、スコア算出部17は、図40を用いて説明したように、パーツ検出処理により検出された左右両目の水平からずれ、つまり、前述した左右両目の間の垂直方向の距離Xcを検出する。   Then, after step S509 or step S510, the process proceeds to step S511 in FIG. 48, and the score calculation unit 17 deviates from the horizontal of the left and right eyes detected by the part detection process, as described with reference to FIG. That is, the vertical distance Xc between the left and right eyes described above is detected.

そして、スコア算出部17は、検出した距離Xcが、Xc=0であって、両目が水平に並んでいるか否か判別し(ステップS512)、水平に並んでいると判別したときには、スコアScの値を、Sc=1とする(ステップS513)。また、ステップS512で、水平に並んでいないと判別したときには、スコア算出部17は、前述したガウス分布関数にしたがったスコアScの算出式である(式6)(図42参照)に基づいて、スコアScの値を算出する(ステップS514)。   Then, the score calculation unit 17 determines whether or not the detected distance Xc is Xc = 0 and both eyes are aligned horizontally (step S512), and when determining that the eyes are aligned horizontally, the score Sc The value is Sc = 1 (step S513). When it is determined in step S512 that the lines are not horizontally arranged, the score calculation unit 17 calculates the score Sc according to the Gaussian distribution function described above (Expression 6) (see FIG. 42). The value of the score Sc is calculated (step S514).

そして、ステップS513またはステップS514の次には、ステップS515に進み、スコア算出部17は、図43を用いて説明したように、顔画像の中心線51と、両目の間隔の中点位置52との距離Xdを検出する(ステップS515)。   Then, after step S513 or step S514, the process proceeds to step S515, and the score calculation unit 17 determines that the center line 51 of the face image and the midpoint position 52 between the eyes as described with reference to FIG. The distance Xd is detected (step S515).

そして、スコア算出部17は、検出した距離Xdが、Xd=0であって、顔画像が正面正対状態であるか否か判別し(ステップS516)、顔画像が正面正対状態であると判別したときには、スコアSdの値を、Sd=1とする(ステップS517)。また、ステップS516で、顔画像が正面正対状態ではないと判別したときには、スコア算出部14は、前述したガウス分布関数にしたがったスコアSdの算出式である(式7)(図45参照)に基づいて、スコアSdの値を算出する(ステップS518)。   Then, the score calculation unit 17 determines whether or not the detected distance Xd is Xd = 0 and the face image is in the front facing state (step S516), and the face image is in the front facing state. When the determination is made, the value of the score Sd is set to Sd = 1 (step S517). If it is determined in step S516 that the face image is not in the front-facing state, the score calculation unit 14 is a calculation formula for the score Sd according to the Gaussian distribution function described above (Formula 7) (see FIG. 45). Based on the above, the value of the score Sd is calculated (step S518).

そして、ステップS513またはステップS514の次には、ステップS515に進み、スコア算出部17は、前述したようにして、算出したスコアSa,Sb,Sc,Sdを用いて、総合スコアSOnewを算出すると共に、算出した総合スコアSOnewから、重み係数Wnewを算出する(ステップS519)。以上で、スコア算出部17でのスコア算出処理を終了する。   Then, after step S513 or step S514, the process proceeds to step S515, and the score calculation unit 17 calculates the total score SOnew using the calculated scores Sa, Sb, Sc, Sd as described above. The weight coefficient Wnew is calculated from the calculated total score SOnew (step S519). Above, the score calculation process in the score calculation part 17 is complete | finished.

なお、以上の説明では、個人識別を行なった後には、当該個人識別に続いて、取り込んだ新たな顔画像を用いた顔識別用辞書データの更新を行なうようにしたが、新たに取り込んだ顔画像のデータあるいは特徴ベクトルと、時刻情報と、総合スコアと、重み係数とを一時記憶しておき、個人識別時点の後の時点において、顔識別用辞書データの更新を行うようにしても良い。   In the above description, after personal identification is performed, the face identification dictionary data is updated using the new captured face image following the personal identification. Image data or feature vectors, time information, an overall score, and weighting factors may be temporarily stored, and the face identification dictionary data may be updated at a time after the personal identification time.

また、総合スコアと、重み係数とは、一時記憶部や個人辞書データ記憶部に、両方とも記憶するのではなく、どちらか一方を記憶するようにしても良い。重み係数を記憶するようにする場合には、辞書データを更新するか否かの判定も、総合スコアではなく、重み係数を用いるようにしても良い。   Moreover, you may make it memorize | store either an integrated score and a weighting coefficient instead of memorize | storing both in a temporary memory part or a personal dictionary data memory | storage part. In the case where the weighting factor is stored, the determination as to whether or not to update the dictionary data may be made using the weighting factor instead of the total score.

[第3の実施形態の効果]
以上説明したように、上述の実施形態においては、各個人Piの期間辞書データTDi,n中の、最大K個の辞書データ生成用情報DPIi,n,kのそれぞれには、顔画像の特徴ベクトルについての信頼度を表す総合スコアSOi,n,kを記憶するようにしているので、新たに取り込んだ顔画像の特徴ベクトルについての信頼度を表す総合スコアSOnewと、記憶しているN個の顔画像の特徴ベクトルの総合スコアSOi,n,k(k=1〜K)とを比較することで、新たに取り込んだ顔画像の特徴ベクトルが、顔識別用辞書データを更新するために有効であるかどうかを判定することができる。
[Effect of the third embodiment]
As described above, in the above-described embodiment, each of the maximum K pieces of dictionary data generation information DPIi, n, k in the period dictionary data TDi, n of each individual Pi has a feature vector of a face image. Since the total score SOi, n, k representing the reliability of the face image is stored, the total score SOnew representing the reliability of the feature vector of the newly captured face image and the stored N faces By comparing the total score SOi, n, k (k = 1 to K) of the feature vector of the image, the feature vector of the newly captured face image is effective for updating the face identification dictionary data. It can be determined whether or not.

そして、比較の結果、新たに取り込んだ顔画像の特徴ベクトルについての総合スコアSOnewが、個人Piの期間辞書データTDi,n中のK個の辞書データ生成用情報DPIi,n,kのいずれかよりも大きいときには、最も、総合スコアSOi,n,kの低いものを削除して、その代わりに新たな顔画像の特徴ベクトルなど、辞書データ生成用情報と同じ内容のデータを保存することにより、常に、総合スコアの値が高く、信頼性の高いデータのみを、各個人Piの期間辞書データTDi,nのK個の辞書データ生成用情報として保存しておくことができる。   As a result of comparison, the total score SOnew for the feature vector of the newly captured face image is obtained from any one of the K dictionary data generation information DPIi, n, k in the period dictionary data TDi, n of the individual Pi. Is also deleted by deleting the one with the lowest total score SOi, n, k, and instead storing data having the same content as the dictionary data generation information, such as a new face image feature vector. Only data with a high total score value and high reliability can be stored as K dictionary data generation information for the period dictionary data TDi, n of each individual Pi.

そして、その信頼性の高いK個の辞書データ生成用情報DPIi,n,kのみを用いて顔識別用辞書データFRDi,nを更新するようにすることにより、顔識別用辞書データFRDi,nも、常に精度の高い辞書データとすることができる。   The face identification dictionary data FRDi, n is also updated by updating the face identification dictionary data FRDi, n using only the K dictionary data generation information DPIi, n, k with high reliability. Therefore, the dictionary data can be always highly accurate.

さらに、上述の実施形態では、顔識別用辞書データFRDi,nの更新演算においては、k個の辞書データ生成用情報DPIi,n,kのそれぞれの特徴ベクトルの単純平均を取るのではなく、それぞれの特徴ベクトルに、対応する総合スコアに基づく重み係数を乗算したものの総和を、重み係数の総和で除算するようにしたので、それぞれの特徴ベクトルは、その信頼度に応じて顔識別用辞書データFRDi,nの生成に寄与するようになるので、さらに高精度の辞書データを得ることができる。   Further, in the above embodiment, in the update calculation of the face identification dictionary data FRDi, n, instead of taking a simple average of the respective feature vectors of the k pieces of dictionary data generation information DPIi, n, k, Since the sum of the product vectors multiplied by the weighting factor based on the corresponding total score is divided by the sum of the weighting factors, each feature vector is stored in the face identification dictionary data FRDi according to its reliability. , N contributes to the generation of dictionary data with higher accuracy.

[第3の実施形態の変形例]
以上説明した第3の実施形態は、この発明を顔識別処理装置に適用した場合であるが、顔識別に限らないことは言うまでもない。
[Modification of Third Embodiment]
The third embodiment described above is a case where the present invention is applied to a face identification processing device. Needless to say, the present invention is not limited to face identification.

例えば、個人識別処理の場合において、人の声などを識別要素として個人を識別する場合においても、それぞれそれらの識別要素を取り込むときの1または複数の基準条件からのずれに基づいて、1または複数個のスコアを算出する。そして、算出したスコアが複数個、あるときには、その複数個のスコアを用いて総合スコアを算出する。   For example, in the case of personal identification processing, when identifying an individual using a person's voice or the like as an identification element, one or more based on the deviation from one or more reference conditions when each of the identification elements is captured. Calculate the score. If there are a plurality of calculated scores, the total score is calculated using the plurality of scores.

そして、上述の実施形態と同様に、スコアまたは総合スコアに基づいて、辞書データ生成用情報として保存する複数個のデータを選択したり、識別用辞書データの更新をしたりするようにすることができる。   And like the above-mentioned embodiment, based on a score or a total score, it is possible to select a plurality of data to be stored as dictionary data generation information or to update identification dictionary data. it can.

また、パーソナルコンピュータに複数枚の写真画像を取り込んで、アルバムなどとして保存する場合において、例えば、取り込んだ写真画像をメモリに記憶する際、取り込む画像について、例えば、人の顔が映っている画像である、高周波数成分が多い(輪郭がはっきりしている)画像である、などの基準条件を定め、その基準条件からのずれからスコアまたは総合スコアを算出し、そのスコアまたは総合スコアを、写真画像に対応させて記憶するようにする場合にも適用できる。   In addition, when capturing a plurality of photographic images in a personal computer and saving them as an album, for example, when storing the captured photographic images in a memory, the captured image is, for example, an image showing a human face. A reference condition such as an image having a lot of high frequency components (having a clear outline) is defined, a score or an overall score is calculated from a deviation from the reference condition, and the score or the overall score is converted into a photographic image It can also be applied to the case of storing in correspondence with the.

このようにすれば、スコアまたは総合スコアの高いもの順に、写真画像を並べるなど、基準条件に近い画像を優先して表示するようにすることができる。   In this way, it is possible to preferentially display images close to the reference condition, such as arranging photographic images in descending order of score or overall score.

この発明による個人識別装置の第1の実施形態のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of 1st Embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の例を説明するために用いる図である。It is a figure used in order to explain an example of face identification processing in an embodiment of a personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の例を説明するために用いる図である。It is a figure used in order to explain an example of face identification processing in an embodiment of a personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の例を説明するために用いる図である。It is a figure used in order to explain an example of face identification processing in an embodiment of a personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の例を説明するために用いる図である。It is a figure used in order to explain an example of face identification processing in an embodiment of a personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の例を説明するために用いる図である。It is a figure used in order to explain an example of face identification processing in an embodiment of a personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の例を説明するために用いる図である。It is a figure used in order to explain an example of face identification processing in an embodiment of a personal identification device by this invention. この発明の第1の実施形態における顔識別用辞書データベースの格納内容の例を説明するための図である。It is a figure for demonstrating the example of the storage content of the dictionary database for face identification in 1st Embodiment of this invention. この発明の第1の実施形態における顔識別用辞書データベースの格納内容の例を説明するための図である。It is a figure for demonstrating the example of the storage content of the dictionary database for face identification in 1st Embodiment of this invention. この発明の第1の実施形態における顔識別用辞書データベースの格納内容のフォーマット例を説明するための図である。It is a figure for demonstrating the example of a format of the storage content of the dictionary database for face identification in 1st Embodiment of this invention. この発明の第1の実施形態における顔識別用辞書データベースの格納内容のフォーマット例を説明するための図である。It is a figure for demonstrating the example of a format of the storage content of the dictionary database for face identification in 1st Embodiment of this invention. この発明の実施形態における期間辞書データが対応する期間を説明するための図である。It is a figure for demonstrating the period which the period dictionary data in embodiment of this invention respond | correspond. この発明の実施形態における期間辞書データが対応する期間を説明するための図である。It is a figure for demonstrating the period which the period dictionary data in embodiment of this invention respond | correspond. この発明による個人識別装置の実施形態における辞書期間パラメータ設定の例を説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating the example of the dictionary period parameter setting in embodiment of the personal identification device by this invention. この発明の実施形態における顔識別用辞書データベースの格納内容のフォーマットの他の例を説明するための図である。It is a figure for demonstrating the other example of the format of the storage content of the dictionary database for face identification in embodiment of this invention. この発明による個人識別装置の実施形態における顔識別処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the face identification process in embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the face identification process in embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the face identification process in embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における期間辞書データの検索処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the search process of the period dictionary data in embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における期間辞書データの検索処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the search process of the period dictionary data in embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における期間辞書データの新規登録処理の流れを説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating the flow of the new registration process of the period dictionary data in embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における顔識別用辞書データの更新処理の流れを説明するためのフローチャートを示す図である。It is a figure for demonstrating the flow for the update process of the dictionary data for face identification in embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of 2nd Embodiment of the personal identification device by this invention. この発明の第2の実施形態における顔識別用辞書データベースの格納内容のフォーマット例を説明するための図である。It is a figure for demonstrating the example of a format of the storage content of the dictionary database for face identification in 2nd Embodiment of this invention. この発明の第2の実施形態における顔識別用辞書データベースの格納内容のフォーマット例を説明するための図である。It is a figure for demonstrating the example of a format of the storage content of the dictionary database for face identification in 2nd Embodiment of this invention. この発明による個人識別装置の第2の実施形態における重み係数算出方法の選択設定を説明するための図である。It is a figure for demonstrating selection setting of the weighting coefficient calculation method in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における重み係数算出方法の第1の例を説明するための図である。It is a figure for demonstrating the 1st example of the weighting coefficient calculation method in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における重み係数算出方法の第2の例を説明するための図である。It is a figure for demonstrating the 2nd example of the weighting coefficient calculation method in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における重み係数算出方法の第2の例の説明に用いる図である。It is a figure used for description of the 2nd example of the weighting coefficient calculation method in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における重み係数算出方法の第3の例を説明するための図である。It is a figure for demonstrating the 3rd example of the weighting coefficient calculation method in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における重み係数算出方法の第4の例を説明するための図である。It is a figure for demonstrating the 4th example of the weighting coefficient calculation method in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における顔識別用辞書データの算出方法の一例を説明するために用いる図である。It is a figure used in order to demonstrate an example of the calculation method of the dictionary data for face identification in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における顔識別用辞書データの更新処理の流れを説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating the flow of the update process of the dictionary data for face identification in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第2の実施形態における重み係数算出処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the weighting coefficient calculation process in 2nd Embodiment of the personal identification device by this invention. この発明による個人識別装置の実施形態における重み係数算出処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the weighting coefficient calculation process in embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of 3rd Embodiment of the personal identification device by this invention. この発明の第3の実施形態における顔識別用辞書データベースの格納内容のフォーマット例を説明するための図である。It is a figure for demonstrating the example of a format of the storage content of the dictionary database for face identification in 3rd Embodiment of this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔画像について算出するスコアの一つを説明するための図である。It is a figure for demonstrating one of the scores calculated about the face image in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態における顔識別用辞書データの更新処理の流れを説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating the flow of the update process of the dictionary data for face identification in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態におけるスコア算出処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the score calculation process in 3rd Embodiment of the personal identification device by this invention. この発明による個人識別装置の第3の実施形態におけるスコア算出処理の流れを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the flow of the score calculation process in 3rd Embodiment of the personal identification device by this invention.

符号の説明Explanation of symbols

10…顔識別用辞書データベース、11…顔識別用画像処理部、12…顔識別処理部、14…辞書データ更新処理部、15…重み係数算出部、16…辞書データ生成・更新部、17…スコア算出部   DESCRIPTION OF SYMBOLS 10 ... Face identification dictionary database, 11 ... Face identification image processing part, 12 ... Face identification processing part, 14 ... Dictionary data update processing part, 15 ... Weight coefficient calculation part, 16 ... Dictionary data generation / update part, 17 ... Score calculator

Claims (10)

個人を識別するための辞書データとして、複数個の異なる期間のそれぞれにおける前記個人を識別するための識別要素から抽出された特徴データから生成した複数個の期間辞書データを備え、
前記個人の前記異なる期間のそれぞれにおける識別は、対応する期間の前記期間辞書データを用いて行なうことを特徴とする個人識別装置。
As dictionary data for identifying an individual, a plurality of period dictionary data generated from feature data extracted from an identification element for identifying the individual in each of a plurality of different periods,
The personal identification device characterized in that identification of the individual in each of the different periods is performed using the period dictionary data of a corresponding period.
請求項1に記載の個人識別装置において、
前記複数個の期間辞書データのそれぞれが対応する期間の長さは、同一とされる
ことを特徴とする個人識別装置。
The personal identification device according to claim 1,
The length of the period to which each of the plurality of period dictionary data corresponds is the same.
請求項1に記載の個人識別装置において、
前記複数個の期間辞書データのそれぞれが対応する期間の長さは、可変とされる
ことを特徴とする個人識別装置。
The personal identification device according to claim 1,
The length of the period to which each of the plurality of period dictionary data corresponds is variable.
請求項1に記載の個人識別装置において、
前記複数個の期間辞書データの期間のうちの、隣接する2つの期間に対応する期間辞書データの期間は、互いに一部重複する期間を備える
ことを特徴とする個人識別装置。
The personal identification device according to claim 1,
The period of the period dictionary data corresponding to two adjacent periods among the periods of the plurality of period dictionary data includes a period partially overlapping each other.
請求項1に記載の個人識別装置において、
前記複数個の期間辞書データのそれぞれが対応する期間の長さは、前記期間における前記個人の年齢に応じて可変とされる
ことを特徴とする個人識別装置。
The personal identification device according to claim 1,
The length of the period to which each of the plurality of period dictionary data corresponds is variable according to the age of the individual in the period.
請求項4に記載の個人識別装置において、
前記個人から前記識別要素が取り込まれたときの時間が、前記隣接する2つの期間に対応する期間辞書データの前記重複する期間内であるときには、いずれか一方の期間辞書データを用いて個人識別を行なう
ことを特徴とする個人識別装置。
The personal identification device according to claim 4,
When the time when the identification element is captured from the individual is within the overlapping period of the period dictionary data corresponding to the two adjacent periods, personal identification is performed using one of the period dictionary data. A personal identification device characterized by performing.
請求項6に記載の個人識別装置において、
前記いずれか一方の期間辞書データは、対応する期間に取り込まれた前記識別要素数が多い方の辞書データとされる
ことを特徴とする個人識別装置。
The personal identification device according to claim 6,
One of the period dictionary data is dictionary data having a larger number of identification elements captured in a corresponding period.
請求項1に記載の個人識別装置において、
前記期間辞書データは、対応する期間における前記個人の新たな前記識別要素を取得するたびに更新するものであって、
前記識別要素から抽出された特徴データに対して、その取り込み時刻に応じた重み係数で重み付けを行なって、前記期間辞書データを更新する
ことを特徴とする個人識別装置。
The personal identification device according to claim 1,
The period dictionary data is updated each time the new identification element of the individual in a corresponding period is acquired,
A personal identification device, wherein the period dictionary data is updated by weighting the feature data extracted from the identification element with a weighting coefficient according to the time of capture.
請求項1に記載の個人識別装置において、
前記期間辞書データは、対応する期間における前記個人の新たな前記識別要素を取得するたびに更新するものであって、
前記識別要素から抽出された特徴データに対して、前記取得された前記識別要素について予め定められている基準条件からのずれに応じて定められている信頼度の情報に基づく重み付けを行なって、前記期間辞書データを更新する
ことを特徴とする個人識別装置。
The personal identification device according to claim 1,
The period dictionary data is updated each time the new identification element of the individual in a corresponding period is acquired,
The feature data extracted from the identification element is weighted based on reliability information determined according to a deviation from a predetermined reference condition for the acquired identification element, and A personal identification device characterized by updating period dictionary data.
個人を識別するための辞書データとして、複数個の異なる期間のそれぞれにおける前記個人を識別するための識別要素から抽出された特徴データから生成した複数個の期間辞書データを用意し、
前記個人の前記異なる期間のそれぞれにおける識別は、対応する期間の前記期間辞書データを用いて行なうことを特徴とする個人識別方法。
A plurality of period dictionary data generated from feature data extracted from identification elements for identifying the individual in each of a plurality of different periods as dictionary data for identifying an individual,
The personal identification method characterized in that identification of the individual in each of the different periods is performed using the period dictionary data of a corresponding period.
JP2006351350A 2006-12-27 2006-12-27 Personal identification device and personal identification method Pending JP2008165314A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006351350A JP2008165314A (en) 2006-12-27 2006-12-27 Personal identification device and personal identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006351350A JP2008165314A (en) 2006-12-27 2006-12-27 Personal identification device and personal identification method

Publications (2)

Publication Number Publication Date
JP2008165314A true JP2008165314A (en) 2008-07-17
JP2008165314A5 JP2008165314A5 (en) 2009-12-03

Family

ID=39694781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006351350A Pending JP2008165314A (en) 2006-12-27 2006-12-27 Personal identification device and personal identification method

Country Status (1)

Country Link
JP (1) JP2008165314A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010103735A1 (en) * 2009-03-13 2010-09-16 オムロン株式会社 Face collation device, electronic appliance, method of controlling face collation device, and control program of face collation device
JP2010237756A (en) * 2009-03-30 2010-10-21 Fujifilm Corp Face authentication method and face authentication apparatus
JP2013149242A (en) * 2011-12-22 2013-08-01 Canon Inc Information processor, control method for the same and program
JP2015069495A (en) * 2013-09-30 2015-04-13 富士フイルム株式会社 Person recognition apparatus, person recognition method, and person recognition program and recording medium therefor
JP2016004412A (en) * 2014-06-17 2016-01-12 株式会社ニコン Person identification device and electronic control device
JP2016012324A (en) * 2014-06-30 2016-01-21 東芝テック株式会社 Information processing apparatus and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167632A (en) * 1997-12-02 1999-06-22 Omron Corp Identification device
JPH11175718A (en) * 1997-12-12 1999-07-02 Toshiba Corp Person recognition apparatus and method
JP2001229380A (en) * 2000-02-15 2001-08-24 Fujitsu Denso Ltd Fingerprint matching system and method
JP2003044858A (en) * 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd Personal authentication device and method
WO2006093508A2 (en) * 2004-06-01 2006-09-08 Lumidigm, Inc. Multispectral imaging biometrics

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167632A (en) * 1997-12-02 1999-06-22 Omron Corp Identification device
JPH11175718A (en) * 1997-12-12 1999-07-02 Toshiba Corp Person recognition apparatus and method
JP2001229380A (en) * 2000-02-15 2001-08-24 Fujitsu Denso Ltd Fingerprint matching system and method
JP2003044858A (en) * 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd Personal authentication device and method
WO2006093508A2 (en) * 2004-06-01 2006-09-08 Lumidigm, Inc. Multispectral imaging biometrics

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010103735A1 (en) * 2009-03-13 2010-09-16 オムロン株式会社 Face collation device, electronic appliance, method of controlling face collation device, and control program of face collation device
JP2010218059A (en) * 2009-03-13 2010-09-30 Omron Corp Face collation device, electronic apparatus, and method and program for controlling face collation device
CN102124492A (en) * 2009-03-13 2011-07-13 欧姆龙株式会社 Face collation device, electronic appliance, method of controlling face collation device, and control program of face collation device
KR101168546B1 (en) 2009-03-13 2012-07-27 오므론 가부시키가이샤 Face collation device, electronic appliance, method of controlling face collation device, and control program of face collation device
US8396264B2 (en) 2009-03-13 2013-03-12 Omron Corporation Face matching device, electronic device, face matching device control method, and face matching device control program
CN102124492B (en) * 2009-03-13 2013-06-19 欧姆龙株式会社 Face collation device, electronic appliance, method of controlling face collation device, and control program of face collation device
JP2010237756A (en) * 2009-03-30 2010-10-21 Fujifilm Corp Face authentication method and face authentication apparatus
JP2013149242A (en) * 2011-12-22 2013-08-01 Canon Inc Information processor, control method for the same and program
JP2015069495A (en) * 2013-09-30 2015-04-13 富士フイルム株式会社 Person recognition apparatus, person recognition method, and person recognition program and recording medium therefor
JP2016004412A (en) * 2014-06-17 2016-01-12 株式会社ニコン Person identification device and electronic control device
JP2016012324A (en) * 2014-06-30 2016-01-21 東芝テック株式会社 Information processing apparatus and program

Similar Documents

Publication Publication Date Title
JP4305672B2 (en) Personal identification device, personal identification method, identification dictionary data update method, and identification dictionary data update program
TWI401608B (en) Image processing apparatus, image processing method, person identification apparatus, and method and program of producing/updating dictionary data in person identification
JP5403838B2 (en) Digital image organization by correlating faces
US8358811B2 (en) Method and apparatus to incorporate automatic face recognition in digital image collections
KR102114564B1 (en) Learning system, learning device, learning method, learning program, teacher data creation device, teacher data creation method, teacher data creation program, terminal device and threshold change device
JP7380567B2 (en) Information processing device, information processing method, and information processing program
US11323577B2 (en) Image processing device for creating an album
CN108335026A (en) Bank password information changes implementation method, equipment, system and storage medium
CN111598899A (en) Image processing method, image processing apparatus, and computer-readable storage medium
JP2019023785A (en) Person identification device and program
JP7435837B2 (en) Information processing system, information processing device, information processing method, and program
JP6127926B2 (en) Image processing apparatus and image processing method
JP2010231744A (en) Information processing apparatus, program and image data management method
JP2008165314A (en) Personal identification device and personal identification method
JP2020052520A (en) Judgment device, judgment method, and program
US9621505B1 (en) Providing images with notifications
CN113158020B (en) Video recommendation method and device
Kalyani et al. Remembrance of Monocotyledons Using Residual Networks
US10783616B2 (en) Method and apparatus for sharing and downloading light field image
US20230205475A1 (en) Image display method and recording medium
JP2007102549A (en) Image search support device
JP2019046056A (en) Image reading device, health management system
JP3851524B2 (en) Homology analysis system, homology analysis method, homology analysis program, and transaction formation system
CN115481266A (en) Processing method and electronic equipment
CN119313891A (en) Target recognition method, electronic device and computer-readable storage medium

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090824

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120705