[go: up one dir, main page]

JP2004013768A - Personal identification method - Google Patents

Personal identification method Download PDF

Info

Publication number
JP2004013768A
JP2004013768A JP2002169531A JP2002169531A JP2004013768A JP 2004013768 A JP2004013768 A JP 2004013768A JP 2002169531 A JP2002169531 A JP 2002169531A JP 2002169531 A JP2002169531 A JP 2002169531A JP 2004013768 A JP2004013768 A JP 2004013768A
Authority
JP
Japan
Prior art keywords
image
color
personal identification
person
skin color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002169531A
Other languages
Japanese (ja)
Inventor
Brejeon Arnaud
アルノ ブレジョン
Kumar Sharma Pramod
プラモド クマール シャルマ
Shavit Adi
アディ シャヴィット
Siegal Dana
ダナ シーガル
Kazufumi Suzuki
鈴木 一史
Yoshio Ichihashi
市橋 敬男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gentech Co Ltd
Original Assignee
Gentech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gentech Co Ltd filed Critical Gentech Co Ltd
Priority to JP2002169531A priority Critical patent/JP2004013768A/en
Publication of JP2004013768A publication Critical patent/JP2004013768A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique (method) for identifying individual which stably gives a correct result by making effective use of colors. <P>SOLUTION: The individual identification method includes a step that defines a skin color by using a color system which is not affected by lightness and detects an area showing the skin color from an image taken in color, a step which discriminates whether the image detected of the area showing the skin color is a forward-facing image of the face of a person and a step which identifies an individual who meets the conditions of the forward-facing the image of the face of the person from among individuals registered in advance. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、カラー撮影画像から所定の個人を識別する画像認識の技術分野に属
する。
【0002】
【従来の技術】
撮影画像を利用して個人を識別する技術は、従来から主にセキュリティの分野やロボットの分野で開発されてきた。即ち、セキュリティの分野では、対象とする人物が登録された人間の中から特定の個人を識別することはセキュリティを保つ意味で重要である。一方、個人を識別する能力をロボットに持たせて知能を持ったロボットにすることは単なる興味を超えてロボットを人間社会で役立つようにするために重要な技術である。しかし、個人を認識する技術は人間にとっては容易であっても、機械にとっては簡単ではない。このために、従来から個人を識別する技術及びこれに関連する技術が少なからず開発されてきたが、未だ十分に信頼ができ、しかもコンパクトで実用的な装置が開発されていない。
【0003】
例えば、公開特許公報、平11−339048号には、セキュリティを目的とした個人識別技術(方法、装置)が開示されている。図10はこの個人識別装置(以下、従来装置1という。)の構成を示し、図11は手順を示すフローチャートである。図10で、撮影装置110はCCDカメラと横方向から光を照射する照明装置を具備し、画像メモリ111には光を照射した撮影画像と光を照射しない撮影画像が記録される。撮影対象判定部112は画像メモリ111の撮影画像が人間を撮影した画像であるか人間の顔写真を撮影した画像であるかを判別する。顔領域抽出部113は、従来技術を利用して識別対象者の顔画像を抽出する。例えば、背景の画像と人物を含んだ画像の差分を利用する。特徴抽出部114は従来技術を利用して顔の特徴量を求める。例えば、平均的な顔との差を主成分分析する統計的手法と目、鼻、口等の濃淡画像からテンプレートマッチングする方法が知られている。類似度判定部115は識別対象者の顔の特徴量と登録されている顔の特徴量を比較して類似度を算出する。
【0004】
この個人識別装置(従来装置1)の主要なポイントは、撮影画像が人間を撮影した画像であるか人間の顔写真を撮影した画像であるかを判別する点にある。即ち、カメラの横方向から光を照射して撮影する場合には人間の撮影画像には顔の輪郭、目鼻口等の形状、顔の凹凸により撮影画像に陰影が表れるが、これに対して写真の画像では表れない。なお、図11のフローチャートは眺めて戴ければ理解できるので説明は省略する。
【0005】
公開特許公報、2002−56338号にはロボットに適用した個人識別装置が開示されている。図12はこの個人識別装置(以下、従来装置2という。)を利用したロボット装置の構成図を示す。図13はロボット装置の中の人物識別装置を図示し、図14は人物識別手段の処理手順を示す。この従来装置は家庭環境のような照明条件が一定でない環境における人物識別を主目的にしている。以下、本発明と関連のあると思われる部分について簡略に説明する。図13において、人物識別装置214は映像取得手段202,対面距離センサ205、人物検出手段201等を備えている。ここで、映像取得手段202は左右のカメラ203,204を具備し、対面距離センサ205はカメラの光軸方向の対象物体との距離を測定する。
【0006】
人物検出識別手段201は、映像取得手段202により得られた映像画像から人物の頭部を検出し、頭部の矩形座標を出力する頭部検出追跡手段206と,顔領域の探索処理を行い、顔中心部の矩形画像を正面顔画像として出力する正面顔位置合わせ手段207と,正面顔画像をラスタスキャンして、特徴量を検出し、特徴量データを出力する顔特徴検出手段218と,識別辞書記憶手段210の辞書データを参照して顔識別処理を行う顔識別手段209と、過去の識別結果と統合処理を行え、その結果を人物検出識別部に出力する識別結果補正手段211とから構成されている。
【0007】
上記で、正面顔位置合わせ手段207は、入力された画像データから頭部を矩形として部分画像を切り取る頭部矩形切り取り手段と、頭部矩形画像の中から正面顔領域を探索し、正面顔画像と標準顔辞書とのパターン距離又は類似度を出力する正面顔探索手段と、正面顔画像が本当に正面顔であるかどうかを判断する正面顔らしさ判定手段から構成されている。正面顔らしさ判断手段は、具体的には正面顔画像データの濃淡値の分散を求め、閾値以下の場合に正面顔でないと判断する。
【0008】
従来装置2は上記構成で、図14に示す手順で処理を行う。なお、処理手順の説明は省略する。従来装置2では撮影画像を濃淡画像として処理しており、色彩を利用していないために複雑な解析と手順が必要になっている。しかし、我々は、色彩を持った空間の中で生きており、色彩が重要な情報を提供していることを知っている。従って、色彩を利用すれば、もっと簡単に個人識別が可能になると考えられる。
【0009】
【発明が解決しようとする課題】
この発明は、上述のような背景の下になされたもので、色彩を有効活用し、安定して正しい結果が得られる個人識別の技術(方法)を提供することを課題としている。
【0010】
【課題を解決するための手段】
上記課題を解決するために本発明は以下の手段を採用している。即ち、
請求項1記載の発明は、撮影されたカラー画像から肌色を示す領域を検出するステップと、該検出された肌色領域の画像が人の前向き顔画像であることを判別するステップと、該前向き顔画像に対して予め登録された個人の中から該当する個人を識別するステップとを含むことを特徴としている。
【0011】
請求項2記載の発明は、請求項1に記載の発明において、前記肌色領域を検出するステップは、予め登録された肌色成分のパラメータと前記カラー画像の色成分と比較照合し、人間の皮膚色部分を検出することを特徴としている。
【0012】
請求項3記載の発明は、請求項1に記載の発明において、前記肌色領域の検出は前記カラー画像の各画素に対して、肌色確率を付与し、肌色確率の平均値が最大である領域を検出し、該平均値が所定値に比較して十分に大きい場合は肌色領域とすることを特徴とする。
【0013】
請求項4記載の発明は、請求項1〜請求項3に記載の発明において、前記肌色部分の肌色を明度に影響されない表色系を利用して所定の範囲で定義し、撮影時における撮影補助ランプの発光色等の撮影条件、又は人種による肌色成分の相違等の条件を考慮して調整可能にしたことを特徴とする。
【0014】
請求項5記載の発明は、請求項1〜請求項4に記載の発明において、前記人の前向き顔画像であることを判別するステップは、肌色部分を表示した領域を人の前向き顔画像を表す領域に補正する予備ステップを含むことを特徴とする。
【0015】
請求項6記載の発明は、請求項1〜請求項4に記載の発明において、前記人の前向き顔画像であることを判別するステップは、前記肌色領域の画像に対して多数の人間の顔から学習により作成された顔データベースとマッチングしている程度を求め、人の前向き画像であると判断することを特徴とする。
【0016】
請求項7記載の発明は、請求項1〜請求項4に記載の発明において、前記人の前向き顔画像であることを判別するステップは、前記肌色領域に対して、走査窓を上下方向に移動させて探索し、目と鼻等の前向き顔の特徴を示す走査窓が見つかった場合に該肌色領域を人の前向き画像又はその候補であると判断することを特徴とする。
【0017】
請求項8記載の発明は、請求項7に記載の発明において、前記人の前向き顔画像であるかどうかの判断は、前記候補に対して多数の正しい事例と間違った事例をウエーブレット変換して作成されたヒストグラムを利用して決定することを特徴とする。
【0018】
請求項9記載の発明は、請求項1〜請求項8に記載の発明において、前記個人識別ステップは、前記ステップで得られた前記人の前向き顔画像を予め登録されている個人の前向き顔データベースと照合して個人を識別することを特徴とする。
【0019】
請求項10記載の発明は、請求項9に記載の発明において、前記データベースは、1個人について多数枚の画像から該個人の前向き顔の特徴を抽出して作成したことを特徴とする。
また、請求項11記載の発明は、請求項9に記載の発明において、前記照合はサポートベクタマシンの技術を適用したことを特徴とする。
【0020】
【発明の実施形態】
図1は本発明の実施形態である個人識別方法の手順を示すフローチャート図である。図2は本実施形態の方法を遂行する装置図である。図2で、処理装置11はパソコン等のコンピュータで構成されている。処理装置11は処理部12,バスライン15、作業用記憶装置13,データ保存用記憶装置14,入出力バッファ16,17を具備している。なお、付属装置としてCCDカメラ10、ディスプレイ20、外部装置21等が接続されている。以下、図面を参照してこの発明の実施形態について説明する。
【0021】
図1において、ステップS11では撮影カメラ10によって撮影された画像が処理装置11の記憶装置14に記憶される。ステップS12では肌色の設定を行う。人間の皮膚の色は男女の差、老人と子供のように年齢差によっても異なるだけでなく、白人や黒人等の人種によって大きく異なる。更に室内の照明によっても著しく変化して見える。また、装置を作成する場合には肌色を合理的に定めておく必要がある。ここでは、マンセルの表色系を採用して定義し、照明灯等による環境条件の変化に対して補正する。
【0022】
マンセル表色系は、アメリカ人の画家マンセルが提唱した色の配列法をその後に改良した色の表示方法である。物の色を色相(色あい)、明度、クロマ(色みの量を表す、以下色みという。)を基本軸として色を3次元座標で表示している。ここで、色相とは赤、黄、緑、青、赤紫を云う。明度とは色の明るさで、白色(反射率が100%の色)を10とし、黒色(反射率が0の色)を0と定めている。色みとは色の鮮やかさを表し、無彩色からの距離で測られる。色みは彩度と異なり、彩度は明度の値に依って変化するが、色みは明度の値に依って変化しない。従って、マンセル表色系で肌色を定義することにより、明度によって変化しない肌色が定義できる。即ち、室内の照明灯の明るさに影響されにくい肌色の定義ができるという特徴がある。
【0023】
図3はマンセルの表色系で明度がある値を採った場合の図を示す。図3の斜線で囲んだ部分は人(白人)の肌色を示す部分である。図3の円周方向には色相がR(赤)、Y(黄)、G(緑)、B(青)、P(パープル)の順に規定され、半径方向には色みの量(クロマ)が規定されている。また、図4は具体的なケースについて斜線部分における肌色の分布を示した図である(池田光男著、「色彩工学の基礎」、朝倉書店、p16)。従って、この部分を肌色と定義すれば概ね肌色を正しく表現できる。なお、衣服の色や背景色と区別できれば実用的に十分であり、更に、照明光に色がある場合や、特殊のケース(黒人の場合等)の場合にはその条件を加味して補正を行うことで実用的な肌色の識別が可能になる。
【0024】
ステップS13では肌色のマスクを利用して撮影画像をスキャンする。例えば、各画素に対してマンセルの表色系で定義された部分の色を確率1とし、この部分から遠ざかるに従って低い確率値を付与し、マスクの平均値が所定値以上であれば、その部分は肌色として検出する。これにより撮影画像中の肌色部分を検出する。この検出によって肌色部分の大きさと位置が決定できる。肌色部分を含む矩形領域を決定し、その部分画像を出力する。この場合矩形領域が顔部分の一部である場合も含まれるし、或いは他の部分も含んでいる場合もある。図5はこれらの場合の例示である。図5(A)は帽子を被っているために額部分が割愛され、正面顔の一部が表示されている。図5(B)は正面顔全体が正しく表示されている。図5(C)は肌着しか着ていないために正面顔以外の余計な首部分まで表示されている。しかし、上に述べた操作により正面顔の位置と大体の大きさ(正確には正面顔の候補の大きさ)が結果として得られることは重要である。
【0025】
ステップS14では前述の矩形画像が人の正面画像であるかどうかを判断する。この判断ステップは、顔の一部の一般的特徴(例えば、目と鼻)を利用して人間の顔であるかどうかを検出する予備ステップと、正面を向いている顔であるか否かを検証する判定ステップからなる。前者の予備ステップではステップS13で得られた矩形画像20に対して、図6(A)に示すように、ウインドウ21を上から下に(或いは)下から上に)移動させながら探索する。探索において、目と鼻の部分を含んでいるウインドウが少なくとも1個以上見つかれば、この撮影画像が人の正面顔を含んでいる確率が非常に大きくなる。
【0026】
判定ステップでは目と鼻を含んだ画像領域に対する検証を行う。検証方法として、例えば、統計的手法を利用したシュナイダーマンの方法を利用する。このために、目と鼻を含んだ正しい正面顔の画像サンプルとそうでない誤りの画像のサンプルを、各々数十万程度を準備しこれら等の画像をウェーブレット変換し、ヒストグラム作成します。ヒストグラムは複数の色について行え、これらの色毎の結果を重ねて表示して図7に示している。図7(A)は正しい正面顔のサンプルに対するヒストグラムで、図7(B)は誤りのサンプルに対するヒストグラムである。この図において、縦軸は頻度で正しいとされた場合を「正」で、誤りとされた場合を「負(−)」で示す。また、横軸は要因(又は属性)を示す周波数特性を示している。図7から理解できるように要因E、F、Iについて検証すれば正しく判定できることが解る。
【0027】
正面画像の候補が人の正面画像を含んでいると判定された場合は、予備ステップで目と鼻の位置が決定できるので、図6(B)に示すように人の正面顔を含んでいる画像領域だけを限定して切り出すことが可能になる。なお、上記に述べた判断ステップ(S14)は非常に安定して正しい結果が得られることが理解できる。
【0028】
ステップS15では撮影画像の顔の特徴を表すデータを抽出する。特徴を容易に抽出可能にするために、図8に示すように入力画像(A)を出力画像(B)のように変換する。例えば、入力画像(A)の鼻を中央に持ってきて左右対称となるように回転、移動をし、且つ明るさやコントラストを変換する。また、顔の表示サイズを一定になるようにサイズも変換する。このようにして得られた出力画像に対して顔の特徴抽出を行う。顔の特徴抽出は顔の識別方法によって異なる。顔の識別方法としては、正面顔画像の濃淡パターンを特徴ベクトルとして考え、濃淡パターン(特徴ベクトル)の内積を求める方法と、顔の形状等の個別的特徴を定めておいて、この特徴を正面顔画像から抽出して比較する方法等がある。
【0029】
顔の形状等の個別的特徴としては、例えば顔の輪郭(顎の形状、丸顔、細面の顔等)や目、鼻、口、眉等の形状及びそれらの幾何学的位置関係や左右の対称の程度、或いは顔の凹凸(頬の凹凸)、顔の色彩(頬や額の色等)を抽出する。特徴抽出は特徴ベクトルとして予め定められている特徴(要素)について行う。しかし、このような特徴抽出を直接行なうのは、機械化することが困難である(例えば、プログラムの作成が困難である)という問題がある。そこで本実施形態では、登録する個人顔データベースとして、各個人について数枚〜20枚程度の顔写真画像を用意して統計的に特徴を抽出している。即ち、顔写真画像を輝度変換して、ヒストグラム等を作成し、輝度分布から上記した個別的特徴を間接的に把握する。
【0030】
ステップS16では撮影画像から抽出した特徴と既に登録されている個人の特徴データベースとを比較して撮影画像の人物を識別する。個人の特徴データベースは1人について10枚程度の画像を使い顔の特徴ベクタを抽出してメモリ14に登録されている。撮影画像の特徴と特徴データベースとの参照比較はサポートベクタマシンと呼ばれる方法で行う。即ち、各個人を判別するための識別関数(分割面)を定めておいて、撮影画像から抽出した特徴ベクタが特徴データベースの何れかの個人に属する場合にはその個人を決定する。また、何れの個人にも属しない場合に登録された人物以外の他人であることを決定する。ステップS17では決定された結果を出力する。
【0031】
以上、この発明の実施形態、実施例を図面により詳述してきたが、具体的な構成はこの実施例に限られるものではなく、この発明の要旨を逸脱しない範囲の設計の変更等があってもこの発明に含まれる。例えば、顔の特徴抽出、データベースの作成、個人の識別は上記した方法に限定される訳ではなく、他の方法を採用してもよい。また、ステップ14における判定ステップでは「目と鼻」を利用しているが「目」だけを利用してもよい。この場合は顔にマスクをしている場合でも検出できる。
【0032】
【発明の効果】
以上説明したように、この発明の構成によれば、対象人物の正面顔が確実に、かつ容易に行われることから安定した個人の識別手段が得られるという効果を有する。
【図面の簡単な説明】
【図1】本発明の実施形態の方法による手順を説明するフローチャートを示す。
【図2】本発明の実施形態の方法を実施する装置の概略を示す。
【図3】マンセルの表色系を示す。
【図4】肌色部分のデータの内容を示す。
【図5】肌色部分の画像を示す。
【図6】顔の一部探索方法(A)とその結果(B)を示す。
【図7】正面顔の画像サンプル(A)と誤り画像のサンプル(B)のヒストグラムを示す。
【図8】特徴抽出変換の入力例(A)と出力例(B)を示す。
【図9】従来の個人識別装置の構成を示す。
【図10】上記従来装置のフローチャートを示す。
【図11】他の従来装置でロボットに利用した例を示す。
【図12】上記他の従来装置の構成を示す。
【図13】上記他の従来装置のフローチャートを示す。
【符号の説明】
10    カメラ
11    処理装置
12    処理部
13    作業用記憶装置
14    保存用記憶装置
15    バスライン
20    ディスプレイ
21    外部装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention belongs to the technical field of image recognition for identifying a predetermined individual from a color photographed image.
[0002]
[Prior art]
Techniques for identifying an individual using a captured image have been developed mainly in the field of security and robots. That is, in the field of security, it is important for a target person to identify a specific individual from among registered persons in terms of maintaining security. On the other hand, giving a robot the ability to identify an individual to make it an intelligent robot is an important technique for making the robot useful in human society beyond mere interest. However, technology for recognizing individuals is easy for humans, but not for machines. For this purpose, techniques for identifying individuals and related techniques have been developed, but no sufficiently reliable yet compact and practical device has been developed.
[0003]
For example, Japanese Unexamined Patent Publication No. Hei 11-339048 discloses a personal identification technique (method, device) for security. FIG. 10 shows the configuration of this personal identification device (hereinafter referred to as the conventional device 1), and FIG. 11 is a flowchart showing the procedure. In FIG. 10, a photographing device 110 includes a CCD camera and a lighting device for irradiating light from the lateral direction, and a photographed image irradiated with light and a photographed image not irradiated with light are recorded in an image memory 111. The imaging target determination unit 112 determines whether the captured image in the image memory 111 is an image of a human or an image of a human face. The face area extraction unit 113 extracts a face image of the identification target person using a conventional technique. For example, a difference between a background image and an image including a person is used. The feature extraction unit 114 obtains a face feature amount using a conventional technique. For example, a statistical method of performing principal component analysis of a difference from an average face and a method of performing template matching from a gray image such as an eye, a nose, and a mouth are known. The similarity determination unit 115 calculates the similarity by comparing the feature amount of the face of the identification target person with the feature amount of the registered face.
[0004]
The main point of this personal identification device (conventional device 1) is to determine whether the captured image is an image of a human or an image of a human face. That is, when photographing is performed by irradiating light from the side of the camera, a shadow appears in the photographed image of the human due to the contour of the face, the shape of the eyes, nose and mouth, and the unevenness of the face. Not appear in the image. Note that the flowchart of FIG. 11 can be understood by looking at the flowchart, and thus the description is omitted.
[0005]
JP-A-2002-56338 discloses a personal identification device applied to a robot. FIG. 12 shows a configuration diagram of a robot device using this personal identification device (hereinafter, referred to as a conventional device 2). FIG. 13 shows a person identification device in the robot apparatus, and FIG. 14 shows a processing procedure of the person identification means. The main purpose of this conventional device is to identify a person in an environment where lighting conditions are not constant, such as a home environment. Hereinafter, portions considered to be relevant to the present invention will be briefly described. In FIG. 13, the person identification device 214 includes a video acquisition unit 202, a facing distance sensor 205, a person detection unit 201, and the like. Here, the image acquisition unit 202 includes left and right cameras 203 and 204, and the facing distance sensor 205 measures the distance between the camera and the target object in the optical axis direction.
[0006]
The person detection / identification unit 201 detects the head of a person from the video image obtained by the video acquisition unit 202, performs head detection tracking unit 206 that outputs rectangular coordinates of the head, and performs face area search processing. A front face alignment unit 207 that outputs a rectangular image at the center of the face as a front face image; a face feature detection unit 218 that detects a feature amount by raster-scanning the front face image and outputs feature amount data; A face identification unit 209 for performing face identification processing with reference to the dictionary data in the dictionary storage unit 210, and an identification result correction unit 211 for performing integration processing with past identification results and outputting the result to a person detection identification unit. Have been.
[0007]
Above, the front face alignment means 207 is a head rectangle cutting means for cutting a partial image from the input image data with the head being a rectangle, and searching for a front face area from the head rectangle image, And a standard face dictionary, and a front face search means for outputting a pattern distance or a similarity to the standard face dictionary, and a front face likeness determination means for determining whether or not the front face image is really a front face. Specifically, the front face likeness determination means obtains the variance of the grayscale values of the front face image data, and determines that the face is not a front face when the variance is equal to or smaller than the threshold value.
[0008]
The conventional device 2 has the above configuration and performs processing according to the procedure shown in FIG. The description of the processing procedure is omitted. In the conventional device 2, a captured image is processed as a gray-scale image, and a complicated analysis and procedure are required because no color is used. But we live in a colored space and know that colors provide important information. Therefore, it is considered that individual identification can be more easily performed by using colors.
[0009]
[Problems to be solved by the invention]
The present invention has been made in view of the above background, and has as its object to provide a technique (method) for personal identification that makes effective use of colors and that can obtain a stable and correct result.
[0010]
[Means for Solving the Problems]
In order to solve the above problems, the present invention employs the following solutions. That is,
The invention according to claim 1 includes a step of detecting a region indicating a flesh color from a captured color image, a step of determining that the image of the detected flesh color region is a forward-looking face image of a person, Identifying an individual from among individuals registered in advance for the image.
[0011]
According to a second aspect of the present invention, in the first aspect of the present invention, the step of detecting the skin color region includes comparing and matching a parameter of a skin color component registered in advance with a color component of the color image to determine a human skin color. It is characterized by detecting a part.
[0012]
According to a third aspect of the present invention, in the first aspect of the present invention, the flesh-color area is detected by assigning a flesh-color probability to each pixel of the color image, and determining the area having the maximum average flesh-color probability. If the average value is detected and the average value is sufficiently larger than a predetermined value, it is set as a skin color area.
[0013]
According to a fourth aspect of the present invention, in the first to third aspects of the present invention, a skin color of the skin color portion is defined in a predetermined range using a color system that is not affected by lightness, and a photographing assistance during photographing is defined. It is characterized in that it can be adjusted in consideration of photographing conditions such as a light emission color of a lamp or conditions such as a difference in flesh color component depending on race.
[0014]
According to a fifth aspect of the present invention, in the first to fourth aspects of the present invention, the step of determining that the image is a forward-looking face image of the person represents the forward-looking face image of the person in a region where a flesh-colored portion is displayed. The method is characterized by including a preliminary step of correcting an area.
[0015]
According to a sixth aspect of the present invention, in the first aspect of the invention, the step of determining that the image is a forward-looking face image of the person includes: The degree of matching with the face database created by learning is obtained, and it is determined that the image is a forward-looking image of a person.
[0016]
According to a seventh aspect of the present invention, in the first to fourth aspects of the invention, the step of determining that the image is a forward-looking face image of the person includes moving a scanning window up and down with respect to the skin color area. In the case where a search window showing the features of the forward face such as eyes and nose is found, the skin color area is determined to be a forward image of a person or a candidate thereof.
[0017]
According to an eighth aspect of the present invention, in the invention of the seventh aspect, the determination as to whether or not the image is a forward-looking face image of the person is made by performing a wavelet transform on a large number of correct cases and wrong cases for the candidates. The determination is made using the created histogram.
[0018]
According to a ninth aspect of the present invention, in the first to eighth aspects of the present invention, in the personal identification step, the forward facing face database of the individual in which the forward facing face image of the person obtained in the step is registered in advance. And identifying the individual by comparing with.
[0019]
According to a tenth aspect of the present invention, in the ninth aspect of the present invention, the database is created by extracting features of a forward-looking face of an individual from a large number of images for one individual.
An eleventh aspect of the present invention is characterized in that, in the invention of the ninth aspect, the collation uses a technology of a support vector machine.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a flowchart showing a procedure of a personal identification method according to an embodiment of the present invention. FIG. 2 is an apparatus diagram for performing the method of the present embodiment. In FIG. 2, the processing device 11 is constituted by a computer such as a personal computer. The processing device 11 includes a processing unit 12, a bus line 15, a working storage device 13, a data storage storage device 14, and input / output buffers 16 and 17. Note that a CCD camera 10, a display 20, an external device 21, and the like are connected as attached devices. Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0021]
In FIG. 1, in step S11, an image photographed by the photographing camera 10 is stored in the storage device 14 of the processing device 11. In step S12, the skin color is set. The color of the human skin not only varies depending on the gender, the age such as the elderly and children, but also greatly varies depending on races such as whites and blacks. Furthermore, it looks remarkably changed by the lighting in the room. Also, when creating a device, it is necessary to rationally determine the skin color. Here, it is defined by adopting the Munsell color system, and is corrected for a change in environmental conditions due to an illumination lamp or the like.
[0022]
The Munsell color system is a color display method that has been improved from the color arrangement method proposed by the American painter Munsell. The color of the object is displayed in three-dimensional coordinates using hue (hue), lightness, and chroma (which represents the amount of tint, hereinafter referred to as tint) as basic axes. Here, the hue means red, yellow, green, blue, and magenta. Lightness is the brightness of a color, with white (a color having a reflectance of 100%) being 10 and black (a color having a reflectance of 0) being 0. Color represents the vividness of a color, and is measured from the distance from an achromatic color. The color tone is different from the saturation, and the saturation changes depending on the value of the lightness, but the color does not change depending on the value of the lightness. Therefore, by defining a skin color in the Munsell color system, a skin color that does not change with lightness can be defined. That is, there is a feature that a skin color that is hardly affected by the brightness of the indoor lighting can be defined.
[0023]
FIG. 3 shows a diagram in the case where a certain value is taken in the Munsell color system. In FIG. 3, a portion surrounded by oblique lines is a portion indicating the flesh color of a person (white). In the circumferential direction of FIG. 3, the hues are defined in the order of R (red), Y (yellow), G (green), B (blue), P (purple), and the amount of color (chroma) in the radial direction. Is stipulated. FIG. 4 is a diagram showing the distribution of skin color in a shaded portion for a specific case (Mitsuo Ikeda, "Basic Color Engineering", Asakura Shoten, p. 16). Therefore, if this part is defined as a flesh color, the flesh color can be generally expressed correctly. In addition, it is practically sufficient to be able to distinguish from the color of the clothes and the background color. In addition, when there is a color in the illumination light or in a special case (such as a black person), the correction is made in consideration of the conditions. By doing so, practical skin color identification becomes possible.
[0024]
In step S13, the captured image is scanned using a skin color mask. For example, for each pixel, the color of a portion defined in the Munsell color system is set to a probability of 1, and a low probability value is assigned as the pixel moves away from the portion. Is detected as a skin color. As a result, a flesh color portion in the captured image is detected. By this detection, the size and position of the flesh color portion can be determined. A rectangular region including a flesh color portion is determined, and the partial image is output. In this case, the rectangular area may be a part of the face part, or may include other parts. FIG. 5 is an illustration of these cases. In FIG. 5A, the forehead portion is omitted because a hat is worn, and a part of the frontal face is displayed. FIG. 5B shows the entire front face correctly displayed. In FIG. 5C, since only underwear is worn, an unnecessary neck portion other than the front face is displayed. However, it is important that the operation described above can obtain the position and approximate size of the frontal face (more precisely, the size of the frontal face candidate).
[0025]
In step S14, it is determined whether the aforementioned rectangular image is a front image of a person. This determination step includes a preliminary step of detecting whether or not the face is a human face using some general features of the face (for example, eyes and nose), and a step of determining whether or not the face is facing front. It consists of a determination step for verification. In the former preliminary step, as shown in FIG. 6A, a search is performed on the rectangular image 20 obtained in step S13 while moving the window 21 from top to bottom (or from bottom to top). If at least one window including the eyes and the nose is found in the search, the probability that the captured image includes the frontal face of a person becomes very large.
[0026]
In the determination step, verification is performed on an image region including the eyes and the nose. As a verification method, for example, a Schneiderman method using a statistical method is used. For this purpose, we prepare hundreds of thousands of sample images of the correct frontal face including the eyes and nose and samples of the incorrect images that are not correct, and perform wavelet transform on these images to create histograms. The histogram is performed for a plurality of colors, and the results for each of these colors are superimposed and displayed in FIG. FIG. 7A is a histogram for a correct frontal face sample, and FIG. 7B is a histogram for an erroneous sample. In this figure, the vertical axis indicates "positive" when the frequency is correct, and "negative (-)" when the error is incorrect. The horizontal axis indicates frequency characteristics indicating factors (or attributes). As can be understood from FIG. 7, it can be understood that if the factors E, F, and I are verified, correct determination can be made.
[0027]
When it is determined that the candidate for the front image includes the front image of the person, the positions of the eyes and the nose can be determined in the preliminary step, and thus the front face of the person is included as shown in FIG. It is possible to cut out only the image area. In addition, it can be understood that the determination step (S14) described above can obtain a very stable and correct result.
[0028]
In step S15, data representing the characteristics of the face of the captured image is extracted. In order to easily extract features, the input image (A) is converted as shown in FIG. 8 as the output image (B). For example, the nose of the input image (A) is brought to the center, rotated and moved so as to be symmetrical, and the brightness and contrast are converted. In addition, the size is also converted so that the display size of the face becomes constant. The facial features are extracted from the output image thus obtained. The feature extraction of the face differs depending on the face identification method. As a face identification method, a method of obtaining an inner product of a light and shade pattern (feature vector) and an individual characteristic such as a face shape are determined in advance by considering a light and shade pattern of a frontal face image as a feature vector. There is a method of extracting from face images and comparing them.
[0029]
Specific features such as the shape of the face include, for example, the contour of the face (jaw shape, round face, thin face, etc.), the shape of the eyes, nose, mouth, eyebrows, etc. The degree of symmetry, the unevenness of the face (the unevenness of the cheek), and the color of the face (the color of the cheek, forehead, etc.) are extracted. Feature extraction is performed on features (elements) that are predetermined as feature vectors. However, performing such feature extraction directly has a problem that it is difficult to mechanize (for example, it is difficult to create a program). Therefore, in the present embodiment, several to about 20 face photograph images are prepared for each individual as a personal face database to be registered, and features are statistically extracted. That is, the face photograph image is subjected to luminance conversion, a histogram or the like is created, and the individual characteristics described above are indirectly grasped from the luminance distribution.
[0030]
In step S16, the feature extracted from the photographed image is compared with an already registered personal feature database to identify the person in the photographed image. The personal feature database extracts facial feature vectors using about 10 images per person and is registered in the memory 14. Reference comparison between the feature of the captured image and the feature database is performed by a method called a support vector machine. That is, an identification function (division plane) for identifying each individual is determined, and if a feature vector extracted from a captured image belongs to any individual in the feature database, that individual is determined. Further, when the person does not belong to any individual, it is determined that the person is other than the registered person. In step S17, the determined result is output.
[0031]
As described above, the embodiments and examples of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the examples, and there are design changes and the like without departing from the gist of the present invention. Is also included in the present invention. For example, extraction of facial features, creation of a database, and identification of an individual are not limited to the methods described above, and other methods may be employed. In the determination step in step 14, "eyes and nose" are used, but only "eyes" may be used. In this case, it can be detected even when the face is masked.
[0032]
【The invention's effect】
As described above, according to the configuration of the present invention, since the frontal face of the target person is performed reliably and easily, there is an effect that stable individual identification means can be obtained.
[Brief description of the drawings]
FIG. 1 shows a flowchart illustrating a procedure according to a method of an embodiment of the present invention.
FIG. 2 shows a schematic of an apparatus for performing the method of the embodiment of the present invention.
FIG. 3 shows a Munsell color system.
FIG. 4 shows data contents of a flesh color portion.
FIG. 5 shows an image of a skin color portion.
FIG. 6 shows a partial face search method (A) and its result (B).
FIG. 7 shows histograms of an image sample of a frontal face (A) and a sample of an error image (B).
FIG. 8 shows an input example (A) and an output example (B) of the feature extraction conversion.
FIG. 9 shows a configuration of a conventional personal identification device.
FIG. 10 shows a flowchart of the conventional apparatus.
FIG. 11 shows an example in which another conventional apparatus is used for a robot.
FIG. 12 shows a configuration of another conventional apparatus.
FIG. 13 shows a flowchart of the other conventional apparatus.
[Explanation of symbols]
REFERENCE SIGNS LIST 10 camera 11 processing device 12 processing unit 13 working storage device 14 storage storage device 15 bus line 20 display 21 external device

Claims (11)

撮影されたカラー画像から肌色を示す領域を検出するステップと、該検出された肌色領域の画像が人の前向き顔画像であることを判別するステップと、該前向き顔画像に対して予め登録された個人の中から該当する個人を識別するステップとを含むことを特徴とする個人識別方法。Detecting an area indicating a flesh color from the captured color image, determining that the image of the detected flesh color area is a forward-looking face image of a person, and pre-registering the forward-looking face image. Identifying the individual from the individuals. 前記肌色領域を検出するステップは、予め登録された肌色成分のパラメータと前記カラー画像の色成分と比較照合し、人間の皮膚色部分を検出することを特徴とする請求項1に記載の個人識別方法。2. The personal identification according to claim 1, wherein the step of detecting the skin color region detects and compares a skin color portion of a human by comparing and comparing a parameter of a skin color component registered in advance with a color component of the color image. Method. 前記肌色領域の検出は前記カラー画像の各画素に対して、肌色確率を付与し、肌色確率の平均値が最大である領域を検出し、該平均値が所定値に比較して十分に大きい場合は肌色領域とすることを特徴とする請求項1に記載の個人識別方法。In the detection of the skin color region, a skin color probability is given to each pixel of the color image, a region where the average value of the skin color probability is maximum is detected, and the average value is sufficiently large compared to a predetermined value. The personal identification method according to claim 1, wherein is a flesh-tone area. 前記肌色部分の肌色を明度に影響されない表色系を利用して所定の範囲で定義し、撮影時における撮影補助ランプの発光色等の撮影条件、又は人種による肌色成分の相違等の条件を考慮して調整可能にしたことを特徴とする請求項1〜請求項3の何れか1に記載の個人識別方法。The skin color of the skin color portion is defined in a predetermined range using a color system that is not affected by lightness, and shooting conditions such as the emission color of a shooting auxiliary lamp during shooting, or conditions such as differences in skin color components due to race are taken. The personal identification method according to any one of claims 1 to 3, wherein the personal identification method is adjusted in consideration of the situation. 前記人の前向き顔画像であることを判別するステップは、肌色部分を表示した領域を人の前向き顔画像を表す領域に補正する予備ステップを含むことを特徴とする請求項1〜請求項4の何れか1に記載の個人識別方法。5. The method according to claim 1, wherein the step of determining that the image is a forward-looking face image of a person includes a preliminary step of correcting an area in which a flesh-colored portion is displayed to an area representing a forward-looking face image of a person. The personal identification method according to any one of the above. 前記人の前向き顔画像であることを判別するステップは、前記肌色領域の画像に対して多数の人間の顔から学習により作成された顔データベースとマッチングしている程度を求め、人の前向き画像であると判断することを特徴とする請求項1〜請求項4の何れか1に記載の個人識別方法。The step of determining that the image is a forward-looking face image of the person, the degree of matching the image of the skin color region with a face database created by learning from a large number of human faces is determined. The personal identification method according to claim 1, wherein it is determined that there is a personal identification. 前記人の前向き顔画像であることを判別するステップは、前記肌色領域に対して、走査窓を上下方向に移動させて探索し、目と鼻等の前向き顔の特徴を示す走査窓が見つかった場合に該肌色領域を人の前向き画像又はその候補であると判断することを特徴とする請求項1〜請求項4の何れか1に記載の個人識別方法。The step of determining that the image is a forward-looking face image of the person is performed by moving a scanning window up and down with respect to the flesh-colored area, and a scanning window showing features of the forward-facing face such as eyes and nose is found. The personal identification method according to any one of claims 1 to 4, wherein the skin color area is determined to be a forward-looking image of a person or a candidate thereof. 前記人の前向き顔画像であるかどうかの判断は、前記候補に対して多数の正しい事例と間違った事例をウエーブレット変換して作成されたヒストグラムを利用して決定することを特徴とする請求項7に記載の個人識別方法。The determination as to whether the image is a forward-looking face image of the person is made by using a histogram created by performing a wavelet transform on a number of correct cases and wrong cases for the candidate. 7. The personal identification method according to 7. 前記個人識別ステップは、前記ステップで得られた前記人の前向き顔画像を予め登録されている個人の前向き顔データベースと照合して個人を識別することを特徴とする請求項1〜請求項8の何れか1に記載の個人識別方法。9. The personal identification method according to claim 1, wherein the personal identification step identifies the individual by comparing the forward-looking face image of the person obtained in the step with a previously registered forward-looking face database of the individual. The personal identification method according to any one of the above. 前記データベースは、1個人について多数枚の画像から該個人の前向き顔の特徴を抽出して作成したことを特徴とする請求項9に記載の個人識別方法。The personal identification method according to claim 9, wherein the database is created by extracting features of the individual's forward face from a large number of images for one individual. 前記照合はサポートベクタマシンの技術を適用したことを特徴とする請求項9に記載の個人識別方法。The personal identification method according to claim 9, wherein the matching is performed using a technology of a support vector machine.
JP2002169531A 2002-06-11 2002-06-11 Personal identification method Pending JP2004013768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002169531A JP2004013768A (en) 2002-06-11 2002-06-11 Personal identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002169531A JP2004013768A (en) 2002-06-11 2002-06-11 Personal identification method

Publications (1)

Publication Number Publication Date
JP2004013768A true JP2004013768A (en) 2004-01-15

Family

ID=30436065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002169531A Pending JP2004013768A (en) 2002-06-11 2002-06-11 Personal identification method

Country Status (1)

Country Link
JP (1) JP2004013768A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305192A (en) * 2007-06-07 2008-12-18 Aruze Corp Face recognition device
JP2009038712A (en) * 2007-08-03 2009-02-19 Nikon Corp Color imaging device
US7756299B2 (en) 2004-12-14 2010-07-13 Honda Motor Co., Ltd. Face region estimating device, face region estimating method, and face region estimating program
JP2015132955A (en) * 2014-01-10 2015-07-23 富士ソフト株式会社 robot, face detection method, and computer program
WO2018180588A1 (en) * 2017-03-27 2018-10-04 株式会社日立国際電気 Facial image matching system and facial image search system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756299B2 (en) 2004-12-14 2010-07-13 Honda Motor Co., Ltd. Face region estimating device, face region estimating method, and face region estimating program
JP2008305192A (en) * 2007-06-07 2008-12-18 Aruze Corp Face recognition device
JP2009038712A (en) * 2007-08-03 2009-02-19 Nikon Corp Color imaging device
JP2015132955A (en) * 2014-01-10 2015-07-23 富士ソフト株式会社 robot, face detection method, and computer program
WO2018180588A1 (en) * 2017-03-27 2018-10-04 株式会社日立国際電気 Facial image matching system and facial image search system
JPWO2018180588A1 (en) * 2017-03-27 2020-01-16 株式会社日立国際電気 Face image matching system and face image search system

Similar Documents

Publication Publication Date Title
JP4251719B2 (en) Robust tracking system for human faces in the presence of multiple persons
EP1530158B1 (en) Pupil color estimating device
Smolka et al. Towards automatic redeye effect removal
CN101542521B (en) Pupil color correction device
US20050084141A1 (en) Action recognition apparatus and apparatus for recognizing attitude of object
KR100922653B1 (en) Pupil color correction device and recording medium
JPH09322192A (en) Detection and correction device for pink-eye effect
KR101853006B1 (en) Recognition of Face through Detecting Nose in Depth Image
US8374403B2 (en) Methods and apparatus for efficient, automated red eye detection
JP2002183729A (en) Blond-hair-pixel removing method in image skin-color detection
JP3490910B2 (en) Face area detection device
JP2004219277A (en) Human body detection method and system, program, recording medium
US7831067B2 (en) Methods and apparatus for automated, multi-level red eye correction
US8213720B2 (en) System and method for determining chin position in a digital image
JP4729188B2 (en) Gaze detection device
JP3459950B2 (en) Face detection and face tracking method and apparatus
Montenegro et al. A comparative study of color spaces in skin-based face segmentation
JP4148903B2 (en) Image processing apparatus, image processing method, and digital camera
CN110648336B (en) Method and device for dividing tongue texture and tongue coating
JP2009038737A (en) Image processing device
CN112712059A (en) Living body face recognition method based on infrared thermal image and RGB image
Supriyanti et al. Detecting pupil and iris under uncontrolled illumination using fixed-Hough circle transform
JP2007272435A (en) Facial feature extraction apparatus and facial feature extraction method
JP2004013768A (en) Personal identification method
JPH11306348A (en) Object detection apparatus and object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050606

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20060922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080909