[go: up one dir, main page]

JP2001331799A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法

Info

Publication number
JP2001331799A
JP2001331799A JP2000347043A JP2000347043A JP2001331799A JP 2001331799 A JP2001331799 A JP 2001331799A JP 2000347043 A JP2000347043 A JP 2000347043A JP 2000347043 A JP2000347043 A JP 2000347043A JP 2001331799 A JP2001331799 A JP 2001331799A
Authority
JP
Japan
Prior art keywords
feature
subject
image
pattern
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000347043A
Other languages
English (en)
Inventor
Akio Okazaki
彰夫 岡崎
Toshio Sato
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000347043A priority Critical patent/JP2001331799A/ja
Priority to EP01105113A priority patent/EP1134691B1/en
Priority to DE60133788T priority patent/DE60133788T2/de
Priority to US09/808,939 priority patent/US6873713B2/en
Publication of JP2001331799A publication Critical patent/JP2001331799A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

(57)【要約】 【課題】登録・照合の際のユーザ負担を軽減し、照合性
能を大幅に向上させ、複雑な計算と処理コストの増加を
抑えた画像処理装置および画像処理方法を提供する。 【解決手段】本発明の画像処理装置は、被写体像を異な
る方向から同時に撮像する複数のカメラ1−1,1−
2,…,1−Nと、上記同時に撮像された複数の被写体
像においてそれぞれ特徴点を抽出し、この抽出された各
特徴点に基づいて特徴領域を設定し、この設定された特
徴領域を複数の領域に分割し、この分割された各領域に
おいて明るさの平均値を算出し、この算出された平均値
に基づいて特徴パターンを算出する処理プロセッサ4と
を有するものである。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、たとえば、重要施
設の入退出管理やコンピュータ/端末装置のアクセス管
理などにおいて使用されるもので、特に顔画像といった
生体情報(バイオメトリクス)に基づいて本人であるこ
とを認証する個人認証装置として好適な画像処理装置お
よび画像処理方法に関する。
【0002】
【従来の技術】近年、ヒューマンインターフェース、セ
キュリティなどへの応用の観点から、顔画像などの生体
情報(バイオメトリクス)に基づく本人認証技術が重要
視されており、種々の技術が開発されている。
【0003】かかるバイオメトリクスとしては、指紋、
手形、声紋、サイン、網膜、虹彩などが実用化されてい
る。これらは、方式的には、装置に直に触れる「接触
形」と触れる必要のない「非接触形」とに分類すること
ができる。
【0004】すなわち、上記バイオメトリクスの例のう
ち、指紋、手形、サインは「接触形」に属するものであ
る。ただし、サインは本人が署名するという行動を起こ
さなければならないという点で、指紋などとは多少性質
が異なっている。
【0005】これに対して、本人が意識する必要がある
という点では、同様なバイオメトリクスが声紋(音声)
照合であるが、これは「非接触形」に属する。また、カ
メラから対象部位の画像を取込んで処理するという点
で、網膜や虹彩は「非接触形」に属すると言えるが、網
膜は眼球の奥に位置し、眼をレンズにほとんど接触させ
る必要があるため、その性質は接触形に近いものであ
る。
【0006】なお、上記虹彩は、眼球の表面に現れてい
るため、離れた位置からのカメラで入力可能であるが、
微細パターンであるため、離せる距離にはおのずと限界
がある。
【0007】一方、非接触形のバイオメトリクスである
顔画像の照合が最近では注目されており、これを利用し
た種々の技術が開発されている。顔パターンは、上述し
た虹彩パターンよりもスケールが大きい点が特徴となっ
ている。
【0008】かかる顔画像の照合を採用した個人認証装
置は、一般的には、1台の監視カメラを適当な位置に設
置し、正面または正面に近い顔画像を取込んで、あらか
じめ同様な条件で登録した顔画像データとパターン照合
を行なうものであった。
【0009】また、たとえば、やや下方にカメラを設置
し、下から見上げた顔画像を取込んで、登録および照合
を行なうものも提案されている。
【0010】すなわち、たとえば、特開平11−196
398号公報では、各ビデオカメラが所定角度をもって
配置され、正面から撮影された顔は正面テンプレートメ
モリに、左側面から撮影された顔は側面テンプレートメ
モリにそれぞれ記憶されており、上記ビデオカメラから
出力された画像と上記メモリに記憶されたデータの相関
をとって、人の顔の動きを決定する画像処理装置に関す
る技術が開示されている(以下、これを先行文献1とす
る)。
【0011】さらに、「形状抽出とパターン照合の組合
せによる顔特徴点抽出」(信学論(D−II).Vol.j-80
-D-II No.8 1997年8月 ;福井、山口著)では、顔
認識に向けて動画像中から瞳、鼻孔、口端などの顔特徴
点を高速かつ高精度に抽出する方法が提案されている
(以下、これを先行文献2とする)。
【0012】また、「動画像を用いた顔認識システム」
(信学技報 PRMU97-50,1997年6月;山口、福井、
前田著)では、単一の画像だけで認識するのではなく、
動画像(時系列画像)を用いた顔の個人識別の方法が提
案されている(以下、これを先行文献3とする)。
【0013】
【発明が解決しようとする課題】しかしながら、上記先
行文献1の技術は、複数のカメラを用いているものの、
それぞれの画像を独立に扱い、機能も顔の向きの検知の
みに限られている。
【0014】また、上記先行文献2,3の技術では、人
物の顔貌は、本来、3次元的な形状情報を有するものな
ので、1方向からのみ捕らえた2次元的な顔画像情報の
みでは個人の識別能力において限界があり、本質的な照
合性能が指紋、網膜、虹彩等と比較して、それほど高く
ならないといった欠点がある。
【0015】そこで、本発明は、登録、照合の際のユー
ザ負担を軽減し、照合性能を大幅に向上させ、単一方向
からのパターン照合処理アルゴリズムを大幅に変更させ
ることなく、複雑な計算と処理コストの増加を抑えた画
像処理装置および画像処理方法を提供することを目的と
する。
【0016】
【課題を解決するための手段】本発明の画像処理装置
は、被写体像を異なる方向から撮像する複数の撮像手段
と、この複数の撮像手段により撮像された被写体像にお
いて特徴点を抽出し、この抽出された特徴点に基づいて
特徴領域を設定し、この設定された特徴領域を複数の領
域に分割し、この分割された各領域において所定情報を
算出し、この算出された所定情報に基づいて特徴パター
ンを算出する正規化手段とを具備している。
【0017】また、本発明の画像処理装置は、被写体像
を異なる方向から撮像する複数の撮像手段と、この複数
の撮像手段により撮像された被写体像において特徴点を
抽出し、この抽出された特徴点に基づいて特徴領域を設
定し、この設定された特徴領域を複数の領域に分割し、
この分割された各領域において明るさの平均値を算出
し、この算出された平均値に基づいて特徴パターンを算
出する正規化手段と、この正規化手段により算出された
特徴パターンを所定の被写体に係るものとして登録する
登録手段と、前記正規化手段により算出された特徴パタ
ーンを前記登録手段に登録された特徴パターンと比較し
て被写体像に係る被写体を特定する照合手段とを具備し
ている。
【0018】また、本発明の画像処理装置は、被写体像
を異なる位置から撮像し、それぞれ撮像位置の異なる複
数の被写体像を入力する画像入力手段と、この画像入力
手段により入力された複数の被写体像から被写体の特徴
を表わす特徴パターンをそれぞれ抽出する特徴抽出手段
と、この特徴抽出手段により抽出された複数の特徴パタ
ーンをあらかじめ登録された基準の特徴パターンとそれ
ぞれ照合する照合手段と、この照合手段による照合の結
果、前記特徴抽出手段により抽出された複数の特徴パタ
ーンのうち少なくとも1つ以上の特徴パターンがあらか
じめ登録された基準の特徴パターンとの照合に成功した
とき、当該被写体像に係る被写体は本人であると判定す
る判定手段とを具備している。
【0019】また、本発明の画像処理装置は、被写体像
を異なる位置から撮像し、それぞれ撮像位置の異なる複
数の被写体像を入力する画像入力手段と、特徴パターン
の登録時、前記画像入力手段により入力される複数の被
写体像のうち、どの撮像位置の被写体像を用いるかを決
定する入力画像決定手段と、この入力画像決定手段によ
り決定された被写体像から被写体の特徴を表わす特徴パ
ターンを抽出する第1の特徴抽出手段と、この第1の特
徴抽出手段により抽出された特徴パターンを当該被写体
に係る基準の特徴パターンとして、対応する被写体像の
撮像位置を示す位置情報と対応させて登録する登録手段
と、特徴パターンの照合時、前記画像入力手段により入
力される複数の被写体像のうち、当該被写体の前記登録
手段に登録されている特徴パターンとともに登録されて
いる位置情報に対応する撮像位置の被写体像を選択する
照合画像選択手段と、この照合画像選択手段により選択
された被写体像から被写体の特徴を表わす特徴パターン
を抽出する第2の特徴抽出手段と、この第2の特徴抽出
手段により抽出された特徴パターンを、前記登録手段に
登録されている当該被写体の特徴パターンと照合するこ
とにより、当該被写体像に係る被写体を特定する照合手
段とを具備している。
【0020】また、本発明の画像処理方法は、被写体像
を異なる方向から撮像する第1のステップと、この第1
のステップで撮像された被写体像において特徴点を抽出
し、この抽出された特徴点に基づいて特徴領域を設定
し、この設定された特徴領域を複数の領域に分割し、こ
の分割された各領域において所定情報を算出し、この算
出された所定情報に基づいて特徴パターンを算出する第
2のステップとを具備している。
【0021】また、本発明の画像処理方法は、被写体像
を異なる方向から撮像する第1のステップと、この第1
のステップで撮像された被写体像において特徴点を抽出
し、この抽出された特徴点に基づいて特徴領域を設定
し、この設定された特徴領域を複数の領域に分割し、こ
の分割された各領域において明るさの平均値を算出し、
この算出された平均値に基づいて特徴パターンを算出す
る第2のステップと、この第2のステップで算出された
特徴パターンを所定の被写体に係るものとして登録する
第3のステップと、前記第2のステップで算出された特
徴パターンを前記第3のステップにより登録された特徴
パターンと比較して被写体像に係る被写体を特定する第
4のステップとを具備している。
【0022】また、本発明の画像処理方法は、被写体像
を異なる位置から撮像し、それぞれ撮像位置の異なる複
数の被写体像を入力する第1のステップと、この第1の
ステップにより入力された複数の被写体像から被写体の
特徴を表わす特徴パターンをそれぞれ抽出する第2のス
テップと、この第2のステップにより抽出された複数の
特徴パターンをあらかじめ登録された基準の特徴パター
ンとそれぞれ照合する第3のステップと、この第3のス
テップによる照合の結果、前記第2のステップにより抽
出された複数の特徴パターンのうち少なくとも1つ以上
の特徴パターンがあらかじめ登録された基準の特徴パタ
ーンとの照合に成功したとき、当該被写体像に係る被写
体は本人であると判定する第4のステップとを具備して
いる。
【0023】さらに、本発明の画像処理方法は、被写体
像を異なる位置から撮像し、それぞれ撮像位置の異なる
複数の被写体像を入力する第1のステップと、特徴パタ
ーンの登録時、前記第1のステップにより入力される複
数の被写体像のうち、どの撮像位置の被写体像を用いる
かを決定する第2のステップと、この第2のステップに
より決定された被写体像から被写体の特徴を表わす特徴
パターンを抽出する第3のステップと、この第3のステ
ップにより抽出された特徴パターンを当該被写体に係る
基準の特徴パターンとして、対応する被写体像の撮像位
置を示す位置情報と対応させて登録する第4のステップ
と、特徴パターンの照合時、前記第1のステップにより
入力される複数の被写体像のうち、当該被写体の前記第
4のステップで登録された特徴パターンとともに登録さ
れている位置情報に対応する撮像位置の被写体像を選択
する第5のステップと、この第5のステップにより選択
された被写体像から被写体の特徴を表わす特徴パターン
を抽出する第6のステップと、この第6のステップによ
り抽出された特徴パターンを、前記第4のステップで登
録された当該被写体の特徴パターンと照合することによ
り、当該被写体像に係る被写体を特定する第7のステッ
プとを具備している。
【0024】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。
【0025】まず、本発明の第1の実施の形態について
説明する。
【0026】図1は、第1の実施の形態に係る画像処理
装置の構成を示すものである。図1において、被写体像
を撮像する撮像手段としての複数のビデオカメラ(以
後、単にカメラと称す)1−1,1−2,…,1−Nが
所定間隔あけて縦一列に配設されている。本実施の形態
では、モノクロの撮影が可能なビデオカメラを採用して
いる。各カメラ1−1,1−2,…,1−Nの出力は、
それぞれキャプチャボード2−1,2−2,…,2−N
の入力に接続されている。
【0027】すなわち、カメラ1−1からのビデオ信号
(アナログデータ)1は、A/D変換回路2−1aによ
りデジタルデータに変換された後、画像メモリ2−1b
に一旦格納される。ここでは、説明の簡略化のために、
図示を省略しているが、キャプチャボード2−2,…,
2−N内にも、同様にA/D変換回路、画像メモリが配
置されており、ビデオ信号2〜Nについても、キャプチ
ャボード2−2,…,2−N内において同様の処理がな
される。
【0028】なお、カメラ1−1,1−2,…,1−N
がUSB(ユニバーサル・シリアル・バス)インタフェ
ースを備えている場合には、A/D変換回路2−1aは
不要となり、USBインタフェースを別途設けることに
なる。
【0029】キャプチャボード2−1,2−2,…,2
−Nと、処理プロセッサ4、ワークメモリ5、表示ボー
ド6、辞書7は、システムバス3を介して通信自在に接
続されている。さらに、表示ボード6には、ディスプレ
イ8が接続されている。辞書7は、複数の辞書データ
(基準の特徴パターン)が登録(記憶)される登録手段
である。
【0030】処理プロセッサ4は、各カメラ1−1,1
−2,…,1−Nに対して、同期を取るための制御信号
を送信し、各カメラ1−1,1−2,…,1−Nから送
られる顔画像に係るデジタルデータを取込み、当該デー
タに対して、ワークメモリ5や辞書7を用いながら、後
述するような顔画像の登録、照合処理を行なう。
【0031】なお、各カメラ1−1,1−2,…,1−
Nで撮像された画像に対する専用処理プロセッサを並列
に設ければ、処理の高速化を図ることもできる。
【0032】図2は、カメラ1−1,1−2,…,1−
Nの配置例をより詳細に示したものであり、図3は各カ
メラ1−1,1−2,…,1−Nで撮像される顔画像の
一例を示すものである。
【0033】この例では、3つのカメラ1−1,1−
2,1−3が適当な間隔をもって縦一列に配設されてい
て、これらカメラ1−1,1−2,1−3の前方に被写
体(顔)Fが位置するようになっている。これにより、
カメラ1−1は上斜めより見た顔画像(図3(a)参
照)を撮像して取込み、カメラ1−2は正面から見た顔
画像(図3(b)参照)を撮像して取込み、カメラ1−
3は下斜めより見た顔画像(図3(c)参照)を撮像し
て取り込む。
【0034】なお、カメラ1−1,1−2,1−3は別
々の入力装置として示しているが、カメラ1−1,1−
2,1−3を1つの筐体内に納め、ユーザからは1つの
入力装置として見えるように構成してもよい。
【0035】以下、図4に示すフローチャートを参照し
て、第1の実施の形態に係る画像処理装置の処理プロセ
ッサ4による顔画像の登録、照合処理を詳細に説明す
る。なお、図4のフローチャートは、カメラ1−1,1
−2,1−3の各顔画像に対して個々にそれぞれ行なう
処理を示している。
【0036】まず、処理プロセッサ4は、入力画像全体
から顔画像領域を探索する(S1)。次に、略円形領域
とみなせる瞳領域と鼻孔領域を検出し、その領域の中心
位置を顔画像の特徴点とする(S2)。なお、このステ
ップS1,S2の処理では、たとえば、前記先行文献2
で述べられている従来方法を採用することができる。特
徴点の検出結果は、図5(a)(b)(c)に示される
通りであり、同図において「×」印で示しているのが検
出された特徴点である。なお、図5(a)はカメラ1−
1からの顔画像に対応し、図5(b)はカメラ1−2か
らの顔画像に対応し、図5(c)はカメラ1−3からの
顔画像に対応している。
【0037】次に、特徴領域の切出し(S3)、領域の
分割(S4)からなる正規化処理を行なう。このステッ
プS3,S4の正規化処理は、本実施の形態における顔
画像の登録、照合処理の中核をなす重要な部分である。
以下、図6および図7を参照して正規化処理について詳
述する。
【0038】図6および図7に示されるように、正規化
処理は、特徴点が2点得られる場合と4点得られる場合
とで処理過程が異なる。なお、得られた特徴点の数が、
これ以外の場合には、正規化処理は行なわないものとす
る。
【0039】特徴領域は、複数の特徴点によって定めら
れる四角形をあらかじめカメラごとに定められた倍率で
拡大した四角形として定義する。すなわち、たとえば、
図6(a)に示されるように、特徴点が2点得られた場
合には、図6(b)に示されるように、線分f1,f2
に一定幅を持たせた四角形を更に所定の倍率で拡大した
四角形領域(p1,p2,p3,p4)を特徴領域と定
義する。なお、この例では、図6(c)に示されるよう
に、この得られた特徴領域を更に10×5の小四角形領
域に分割する。
【0040】一方、たとえば、図7(a)に示されるよ
うに、特徴点が4点得られた場合には、図7(b)に示
されるように、線分f1,f2,f3,f4に一定幅を
持たせた四角形を更に所定の倍率で拡大した四角形領域
(q1,q2,q3,q4)を特徴領域と定義する。な
お、この例では、図6(c)に示されるように、この得
られた特徴領域を更に15×15の小四角形領域に分割
する。
【0041】ここでは、特徴領域を四角形としたが、2
個または4個の特徴点から一意に計算できる領域であれ
ば、これに限定されるものではない。また、領域分割に
ついて四角形の各辺を等分したが、特徴の強さを考慮し
て、分割小領域の大きさ、すなわち、面積を可変として
もよい。また、等分数も上記値に限定されるものではな
い。カメラごとに正規化処理のパラメータを最適に設定
できる点が、本実施の形態の画像処理装置の処理におけ
る特徴点である。
【0042】再び図4の説明に戻る。次に、登録、照合
のための特徴パターンを計算(抽出)する(S5)。こ
こでは、先にステップS4で分割された各部分領域ごと
に明るさの平均値を求め、それを図8に示されるような
順序(ラスタスキャン順)で並べた以下に示すようなベ
クトル形式の顔特徴パターンデータ(以下、単に特徴ベ
クトルと称する)で表現する。
【0043】(v11,v12,…,vnm-1,vnm) このステップS5の処理の変形例として、平均値計算を
行なう前に、あらかじめ特徴領域の各画素に対して濃度
補正を行ない、濃度レンジの正規化を行なってもよい。
あるいは、微分処理などの特徴強調フィルタ処理を行な
ってもよい。また、平均値以外に最頻値(モード値)な
どの他の特徴量を用いてもよいことは勿論である。
【0044】次に、登録/照合の判断を行ない(S
6)、登録の場合には、複数の特徴パターンを蓄積した
後(S7,S8)、前記先行文献2の手法(部分空間
法)を用いて辞書データを生成し(S9)、辞書7に個
人の属性情報と共に辞書データを登録する手続き(S1
0)を行ない、登録を完了することになる。
【0045】これに対して、照合の場合は、前記先行文
献2の手法(部分空間法)を採用した照合計算の処理
(S11)を行ない、その後、照合度出力の処理(S1
2)を行なう。
【0046】以上説明したように、第1の実施の形態で
は、1枚の入力顔画像(静止画)を処理対象としたが、
入力条件の変動を考慮して、一定時間間隔で複数の連続
した顔画像(動画像)を取込んで、図1のキャプチャボ
ード2−1の画像メモリ2−1bにバッファリングして
もよいことは勿論である。動画像(時系列画像)を入力
として照合計算を行なう方法は、前記先行文献3に詳し
く記載されている(相互部分空間法)。
【0047】なお、動画像を処理対象とする場合の処理
の流れとしては、ステップS1からS4までは図4のフ
ローチャートと同じでよく、ステップS9,S10にお
いてのみ変更を加えればよく、登録の際と同様に所定数
の特徴パターンの蓄積を行なった後、それら複数の特徴
ベクトルから主成分分析などの統計的処理を行なってパ
ターンの照合処理を行なう。
【0048】上述した第1の実施の形態の特徴点は、カ
メラ1−1,1−2,1−3からの各顔画像の処理を統
合制御する点にある。総括すると、処理プロセッサ4は
以下の制御を行なっている。
【0049】すなわち、第1に、カメラ1−1とカメラ
1−2からは、眼の中心位置が2個(左右)特徴点とし
て検出され、カメラ1−3からは更に鼻孔の中心点が2
個(左右)が加わり、合計4個の特徴点が検出されるも
のとする。
【0050】もし、この前提が満たされず、どれかのカ
メラ画像からの検出が失敗した場合には、この時点の処
理は失敗とみなして処理を直ちに中断し、リトライもし
くはユーザに対し失敗のメッセージを表示する。
【0051】第2に、登録の際には、全てのカメラ1−
1,1−2,1−3からの顔画像に対応する特徴ベクト
ルを一組の本人データとしてまとめて登録する。
【0052】第3に、全てのカメラ1−1,1−2,1
−3から取込まれた顔画像に対して本人の登録データと
の照合度が出力されたものとし、それをM1,M2,M
3とした場合に、 M1>=K1、かつ、M2>=K2、かつ、M3>=K
3 の条件を満たすときのみ「本人である」と判定する。こ
こで、K1,K2,K3はあらかじめ設定された閾値と
する。
【0053】入力された顔画像が誰の顔なのかを検索す
る場合には、上記条件を満たす者のうち(満たす者が存
在しない場合は「該当者なし」と判定する)、照合度の
平均値、すなわち、 (M1+M2+M3)/3 が最大の者を該当者と最終判定する。
【0054】次に、本発明の第2の実施の形態について
説明する。
【0055】第2の実施の形態に係る画像処理装置の基
本構成は、図1(第1の実施の形態)とほぼ同様である
が、カメラ1−1,1−2,1−3が横方向に一列に配
設されている点が相違している。
【0056】このカメラ1−1,1−2,1−3の配置
は、図9に示される通りである。すなわち、図9に示さ
れるように、カメラ1−1,1−2,1−3は、適当な
間隔で、やや下から斜め上に向かって横一列に並べられ
ている。これにより、カメラ1−1は左側面顔画像を撮
像し、カメラ1−2はやや下から見た正面顔画像を撮像
し、カメラ1−3は右側面顔画像を撮像し、それぞれ取
込む役割を担う。
【0057】各カメラ1−1,1−2,1−3から入力
された顔画像、および、それに対する特徴点抽出の例
は、図10(a)(b)(c)に示される通りであり、
同図において「×」印で示しているのが検出された特徴
点である。なお、図10(a)はカメラ1−1に対応
し、図10(b)はカメラ1−2に対応し、図10
(c)はカメラ1−3に対応している。
【0058】また、処理プロセッサ4が行なう処理も、
第1の実施の形態において特徴点が2点得られたときの
処理を、詳細は後述するような特徴点が3点得られたと
きの処理に置換すること以外は同様である。
【0059】以下、図11および図12を参照して、特
徴点が3点得られた場合の正規化処理について一例をあ
げて説明する。
【0060】すなわち、図11(a)に示されるよう
に、右側面顔画像において、特徴点が3点得られた場
合、図11(b)に示されるように、三角形(f1,f
2,f3)に基づいて四角形領域(p1,p2,p3,
p4)を特徴領域と定義する。この例では、図11
(c)に示されるように、この特徴領域を更に10×1
5の小四角形領域に分割する。
【0061】同様に、図12(a)に示されるように、
左側面顔画像において、特徴点が3点得られた場合、図
12(b)に示されるように、三角形(f1,f2,f
3)に基づいて四角形領域(q1,q2,q3,q4)
を特徴領域と定義する。この例では、図12(c)に示
されるように、この特徴領域を更に10×15の小四角
形領域に分割する。
【0062】3点の特徴点より4角形としての領域を求
めるには、線分f1.f2.f3に対しf3から平行線
を引き、f3から両側に一定幅の2点を取ることにより
得られる4角形を、ある倍率で拡大すればよい。このと
き、倍率はカメラごとにあらかじめ設定されている。た
だし、この方法に限定されるものではなく、一意に決定
できるようにあらかじめ定義しておけばよいことにな
る。
【0063】次に、本発明の第3の実施の形態について
説明する。
【0064】第3の実施の形態に係る画像処理装置の基
本構成は、図1(第1の実施の形態)とほぼ同様である
が、たとえば、9つのカメラ1−1,1−2,…,1−
9が多面的に配設されている点が相違している。
【0065】このカメラ1−1,1−2,…,1−9の
配置は、図13に示される通りである。すなわち、図1
3に示されるように、カメラ1−1がやや上から見た左
側面顔画像を、カメラ1−2がやや上から見た正面顔画
像を、カメラ1−3がやや上から見た右側面顔画像を、
それぞれ取込む役割を担う。また、カメラ1−4が左側
面顔画像を、カメラ1−5が正面顔画像を、カメラ1−
6が右側面顔画像を、それぞれ取込む役割を担う。さら
に、カメラ1−7がやや下から見た左側面顔画像を、カ
メラ1−8がやや下から見た正面顔画像を、カメラ1−
9がやや下から見た右側面顔画像を、それぞれ取込む役
割を担う。
【0066】なお、第3の実施の形態に係る処理プロセ
ッサ4が行なう処理については、前述した第1の実施の
形態と第3の実施の形態による処理を組合わせることで
実現される。
【0067】次に、本発明の第4の実施の形態について
説明する。
【0068】第4の実施の形態に係る画像処理装置の基
本構成は、図1(第1の実施の形態)とほぼ同様であ
る。また、カメラの配設についても、上述した第1乃至
第3の実施の形態のいずれかと同様である。
【0069】第4の実施の形態に係る処理プロセッサ4
が行なう処理は、前記第1乃至第3の実施の形態で説明
した処理に、特徴ベクトル抽出処理を追加変更すればよ
い。すなわち、複数の顔画像から抽出された特徴ベクト
ルの統合処理を追加することになる。
【0070】具体的には、複数のカメラ1−1,1−
2,…,1−nが配置されている場合において、各カメ
ラ1−1,1−2,…,1−nの出力から以下のような
特徴ベクトルが算出されるとき、 カメラ1−1:(v11,…,v1L1)(L1次元) カメラ1−2:(v21,…,v2L2)(L2次元) ……… カメラ1−n:(vn1,…,vnLn)(Ln次元) これらを順番に連結して、 (v11,…,v1L1、v21,…,v2L2、…、vn1,…,vnL
n) (L1+L2+…+Ln)次元 という特徴ベクトルの統合を行なうものである。
【0071】このような特徴ベクトルの統合を行なうこ
とにより、複数のカメラを用いているにも関わらず、た
とえば、前記先行文献2に示されている単一カメラの場
合と同様な登録と照合の処理(部分空間法)が可能とな
る。
【0072】次に、本発明の第5の実施の形態について
説明する。
【0073】第5の実施の形態に係る画像処理装置の基
本構成は、図1(第1の実施の形態)とほぼ同様であ
る。また、カメラの配設についても、前述した第1乃至
第3の実施の形態のいずれかと同様である。
【0074】第5の実施の形態に係る処理プロセッサ4
が行なう処理は、前記第1乃至第3の実施の形態で説明
した処理に、特徴ベクトル抽出処理を追加変更すればよ
い。ここでは、入力顔画像は一定時間ごとに時系列的に
取込むものとし、照合精度を上げるために更に追加する
処理は、後述するような特徴ベクトルの時系列上での統
合処理である。
【0075】具体的には、時刻1,2,…,sにおける
特徴ベクトル(ここでは、前記第4の実施の形態による
方法で、複数のカメラからの特徴パターンの統合が既に
なされているとし、その合計次元数をLとする)が算出
されるとき、 時刻1:(v11,…,v1L) 時刻2:(v21,…,v2L) ……… 時刻s:(vs1,…,vsL) これらの入力特徴ベクトルを時系列上で統合し、
【数1】 という動画像を用いる場合の平均特徴ベクトルを得るも
のである。
【0076】このような時系列上での統合を行なうこと
により、時系列パターンを用いているにも関わらず、単
一カメラの場合と同様に、たとえば、前記先行文献2の
方法を適用することが可能となる。
【0077】以上説明したように、第1〜第5の実施の
形態によれば、カメラをある条件を満たす範囲で複数個
設置し、同一人物の顔画像を同時に取込んで、瞳および
鼻孔の合計4個の特徴点位置情報に基づいて補正処理を
行なうことにより、ユーザの負担を従来と同様に少ない
まま、照合精度を向上させることができる。
【0078】また、複数の顔画像から抽出される特徴パ
ターンを1つに統合させて、従来と同様なパターン照合
処理を行なわせることにより、計算の複雑さと処理コス
トの増加をできるだけ抑えることが可能である。
【0079】次に、本発明の第6の実施の形態について
説明する。
【0080】第6の実施の形態に係る画像処理装置の基
本構成は、図1(第1の実施の形態)とほぼ同様である
が、カメラ1−1,1−2,…,1−Nの配設および使
用方法と、それに伴う統合処理が若干相違している。
【0081】図14に、たとえば、2つのカメラ1−
1,1−2を縦方向に配設した場合の例を示す。すなわ
ち、図14に示されるように、カメラ1−1,1−2
は、適当な間隔で、やや下から斜め上に向かって縦一列
に配設されていて、これらカメラ1−1,1−2の前方
に被写体Fが位置するようになっている。これにより、
カメラ1−1,1−2は、やや下から見た正面顔画像を
撮像する。なお、図14において、9−1はカメラ1−
1の上方に配設された照明灯、9−2はカメラ1−2の
下方に配設された照明灯である。
【0082】図14の例では、カメラ1−1は、成人の
平均的な身長を想定した位置に設置され、カメラ1−2
は、平均的身長以下の成人や子供の身長を想定した位置
に設置されている。なお、非常に身長の高い人でカメラ
の視野から外れる場合があったとしても、かがみこむこ
とにより顔画像の入力が可能である。また、幼児は対象
外としてもよいし、踏み台などを使用したり保護者が抱
き上げることにより、顔画像の入力を行なってもよい。
【0083】第6の実施の形態に係る処理プロセッサ4
が行なう統合処理は、以下のように行なわれる。すなわ
ち、前記第1の実施の形態では、複数のカメラのうち、
どれかのカメラからの顔画像による特徴点の検出が失敗
した場合には、その時点の処理は失敗とみなし、処理を
直ちに中断し、リトライもしくはユーザに対し失敗のメ
ッセージを表示するようにしたが、第6の実施の形態で
は、特徴点の検出が成功した顔画像に対しては照合まで
行ない、どれかが照合に成功した場合には、「本人であ
る」と判定する。
【0084】すなわち、カメラ1−1,1−2から取込
まれた顔画像に対して本人の登録データ(辞書データ)
との照合度が出力されたとし、それをM1,M2とした
場合に、 M1>=K1、または、M2>=K2 の条件を満たすときに「本人である」と判定する。ここ
で、K1,K2はあらかじめ設定された閾値とする。
【0085】このように処理を行なうことにより、身長
の個人差に対応して柔軟な照合が可能となる。
【0086】なお、上記第6の実施の形態では、カメラ
の数を2としたが、3つ以上用いることも可能であり、
さらに、どれか1つではなく、あらかじめ定められた個
数以上の顔画像の照合に成功したときのみ「本人であ
る」と判定するようにしてもよい。すなわち、カメラ1
−1,1−2,…,1−Nから取込まれた顔画像に対し
て本人の登録データ(辞書データ)との照合度が出力さ
れたとし、それをM1,M2,…,Mnとした場合に、
Mi>=Ki(i=1,2,…,n)である個数をRと
すると、 R>=T(Tは2以上) の条件を満たすときに「本人である」と判定する。ここ
で、Ki,Tはあらかじめ設定された閾値とする。
【0087】次に、本発明の第7の実施の形態について
説明する。
【0088】第7の実施の形態は、上述した第6の実施
の形態において、登録、照合の際にどのカメラからの顔
画像を用いるかを決定するようにしたものである。すな
わち、まず、登録の際に、どのカメラからの顔画像を用
いるかを決定し、そのカメラ番号とともに顔画像の登録
を行なう。具体的には、たとえば、図15に示すよう
に、登録者が自身の体格や身長により、カメラ1−1,
1−2のうちどちらのカメラを用いるかを決定し、その
カメラを選択する。また、登録者は自身の識別情報とし
てのIDコードをキーボードあるいはカードなどにより
入力する。
【0089】そして、選択したカメラにより入力された
顔画像に対し前述したような画像処理を行なって特徴パ
ターンを抽出し、この抽出した特徴パターンを、先に入
力された当該登録者のIDコードおよび選択したカメラ
の位置情報(すなわち、被写体像の撮像位置を示す位置
情報)としてのカメラ番号とともに辞書7に登録する。
【0090】なお、どのカメラを用いるかは、上記した
ように登録者自身が決定してもよいが、2つの瞳と2つ
の鼻孔に対応する特徴点が抽出され、かつ、その位置が
最も顔画像の中心部にある顔画像が得られるカメラを自
動的に決定してもよい。この例では、どのカメラを用い
るかという情報(カメラの位置情報としてのカメラ番
号)も個人情報となり、セキュリティレベルをより高く
できる。
【0091】次に、照合の際は、登録されたカメラ番号
に対応するカメラからの顔画像のみに対して照合処理を
行なう。具体的には、たとえば、図16に示すように、
照合者が自身のIDコードをキーボードあるいはカード
などにより入力することにより、そのIDコードに対応
した登録されているカメラ番号および特徴パターンを辞
書7から検索する。
【0092】そして、辞書7から検索したカメラ番号に
対応するカメラを選択し、この選択したカメラにより入
力された顔画像に対し前述したような画像処理を行なっ
て特徴パターンを抽出し、この抽出した特徴パターンを
辞書7から検索した特徴パターンと照合して、照合者が
本人かどうかの判定を行なう。
【0093】なお、上記第7の実施の形態では、カメラ
の数を2としたが、3つ以上用いることも可能であり、
さらに、1つのカメラのみを選択したが、3つ以上のカ
メラを用いる場合には、2つ以上のカメラを選択しても
よい。
【0094】次に、本発明の第8の実施の形態について
説明する。
【0095】前述した第1〜第7の実施の形態では、カ
メラを必要個数だけあらかじめ設置したが、第8の実施
の形態では、カメラ移動機構を設けることにより、1つ
のカメラをあらかじめ決められた位置に移動させて同様
の処理を行なうようにしたものである。この場合、画像
の取込み時間は多少増えるが、カメラ数は1個ですみ、
設置が簡単となる。以下、具体例について説明する。
【0096】図17に、たとえば、1つのカメラ1を配
設した場合の例を示す。すなわち、図17に示されるよ
うに、カメラ1は、垂直状態に設置された案内レール1
0に上下方向に摺動自在に固定されていて、図示しない
カメラ移動機構により、第1ポジションP1(図14の
カメラ1−1の位置に対応)、あるいは、第2ポジショ
ンP2(図14のカメラ1−2の位置に対応)に移動さ
れるようになっている。カメラ1は、やや下から斜め上
に向かって設置されている。
【0097】第8の実施の形態に係る画像処理装置の基
本構成は、図1(第1の実施の形態)とほぼ同様である
が、図18に示すように、カメラおよびキャプチャボー
ドが1個になった点と、カメラ1を移動させるカメラ移
動機構11を制御するカメラ位置制御部12、カメラ位
置制御部12をシステムバス3に接続する通信ボード1
3が追加された点が相違している。
【0098】第8の実施の形態に係る処理プロセッサ4
が行なう処理は、基本的には図4(第1の実施の形態)
とほぼ同様であるか、ステップS11の照合計算処理が
異なっている。以下、図19に示すフローチャートを参
照してステップS11の照合計算処理を詳細に説明す
る。
【0099】1:1の照合を行なうか、1:Nの照合を
行なうかによって動作が異なる(S21)。ここに、
1:1の照合とは、照合者が自身のIDコードを入力し
て照合対象の登録データを指定した場合の照合処理であ
り、1:Nの照合とは、照合者がIDコードを入力せ
ず、全ての登録データを照合対象とした場合の照合処理
である。
【0100】まず、1:1の照合を行なう場合は、照合
者が先に入力したIDコードを読込む(S22)。次
に、この読込んだIDコードに対応した登録データ(部
分空間)を辞書7から読込む(S23)。次に、部分空
間法などにより照合を行なうため、各登録データの部分
空間と、入力部分空間との照合度を計算する(S2
4)。次に、その照合度をあらかじめ設定されている閾
値と比較し(S25,S26)、1:1照合結果を出力
する(S27)。
【0101】次に、1:Nの照合を行なう場合は、照合
対象となる登録データを全て辞書7から読込む(S2
8)。そして、それぞれの登録データとの照合度を計算
する(S29)。次に、計算された照合度の中から最大
のものを選択し(S30)、それを1:N照合結果とし
て出力する(S32)。
【0102】この場合、図19の破線で囲んだステップ
S31のように、最大照合度を閾値判定することによっ
て、照合結果が正しいかどうかを検証することもできる
(S33)。たとえば、照合度があまりに低い場合に
は、どの照合対象でもないと判断することもできる。
【0103】なお、1:Nの照合は、前述したように、
照合者がIDコードを入力せず、全ての登録データを照
合対象とした場合の照合処理であり、これは前述した第
1〜第6の実施の形態における照合処理が相当する。
【0104】また、上記第8の実施の形態では、カメラ
の数を1としたが、2つ以上用いることも可能であり、
さらに、1つのカメラのみを移動したが、2つ以上のカ
メラを用いる場合には、2つ以上のカメラを移動しても
よい。
【0105】以上、本発明の実施の形態について説明し
たが、本発明はこれに限定されることなく、その主旨を
逸脱しない範囲で種々の変更が可能である。
【0106】たとえば、前記実施の形態を適宜組合わせ
て実施することが可能である。
【0107】また、前記実施の形態では、通常の可視領
域波長のカメラを用いた場合について説明したが、赤外
領域の赤外線カメラを用いてもよいし、距離情報(奥行
き情報)が得られるレンジファインダを使ってもよい。
あるいは、異なる種類の画像入力装置を混在させること
も可能である。
【0108】
【発明の効果】以上詳述したように本発明によれば、登
録、照合の際のユーザ負担を軽減し、照合性能を大幅に
向上させ、単一方向からのパターン照合処理アルゴリズ
ムを大幅に変更させることなく、複雑な計算と処理コス
トの増加を抑えた画像処理装置および画像処理方法を提
供できる。
【図面の簡単な説明】
【図1】第1の実施の形態に係る画像処理装置の構成を
概略的に示すブロック図。
【図2】第1の実施の形態におけるカメラの配置例を示
す図。
【図3】第1の実施の形態において各カメラで取込まれ
る顔画像の一例を示す図。
【図4】第1の実施の形態に係る処理プロセッサによる
顔画像の登録、照合処理を説明するフローチャート。
【図5】第1の実施の形態における特徴点の抽出結果の
一例を示す図。
【図6】第1の実施の形態における正規化処理について
説明するための図。
【図7】第1の実施の形態における正規化処理について
説明するための図。
【図8】第1の実施の形態におけるベクトル形式の特徴
パターンを算出する手法を説明するための図。
【図9】第2の実施の形態に係る画像処理装置における
カメラの配置例を示す図。
【図10】第2の実施の形態における顔画像および特徴
点抽出の一例を示す図。
【図11】第2の実施の形態における特徴点が3点得ら
れた場合の正規化処理について説明するための図。
【図12】第2の実施の形態における特徴点が3点得ら
れた場合の正規化処理について説明するための図。
【図13】第3の実施の形態に係る画像処理装置におけ
るカメラの配置例を示す図。
【図14】第6の実施の形態に係る画像処理装置におけ
るカメラの配置例を示す図。
【図15】第7の実施の形態に係る登録処理を説明する
ための図。
【図16】第7の実施の形態に係る照合処理を説明する
ための図。
【図17】第8の実施の形態に係る画像処理装置におけ
るカメラの配置例を示す図。
【図18】第8の実施の形態に係る画像処理装置の構成
を概略的に示すブロック図。
【図19】第8の実施の形態に係る処理プロセッサによ
る照合計算処理を説明するフローチャート。
【符号の説明】
F…被写体、1,1−1〜1−N…カメラ(撮像手段、
画像入力手段)、2,2−1〜2−N…キャプチャボー
ド、3…システムバス、4…処理プロセッサ、5…ワー
クメモリ、6…表示ボード、7…辞書(登録手段)、8
…ディスプレイ、9−1,9−2…照明灯(照明手
段)、10…案内レール、11…カメラ移動機構、12
…カメラ位置制御部、13…通信ボード。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B043 BA04 CA02 DA05 EA02 EA06 FA07 GA02 5B047 AA07 AA23 BB06 CB23 5B057 BA02 CA08 CA12 CA16 CB08 CB12 CB16 CC03 CE09 DA07 DB02 DB09 DC03 DC30 DC34 DC39 5L096 BA08 BA18 CA02 CA05 EA12 EA35 FA08 FA62 JA03 JA11 KA15

Claims (28)

    【特許請求の範囲】
  1. 【請求項1】 被写体像を異なる方向から撮像する複数
    の撮像手段と、 この複数の撮像手段により撮像された被写体像において
    特徴点を抽出し、この抽出された特徴点に基づいて特徴
    領域を設定し、この設定された特徴領域を複数の領域に
    分割し、この分割された各領域において所定情報を算出
    し、この算出された所定情報に基づいて特徴パターンを
    算出する正規化手段と、 を具備したことを特徴とする画像処理装置。
  2. 【請求項2】 被写体像を異なる方向から撮像する複数
    の撮像手段と、 この複数の撮像手段により撮像された被写体像において
    特徴点を抽出し、この抽出された特徴点に基づいて特徴
    領域を設定し、この設定された特徴領域を複数の領域に
    分割し、この分割された各領域において明るさの平均値
    を算出し、この算出された平均値に基づいて特徴パター
    ンを算出する正規化手段と、 この正規化手段により算出された特徴パターンを所定の
    被写体に係るものとして登録する登録手段と、 前記正規化手段により算出された特徴パターンを前記登
    録手段に登録された特徴パターンと比較して被写体像に
    係る被写体を特定する照合手段と、 を具備したことを特徴とする画像処理装置。
  3. 【請求項3】 前記複数の撮像手段は、縦方向に一列に
    配置されており、 前記正規化手段は、被写体像における左右瞳部分の中心
    点および左右鼻孔の中心点の特徴点群、左右瞳部分の中
    心点のみの特徴点群のいずれかを用いて特徴パターンを
    算出する、 ことを特徴とする請求項1または請求項2記載の画像処
    理装置。
  4. 【請求項4】 前記複数の撮像手段は、横方向に一列に
    配置されており、 前記正規化手段は、被写体像における左右瞳部分の中心
    点および左右鼻孔の中心点の特徴点群、左右瞳部分の中
    心点および左鼻孔の中心点の特徴点群、左右瞳部分の中
    心点および右鼻孔の中心点の特徴点群のいずれかを用い
    て特徴パターンを算出する、 ことを特徴とする請求項1または請求項2記載の画像処
    理装置。
  5. 【請求項5】 前記複数の撮像手段は、面的に配置され
    ており、 前記正規化手段は、被写体像における左右瞳部分の中心
    点および左右鼻孔の中心点の特徴点群、左右瞳部分の中
    心点および左鼻孔の中心点の特徴点群、左右瞳部分の中
    心点および右鼻孔の中心点の特徴点群、左右瞳部分の中
    心点のみの特徴点群のいずれかを用いて特徴パターンを
    算出する、 ことを特徴とする請求項1または請求項2記載の画像処
    理装置。
  6. 【請求項6】 前記正規化手段は、前記複数の撮像手段
    で撮像された被写体像のそれぞれについて次元の異なる
    特徴ベクトルを抽出し、この抽出された次元の異なる特
    徴ベクトルを順次配列することで多次元の特徴パターン
    として統合する、 ことを特徴とする請求項1または請求項2記載の画像処
    理装置。
  7. 【請求項7】 前記正規化手段は、前記複数の撮像手段
    で撮像された被写体像を一定の時間間隔で取込み、同時
    間の被写体像について特徴パターンを算出し、時間の異
    なる特徴パターンを順次配列することで時系列の特徴パ
    ターンとして統合する、 ことを特徴とする請求項1または請求項2記載の画像処
    理装置。
  8. 【請求項8】 被写体像を異なる位置から撮像し、それ
    ぞれ撮像位置の異なる複数の被写体像を入力する画像入
    力手段と、 この画像入力手段により入力された複数の被写体像から
    被写体の特徴を表わす特徴パターンをそれぞれ抽出する
    特徴抽出手段と、 この特徴抽出手段により抽出された複数の特徴パターン
    をあらかじめ登録された基準の特徴パターンとそれぞれ
    照合する照合手段と、 この照合手段による照合の結果、前記特徴抽出手段によ
    り抽出された複数の特徴パターンのうち少なくとも1つ
    以上の特徴パターンがあらかじめ登録された基準の特徴
    パターンとの照合に成功したとき、当該被写体像に係る
    被写体は本人であると判定する判定手段と、 を具備したことを特徴とする画像処理装置。
  9. 【請求項9】 前記画像入力手段は、あらかじめ定めら
    れた複数の位置にそれぞれ設置され、被写体像を複数の
    異なる位置から撮像する複数の撮像手段を有し、これら
    複数の撮像手段によってそれぞれ撮像位置の異なる複数
    の被写体像を入力する、 ことを特徴とする請求項8記載の画像処理装置。
  10. 【請求項10】 前記特徴抽出手段は、 入力された被写体像から被写体の特徴点を検出する特徴
    点検出手段と、 この特徴点検出手段により検出された特徴点に基づき特
    徴領域を設定する特徴領域設定手段と、 この特徴領域設定手段により設定された特徴領域を複数
    の領域に分割する領域分割手段と、 この領域分割手段により分割された各領域において明る
    さの平均値を求め、この求めた明るさの平均値に基づき
    被写体の特徴を表わす特徴パターンを抽出する特徴パタ
    ーン抽出手段と、 からなることを特徴とする請求項8記載の画像処理装
    置。
  11. 【請求項11】 被写体像を異なる位置から撮像し、そ
    れぞれ撮像位置の異なる複数の被写体像を入力する画像
    入力手段と、 特徴パターンの登録時、前記画像入力手段により入力さ
    れる複数の被写体像のうち、どの撮像位置の被写体像を
    用いるかを決定する入力画像決定手段と、 この入力画像決定手段により決定された被写体像から被
    写体の特徴を表わす特徴パターンを抽出する第1の特徴
    抽出手段と、 この第1の特徴抽出手段により抽出された特徴パターン
    を当該被写体に係る基準の特徴パターンとして、対応す
    る被写体像の撮像位置を示す位置情報と対応させて登録
    する登録手段と、 特徴パターンの照合時、前記画像入力手段により入力さ
    れる複数の被写体像のうち、当該被写体の前記登録手段
    に登録されている特徴パターンとともに登録されている
    位置情報に対応する撮像位置の被写体像を選択する照合
    画像選択手段と、 この照合画像選択手段により選択された被写体像から被
    写体の特徴を表わす特徴パターンを抽出する第2の特徴
    抽出手段と、 この第2の特徴抽出手段により抽出された特徴パターン
    を、前記登録手段に登録されている当該被写体の特徴パ
    ターンと照合することにより、当該被写体像に係る被写
    体を特定する照合手段と、 を具備したことを特徴とする画像処理装置。
  12. 【請求項12】 前記画像入力手段は、少なくとも1つ
    の撮像手段をあかじめ定められた複数の位置に移動させ
    て、それらの各位置で被写体像を撮像することにより、
    それぞれ撮像位置の異なる複数の被写体像を入力する、 ことを特徴とする請求項8または請求項11記載の画像
    処理装置。
  13. 【請求項13】 あらかじめ定められた複数の位置にそ
    れぞれ設置され、被写体像を複数の異なる位置から撮像
    する複数の撮像手段と、 特徴パターンの登録時、前記複数の撮像手段のうち、ど
    の位置の撮像手段を用いるかを決定する決定手段と、 この決定手段により決定された撮像手段から得られる被
    写体像から被写体の特徴を表わす特徴パターンを抽出す
    る第1の特徴抽出手段と、 この第1の特徴抽出手段により抽出された特徴パターン
    を当該被写体に係る基準の特徴パターンとして、前記決
    定手段により決定された撮像手段の位置を示す位置情報
    と対応させて登録する登録手段と、 特徴パターンの照合時、前記複数の撮像手段のうち、当
    該被写体の前記登録手段に登録されている特徴パターン
    とともに登録されている位置情報に対応する位置の撮像
    手段を選択する選択手段と、 この選択手段により選択された撮像手段から得られる被
    写体像から被写体の特徴を表わす特徴パターンを抽出す
    る第2の特徴抽出手段と、 この第2の特徴抽出手段により抽出された特徴パターン
    を、前記登録手段に登録されている当該被写体の特徴パ
    ターンと照合することにより、当該被写体像に係る被写
    体を特定する照合手段と、 を具備したことを特徴とする画像処理装置。
  14. 【請求項14】 前記第1、第2の特徴抽出手段は、 入力された被写体像から被写体の特徴点を検出する特徴
    点検出手段と、 この特徴点検出手段により検出された特徴点に基づき特
    徴領域を設定する特徴領域設定手段と、 この特徴領域設定手段により設定された特徴領域を複数
    の領域に分割する領域分割手段と、 この領域分割手段により分割された各領域において明る
    さの平均値を求め、この求めた明るさの平均値に基づき
    被写体の特徴を表わす特徴パターンを抽出する特徴パタ
    ーン抽出手段と、 からなることを特徴とする請求項11または請求項13
    記載の画像処理装置。
  15. 【請求項15】 被写体像を異なる方向から撮像する第
    1のステップと、 この第1のステップで撮像された被写体像において特徴
    点を抽出し、この抽出された特徴点に基づいて特徴領域
    を設定し、この設定された特徴領域を複数の領域に分割
    し、この分割された各領域において所定情報を算出し、
    この算出された所定情報に基づいて特徴パターンを算出
    する第2のステップと、 を具備したことを特徴とする画像処理方法。
  16. 【請求項16】 被写体像を異なる方向から撮像する第
    1のステップと、 この第1のステップで撮像された被写体像において特徴
    点を抽出し、この抽出された特徴点に基づいて特徴領域
    を設定し、この設定された特徴領域を複数の領域に分割
    し、この分割された各領域において明るさの平均値を算
    出し、この算出された平均値に基づいて特徴パターンを
    算出する第2のステップと、 この第2のステップで算出された特徴パターンを所定の
    被写体に係るものとして登録する第3のステップと、 前記第2のステップで算出された特徴パターンを前記第
    3のステップにより登録された特徴パターンと比較して
    被写体像に係る被写体を特定する第4のステップと、 を具備したことを特徴とする画像処理方法。
  17. 【請求項17】 前記第1のステップでは、縦方向に一
    列の異なる方向から被写体像を撮像し、 前記第2のステップでは、被写体像における左右瞳部分
    の中心点および左右鼻孔の中心点の特徴点群、左右瞳部
    分の中心点のみの特徴点群のいずれかを用いて特徴パタ
    ーンを算出する、 ことを特徴とする請求項15または請求項16記載の画
    像処理方法。
  18. 【請求項18】 前記第1のステップでは、横方向に一
    列の異なる方向から被写体像を撮像し、 前記第2のステップでは、被写体像における左右瞳部分
    の中心点および左右鼻孔の中心点の特徴点群、左右瞳部
    分の中心点および左鼻孔の中心点の特徴点群、左右瞳部
    分の中心点および右鼻孔の中心点の特徴点群のいずれか
    を用いて特徴パターンを算出する、 ことを特徴とする請求項15または請求項16記載の画
    像処理方法。
  19. 【請求項19】 前記第1のステップでは、面的に異な
    る方向から被写体像を同時に撮像し、 前記第2のステップでは、被写体像における左右瞳部分
    の中心点および左右鼻孔の中心点の特徴点群、左右瞳部
    分の中心点および左鼻孔の中心点の特徴点群、左右瞳部
    分の中心点および右鼻孔の中心点の特徴点群、左右瞳部
    分の中心点のみの特徴点群のいずれかを用いて特徴パタ
    ーンを算出する、 ことを特徴とする請求項15または請求項16記載の画
    像処理方法。
  20. 【請求項20】 前記第2のステップでは、前記第1の
    ステップで撮像した被写体像のそれぞれについて次元の
    異なる特徴ベクトルを抽出し、この抽出された次元の異
    なる特徴ベクトルを順次配列することで多次元の特徴パ
    ターンとして統合する、 ことを特徴とする請求項15または請求項16記載の画
    像処理方法。
  21. 【請求項21】 前記第2のステップでは、前記第1の
    ステップで撮像した被写体像を一定の時間間隔で取込
    み、同時間の被写体像について特徴パターンを算出し、
    時間の異なる特徴パターンを順次配列することで時系列
    の特徴パターンとして統合する、 ことを特徴とする請求項15または請求項16記載の画
    像処理方法。
  22. 【請求項22】 被写体像を異なる位置から撮像し、そ
    れぞれ撮像位置の異なる複数の被写体像を入力する第1
    のステップと、 この第1のステップにより入力された複数の被写体像か
    ら被写体の特徴を表わす特徴パターンをそれぞれ抽出す
    る第2のステップと、 この第2のステップにより抽出された複数の特徴パター
    ンをあらかじめ登録された基準の特徴パターンとそれぞ
    れ照合する第3のステップと、 この第3のステップによる照合の結果、前記第2のステ
    ップにより抽出された複数の特徴パターンのうち少なく
    とも1つ以上の特徴パターンがあらかじめ登録された基
    準の特徴パターンとの照合に成功したとき、当該被写体
    像に係る被写体は本人であると判定する第4のステップ
    と、 を具備したことを特徴とする画像処理方法。
  23. 【請求項23】 前記第1のステップは、あらかじめ定
    められた複数の位置にそれぞれ設置され、被写体像を複
    数の異なる位置から撮像する複数の撮像手段を用い、こ
    れら複数の撮像手段によってそれぞれ撮像位置の異なる
    複数の被写体像を入力する、 ことを特徴とする請求項22記載の画像処理方法。
  24. 【請求項24】 前記第2のステップは、 入力された被写体像から被写体の特徴点を検出するステ
    ップと、 この検出された特徴点に基づき特徴領域を設定するステ
    ップと、 この設定された特徴領域を複数の領域に分割するステッ
    プと、 この分割された各領域において明るさの平均値を求め、
    この求めた明るさの平均値に基づき被写体の特徴を表わ
    す特徴パターンを抽出するステップと、 からなることを特徴とする請求項22記載の画像処理方
    法。
  25. 【請求項25】 被写体像を異なる位置から撮像し、そ
    れぞれ撮像位置の異なる複数の被写体像を入力する第1
    のステップと、 特徴パターンの登録時、前記第1のステップにより入力
    される複数の被写体像のうち、どの撮像位置の被写体像
    を用いるかを決定する第2のステップと、 この第2のステップにより決定された被写体像から被写
    体の特徴を表わす特徴パターンを抽出する第3のステッ
    プと、 この第3のステップにより抽出された特徴パターンを当
    該被写体に係る基準の特徴パターンとして、対応する被
    写体像の撮像位置を示す位置情報と対応させて登録する
    第4のステップと、 特徴パターンの照合時、前記第1のステップにより入力
    される複数の被写体像のうち、当該被写体の前記第4の
    ステップで登録された特徴パターンとともに登録されて
    いる位置情報に対応する撮像位置の被写体像を選択する
    第5のステップと、 この第5のステップにより選択された被写体像から被写
    体の特徴を表わす特徴パターンを抽出する第6のステッ
    プと、 この第6のステップにより抽出された特徴パターンを、
    前記第4のステップで登録された当該被写体の特徴パタ
    ーンと照合することにより、当該被写体像に係る被写体
    を特定する第7のステップと、 を具備したことを特徴とする画像処理方法。
  26. 【請求項26】 前記第1のステップは、少なくとも1
    つの撮像手段をあかじめ定められた複数の位置に移動さ
    せて、それらの各位置で被写体像を撮像することによ
    り、それぞれ撮像位置の異なる複数の被写体像を入力す
    る、 ことを特徴とする請求項22または請求項25記載の画
    像処理方法。
  27. 【請求項27】 あらかじめ定められた複数の位置にそ
    れぞれ設置され、被写体像を複数の異なる位置から撮像
    する複数の撮像手段を用い、これら複数の撮像手段によ
    ってそれぞれ撮像位置の異なる複数の被写体像を入力す
    る第1のステップと、 特徴パターンの登録時、前記複数の撮像手段のうち、ど
    の位置の撮像手段を用いるかを決定する第2のステップ
    と、 この第2のステップにより決定された撮像手段から得ら
    れる被写体像から被写体の特徴を表わす特徴パターンを
    抽出する第3のステップと、 この第3のステップにより抽出された特徴パターンを当
    該被写体に係る基準の特徴パターンとして、前記第2の
    ステップにより決定された撮像手段の位置を示す位置情
    報と対応させて登録する第4のステップと、 特徴パターンの照合時、前記複数の撮像手段のうち、当
    該被写体の前記第4のステップで登録された特徴パター
    ンとともに登録されている位置情報に対応する位置の撮
    像手段を選択する第5のステップと、 この第5のステップにより選択された撮像手段から得ら
    れる被写体像から被写体の特徴を表わす特徴パターンを
    抽出する第6のステップと、 この第6のステップにより抽出された特徴パターンを、
    前記第4のステップで登録された当該被写体の特徴パタ
    ーンと照合することにより、当該被写体像に係る被写体
    を特定する第7のステップと、 を具備したことを特徴とする画像処理方法。
  28. 【請求項28】 前記第3、第6のステップは、 入力された被写体像から被写体の特徴点を検出するステ
    ップと、 この検出された特徴点に基づき特徴領域を設定するステ
    ップと、 この設定された特徴領域を複数の領域に分割するステッ
    プと、 この分割された各領域において明るさの平均値を求め、
    この求めた明るさの平均値に基づき被写体の特徴を表わ
    す特徴パターンを抽出するステップと、 からなることを特徴とする請求項25または請求項27
    記載の画像処理方法。
JP2000347043A 2000-03-16 2000-11-14 画像処理装置および画像処理方法 Pending JP2001331799A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2000347043A JP2001331799A (ja) 2000-03-16 2000-11-14 画像処理装置および画像処理方法
EP01105113A EP1134691B1 (en) 2000-03-16 2001-03-02 Image processing apparatus and method for extracting feature of faces
DE60133788T DE60133788T2 (de) 2000-03-16 2001-03-02 Bildverarbeitungsgerät und Verfahren zum Ermitteln von Merkmalen von Gesichtern
US09/808,939 US6873713B2 (en) 2000-03-16 2001-03-16 Image processing apparatus and method for extracting feature of object

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-74489 2000-03-16
JP2000074489 2000-03-16
JP2000347043A JP2001331799A (ja) 2000-03-16 2000-11-14 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2001331799A true JP2001331799A (ja) 2001-11-30

Family

ID=26587705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000347043A Pending JP2001331799A (ja) 2000-03-16 2000-11-14 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (1) US6873713B2 (ja)
EP (1) EP1134691B1 (ja)
JP (1) JP2001331799A (ja)
DE (1) DE60133788T2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242486A (ja) * 2002-02-21 2003-08-29 Japan Science & Technology Corp 人物属性推定装置
JP2005149506A (ja) * 2003-11-14 2005-06-09 Fuji Photo Film Co Ltd 対象物自動認識照合方法および装置
JP2005266868A (ja) * 2004-03-16 2005-09-29 National Univ Corp Shizuoka Univ 瞳孔と鼻孔を用いた頭部の方向を検出する方法
US7298880B2 (en) 2003-03-07 2007-11-20 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2008009689A (ja) * 2006-06-29 2008-01-17 Matsushita Electric Ind Co Ltd 顔登録装置、顔認証装置および顔登録方法
US7324670B2 (en) 2002-12-12 2008-01-29 Kabushiki Kaisha Toshiba Face image processing apparatus and method
WO2008152767A1 (ja) * 2007-06-13 2008-12-18 Panasonic Corporation 生体認証装置
EP2037320A1 (en) 2007-09-14 2009-03-18 Sony Corporation Imaging apparatus, imaging apparatus control method, and computer program
US7602948B2 (en) 2003-02-05 2009-10-13 Fujifilm Corporation Personal authentication apparatus
KR101083367B1 (ko) * 2010-01-26 2011-11-14 한남대학교 산학협력단 영상을 이용한 사용자 인증 방법 및 장치
WO2012086136A1 (ja) * 2010-12-22 2012-06-28 日立オムロンターミナルソリューションズ株式会社 生体認証システム及び生体認証方法
JP2012216125A (ja) * 2011-04-01 2012-11-08 Nec Corp 物体検出方法、物体検出装置および物体検出プログラム
JP2015533432A (ja) * 2012-10-18 2015-11-24 モルフォ 三次元実体の画像取得の認証方法
JP2016001447A (ja) * 2014-06-12 2016-01-07 キヤノン株式会社 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
WO2017096758A1 (zh) * 2015-12-11 2017-06-15 腾讯科技(深圳)有限公司 图像分类方法、电子设备和存储介质
WO2021210454A1 (ja) * 2020-04-14 2021-10-21 株式会社日立製作所 個人識別システム及び個人識別プログラム

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1136937B1 (en) * 2000-03-22 2006-05-10 Kabushiki Kaisha Toshiba Facial image forming recognition apparatus and a pass control apparatus
GB0107780D0 (en) * 2001-03-28 2001-05-16 Hewlett Packard Co Improvements relating to data delivery
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
EP1335329B1 (en) * 2002-02-05 2020-05-27 Panasonic Intellectual Property Management Co., Ltd. Personal authentication method, personal authentication apparatus and image capturing device
JP3829729B2 (ja) * 2002-02-14 2006-10-04 オムロン株式会社 個人認証装置
JP3910893B2 (ja) * 2002-08-30 2007-04-25 富士通株式会社 画像抽出方法及び認証装置
JP4486594B2 (ja) * 2002-11-07 2010-06-23 本田技研工業株式会社 確率的外観集合体を使用するビデオに基づく顔認識
AU2003275724A1 (en) * 2002-11-07 2004-06-07 Matsushita Electric Industrial Co., Ltd. Method for cerficating individual, iris registering device, system for certificating iris, and program for cerficating individual
DE10257963A1 (de) * 2002-12-12 2004-07-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur Bestimmung der 3D-Position von PKW-Insassen
US7194110B2 (en) * 2002-12-18 2007-03-20 Intel Corporation Method and apparatus for tracking features in a video sequence
US7421097B2 (en) 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
US8326086B2 (en) * 2003-12-11 2012-12-04 Koninklijke Philips Electronics N.V. Elastic image registration
JP2005258860A (ja) * 2004-03-12 2005-09-22 Matsushita Electric Ind Co Ltd 複数認証方法及びその装置
US7693308B2 (en) * 2004-03-24 2010-04-06 Fujifilm Corporation Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method
AT501370B1 (de) * 2004-06-03 2007-03-15 X Pin Com Gmbh Vorrichtung zur biometrischen steuerung von anlagen
US20060056667A1 (en) * 2004-09-16 2006-03-16 Waters Richard C Identifying faces from multiple images acquired from widely separated viewpoints
US7469060B2 (en) * 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US20060165264A1 (en) * 2005-01-26 2006-07-27 Hirofumi Saitoh Method and apparatus for acquiring images, and verification method and verification apparatus
JP2006236244A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置および入退場管理装置
JP4696778B2 (ja) * 2005-08-23 2011-06-08 コニカミノルタホールディングス株式会社 認証装置、認証方法及びプログラム
JP2007101573A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp プリント注文受付装置
CN101379528B (zh) * 2006-03-01 2012-07-04 日本电气株式会社 面部认证装置、面部认证方法
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
WO2008063143A2 (en) * 2006-11-23 2008-05-29 Manas Yatirim Holding Anonim Sirketi Mechanism for determination of viewer numbers at mass screening locations
US8315441B2 (en) * 2007-06-29 2012-11-20 Nec Corporation Masquerade detection system, masquerade detection method and masquerade detection program
JP5169139B2 (ja) * 2007-10-25 2013-03-27 株式会社ニコン カメラ、および画像記録プログラム
JP4541427B2 (ja) * 2008-03-25 2010-09-08 富士通株式会社 生体認証装置、生体情報登録装置および生体認証方法
GB0818115D0 (en) * 2008-10-03 2008-11-05 Hyde John Extended image height camera
TWI405145B (zh) * 2008-11-20 2013-08-11 Ind Tech Res Inst 以圖素之區域特徵為基礎的影像分割標記方法與系統,及其電腦可記錄媒體
US8502644B1 (en) 2009-01-29 2013-08-06 Bank Of American Corporation Physical item security: tracking device activation
US8749347B1 (en) * 2009-01-29 2014-06-10 Bank Of America Corporation Authorized custodian verification
US8325981B2 (en) * 2009-04-21 2012-12-04 Nec Soft, Ltd. Human tracking apparatus, human tracking method, and human tracking processing program
US8655084B2 (en) * 2009-06-23 2014-02-18 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Reno Hand-based gender classification
US8384514B2 (en) * 2009-08-07 2013-02-26 At&T Intellectual Property I, L.P. Enhanced biometric authentication
TWI410893B (zh) * 2010-11-22 2013-10-01 Univ Chang Gung 影像對位系統及其方法
JP5777367B2 (ja) * 2011-03-29 2015-09-09 キヤノン株式会社 パターン識別装置、パターン識別方法及びプログラム
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
KR20130119759A (ko) * 2012-04-24 2013-11-01 삼성전자주식회사 3차원 물체 인식 방법 및 장치
CN102915539A (zh) * 2012-09-26 2013-02-06 北京理工大学 一种基于目标特征构型的位姿测量特征点提取方法
TWI508057B (zh) * 2013-07-15 2015-11-11 Chunghwa Picture Tubes Ltd 語音辨識系統以及方法
US9986289B2 (en) 2015-03-02 2018-05-29 The Nielsen Company (Us), Llc Methods and apparatus to count people
EP3362030B1 (en) * 2015-10-15 2023-09-06 Dosentrx Ltd. Image recognition-based dosage form dispensers
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US11094212B2 (en) * 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
AU2017272325A1 (en) * 2017-12-08 2019-06-27 Canon Kabushiki Kaisha System and method of generating a composite frame
CN109087411A (zh) * 2018-06-04 2018-12-25 上海灵纽智能科技有限公司 一种基于分布式摄像头阵列的人脸识别锁
CN108920639B (zh) * 2018-07-02 2022-01-18 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
DE102018121254A1 (de) * 2018-08-30 2020-03-05 Bundesdruckerei Gmbh Zugangskontrollsystem zum Erfassen eines Gesichtsbildes einer Person
FR3113743A1 (fr) * 2020-09-03 2022-03-04 Photo-Me Limited Procede d’acquisition d’un portrait photographique d’un individu et installation mettant en œuvre ce procede

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
US5230025A (en) * 1990-08-31 1993-07-20 Digital Biometrics, Inc. Method and apparatus for capturing skin print images
WO1994023390A1 (en) * 1993-03-29 1994-10-13 Matsushita Electric Industrial Co., Ltd. Apparatus for identifying person
US6119096A (en) * 1997-07-31 2000-09-12 Eyeticket Corporation System and method for aircraft passenger check-in and boarding using iris recognition
JPH11196398A (ja) 1997-12-26 1999-07-21 Sony Corp 画像処理装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242486A (ja) * 2002-02-21 2003-08-29 Japan Science & Technology Corp 人物属性推定装置
US7324670B2 (en) 2002-12-12 2008-01-29 Kabushiki Kaisha Toshiba Face image processing apparatus and method
US7502496B2 (en) 2002-12-12 2009-03-10 Kabushiki Kaisha Toshiba Face image processing apparatus and method
US7602948B2 (en) 2003-02-05 2009-10-13 Fujifilm Corporation Personal authentication apparatus
US7298880B2 (en) 2003-03-07 2007-11-20 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2005149506A (ja) * 2003-11-14 2005-06-09 Fuji Photo Film Co Ltd 対象物自動認識照合方法および装置
JP2005266868A (ja) * 2004-03-16 2005-09-29 National Univ Corp Shizuoka Univ 瞳孔と鼻孔を用いた頭部の方向を検出する方法
JP2008009689A (ja) * 2006-06-29 2008-01-17 Matsushita Electric Ind Co Ltd 顔登録装置、顔認証装置および顔登録方法
WO2008152767A1 (ja) * 2007-06-13 2008-12-18 Panasonic Corporation 生体認証装置
EP2037320A1 (en) 2007-09-14 2009-03-18 Sony Corporation Imaging apparatus, imaging apparatus control method, and computer program
US8068164B2 (en) 2007-09-14 2011-11-29 Sony Corporation Face recognition auto focus apparatus for a moving image
KR101083367B1 (ko) * 2010-01-26 2011-11-14 한남대학교 산학협력단 영상을 이용한 사용자 인증 방법 및 장치
WO2012086136A1 (ja) * 2010-12-22 2012-06-28 日立オムロンターミナルソリューションズ株式会社 生体認証システム及び生体認証方法
JP2012216125A (ja) * 2011-04-01 2012-11-08 Nec Corp 物体検出方法、物体検出装置および物体検出プログラム
JP2015533432A (ja) * 2012-10-18 2015-11-24 モルフォ 三次元実体の画像取得の認証方法
JP2016001447A (ja) * 2014-06-12 2016-01-07 キヤノン株式会社 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
WO2017096758A1 (zh) * 2015-12-11 2017-06-15 腾讯科技(深圳)有限公司 图像分类方法、电子设备和存储介质
US10325181B2 (en) 2015-12-11 2019-06-18 Tencent Technology (Shenzhen) Company Limited Image classification method, electronic device, and storage medium
WO2021210454A1 (ja) * 2020-04-14 2021-10-21 株式会社日立製作所 個人識別システム及び個人識別プログラム

Also Published As

Publication number Publication date
EP1134691A2 (en) 2001-09-19
DE60133788D1 (de) 2008-06-12
DE60133788T2 (de) 2009-06-25
US20030206645A1 (en) 2003-11-06
US6873713B2 (en) 2005-03-29
EP1134691B1 (en) 2008-04-30
EP1134691A3 (en) 2004-11-24

Similar Documents

Publication Publication Date Title
JP2001331799A (ja) 画像処理装置および画像処理方法
US8265347B2 (en) Method and system for personal identification using 3D palmprint imaging
JP5831018B2 (ja) 生体認証装置及び生体認証装置における利用者の手の位置の調整方法
US11756338B2 (en) Authentication device, authentication method, and recording medium
JP5730095B2 (ja) 顔画像認証装置
JP2000259814A (ja) 画像処理装置及びその方法
US20140241593A1 (en) Authentication apparatus, authentication method, and non-transitory computer readable medium
KR101017798B1 (ko) 평균 곡률을 이용하는 지정맥 인증 방법 및 장치
JP2006293644A (ja) 情報処理装置、情報処理方法
JP5796523B2 (ja) 生体情報取得装置、生体情報取得方法、生体情報取得制御プログラム
JP2003141541A (ja) 人物認識装置および通行制御装置
JP2004118627A (ja) 人物認証装置および人物認証方法
JP5955031B2 (ja) 顔画像認証装置
KR101640014B1 (ko) 허위 안면 이미지 분류가 가능한 홍채 인식 장치
JP2007317062A (ja) 人物認識装置及びその方法
JP2005258860A (ja) 複数認証方法及びその装置
JP7251874B2 (ja) 顔認証装置、顔認証方法、プログラム、および記録媒体
JP5766096B2 (ja) 顔画像認証装置
KR20020022295A (ko) 3차원 정보를 이용한 얼굴 인식 장치 및 방법
KR101596363B1 (ko) 얼굴 인식에 의한 출입관리장치 및 방법
JP2014086042A (ja) 顔認証装置
JP2003178304A (ja) 顔画像検索装置、顔画像検索方法、およびその方法をコンピュータに実行させるプログラム
JP5871765B2 (ja) 顔画像認証装置
Ribarić et al. A biometric identification system based on the fusion of hand and palm features
KR102389066B1 (ko) 얼굴 인식을 위한 얼굴영상 생성 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100112