[go: up one dir, main page]

JP2006004003A - 画像処理装置および方法、記録媒体、並びにプログラム - Google Patents

画像処理装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
JP2006004003A
JP2006004003A JP2004177420A JP2004177420A JP2006004003A JP 2006004003 A JP2006004003 A JP 2006004003A JP 2004177420 A JP2004177420 A JP 2004177420A JP 2004177420 A JP2004177420 A JP 2004177420A JP 2006004003 A JP2006004003 A JP 2006004003A
Authority
JP
Japan
Prior art keywords
image data
similarity
image
feature
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004177420A
Other languages
English (en)
Other versions
JP4569186B2 (ja
Inventor
Atsushi Okubo
厚志 大久保
Kotaro Sabe
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004177420A priority Critical patent/JP4569186B2/ja
Publication of JP2006004003A publication Critical patent/JP2006004003A/ja
Application granted granted Critical
Publication of JP4569186B2 publication Critical patent/JP4569186B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 位置のずれや変形に関わらず、人の顔を判定できるようにする。
【解決手段】 類似度ベクトル演算部104は、入力された画像から特徴点検出部101と特徴量演算部102により演算された特徴点の特徴量と、読み出し部103により登録部111から読み出された登録画像の特徴量に基づいて類似度を演算する。クラス判定部105は、類似度ベクトル演算部104により演算された類似度ベクトルを、内蔵するサポートベクタマシンに代入し、入力された画像が、人の顔の画像であるのか否か(intra-personal classまたはextra-personal classのいずれのクラスの画像であるのか)を判定する。出力部108は、入力された画像が、人の顔の画像であるのか否かの判定結果を出力する。本発明は、人の顔を識別するロボットに適用することが可能である。
【選択図】図2

Description

本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、画像の変形や傾きに関わらず、安定して画像を判定することができるようにした画像処理装置および方法、記録媒体、並びプログラムに関する。
例えば、ロボットに人の顔を識別させるのに、サポートベクタマシン(Support Vector Machines (SVM))を利用することが知られている。サポートベクタマシン(SVM)は、汎化能力の高い強力なパターン識別手法としてよく知られているが、この手法を用いて顔識別を行う場合には以下の問題点がある。
1. 性能の良い識別器を構成するためには学習時に大量の教師データが必要である。
2. 学習には非常に計算時間がかかる。
3. 2クラスの識別しかできない。
SVMを利用した顔識別アルゴリズムを紹介する代表的なものに、非特許文献1の論文がある。この論文の技術ではq人分の人物を識別するために、登録された特定の人物クラスとそれ以外の人物クラスを識別するq個のSVMの識別器が利用される。この技術は、個々の識別器の学習用教師データには、登録したい人物と既に登録されているその他の人物の顔画像データを大量に必要としているため、学習はオフラインで行う必要があり、顔の登録には非常に時間がかかるという問題がある。
上記の問題を解決するため、Jonathon Phillipsらは非特許文献2において、Baback Moghaddamらが非特許文献3で提案している差分顔によるPCA(Principal Components Analysis)を用いた顔識別の方法で、PCAの代わりにSVMでクラス識別を行うことにより、リアルタイムに顔の登録・追加学習が可能な、より精度の高い顔識別アルゴリズムを提案している。
Babackらの差分顔による顔識別の方法は、2クラスの識別を行う識別器(PCAとベイズ推定を組み合わせた方法)を1つだけ用いる構成で任意の人数の顔を識別し、リアルタイムに顔の登録が可能な方法であり、これは顔画像が変化する要因は一般的に以下のように大きく2つに分類することが可能であるという事実に基づいている。
1.intra-personal variations : 照明条件や表情・成長等による同一人物における顔画像の変化
2.extra-personal variations: 人物の相違による顔画像の変化
Bernd Heisele, "Face Recognition with Support Vector Machines: Global versus Component-based Approach", Massachusetts Institute of Technology Center for Biological and Computational Learning Canmbridge, U.S.A. P. Jonathon Phillips, "Support Vector Machines Applied to Face Recognition", NISTIR 6241, U.S. Department of commerce Technology Administration, National Institute of Standards and Technology, November 1998 Baback Moghaddam, "Beyond Eigenfaces: Probabilistic Matching for Face Recognition", MIT Media Laboratory, U.S.A.
Babackらの手法では、同一人物の2枚の顔画像の差分顔クラス(intra-personal class)と別人物の2枚の顔画像の差分顔クラス(extra-personal class)を、予め大量の教師画像からPCAを用いて学習する。この学習データには登録される人物の顔画像が含まれる必要がない。これにより、顔の登録時には再度学習を行わせる必要がなく、差分画像生成用の登録画像をそのまま保存するだけであるため、リアルタイム顔登録処理が可能となる。この手法では、それぞれのクラスの分布がガウス分布すると仮定して、クラス存在確率をPCAとベイズ推定を組み合わせた方法により求めているが、この仮定は照明条件などが非常に整った環境以外では十分に成り立たない。このため、ロボット等に要求される自然な環境での顔画像の変化には十分に対応できず、満足な性能が出ないことが多いという問題点がある。また、差分画像が2枚の顔画像の変化を十分に表すためには、2枚の顔画像の各特徴点間の正確な位置合わせを行った後で差分画像を生成する必要がある。これを行うためにBabackらは、目鼻等の特徴位置をPCAを用いたパターンマッチングで求めて、それら特徴位置が同じ位置に来るようにアフィン変換を行った後に差分画像の生成を行っているが、この方法では2枚の顔画像間の顔の変形や傾きが大きくなるにつれて著しく性能が低下する課題がある。
また、Jonathonらが提案している方法は、このクラス識別にPCAとベイズ推定ではなく、SVMを用いている。これにより、クラスの分布がガウス分布より複雑な分布になっても正しい判別が可能になり、照明条件等に変化の含まれる環境下での識別性能が向上しているが、差分顔を用いているため同様に2枚の顔画像間の顔の変形や傾きが大きくなるにつれて著しく性能が低下する課題がある。
本発明は、このような状況に鑑みてなされたものであり、顔の変形や傾きに関わらず、安定して識別を行えるようにするものである。
請求項1の画像処理装置は、入力された画像データの画像の特徴点を検出する特徴点検出手段と、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出手段と、検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算手段と、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定手段とを備えることを特徴とする。
入力された画像データの画像が、予め登録されている画像に属しないクラスであると判定された場合、特徴量を登録する登録手段をさらに備えるようにすることができる。
請求項3の画像処理方法は、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとを含むことを特徴とする。
請求項4の記録媒体のプログラムは、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとを含むことを特徴とする。
請求項5のプログラムは、入力された画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算ステップと、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップとをコンピュータに実行させることを特徴とする。
請求項6の画像処理装置は、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得手段と、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付け手段と、前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出手段と、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出手段と、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算手段と、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算手段とを備えることを特徴とする。
請求項7の画像処理方法は、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとを含むことを特徴とする。
請求項8の記録媒体のプログラムは、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとを含むことを特徴とする。
請求項9のプログラムは、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出ステップと、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップとをコンピュータに実行させることを特徴とする。
本発明においては、入力された画像データの特徴点の特徴量と、予め登録されている画像データの特徴点の特徴量との類似度が演算され、その類似度に基づいて、サポートベクタマシンにより画像データのクラスが判定される。
また、本発明においては、第1の画像データと第2の画像データに対応付けられたラベル、並びに、第1の画像データの類似度と第2の画像データの類似度に基づいて、サポートベクタが演算される。
本発明によれば、画像データのクラスを判定することができる。特に、画像の変形や傾きに関わらず、安定して判定を行うことが可能となる。また、リアルタイムで画像を登録することが可能となる。
さらに本発明によれば、画像データのクラスを判定可能な装置を提供することができる。特に、画像での変形や傾きに関わらず、安定して判定を行うことができ、また、リアルタイムで画像の登録が可能な装置を提供することができる。
以下に本発明の最良の形態を説明するが、開示される発明と実施の形態との対応関係を例示すると、次のようになる。明細書中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加される発明の存在を否定するものではない。
請求項1の画像処理装置(例えば、図1の画像処理装置1)は、入力された画像データの画像の特徴点を検出する特徴点検出手段(例えば、図3のステップS33の処理を実行する図2の特徴点検出部101)と、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出手段(例えば、図3のステップS34の処理を実行する図2の特徴量演算部102)と、検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算手段(例えば、図3のステップS36の処理を実行する図2の類似度ベクトル演算部104)と、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定手段(例えば、図3のステップS37の処理を実行する図2のクラス判定部105)とを備えることを特徴とする。
入力された前記画像データの画像が、予め登録されている画像に属しないクラスであると判定された場合、前記特徴量を登録する登録手段(例えば、図3のステップS45の処理を実行する図2の登録部111)をさらに備えることができる。
請求項3の画像処理方法、請求項4の記録媒体のプログラム、並びに請求項5のプログラムは、入力された画像データの画像の特徴点を検出する特徴点検出ステップ(例えば、図3のステップS33)と、前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップ(例えば、図3のステップS34)と、検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算ステップ(例えば、図3のステップS36)と、入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップ(例えば、図3のステップS37)とを含むことを特徴とする。
請求項6の画像処理装置(例えば、図5の画像処理装置151)は、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得手段(例えば、図6のステップS61の処理を実行する図5の取得部161)と、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付け手段(例えば、図6のステップS62の処理を実行する図5のラベル付け部162)と、前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出手段(例えば、図6のステップS65の処理を実行する図5の特徴点検出部165)と、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出手段(例えば、図6のステップS66の処理を実行する図5の特徴量演算部166)と、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算手段(例えば、図6のステップS67の処理を実行する図5の類似度ベクトル演算部167)と、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算手段(例えば、図6のステップS68の処理を実行する図5のサポートベクタ演算部168)とを備えることを特徴とする。
請求項7の画像処理方法、請求項8の記録媒体のプログラム、並びに請求項9のプログラムは、対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップ(例えば、図6のステップS61)と、前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップ(例えば、図6のステップS62)と、前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出ステップ(例えば、図6のステップS65)と、前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップ(例えば、図6のステップS66)と、対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップ(例えば、図6のステップS67)と、前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップ(例えば、図6のステップS68)とを含むことを特徴とする。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した画像処理装置の構成例を表している。この画像処理装置1は、入力された画像データの画像から目、口、鼻といった顔の特徴をガボアフィルタリングにより抽出する顔抽出部11、並びに顔抽出部11により抽出された目、口、鼻などに基づいて、その画像が人の顔であるか否かを認識する顔認識部12により構成されている。
顔認識部12は、顔画像アライメント部51、クラス判断部52、および学習データベース53により構成されている。顔画像アライメント部51は、顔抽出部11より供給された顔の目、口、鼻といった特徴の特徴位置に基づいて、それらが通常、人の顔として位置する位置にくるように、アフィン変換などのモーフィング処理を行う。クラス判断部52は、学習データベース53に登録されている学習データを参照して、入力画像が登録済みの顔と同一人物クラスに属するか否かを判断する。
顔抽出部11は、入力された画像が、顔の画像であり、さらに顔の目の画像であるか、口の画像であるか、または鼻の画像であると判断できた場合には、その顔の中の位置を検出し、その位置情報を画像データとともに顔認識部12の顔画像アライメント部51に供給する。
顔画像アライメント部51は、顔特徴位置が、基準位置にくるように、アフィン変換などのモーフィング処理を行う。これにより、例えば正面からみた顔の画像である場合には、左右の目が水平な位置に所定の距離はなれて位置し、左右の目の中間の下方に鼻が位置し、その鼻よりさらに下方に口が位置するようにモーフィング処理が行われる。その結果、顔画像の識別が容易になる。
クラス判断部52は、顔画像アライメント部51によりアライメントされた顔画像の画像データが、学習データベース53に予め登録されている顔画像の画像データと一致するか否かを判断する。このため、クラス判断部52は、図2に示されるような、機能的構成を有している。
すなわち、クラス判断部52は、特徴点検出部101、特徴量演算部102、読み出し部103、類似度ベクトル演算部104、クラス判定部105、重複判定部106、選択部107、出力部108、表示部109、指示判定部110、および登録部111を有している。
特徴点検出部101は、顔画像アライメント部51より入力された画像データに基づく顔画像の特徴点を検出する。特徴量演算部102は、特徴点検出部101により検出された特徴点の特徴量を演算し、類似度ベクトル演算部104に供給する。特徴量演算部102は、ガボアフィルタ(Gabor Filter)で構成される。
ここで、ガボアフィルタの処理(ガボアフィルタリング)について説明する。まず人間の視覚細胞には、ある特定の方位に対して選択性を持つ細胞が存在することが既に判っている。これは、垂直の線に対して反応する細胞と、水平の線に反応する細胞で構成される。ガボアフィルタリングは、これと同様に、方位選択性を持つ複数のフィルタで構成される空間フィルタである。
ガボアフィルタは、ガボア関数によって空間表現される。ガボア関数g(x,y)は、次式に示すように、コサイン成分からなるキャリアs(x,y)と、2次元ガウス分析状のエンベローブWr(x,y)とで構成される。
Figure 2006004003
キャリアs(x,y)は、複数関数を用いて、次の式(2)のように表現される。ここで、座標値(u0,v0)は空間周波数を表し、またPはコサイン成分の位相を表す。
Figure 2006004003
式(2)に示すキャリアは、次式(3)に示すように、実数成分Re(s(x,y))と虚数成分Im(s(x,y))に分離することができる。
Figure 2006004003
一方、2次元ガウス分布からなるエンベローブは、次式のように表現される。
Figure 2006004003
ここで、座標軸(x0,y0)はこの関数のピークであり、定数a及びbはガウス分布のスケール・パラメータである。また、添字rは、次式に示すような回転操作を意味する。
Figure 2006004003
従って、上述の式(2)及び式(4)より、ガボアフィルタは、次式に示すような空間関数として表現される。
Figure 2006004003
本実施の形態に係る特徴量演算部102は、8種類の方向と3通りの周波数を採用して、合計24個のガボアフィルタを用いて顔の目、口、鼻等の抽出処理を行う。
ガボアフィルタのレスポンスは、Giをi番目のガボアフィルタとし、i番目のガボアフィルタの結果(Gabor Jet)をJiとし、入力イメージをIとすると、次式で表される。
Figure 2006004003
この式(7)の演算は、実際には高速フーリエ変換を用いて高速化することができる。
作成したガボアフィルタの性能を調べるためには、フィルタリングして得られた画素を再構築することによって行う。再構築されたイメージHは、次式のように表される。
Figure 2006004003
そして、入力画像Iと再構築された画像HとのエラーEは、次式のように表される。
Figure 2006004003
このエラーEを最小にするような最適なaを求めることにより再構築することができる。
なお、ガボアフィルタリングに関しては、認識タスクに応じてフィルタの種類を変更するようにしても良い。
低周波でのフィルタリングでは、フィルタリング後のイメージすべてをベクトルとして持っているのは冗長である。そこで、ダウンサンプリングして、ベクトルの次元を落とすようにしても良い。ダウンサンプリングされた24種類のベクトルを一列に並べ、長いベクトル(上述したパターンベクトル)にする。
読み出し部103は、特徴点検出部101により検出された特徴点に対応する登録画像の特徴点を登録部111から読み出し、類似度ベクトル演算部104に出力する。
類似度ベクトル演算部104は、特徴量演算部102により演算された入力画像の特徴量と、読み出し部103により読み出された登録画像の特徴量に基づいて、入力された顔画像と登録されている顔画像の類似度ベクトルを演算する。
クラス判定部105は、サポートベクタマシンにより構成され、類似度ベクトル演算部104より供給された類似度ベクトルに基づいて、入力された画像がintra-personal class(イントラパーソナルクラス)に属するか(予め登録されている画像と一致するのか)、またはextra-personal class(エクストラパーソナルクラス)に属するのか(予め登録されている画像以外の画像である(登録画像と一致しない)のか)の判定を行う。重複判定部106は、クラス判定部105により入力された画像がintra-personal classに属すると判定された場合、クラス判定部105により重複判定が行われたか否かを判定する。すなわち、入力された画像が、複数の登録画像と一致すると判定されたか否かが判定される。選択部107は、重複判定部106により重複判定が行われた場合には、一致すると判定された登録画像のいずれか1つを選択する処理を行う。選択部107は、重複判定部106により重複判定が行われなかったと判定された場合には、クラス判定部105により判定されたクラスの画像をそのまま選択する。出力部108は、選択部107より選択された画像を後段の装置に出力したり、表示部109に表示させたりする。
表示部109は、クラス判定部105により入力された画像がintra-personal classではなく、extra-personal classに属すると判定された場合、メッセージを表示する。指示判定部110は、表示部109により表示されたメッセージに基づいて、ユーザが入力された画像の登録を指示したか否かを判定する。登録部111は、指示判定部110により入力された画像の登録が指示されたと判定された場合、特徴量演算部102により演算された特徴量を、必要に応じて、入力された顔画像データとともに登録する。
クラス判定部105では、パターン認識の分野で最も学習汎化能力が高いとされるサポートベクタマシン(Support Vector Machine:SVM)を用いて該当する顔か否かの識別を行うが、このサポートベクタマシンについて、ここで説明する。
サポートベクタマシン自体に関しては、例えばB.sholkopf外著の報告(B.Sholkopf、C.Burges、A.Smola,“Advance in Kernel Support Vector Learning”,The MIT Press、1999.)を挙げることができる。本出願人が行った予備実験の結果からは、サポートベクタマシンによる顔認識方法は、主成分分析(PCA)やニューラル・ネットワークを用いる手法に比べ、良好な結果を示すことが判っている。
サポートベクタマシンは、識別関数に線形識別器(パーセプトロン)を用いた学習機械であり、カーネル関数を使うことで非線形空間に拡張することができる。また識別関数の学習では、クラス間分離のマージンを最大にとるように行われ、その解は2次数理計画法を解くことで得られるため、グローバル解に到達できることを理論的に保証することができる。
通常、パターン認識の問題は、テストサンプルx=(x1,x2,・・・,xn)に対して、次式で与えられる識別関数f(x)を求めることである。
Figure 2006004003
ここで、サポートベクタマシンの学習用の教師ラベルを次式のようにおく。
Figure 2006004003
すると、サポートベクタマシンにおける顔パターンの認識を次式に示す制約条件の下での重み因子wの2乗を最小化する問題としてとらえることができる。
Figure 2006004003
このような制約のついた問題は、ラグランジュの未定定数法を用いて解くことができる。すなわち、式(13)に示すラグランジュをまず導入し、次いで、式(14)に示すように、b、wの各々について偏微分する。
Figure 2006004003
Figure 2006004003
この結果、サポートベクタマシンにおける顔パターンの識別を次式に示す2次計画問題としてとらえることができる。
Figure 2006004003
特徴空間の次元数が、訓練サンプルの数よりも少ない場合は、スクラッチ変数ξ≧0を導入して、制約条件を次式のように変更する。
Figure 2006004003
最適化については、次式の目的関数を最小化する。
Figure 2006004003
この式(17)において、Cは、制約条件をどこまで緩めるかを指定する係数であり、実験的に値を決定する必要がある。
ラグランジュ定数aに関する問題は次式のように変更される。
Figure 2006004003
しかし、この式(18)のままでは、非線型の問題を解くことはできない。そこで、本実施の形態では、カーネル関数K(x,x3)を導入して、一旦、高次元の空間に写像して(カーネル・トリック)、その空間で線形分離することにしている。したがって、元の空間では非線型分離していることと同等となる。
カーネル関数は、ある写像Φを用いて次式のように表される。
Figure 2006004003
また、式(10)に示した識別関数も、次式のように表すことができる。
Figure 2006004003
また学習に関しても、次式に示す2次計画問題としてとらえることができる。
Figure 2006004003
カーネルとしては、次式に示すガウシアン・カーネル(RBF:Radius Basic Function)などを用いることができる。
Figure 2006004003
次に、図3のフローチャートを参照して、画像処理装置1の認識処理について説明する。ステップS31において、顔抽出部11は、入力された画像データから顔を抽出する。具体的には、顔の目、口、鼻といった顔の特徴を抽出する。ステップS32において、顔画像アライメント部51は、目、口、鼻をアライメントする。具体的には、目、口、鼻等が、常識的な位置関係に位置するように、その位置を調整する。
ステップS33において、特徴点検出部101は、顔画像アライメント部51より入力された顔画像データの顔の特徴点を検出する。いずれの点を特徴点とするかは任意であるが、例えば、図4に示されるように、水平方向と垂直方向に一定の間隔で離れて位置する画素(図4において、×印で示される画素)を特徴点とすることができる。図4において、左側の画像が入力された顔画像データによる顔の入力画像を表し、右側の画像が登録されている顔画像データによる顔の登録画像を表す。
ステップS34において、ガボアフィルタにより特徴点の特徴量を求める処理が行われる。すなわち、特徴量演算部102は、入力画像の特徴位置xVi(i=1,・・・,M)における特徴点(以下、必要に応じて、この特徴点を特徴点xViとも称する)の局所的特徴量である特徴量Jj(xVi)を次式に基づいて演算する。なお、以下の式において、xV,kVにおける添字Vは、x,kがベクトルであることを表す。また、x’Vは、xVの微分値を表す。
Figure 2006004003
上記式において、I(xVi)は、特徴位置xViにおける入力顔画像の画素値(濃淡値)を表し、Ψj(xV)により畳み込み積分される。Ψj(xV)は、ガボアカーネル(Gabor Kernel)と称され、周波数パラメータν,方向パラメータμから定まるkVjで示す特定の方向、周波数における局所特徴量を抽出するガボアフィルタを構成する。ガボアフィルタの様々な周波数、方向における出力値はまとめてガボアジェット(Gabor Jet)Jj(xVj)と称され、特徴位置xViにおける特徴量として用いられる。ガボアジェットは、特徴点の周辺の局所特徴量を表しており、特徴点のある程度の位置のずれや変形に対して、不変であるという特徴を有している。
ステップS35において、読み出し部103は、登録顔の特徴量を読み出す。すなわち、読み出し部103は、特徴点検出部101により検出された特徴点xViに対応する登録顔の特徴点の特徴量Jj M(xVi)を、登録部111から読み出し、類似度ベクトル演算部104に出力する。
ステップS36において、類似度ベクトル演算部104は、類似度ベクトルを求める。具体的には、次式に基づいて、同じ特徴位置xViにおける類似度d(xVi)が、入力顔の特徴量Ji I(xVi)と登録画像の特徴量Jj M(xVi)を用いて演算される。この類似度d(xVi)から、その集合である類似度ベクトルd{d(xVi)}(i=1,・・・,M)が求められる。
Figure 2006004003
以上のステップS35,S36の処理は、予め登録されているすべての登録顔について行われる。これにより、入力された顔画像とすべての登録顔画像との比較が行われることになる。
ステップS37において、クラス判定部105は、サポートベクタマシン(SVM)によりクラスを判定する。サポートベクタマシンは、類似度ベクトルの境界面(式(10)のf(x)の値を、例えば、+1または−1と判定する境界面(値が0である位置の面))からの距離を算出し、intra-personal classに属するか、extra-personal classに属するかの判断を行う。intra-personal classに属すると判断される類似度ベクトルが存在しない場合には、未登録の人物の顔が入力されたと判断される。クラス判定部105を構成する1つのサポートベクタマシンは、多くの顔画像を学習することで、新たに入力された顔画像が登録されている(学習済みの)顔画像と一致するのか(intra-personal classに属するのか)、または、一致しないのか(extra-personal classに属するのか)を判定する機能を有する。
ステップS37における処理が模式的に図4に示されている。すなわち、図4に示されるように、サポートベクタマシンは、ガボアフィルタにより検出された入力画像II(xV)の特徴点の特徴量JI(xVj)と、登録画像IMk(xV)の特徴点の特徴量JM(xVi)の類似度d(xVi)が演算し、その類似度の集合である類似度ベクトルを判断することでクラスを判定する。
そして、ステップS38において、クラス判定部105は、入力された顔画像は、intra-personal classかを判定する。入力された顔画像がintra-personal classであると判定された場合(入力された顔画像が登録部111に登録されている画像であると判定された場合)、ステップS39において、重複判定部106は、複数の登録顔のintra-personal classと判定されたかを判定する。すなわち、入力された顔画像が、登録部111に登録されている2以上の登録顔と一致するとクラス判定部105により判定されたか否かを判定する。複数の登録顔のintra-personal classと判定された場合には、ステップS40において、選択部107は、境界面からの距離が最も大きい類似度ベクトルに対応する登録顔を選択する。
ステップS39において、複数の登録顔のintra-personal classであると判定されていないと判定された場合(入力された顔画像が、登録されている1つの登録顔と一致すると判定された場合)、ステップS40の選択処理は必要がないのでスキップされる。そして、ステップS41において、出力部108は、登録部111に登録されている顔画像データを出力したり、表示部109などに表示させる。
ステップS38において、入力された顔画像がintra-personal classではないと判定された場合(extra-personal classであると判定された場合)、ステップS42において、表示部109は、メッセージを表示する。例えば、「入力された人物は、登録されていません」のようなメッセージが表示部109により表示される。管理者は、このメッセージをみて、入力された顔画像を登録するか否かを判断し、登録する場合にはその旨を指示する。このとき、必要に応じて、自分自身が登録権限を有する管理者であることを表す情報として、例えば、パスワードを呈示する。そこで、指示判定部110は、ステップS43において、登録が指示されたか否かを判定し、入力された顔画像の登録が指示されたと判定された場合、ステップS44において、指示判定部110は、さらに、その指示が管理者からの指示であるか否かを判定する。入力されたパスワードが正しいパスワードである場合、管理者からの指示であると判定される。この場合、ステップS45において、登録部111は、特徴量演算部102により演算された特徴量を登録する処理を実行する。その後、処理はステップS41に進み、出力部108は、登録部111にいま登録された顔画像データを出力する処理を実行する。
ステップS43において、登録が指示されていないと判定され場合、またはステップS44において、登録が指示されたが管理者からの指示ではないと判定された場合(例えば、入力されたパスワードが正しくない場合)、ステップS45の登録処理はスキップされ、処理は終了される。
クラス判定部105において用いられるサポートベクタマシンは、例えば、図5に示される画像処理装置により学習生成される。
この画像処理装置151は、取得部161、ラベル付け部162、顔抽出部163、顔画像アライメント部164、特徴点検出部165、特徴量演算部166、類似度ベクトル演算部167、およびサポートベクタ演算部168により構成される。
取得部161は、学習用の画像データを取得する。この学習用の画像データとしては、対となるintra-personal classに属する学習用の画像データと、対となるextra-personal classに属する学習用の画像データとから構成される。ここで、対となる画像とは、人の顔の画像であって、照明条件、表情、人種、年齢、性別などを変化させる前の画像と変化させた後の画像との対の画像を意味する。intra-personal classに属する顔画像の場合、対となる画像は、同一人物の画像であるから、照明条件、表情、年齢、などを変化させることが可能であるが、人種、性別などは、変化させることができない。したがって、intra-personal classに属する顔画像としては、照明条件、表情、または年齢といった条件が変化されたものが用意される。これに対してextra-personal classに属する顔画像は、異なる人物と判定される顔画像であるから、対となる顔画像は、異なる人物の顔画像である。この場合には、一方の顔画像に対して他方の顔画像は、照明条件、表情、人種、年齢、性別といった条件を変更した顔画像とすることができる。
ラベル付け部162は、取得部161により取得されたintra-personal classに属する顔画像と、extra-personal classに属する顔画像に対してラベル付けを行う。例えば、intra-personal classに属する顔画像に対しては+1のラベルが、extra-personal classに属する顔画像に対しては−1が、それぞれラベル付けされる。顔抽出部163は、ラベル付けされた画像の中から、顔画像の部分を検出し、さらに顔画像の中から、目、口、鼻といった特徴を検出する。この顔抽出部163の構成と機能は、図1における顔抽出部11と同様である。
顔画像アライメント部164は、顔抽出部163により検出された画像の、目、口、鼻といった特徴の位置を、基準の位置にアライメントする処理を行う。この顔画像アライメント部164の構成と機能は、図1における顔画像アライメント部51と同様である。
特徴点検出部165は、顔画像アライメント部164により目、口、鼻といった特徴がアライメントされた画像の特徴点を検出する。いかなる点を特徴点とするかは任意である。特徴量演算部166は、特徴点検出部165により検出された特徴点の特徴量を演算する。この特徴量演算部166により演算される特徴量も任意である。これらの特徴点検出部165と特徴量演算部166の構成と機能は、図2の特徴点検出部101と特徴量演算部102と同様であり、検出される特徴点と特徴量は対応する。
類似度ベクトル演算部167は、特徴量演算部166により演算された対となる特徴量の類似度ベクトルを演算する。この類似度ベクトル演算部167の構成と機能も、図2の類似度ベクトル演算部104と同様である。サポートベクタ演算部168は、類似度ベクトル演算部167により演算された類似度ベクトルと、ラベル付け部162により付加されたラベルとに基づいて、2つのクラス(intra-personal classとextra-personal class)を分離するサポートベクタを演算する。
次に、図6のフローチャートを参照して、図5の画像処理装置151の学習処理について説明する。
ステップS61において、取得部161は、対となるintra-personal classに属する学習用の画像データと、対となるextra-personal classに属する学習用の画像データを取得する。この学習用の画像データは、必ずしも識別対象とする(登録対象とする)人の顔の画像データである必要はない。上述したように、その登録は、図3のステップS45において行われるからである。したがって、画像処理装置1が実際に利用される場所、利用者などに関わらず、画像処理装置1のクラス判定部105において用いるサポートベクタマシンを共通化することができ、その共通化したサポートベクタマシンを容易に生成することが可能となる。
ステップS62において、ラベル付け部162はラベル付けを行う。具体的には、ラベル付け部162は、intra-personal classに属する学習用の画像データとして入力された画像データに対しては+1を、extra-personal classに属する学習用の画像データとして入力された画像データに対しては−1を、それぞれラベル付けする。顔抽出部163は、ステップS63において、顔画像の特徴を検出する。そして、ステップS64において、顔画像アライメント部164は、ステップS63の処理で検出された顔特徴をアライメントする処理を実行する。
すなわち、ステップS63,S65の処理により、図1の顔抽出部11、および顔認識部12の顔画像アライメント部51における場合と同様に、入力された画像データの中から、顔の画像部分が検出され、検出された顔の中から、目、口、鼻といった顔特徴がさらに検出され、検出された目、口、鼻といった特徴が、所定の基準位置にアライメントされる。
ステップS65において、特徴点検出部165は、顔画像データの特徴点を検出する。ステップS66において、特徴量演算部166は、ガボアフィルタにより特徴点の特徴量を求める。これらの処理は、図2の特徴点検出部101と特徴量演算部102により図3のステップS33とステップS34で実行される処理と同様の処理である。すなわち、これにより、学習用の対となるintra-personal classに属する画像データの特徴点の特徴量が求められるとともに、学習用の対となるextra-personal classに属する画像データの特徴点の特徴量が求められる。
ステップS67において、類似度ベクトル演算部167は、類似度ベクトルを演算する。具体的には、上述した式(29)における入力顔の特徴量Jj I(xVi)に代えて、対となるintra-personal classに属する顔画像の一方の特徴量が代入され、同様に、Jj M(xVi)の代わりに、intra-personal classに属する学習用の画像データの他方の対となる画像データの特徴量が代入される。そして、両者の類似度が、式(29)に基づいて演算される。さらに、類似度d(xVi)の集合としての類似度ベクトルd{d(xVi)}(i=1,・・・,M)が演算される。対となるextra-personal classに属する学習用の画像データについても同様に、類似度ベクトルが演算される。
ステップS68において、サポートベクタ演算部168は、ラベルと類似度ベクトルをサポートベクタマシンに入力し、2つのクラスを分離するサポートベクタを演算する。具体的には、上述した式(10)におけるxに代えて、ステップS67で演算された類似度ベクトルが代入され、式(11)に示されるyにステップS62の処理で付けられたラベルが代入される。それにより、サポートベクタとしての式(10)におけるf(x)が演算される。
以上のようにして、生成されたサポートベクタマシンが図2のクラス判定部105のサポートベクタマシンとして用いられる。
以上のように、本発明においては、intra-personal classとextra-personal classを識別するサポートベクタマシンは1個しか必要としない。サポートベクタマシンの学習に必要な教師データには、登録される顔画像が含まれる必要がないため、サポートベクタマシンの再学習の必要がない。登録の際には、登録用の顔画像から生成される特徴量を保存するだけでよいため、リアルタイムに顔画像登録処理が可能であり、保存すべきデータ量もほとんど増加しない。また、クラス判定部にサポートベクタマシンを用いているため、非常に汎化能力が高く、さまざまの条件の変化の元でも精度の高い識別が可能となる。
また、サポートベクタマシンに入力するデータとして、2枚の顔画像の差分画像ではなく、2枚の顔画像のガボアジェットの類似度ベクトルを用いているため、特徴点間のある程度の位置のずれや変形に強くなる。これにより、2枚の顔画像間の顔の変形や傾きの変化に対してロバストになり、ロボットによるさまざまな環境下での顔識別性能を向上させることが可能となる。また、本発明は、顔の識別だけでなく、さまざまなパターンの2クラス識別(一致するか、または一致しないかの識別)に対応することが可能であり、その識別対象のパターンの変形や傾きに対してロバストな識別システムを構築することが可能である。
したがって、リアルタイムに顔の登録、追加学習が可能で、さまざまな環境下での顔の変形や傾きの変化に対してロバストな顔識別システムを構築することが可能となる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、画像処理装置は、図7に示されるようなパーソナルコンピュータにより構成される。
図7において、CPU(Central Processing Unit)221は、ROM(Read Only Memory)222に記憶されているプログラム、または記憶部228からRAM(Random Access Memory)223にロードされたプログラムに従って各種の処理を実行する。RAM223にはまた、CPU221が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU221、ROM222、およびRAM223は、バス224を介して相互に接続されている。このバス224にはまた、入出力インタフェース225も接続されている。
入出力インタフェース225には、キーボード、マウスなどよりなる入力部226、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部227、ハードディスクなどより構成される記憶部228、モデムなどより構成される通信部229が接続されている。通信部229は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース225にはまた、必要に応じてドライブ230が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア231が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部228にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
この記録媒体は、図7に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア231により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM222や、記憶部228に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明は、人の顔を識別するロボットに適用することが可能である。
本発明を適用した画像処理装置の構成例を示すブロック図である。 図1のクラス判断部の機能的構成例を示すブロック図である。 図2のクラス判断部のクラス判断処理を説明するフローチャートである。 クラス判定処理を説明する図である。 サポートベクタマシンを学習する画像処理装置の機能的構成例を示すブロック図である。 図5の画像処理装置の学習処理を説明するフローチャートである。 パーソナルコンピュータの構成例を示すブロック図である。
符号の説明
1 画像処理装置, 11 顔抽出部, 12 顔認識部, 51 顔画像アライメント部, 52 クラス判断部, 101 特徴点検出部, 102 特徴量演算部, 103 読み出し部, 104 類似度ベクトル演算部, 105 クラス判定部, 106 重複判定部, 107 選択部, 108 出力部, 109 表示部, 110 指示判定部, 111 登録部, 151 画像処理装置, 161 取得部, 162 ラベル付け部, 163 顔抽出部, 164 顔画像アライメント部, 165 特徴点検出部, 166 特徴量演算部, 167 類似度ベクトル演算部, 168 サポートベクタ演算部

Claims (9)

  1. 入力された画像データの画像の特徴点を検出する特徴点検出手段と、
    前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出手段と、
    検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算手段と、
    入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定手段と
    を備えることを特徴とする画像処理装置。
  2. 入力された前記画像データの画像が、予め登録されている画像に属しないクラスであると判定された場合、前記特徴量を登録する登録手段をさらに備える
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 入力された画像データの画像の特徴点を検出する特徴点検出ステップと、
    前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
    検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算ステップと、
    入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
    を含むことを特徴とする画像処理方法。
  4. 入力された画像データの画像の特徴点を検出する特徴点検出ステップと、
    前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
    検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算ステップと、
    入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
  5. 入力された画像データの画像の特徴点を検出する特徴点検出ステップと、
    前記特徴点の局所的な特徴量をガボアフィルタにより検出する特徴量検出ステップと、
    検出された特徴量と、予め登録されている画像の特徴量との類似度を演算する演算ステップと、
    入力された前記画像データの画像のクラスを前記類似度に基づいてサポートベクタマシンにより判定する判定ステップと
    をコンピュータに実行させることを特徴とするプログラム。
  6. 対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得手段と、
    前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付け手段と、
    前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出手段と、
    前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出手段と、
    対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算手段と、
    前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算手段と
    を備えることを特徴とする画像処理装置。
  7. 対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、
    前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
    前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出ステップと、
    前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
    対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
    前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
    を含むことを特徴とする画像処理方法。
  8. 対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、
    前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
    前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出ステップと、
    前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
    対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
    前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
  9. 対となるイントラパーソナルクラスに属する学習用の第1の画像データと、対となるエクストラパーソナルクラスに属する学習用の第2の画像データを取得する取得ステップと、
    前記第1の画像データと前記第2の画像データにラベルを対応付けるラベル付けステップと、
    前記第1の画像データと前記第2の画像データの画像の特徴点を検出する特徴点検出ステップと、
    前記特徴点の特徴量をガボアフィルタにより検出する特徴量検出ステップと、
    対となる前記第1の画像データの類似度と、対となる前記第2の画像データの類似度を演算する類似度演算ステップと、
    前記ラベルと前記類似度に基づいて、サポートベクタを演算するサポートベクタ演算ステップと
    をコンピュータに実行させることを特徴とするプログラム。
JP2004177420A 2004-06-15 2004-06-15 画像処理装置および方法、記録媒体、並びにプログラム Expired - Fee Related JP4569186B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004177420A JP4569186B2 (ja) 2004-06-15 2004-06-15 画像処理装置および方法、記録媒体、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004177420A JP4569186B2 (ja) 2004-06-15 2004-06-15 画像処理装置および方法、記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2006004003A true JP2006004003A (ja) 2006-01-05
JP4569186B2 JP4569186B2 (ja) 2010-10-27

Family

ID=35772375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004177420A Expired - Fee Related JP4569186B2 (ja) 2004-06-15 2004-06-15 画像処理装置および方法、記録媒体、並びにプログラム

Country Status (1)

Country Link
JP (1) JP4569186B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745981B1 (ko) 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
JP2008152530A (ja) * 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム
JP2008191816A (ja) * 2007-02-02 2008-08-21 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
KR100869554B1 (ko) 2007-02-23 2008-11-21 재단법인서울대학교산학협력재단 영역 밀도 표현에 기반한 점진적 패턴 분류 방법
JP2010061465A (ja) * 2008-09-04 2010-03-18 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
CN101859381A (zh) * 2009-04-08 2010-10-13 索尼公司 伽柏滤波器、图像识别设备及方法、程序和记录介质
JP2010271861A (ja) * 2009-05-20 2010-12-02 Canon Inc オブジェクト識別装置及びオブジェクト識別方法
KR101090269B1 (ko) 2010-02-19 2011-12-07 연세대학교 산학협력단 특징 추출 방법 및 그 장치
US8213690B2 (en) 2007-10-02 2012-07-03 Sony Corporation Image processing apparatus including similarity calculating unit, image pickup apparatus, and processing method for the apparatuses
CN103295241A (zh) * 2013-06-26 2013-09-11 中国科学院光电技术研究所 一种基于Gabor小波的频域显著性目标检测方法
CN104217388A (zh) * 2014-01-22 2014-12-17 河南师范大学 一种基于fssvm的图像水印嵌入、提取的方法与装置
US9117111B2 (en) 2009-06-16 2015-08-25 Canon Kabushiki Kaisha Pattern processing apparatus and method, and program
JP2016006679A (ja) * 2011-09-27 2016-01-14 インテル・コーポレーション 顔認識方法、装置、および該方法を実行するためのコンピュータ可読記録媒体
US9292733B2 (en) 2011-03-22 2016-03-22 Sony Corporation Information processing device, information processing method, and program
JP2016062253A (ja) * 2014-09-17 2016-04-25 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN108225233A (zh) * 2015-09-18 2018-06-29 北京信息科技大学 一种实现动态补偿的关节式坐标测量系统
CN111325059A (zh) * 2018-12-14 2020-06-23 技嘉科技股份有限公司 脸部识别方法、装置及计算机可读取媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217215B (zh) * 2014-08-28 2017-11-28 哈尔滨工程大学 一种水面有雾图像和清晰图像的分类识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11110542A (ja) * 1997-09-30 1999-04-23 Toshiba Corp パターン抽出方法および装置、そのプログラムを記録した媒体
JP2001016573A (ja) * 1999-06-30 2001-01-19 Omron Corp 歩行者観測装置、およびその装置を用いた歩行者認識システム、扉開閉制御システムならびに建造物
JP2003255989A (ja) * 2002-03-06 2003-09-10 Sony Corp 学習装置及び学習方法並びにロボット装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11110542A (ja) * 1997-09-30 1999-04-23 Toshiba Corp パターン抽出方法および装置、そのプログラムを記録した媒体
JP2001016573A (ja) * 1999-06-30 2001-01-19 Omron Corp 歩行者観測装置、およびその装置を用いた歩行者認識システム、扉開閉制御システムならびに建造物
JP2003255989A (ja) * 2002-03-06 2003-09-10 Sony Corp 学習装置及び学習方法並びにロボット装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745981B1 (ko) 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
JP2008152530A (ja) * 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム
US8077932B2 (en) 2006-12-18 2011-12-13 Sony Corporation Face recognition apparatus, face recognition method, gabor filter application apparatus, and computer program
US8155398B2 (en) 2007-02-02 2012-04-10 Sony Corporation Image processing apparatus, image processing method and computer program
JP2008191816A (ja) * 2007-02-02 2008-08-21 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
KR100869554B1 (ko) 2007-02-23 2008-11-21 재단법인서울대학교산학협력재단 영역 밀도 표현에 기반한 점진적 패턴 분류 방법
US8213690B2 (en) 2007-10-02 2012-07-03 Sony Corporation Image processing apparatus including similarity calculating unit, image pickup apparatus, and processing method for the apparatuses
JP2010061465A (ja) * 2008-09-04 2010-03-18 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
US8311293B2 (en) 2008-09-04 2012-11-13 Sony Corporation Image processing apparatus and associated methodology for facial recognition
CN101859381A (zh) * 2009-04-08 2010-10-13 索尼公司 伽柏滤波器、图像识别设备及方法、程序和记录介质
JP2010271861A (ja) * 2009-05-20 2010-12-02 Canon Inc オブジェクト識別装置及びオブジェクト識別方法
US9117111B2 (en) 2009-06-16 2015-08-25 Canon Kabushiki Kaisha Pattern processing apparatus and method, and program
KR101090269B1 (ko) 2010-02-19 2011-12-07 연세대학교 산학협력단 특징 추출 방법 및 그 장치
US9292733B2 (en) 2011-03-22 2016-03-22 Sony Corporation Information processing device, information processing method, and program
JP2016006679A (ja) * 2011-09-27 2016-01-14 インテル・コーポレーション 顔認識方法、装置、および該方法を実行するためのコンピュータ可読記録媒体
CN103295241A (zh) * 2013-06-26 2013-09-11 中国科学院光电技术研究所 一种基于Gabor小波的频域显著性目标检测方法
CN104217388A (zh) * 2014-01-22 2014-12-17 河南师范大学 一种基于fssvm的图像水印嵌入、提取的方法与装置
CN104217388B (zh) * 2014-01-22 2017-10-24 河南师范大学 一种基于fssvm的图像水印嵌入、提取的方法与装置
JP2016062253A (ja) * 2014-09-17 2016-04-25 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
CN108225233A (zh) * 2015-09-18 2018-06-29 北京信息科技大学 一种实现动态补偿的关节式坐标测量系统
CN111325059A (zh) * 2018-12-14 2020-06-23 技嘉科技股份有限公司 脸部识别方法、装置及计算机可读取媒体

Also Published As

Publication number Publication date
JP4569186B2 (ja) 2010-10-27

Similar Documents

Publication Publication Date Title
JP4569186B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4595750B2 (ja) 画像処理装置および方法、並びにプログラム
JP4589625B2 (ja) カーネルフィッシャーフェイスを使用した顔認識
Guo et al. Human age estimation using bio-inspired features
CN100492397C (zh) 人脸元数据生成设备和生成方法、人脸识别系统和方法
US7783082B2 (en) System and method for face recognition
CN1954342B (zh) 参数推定方法、参数推定装置及对照方法
US8818034B2 (en) Face recognition apparatus and methods
CN101178768B (zh) 图像处理设备和方法以及个人识别设备
CN103218609B (zh) 一种基于隐最小二乘回归的多姿态人脸识别方法及其装置
US20060039600A1 (en) 3D object recognition
JP2011022994A (ja) パターン処理装置及びその方法、プログラム
Kung et al. A neural network approach to face/palm recognition
CN105989331A (zh) 脸部特征提取装置、脸部特征提取方法、图像处理设备和图像处理方法
Salah et al. Registration of three-dimensional face scans with average face models
WO2019155570A1 (ja) 視線推定装置、視線推定方法、および記録媒体
Martins et al. Bayesian constrained local models revisited
Ono et al. Gaze estimation from low resolution images
Thippeswamy et al. A new ensemble of texture descriptors based on local appearance-based methods for face anti-spoofing system
Peng et al. An evaluation of super-resolution for face recognition
CN115797990A (zh) 图像分类、图像处理方法、装置和存储介质
Rishikeshan et al. An improved approach for face detection
Ding et al. Facial landmark localization
WO2006019350A1 (en) 3d object recognition
Sanil et al. Region-wise landmarks-based feature extraction employing SIFT, SURF, and ORB feature descriptors to recognize Monozygotic twins from 2D/3D Facial Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100726

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees