[go: up one dir, main page]

JPWO2002009034A1 - Fingerprint matching device, fingerprint matching method, and fingerprint matching program - Google Patents

Fingerprint matching device, fingerprint matching method, and fingerprint matching program

Info

Publication number
JPWO2002009034A1
JPWO2002009034A1 JP2002-514662A JP2002514662A JPWO2002009034A1 JP WO2002009034 A1 JPWO2002009034 A1 JP WO2002009034A1 JP 2002514662 A JP2002514662 A JP 2002514662A JP WO2002009034 A1 JPWO2002009034 A1 JP WO2002009034A1
Authority
JP
Japan
Prior art keywords
fingerprint
image
partial
input
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002-514662A
Other languages
Japanese (ja)
Other versions
JP4221220B2 (en
Inventor
太造 梅崎
健滋 三吉野
龍彦 杉本
寿朗 石坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DDS KK
Original Assignee
DDS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DDS KK filed Critical DDS KK
Priority claimed from PCT/JP2001/006029 external-priority patent/WO2002009034A1/en
Publication of JPWO2002009034A1 publication Critical patent/JPWO2002009034A1/en
Application granted granted Critical
Publication of JP4221220B2 publication Critical patent/JP4221220B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 指紋入力装置(7)から入力された指紋の複数の部分画像を再構成処理部(106)において部分画像の重なっている部分を補正して再構成を行い、指紋特徴抽出部(110)において特徴抽出を行って、入力特徴量メモリに格納する。照合処理部において入力特徴量メモリに格納された特徴量と、登録特徴量メモリに格納された特徴量の間でDP比較(動的計画法)を行い得られた距離値をあらかじめ設定してある閾値と比較し、距離値が閾値より小さい場合には一致と判定し、距離値が閾値より大きい場合には不一致と判定する。 (57) [Abstract] A plurality of partial images of a fingerprint input from a fingerprint input device (7) are reconstructed by correcting overlapping portions of the partial images in a reconstruction processing unit (106), and features are extracted in a fingerprint feature extraction unit (110) and stored in an input feature memory. A matching processing unit performs a DP comparison (dynamic programming) between the features stored in the input feature memory and the features stored in the registered feature memory, and compares the obtained distance value with a preset threshold value. If the distance value is smaller than the threshold value, it is determined to be a match, and if the distance value is greater than the threshold value, it is determined to be a mismatch.

Description

【発明の詳細な説明】Detailed Description of the Invention

技術分野 本発明は、本人確認のための指紋照合装置、指紋照合方法及びコンピュータ上
で指紋照合を行うためのプログラムに関するものである。 背景技術 近年、情報の電子化やネットワーク化の急速な進行により、情報へのアクセス
制御を行うためのセキュリティ技術への関心が高まっており、このようなセキュ
リティ技術の1つとして指紋照合による本人認証を行うための製品が種々登場し
てきている。 指紋による本人認証のためには、まず指紋画像を指紋センサにより入力し、そ
の後、登録されている指紋画像と入力された指紋画像を照合する必要がある。指
紋照合の方法としては、従来、代表的なものとして、特徴点抽出照合法(マニュ
ーシャ法)と画像マッチング法(パタンマッチ法)が知られている。特徴点抽出
照合法は、指紋の盛り上がった部分(隆線)の端点や分岐点の構造を特徴点(マ
ニューシャ)として捉え、これを比較して指紋照合を行う手法である。特徴点の
抽出は、入力された指紋画像からノイズを除去し、コントラスト処理や細線化等
の画像処理を行った後に行う。入力時の指の状態や画像処理による偽の特徴点抽
出を避けるために様々なルールを導入するため、複雑なアルゴリズムとなり、照
合処理時間にばらつきが出ることがある。画像マッチング法は、指紋画像そのも
のの類似度を直接比較する手法である。登録された指紋画像と入力された指紋画
像をずらしながら類似度を計測するので、比較的高速に処理が可能である。但し
、指紋画像そのものを保持するため、指紋画像の電子的複製等、セキュリティの
問題をクリアしておく必要がある。 しかしながら、これらの従来の方法では、指紋の全体画像について特徴点を抽
出したり、全体画像そのものを照合に用いたりするため、全体画像を保持するた
めの多量のメモリと大きな演算量が必要とされる。このため、機器の小型化や低
価格化の障害となるという問題点があった。 本発明は、上述の問題点を解決するためになされたものであり、指紋の部分画
像から特徴量を抽出することにより、指紋の全体画像を保持することなく指紋の
照合を行うことができる指紋照合装置、指紋照合方法及び指紋照合プログラムを
提供することを目的とする。 発明の開示 本発明の指紋照合装置は、入力された指紋の画像に基づいて、指紋を照合する
指紋照合装置において、指紋の部分画像について特徴量を演算して抽出する特徴
量抽出手段と、その特徴量抽出手段により抽出された特徴量に基づいて指紋を識
別する識別手段とを備えたことを特徴とする。 この構成の指紋照合装置では、部分画像から抽出した特徴量を指紋の識別に使
用するので、指紋全体の画像を保持する必要がなく、そのための容量の大きなメ
モリが不要であり、かつ、指紋画像全体の電子的複製の恐れがない。また、部分
画像を小さく定めることによって、特徴量を得る計算量を軽減することができ、
特徴量抽出処理と識別処理を独立させれば、処理を並列に行うことで高速化が可
能である。 また、上記発明の構成に加え、本発明の指紋照合装置は、指紋の部分画像を逐
次入力する指紋入力手段と、その指紋入力手段により逐次入力された複数の指紋
の部分画像を比較処理して重複部分を取り除く画像処理手段とを有し、前記特徴
量抽出手段は該画像処理手段から得られる重複部分を取り除いた指紋の部分画像
から前記特徴量を抽出するようにしてもよい。 この構成の指紋照合装置では、逐次入力される複数の部分画像を組み合わせ、
その重複部分を取り除いて再構成するので、重複して入力される部分について特
徴量の抽出を重複してしまうことがなく、特徴量抽出にかかる負荷を軽減するこ
とができる。 また、本発明の指紋照合装置は、1以上の特徴量を記憶する記憶手段を有し、
前記識別手段は、該記憶手段に記憶された1以上の特徴量と、前記特徴量抽出手
段が抽出した1以上の特徴量とを比較照合することによって指紋の同一性を識別
するようにしてもよい。 この構成の指紋照合装置では、記憶されている部分画像の特徴量と入力された
部分画像の特徴量を比較照合すれば指紋の同一性を識別できるので、記憶手段に
指紋全体の特徴量を保持する必要がなく、記憶手段の容量を低く押さえることが
可能である。 また、本発明の指紋照合装置では、前記特徴量抽出手段は、指紋の部分画像に
ついて周波数解析演算処理を行い、その指紋の部分画像の周波数スペクトル情報
を前記特徴量として抽出するようにしてもよい。 この構成の指紋照合装置では、指紋から特徴点(マニューシャ)を抽出するの
ではなく、隆線の情報そのものを利用して周波数解析演算処理により特徴量とす
る。従って、画像の前処理時間が短く、処理を高速化できる。さらに、画像入力
時の指の状態による特徴点抽出の難易のばらつきという問題がないので、処理時
間を一定にすることができる。 また、本発明の指紋照合装置では、前記特徴量抽出手段が演算する周波数解析
演算処理として、線形予測(LPC)演算処理、群遅延スペクトル(GDS)演
算処理、高速フーリエ変換(FFT)演算処理のうち少なくともひとつを用いる
ようにしてもよい。 この構成の指紋照合装置では、特徴量抽出のために音声分析等で周知の周波数
解析演算処理を用いることにより、簡易・高速に特徴量を抽出して指紋照合処理
を行うことができる。 また、本発明の指紋照合装置では、前記指紋入力手段は、1以上の画像ライン
よりなる画像ライン画像を指紋の部分画像として逐次入力し、前記画像処理手段
は、前記指紋入力手段により連続して入力される2つの指紋の部分画像について
重複する画像ラインを検出し、それを一方の指紋の部分画像から取り除くように
してもよい。 この構成の指紋照合装置では、画像処理手段が、入力されてくる部分画像を2
つずつ順次処理して再構成していくので、入力部分画像を保持するメモリ容量が
最低限で済み、さらに、入力と画像処理の並列処理による高速化が可能である。 また、本発明の指紋照合装置では、前記画像処理手段は、重複部分を取り除い
た指紋の部分画像について、ラスタ方向或いはライン方向の少なくともいずれか
に関して画像縮小処理をさらに適用してもよい。 この構成の指紋照合装置では、例えば特徴量抽出にLPC計算処理を用いる場
合、ラスタ方向に画像縮小処理を行えば、計算が必要となる次数が減少するため
、特徴量を格納するメモリの量を削減することができる。また、ライン方向に画
像縮小処理を行えば、特徴量を計算する回数が減少するため、特徴量を格納する
メモリの量を削減することができる。 また、本発明の指紋照合装置では、前記識別手段は、DP照合法(動的計画法
)を用いるようにしてもよい。 この構成の指紋照合装置では、移動量の検出精度が粗く、登録時と照合時の特
徴量において全体の長さが異なる状態となっても、照合を行う指紋間の長さの差
を吸収した指紋照合を行うことができる。 さらに、本発明の指紋照合方法は、入力された指紋の画像に基づいて、指紋を
照合する指紋照合方法において、指紋の部分画像について特徴量を演算して抽出
する特徴量抽出ステップと、その特徴量抽出ステップを実施して抽出された特徴
量に基づいて指紋を識別する識別ステップとを有することを特徴とする。 この構成の指紋照合方法では、部分画像から抽出した特徴量を指紋の識別に使
用するので、指紋全体の画像を保持する必要がなく、そのための容量の大きなメ
モリが不要であり、かつ、指紋画像全体の電子的複製の恐れがない。また、部分
画像を小さく定めることによって、特徴量を得る計算量を軽減することができ、
特徴量抽出処理と識別処理を独立させれば、処理を並列に行うことで高速化が可
能である。 上記発明の構成に加え、指紋照合方法は、指紋の部分画像を逐次入力する指紋
入力ステップと、その指紋入力ステップで逐次入力された複数の指紋の部分画像
を比較処理して重複部分を取り除く画像処理ステップとを有し、前記特徴量抽出
ステップでは該画像処理ステップで得られる重複部分を取り除いた指紋の部分画
像から前記特徴量を抽出するようにしてもよい。 この構成の指紋照合方法では、逐次入力される複数の部分画像を組み合わせ、
その重複部分を取り除いて再構成するので、重複して入力される部分について特
徴量の抽出を重複してしまうことがなく、特徴量抽出にかかる負荷を軽減するこ
とができる。 また、本発明の指紋照合方法は、1以上の特徴量を記憶する記憶ステップを有
し、前記識別ステップでは、該記憶ステップにおいて記憶された1以上の特徴量
と、前記特徴量抽出ステップにおいて抽出した1以上の特徴量とを比較照合する
ことによって指紋の同一性を識別するようにしてもよい。 この構成の指紋照合方法では、記憶されている部分画像の特徴量と入力された
部分画像の特徴量を比較照合すれば指紋の同一性を識別できるので、指紋全体の
特徴量を記憶する必要がない。 また、本発明の指紋照合方法では、前記特徴量抽出ステップは、指紋の部分画
像について周波数解析演算処理を行い、その指紋の部分画像の周波数スペクトル
情報を前記特徴量として抽出するようにしてもよい。 この構成の指紋照合方法では、指紋から特徴点(マニューシャ)を抽出するの
ではなく、隆線の情報そのものを利用して周波数解析演算処理により特徴量とす
る。従って、画像の前処理時間が短く、処理を高速化できる。さらに、画像入力
時の指の状態による特徴点抽出の難易のばらつきという問題がないので、処理時
間を一定にすることができる。 また、本発明の指紋照合方法では、前記特徴量抽出ステップで演算する周波数
解析演算処理として、線形予測(LPC)演算処理、群遅延スペクトル(GDS
)演算処理、高速フーリエ変換(FFT)演算処理のうち少なくともひとつを用
いるようにしてもよい。 この構成の指紋照合方法では、特徴量抽出のために音声分析等で周知の周波数
解析演算処理を用いることにより、簡易・高速に特徴量を抽出して指紋照合処理
を行うことができる。 また、本発明の指紋照合方法では、前記指紋入力ステップは、1以上の画像ラ
インよりなる画像ライン画像を指紋の部分画像として逐次入力し、前記画像処理
ステップは、前記指紋入力ステップにおいて連続して入力される2つの指紋の部
分画像について重複する画像ラインを検出し、それを一方の指紋の部分画像から
取り除くようにしてもよい。 この構成の指紋照合方法では、入力されてくる部分画像を2つずつ順次処理し
て再構成していくので、入力部分画像を保持するメモリ容量が最低限で済み、さ
らに、入力と画像処理の並列処理による高速化が可能である。 また、本発明の指紋照合方法では、前記画像処理ステップは、重複部分を取り
除いた指紋の部分画像について、ラスタ方向或いはライン方向の少なくともいず
れかに関して画像縮小処理をさらに適用してもよい。 この構成の指紋照合方法では、例えば特徴量抽出にLPC計算処理を用いる場
合、ラスタ方向に画像縮小処理を行えば、計算が必要となる次数が減少するため
、特徴量を格納するメモリの量を削減することができる。また、ライン方向に画
像縮小処理を行えば、特徴量を計算する回数が減少するため、特徴量を格納する
メモリの量を削減することができる。 また、本発明の指紋照合方法では、前記識別ステップは、DP照合法(動的計
画法)を用いるようにしてもよい。 この構成の指紋照合方法では、移動量の検出精度が粗く、登録時と照合時の特
徴量において全体の長さが異なる状態となっても、照合を行う指紋間の長さの差
を吸収した指紋照合を行うことができる。 さらに、本発明の指紋照合プログラムは、入力された指紋の画像に基づいて、
指紋の照合をコンピュータに実行させる指紋照合プログラムにおいて、指紋の部
分画像について特徴量を演算して抽出する特徴量抽出ステップと、1以上の指紋
部分画像について該特徴量抽出ステップを実施して指紋の部分特徴量を抽出し、
それらの部分特徴量に基づいて指紋を識別する識別ステップとをコンピュータに
実行させることを特徴とする。 この構成の指紋照合プログラムでは、部分画像から抽出した特徴量を指紋の識
別に使用するので、指紋全体の画像を保持する必要がなく、そのための容量の大
きなメモリが不要であり、かつ、指紋画像全体の電子的複製の恐れがない。また
、部分画像を小さく定めることによって、特徴量を得る計算量を軽減することが
でき、特徴量抽出処理と識別処理を独立させれば、処理を並列に行うことで高速
化が可能である。 上記発明の構成に加え、指紋照合プログラムは、指紋の部分画像を逐次入力す
る指紋入力ステップと、その指紋入力ステップで逐次入力された複数の指紋の部
分画像を比較処理して重複部分を取り除く画像処理ステップとをコンピュータに
実行させ、前記特徴量抽出ステップでは該画像処理ステップで得られる重複部分
を取り除いた指紋の部分画像から前記特徴量を抽出するようにしてもよい。 この構成の指紋照合プログラムでは、逐次入力される複数の部分画像を組み合
わせ、その重複部分を取り除いて再構成するので、重複して入力される部分につ
いて特徴量の抽出を重複してしまうことがなく、特徴量抽出にかかる負荷を軽減
することができる。 また、本発明の指紋照合プログラムでは、1以上の特徴量を記憶する記憶ステ
ップをコンピュータに実行させ、前記識別ステップでは、該記憶ステップにおい
て記憶された1以上の特徴量と、前記特徴量抽出ステップにおいて抽出した1以
上の特徴量とを比較照合することによって指紋の同一性を識別するようにしても
よい。 この構成の指紋照合プログラムでは、記憶されている部分画像の特徴量と入力
された部分画像の特徴量を比較照合すれば指紋の同一性を識別できるので、指紋
全体の特徴量を記憶する必要がない。 また、本発明の指紋照合プログラムでは、前記特徴量抽出ステップは、指紋の
部分画像について周波数解析演算処理を行い、その指紋の部分画像の周波数スペ
クトル情報を前記特徴量として抽出するようにしてもよい。 この構成の指紋照合プログラムでは、指紋から特徴点(マニューシャ)を抽出
するのではなく、隆線の情報そのものを利用して周波数解析演算処理により特徴
量とする。従って、画像の前処理時間が短く、処理を高速化できる。さらに、画
像入力時の指の状態による特徴点抽出の難易のばらつきという問題がないので、
処理時間を一定にすることができる。 また、本発明の指紋照合プログラムでは、前記特徴量抽出ステップで演算する
周波数解析演算処理として、線形予測(LPC)演算処理、群遅延スペクトル(
GDS)演算処理、高速フーリエ変換(FFT)演算処理のうち少なくともひと
つを用いるようにしてもよい。 この構成の指紋照合プログラムでは、特徴量抽出のために音声分析等で周知の
周波数解析演算処理を用いることにより、簡易・高速に特徴量を抽出して指紋照
合処理を行うことができる。 また、本発明の指紋照合プログラムでは、前記指紋入力ステップは、1以上の
画像ラインよりなる画像ライン画像を指紋の部分画像として逐次入力し、前記画
像処理ステップは、前記指紋入力ステップにおいて連続して入力される2つの指
紋の部分画像について重複する画像ラインを検出し、それを一方の指紋の部分画
像から取り除くようにしてもよい。 この構成の指紋照合プログラムでは、入力されてくる部分画像を2つずつ順次
処理して再構成していくので、入力部分画像を保持するメモリ容量が最低限で済
み、さらに、入力と画像処理の並列処理による高速化が可能である。 また、本発明の指紋照合プログラムでは、前記画像処理ステップは、重複部分
を取り除いた指紋の部分画像について、ラスタ方向或いはライン方向の少なくと
もいずれかに関して画像縮小処理をさらに適用してもよい。 この構成の指紋照合プログラムでは、例えば特徴量抽出にLPC計算処理を用
いる場合、ラスタ方向に画像縮小処理を行えば、計算が必要となる次数が減少す
るため、特徴量を格納するメモリの量を削減することができる。また、ライン方
向に画像縮小処理を行えば、特徴量を計算する回数が減少するため、特徴量を格
納するメモリの量を削減することができる。 また、本発明の指紋照合プログラムでは、前記識別ステップは、DP照合法(
動的計画法)を用いるようにしてもよい。 この構成の指紋照合プログラムでは、移動量の検出精度が粗く、登録時と照合
時の特徴量において全体の長さが異なる状態となっても、照合を行う指紋間の長
さの差を吸収した指紋照合を行うことができる。 発明を実施するための最良の形態 以下、本発明を指紋照合装置を搭載した電子錠に適用した実施の形態について
、図面に基づいて説明する。図1に示すように、本実施形態の電子錠100は、
指紋入力装置7と、スイッチ8(指紋登録スイッチ8aと指紋消去スイッチ8b
)と、液晶表示器10とを備え、ドア等に取り付けて、電磁ソレノイド9(図2
参照)で動くプランジャ9aにより錠をかけるものである。また、図2に示すよ
うに、本実施形態の電子錠100は、CPU1を中心にした電子回路で構成され
、RAM2と、ROM3と、EEP−ROM4と、指紋入力装置7,スイッチ8
,電磁ソレノイド9をCPU1と結ぶ入出力(I/O)ポート5と、液晶表示器
10を制御する液晶表示コントローラ(LCDC)6と、図示外の電池等の電源
装置から構成されている。 RAM2には、図4に示すように、指紋入力装置7から入力された指紋のスラ
イス画像が格納される部分画像バッファメモリ20と、入力された指紋の特徴量
を格納する入力特徴量メモリ21と、関節部分を判定するための演算結果を格納
する関節判定保持メモリ22と、各種のデータを一時的に記憶するワークエリア
23とが設けられている。また、ROM3には、指紋照合プログラムのほか、各
種プログラムが格納され、当該プログラムをCPU1が実行することにより、電
子錠100の制御が行われるようになっている。 また、図5に示すように、EEP−ROM4には、登録された指紋の特徴量を
格納する登録特徴量メモリ40が設けられている。EEP−ROM4は、不揮発
性メモリであるので、電源の供給が絶たれても記憶内容を保持することができる
。尚、EEP−ROM4は、通常のEEP−ROM以外に、フラッシュメモリ等
の不揮発性のメモリを用いてもよい。 また、電子錠100に内蔵された指紋照合装置は、詳細には、図3に示すよう
に、指紋入力装置7と、画像処理部102と、指紋特徴抽出部110と、照合処
理部114と、判定部115と、判定結果出力部116と、RAM2内に設けら
れた部分画像バッファメモリ20と、入力特徴量メモリ21と、関節判定保持メ
モリ22と、EEP−ROM4の登録特徴量メモリ40とから、構成されている
。 指紋入力装置7は、センサ7aとA/Dコンバータ(図示せず)で構成され、
センサ7a上を移動する指の温度変化を、入力部分画像の形で出力し、RAM2
内の部分画像バッファメモリ20に格納する。本実施の形態では、入力部分画像
は横280ピクセル×縦8ピクセルのライン形状で構成され、一秒間に200回
以上出力される。入力部分画像の一例を図6に示す。 画像処理部102は、入力部分画像を特徴量抽出できる状態に前処理を行うも
のであり、開始判定部103、移動量検出部104、重ね合せ処理部105、再
構成処理部106、関節判定前処理部107、関節判定保持メモリ22、及び画
像縮小処理部109で構成されている。 開始判定部103は、指紋入力装置7から得られる時間的に連続な二枚の入力
部分画像から中心部(本実施の形態では横64ピクセル×縦4ピクセル)を取り
出し、同一箇所の画素値の差を絶対値で合計する。この値が閾値を超えた回数が
一定以上に達した場合、指紋入力装置7上で指が移動していると判断し、関節判
定保持メモリ22、入力特徴量メモリ21への記録を開始する。また、同様に閾
値を下回る回数が一定以上に達した場合、入力装置上から指が離されたと判断し
、各メモリへの記録を停止する。その後、照合処理部114を利用して照合を行
う。 移動量検出部104は、指紋入力装置7から得られる時間的に連続な二枚の入
力部分画像を利用して、片方の入力部分画像の中心部(本実施の形態では横64
ピクセル×縦8ピクセル)を取り出す。次に、想定される移動量の分だけずらし
た場所をもう一方の入力部分画像から同一サイズで取り出す。これらの取り出し
た部分画像中で、同一箇所の画素値の差を絶対値で合計し、これを画像の差とす
る。これを想定される移動量について繰り返し行い、画像の差が最も小さくなる
移動量をセンサ7a上で移動する指の移動量の検出結果として出力する。 重ね合せ処理部105は、指紋入力装置7から得られる入力部分画像を、移動
量検出部104から得られる移動量だけずらした位置のバッファメモリに対して
、メモリ中の値と入力画像の値を加算して同一箇所に格納することで、画像を重
ね合わせる。この時に、重ね合わせた回数もバッファメモリに記録する。 再構成処理部106は、移動量検出部104から得られた移動量を元に、指紋
入力装置7から得られる画像を再構成し、部分画像(本実施の形態では横280
ピクセル×縦1ピクセル)を単位として出力する。図7に再構成処理部106で
画像全体を得た場合の例を示す。図8に再構成処理部106から出力される連続
した部分画像を9つ並べた例を示す。 また、関節判定前処理部107は、センサ7a上を移動する指の関節部分を判
定するために必要な演算の一部を行い、演算結果を出力して関節判定保持メモリ
22に保持する。まず、入力された画像にsobel変換を行って指紋の特徴を
強調する。次に、gauss変換を行ってノイズ状の画素を減らす。次に、1ラ
イン(本実施例では横256ピクセル×縦1ピクセル)を取り出し、画素値が閾
値を超えている画素数を計測し、そのラインの処理結果とする。この数値は、セ
ンサ7a上で指が接触している面積にほぼ比例している。この数値が小さくなっ
ている部分を関節として判定し、有効な情報を持っている部分のみを照合の際に
利用するためのデータとして利用する。判定部115は、関節判定保持メモリ2
2に格納された値を用いて、指がセンサ7aから離された後で関節部分の位置を
判定し、照合の終点を決定する。 画像縮小処理部109は、再構成処理部106から出力される画像を横方向1
/2に、縦方向1/3に縮小する。横方向の縮小により、後述するLPC分析を
用いた特徴抽出において必要となる次数の削減が可能となる。また、縦方向の縮
小により、照合結果を損なうことなく入力特徴量メモリ21の容量の削減が可能
となる。 指紋特徴抽出部110は、入力された縮小後の1ライン(本実施の形態では横
128ピクセル×縦1ピクセル)に対して特徴抽出を行い、特徴データを出力す
る。本実施の形態では、ラインの画素値を信号変化としてLPC分析を行う。 入力特徴量メモリ21は、指紋特徴抽出部110から出力された特徴データを
連続してメモリに記録する。また、指紋の照合処理を行う場合は、照合処理部1
14からの要求に従って特徴データを出力する。EEP−ROM4の登録特徴量
メモリ40は、指紋の登録を指示された場合、入力特徴量メモリ21の内容を記
憶して保持する。また、指紋の照合処理を行う場合は、照合処理部114からの
要求に従って特徴データを出力する。 照合処理部114は、入力特徴量メモリ21とEEP−ROM4の登録特徴量
メモリ40に格納された特徴データの間でDP照合を行い、最小となる距離を特
徴間の距離として代表させ、類似度として出力する。判定部115は、照合処理
部114から出力された類似度をあらかじめ設定した閾値と比較して判定を行い
、その結果を判定結果出力部116に出力する。判定結果出力部116は、判定
部115から出力される判定結果を入力し、装置外部に出力する。 次に、本実施形態の電子錠100の動作について、図9乃至図13のフローチ
ャートに基づいて説明する。フローチャートの各ステップについては、以下、S
と略す。本実施形態の電子錠100は、指紋登録スイッチ8aを押してから指紋
入力装置7に指を置いて、指を滑らすように指の長手方向に動かすことにより指
紋が登録され、プランジャ9aが出てロックされる。指紋登録スイッチ8aを押
さずに指紋入力装置7に指を置いて、指を滑らすように指の長手方向に動かすと
、指紋照合がなされ、登録されている指紋と同一であればプランジャ9aが引っ
込み、電子錠100が解錠される。また、指紋消去スイッチ8bを押してから指
紋入力装置7に指を置いて、指を滑らすように指の長手方向に動かすことにより
指紋を入力すると、液晶表示器10で確認表示の後、再度指紋消去スイッチ8b
を押すことにより、登録されている同一指紋を消去する。 図9は電子錠100の主制御の処理の全体を示したフローチャートである。ま
ず、電源を投入すると、リセットされ、RAM2内のメモリ等が初期化される(
S40)。スイッチ8のいずれかが押されていればこれを検出し(S41)、指
紋登録スイッチ8aが押されていれば(S42:YES)、指紋登録処理を行う
(S43)。指紋登録スイッチ8aでなく(S42:NO)、指紋消去スイッチ
8bが押されていれば(S44:YES)、指紋消去処理を行う(S45)。指
紋登録処理、指紋消去処理の詳細については後述する。スイッチの入力がない場
合は(S44:NO)、指紋の入力を検出する(S46)。指紋入力検出処理の
詳細は後述する。指紋の入力がなければ(S47:NO)、S41に戻ってスイ
ッチの入力検出を行う。指紋が入力され(S47:YES)、入力された指紋が
登録されている指紋と一致すると判定された場合には(S48:YES)、プラ
ンジャ9aを引いて解錠する(S49)。 図10は、図9のS43で行う指紋登録処理の詳細を示したフローチャートで
ある。指紋入力装置7に指を置いて、指を滑らすように指の長手方向に動かすと
、センサ7aから図6に示すような部分画像が入力される(S50)。センサ7
aは一定時間刻み(本実施形態の場合、1秒間に200回以上)で入力を検出す
るので、指を動かす速さによって、1または複数の部分画像が入力されることと
なる。入力された部分画像は、RAM2の部分画像バッファメモリ20に格納さ
れる(S51)。 1つの部分画像しか入力が検出されず、部分画像バッファメモリ20に1つの
部分画像しか格納されていない場合には、エラーとなり、処理を終了してメイン
ルーチンに戻る(S52:NO)。複数の部分画像が部分画像バッファメモリ2
0に格納されている場合は(S52:YES)、移動量検出部104において移
動量を検出し、検出された移動量に基づいて、再構成処理部106において部分
画像の重なっている部分を補正して再構成を行う(S53)。再構成は、先に入
力された部分画像(旧フレーム)から後から入力された部分画像(現フレーム)
と重なっていない移動量分を追い出してRAM2のワークエリア23に格納し、
次いで、旧フレームと現フレームの重なっている部分を重ね合わせ処理部で画像
を重ね合わせてRAM2のワークエリア23に格納し、さらに、現フレームの旧
フレームと重なっていない部分をRAM2のワークエリア23に格納して行う。
そして、再構成された部分画像について指紋特徴抽出部110において特徴抽出
を行い(S54)、入力特徴量メモリ21に格納し、さらにそれをEEP−RO
M4の登録特徴量メモリ40に格納する(S55)。特徴抽出処理の詳細につい
ては後述する。 図11は、図9のS45で行う指紋消去処理の詳細を示したフローチャートで
ある。指紋入力装置7に指を置いて、指を滑らすように指の長手方向に動かすと
、センサから図6に示すような部分画像が入力される(S60)。センサは一定
時間刻み(本実施形態の場合、1秒間に200回以上)で入力を検出するので、
指を動かす速さによって、1または複数の部分画像が入力されることとなる。入
力された部分画像は、部分画像バッファメモリ20に格納される(S61)。 1の部分画像しか入力が検出されず、部分画像バッファメモリ20に1つの部
分画像しか格納されていない場合には、エラーとなり、処理を終了してメインル
ーチンに戻る(S62:NO)。複数の部分画像が部分画像バッファメモリ20
に格納されている場合は(S62:YES)、移動量検出部104において移動
量を検出し、検出された移動量に基づいて、再構成処理部106において部分画
像の重なっている部分を補正して再構成を行う(S63)。 再構成は、先に入力された部分画像(旧フレーム)から後から入力された部分
画像(現フレーム)と重なっていない移動量分を追い出してRAM2のワークエ
リア23に格納し、次いで、旧フレームと現フレームの重なっている部分を重ね
合わせ処理部で画像を重ね合わせてRAM2のワークエリア23に格納し、さら
に、現フレームの旧フレームと重なっていない部分をRAM2のワークエリア2
3に格納して行う。 そして、再構成された部分画像について指紋特徴抽出部110において特徴抽
出を行い(S64)、入力特徴量メモリ21に格納する(S65)。特徴抽出処
理の詳細については後述する。入力特徴量メモリ21に格納された特徴量が所定
長以上(例えば500ライン分)あるかどうかを判断し(S66)、所定長に達
していない場合には、比較照合が困難なためエラーとなり、処理を終了してメイ
ンルーチンに戻る(S66:NO)。所定長以上ある場合には(S66:YES
)、照合処理部114において入力特徴量メモリ21に格納された特徴量と、E
EP−ROM4の登録特徴量メモリ40に格納された特徴量の間でDP比較(動
的計画法)を行う(S67)。 DP比較(動的計画法)はDPマッチング、ラバーマッチングともいわれ、若
干変動したデータ列であってもスムースにマッチングができる特徴をもつことか
ら、広く用いられている。このDP比較は基準データとテストデータとの2つの
系列をx−y平面上に描き、実際のデータの距離差を加味した上で最も累積距離
の短くなるような時間の進め方を選ぶアルゴリズムである。本実施形態では、S
64の特徴抽出処理(詳細は後述)で得られたLPCケプストラム(LPCケプ
ストラムについては、後述する。)を指紋ラインごとのスペクトルデータと見な
し、入力指紋画像から得られたLPCケプストラムを指紋画像の縦方向に並べた
ものをテストデータとし、EEP−ROM4の登録特徴量メモリ40に格納され
たLPCケプストラムを指紋画像の縦方向に並べたものを基準データとして相互
のマッチング度合いを得ている。基準データとテストデータではそれぞれ入力速
度変化や変化具合が異なるが、DP比較によりそれらを加味しつつ最終的に基準
データとテストデータが最も近くなるような縦方向の対応づけを検索し、最も近
くなる縦方向対応のもとでのマッチング度合いを距離値として出力する。距離値
が小さくなれば双方のLPCケプストラム間の差異が小さいことを、距離値が大
きくなれば双方のLPCケプストラム間の差異が大きいことを示す。 次いで、判定部115において、DP比較で得られた距離値をあらかじめ設定
してある閾値と比較し、距離値が閾値より小さい場合には一致と判定し、距離値
が閾値より大きい場合には不一致と判定する(S68)。一致しなかった場合に
は、登録指紋をEEP−ROM4の登録特徴量メモリ40から消去せず、処理を
終了してメインルーチンに戻る(S69:NO)。一致した場合には、一致した
登録指紋の特徴量を、EEP−ROM4の登録特徴量メモリ40から消去する(
S70)。 図12は、図9のS46で行う指紋入力検出処理の詳細を示したフローチャー
トである。指紋入力装置7に指を置いて、指を滑らすように指の長手方向に動か
すと、センサから図6に示すような部分画像が、入力される(S80)。センサ
は一定時間刻み(本実施形態の場合、1秒間に200回以上)で入力を検出する
ので、指を動かす速さによって、1または複数の部分画像が入力されることとな
る。入力された部分画像は、部分画像バッファメモリ20に格納される(S81
)。1の部分画像しか入力が検出されず、部分画像バッファメモリ20に1つの
部分画像しか格納されていない場合には、エラーとなり、処理を終了してメイン
ルーチンに戻る(S82:NO)。複数の部分画像が部分画像バッファメモリ2
0に格納されている場合は(S82:YES)、移動量検出部104において移
動量を検出し、検出された移動量に基づいて、再構成処理部106において部分
画像の重なっている部分を補正して再構成を行う(S83)。再構成は、先に入
力された部分画像(旧フレーム)から後から入力された部分画像(現フレーム)
と重なっていない移動量分を追い出してRAM2のワークエリア23に格納し、
次いで、旧フレームと現フレームの重なっている部分を重ね合わせ処理部で画像
を重ね合わせてRAM2のワークエリア23に格納し、さらに、現フレームの旧
フレームと重なっていない部分をRAM2のワークエリア23に格納して行う。 そして、再構成された部分画像について指紋特徴抽出部110において特徴抽
出を行い(S84)、RAM2の入力特徴量メモリ21に格納する(S85)。
特徴抽出処理の詳細については後述する。入力特徴量メモリ21に格納された特
徴量が所定長以上(例えば500ライン分)あるかどうかを判断し(S86)、
所定長に達していない場合には、比較照合が困難なため、エラーとなり、処理を
終了してメインルーチンに戻る(S86:NO)。所定長以上ある場合には(S
86:YES)、照合処理部114において入力特徴量メモリ21に格納された
特徴量と、EEP−ROM4の登録特徴量メモリ40に格納された特徴量の間で
DP比較(動的計画法)を行う(S87)。そして、判定部115において、D
P比較で得られた距離値をあらかじめ設定してある閾値と比較し、距離値が閾値
より小さい場合には一致と判定し、距離値が閾値より大きい場合には不一致と判
定し(S88)、処理を終了してメインルーチンに戻る。 図13は、図10のS54、図11のS64、図12のS84で行われる特徴
抽出処理の詳細を示したフローチャートである。本実施形態では、指紋から特徴
点(マニューシャ)を抽出するのではなく、隆線の情報そのものを利用して解析
し、特徴量とする処理を行っている。すなわち、指紋画像を横方向に切り出して
、横方向に指紋の位置を、縦方向に指紋の凹凸(濃淡)を取ると、指紋の切り出
し1ラインを波形信号と見ることができる。そして、この波形信号に対して音声
データ処理で一般的に行われるような解析を行うことにより、パワースペクトル
を得ることができる。 具体的には、再構成された入力部分画像の各ラインを1フレームとして、フレ
ームごとに抽出処理を行う。まず、前処理として、ハミング窓掛けを行い(S9
0)、フレーム切り出しによる端部の影響を緩和する。次いで、ハミング窓掛け
による補正処理がなされたフレームデータを受取り、その自己相関関数を求める
(S91)。さらに、得られた自己相関関数に基づいて、線形予測法(LPC:
Linear Predictive Cording)によるLPC係数を演
算して求める(S92)。線形予測法は、携帯電話等で音声の圧縮に使用されて
いる周知の技術であり、これを使用すると母音等の音声を全曲方の伝達関数で推
定することができ、そのスペクトルからピーク周波数等が推定できるものである
。 そして、S92で得られたLPC係数を線形結合演算してLPCケプストラム
を求める(S93)。本実施形態では、このようにして特徴量抽出過程で得られ
たLPCケプストラムが特徴量としてRAM2の入力特徴量メモリ21に保存さ
れる(S55,S65,S85)。 尚、本実施形態では特徴量抽出に使用する周波数解析演算処理として線形予測
法(LPC)を用い、LPCケプストラムが特徴量として抽出されるが、特徴量
抽出に使用する周波数解析演算処理はこれに限られるものではない。例えば、周
知の高速フーリエ変換(FFT:Fast Fourier Transfor
m)を用いてもよい。高速フーリエ変換は、離散フーリエ変換というディジタル
化された信号の周波数成分(スペクトル)を計算する演算処理を高速に行うアル
ゴリズムの一つである。具体的には、S92で得られたLPC係数に重みづけし
たものを高速フーリエ変換してパワースペクトルを求めてこれを特徴量として用
いる。 また、特徴量抽出に使用する周波数解析演算処理として、周知の群遅延スペク
トル、(GDS:Group Delay Spectrum)を用いてもよい
。群遅延スペクトル(GDS)は、パワー伝達関数における位相スペクトルの周
波数微分として定義されるものである。この配列の要素数は位相スペクトルの要
素数から1を減じたものとなる。具体的には、LPC係数に重みづけしたものを
高速フーリエ変換して得られたパワースペクトルの位相微分をとることにより群
遅延スペクトル(GDS)を求め、これを特徴量として用いる。 以上説明したように、本実施形態の指紋照合装置では、指紋から特徴点(マニ
ューシャ)を抽出するのではなく、隆線の情報そのものを波形信号と見て周波数
解析演算処理して特徴量を抽出している。このため、特徴量抽出にかかる処理時
間が指紋の状態にかかわらず一定化され、さらに、指紋の全体画像を保持するこ
となく部分画像から特徴量を抽出することができる。従って、指紋の全体画像か
ら特徴データを抽出していた従来の指紋照合方法に比べて、容量の少ないメモリ
で照合を行うことができ、指紋照合装置の軽量化、処理の高速化を図ることがで
きる。また、指紋の全体画像を保持する必要がないため、電子的複製によるセキ
ュリティ上の問題も回避できる。尚、部分画像から特徴量を抽出するために、入
力画像の重複による抽出処理の重複が起こる恐れがあるが、画像の再構成処理を
行い、これを防止している。また、部分画像からの特徴量抽出であるため、指紋
入力毎に登録特徴量とばらつきが出る可能性があるが、DP比較(DPマッチン
グ)を用いてこれを吸収して照合している。 尚、本発明は、各種の変形が可能なことは言うまでもない、例えば、上記の実
施の形態では、電子錠に本発明を適用した場合について説明したが、本発明は、
電子錠に限られず、指紋の照合を行う各種の装置に適用できることは言うまでも
ない。なお、上記実施の形態では、指紋照合プログラムは、ROM3に記憶され
ているが、ROMに記憶されているものに限られず、フロッピー(登録商標)デ
ィスクやCD−ROM等のコンピュータ読み取り可能な記憶媒体に記憶されてい
るものでもよく、さらには、インターネット等のネットワークを通じて、流通さ
れるものでもよい。 産業上の利用可能性 以上のように、本発明の指紋照合装置、指紋照合方法及び指紋照合プログラム
は、指紋照合を行う各種の機器に用いるのに適している。特に、指紋照合により
解錠される電子錠や指紋照合により起動する電子装置や指紋照合を行う携帯電話
等の情報端末に用いるのに適している。
TECHNICAL FIELD The present invention relates to a fingerprint matching device, a fingerprint matching method, and a computer-based program for fingerprint matching for identity verification. Background Art In recent years, the rapid advancement of electronic information and networking has led to growing interest in security technologies for controlling access to information. As one such security technology, various products for identity authentication through fingerprint matching have emerged. Fingerprint authentication requires first inputting a fingerprint image into a fingerprint sensor and then matching the input fingerprint image with a registered fingerprint image. Typical fingerprint matching methods include the minutiae extraction and image matching (pattern matching). The minutiae extraction and image matching method identifies the end points and bifurcation points of fingerprint ridges as minutiae and compares them to perform fingerprint matching. Minutiae are extracted after noise removal from the input fingerprint image and image processing such as contrast enhancement and thinning. Various rules are introduced to avoid false minutiae due to the state of the finger at the time of input or image processing, resulting in a complex algorithm and variations in matching processing time. The image matching method directly compares the similarity of fingerprint images themselves. Since the similarity is measured while shifting the registered fingerprint image and the input fingerprint image, relatively high-speed processing is possible. However, since the fingerprint image itself is stored, security issues such as electronic duplication of the fingerprint image must be overcome. However, these conventional methods extract feature points from the entire fingerprint image or use the entire image itself for matching, requiring a large amount of memory and computational complexity to store the entire image. This hinders the miniaturization and cost reduction of devices. The present invention has been made to solve the above-mentioned problems, and its object is to provide a fingerprint matching device, fingerprint matching method, and fingerprint matching program that can perform fingerprint matching without storing the entire fingerprint image by extracting feature amounts from partial fingerprint images. Disclosure of the Invention The fingerprint matching device of the present invention, which matches fingerprints based on an input fingerprint image, is characterized by comprising: a feature extraction means for calculating and extracting feature amounts from the partial fingerprint images; and an identification means for identifying fingerprints based on the feature amounts extracted by the feature extraction means. In a fingerprint matching device with this configuration, the feature values extracted from the partial images are used to identify fingerprints, so there is no need to store the entire fingerprint image, which eliminates the need for a large-capacity memory, and there is no risk of the entire fingerprint image being electronically duplicated. Also, by defining the partial images to be small, the amount of calculation required to obtain the feature values can be reduced,
If the feature extraction process and the identification process are made independent, the processes can be performed in parallel, thereby making it possible to increase the speed. In addition to the above-mentioned configuration of the invention, the fingerprint collation device of the present invention may also have a fingerprint input means for sequentially inputting partial fingerprint images, and an image processing means for comparing and processing the partial fingerprint images sequentially input by the fingerprint input means to remove overlapping portions, and the feature extraction means may extract the feature from the partial fingerprint images obtained from the image processing means from which overlapping portions have been removed. In the fingerprint collation device of this configuration, the multiple partial fingerprint images sequentially input are combined,
The fingerprint matching device of the present invention includes a storage means for storing one or more features, and the storage means stores the features of the fingerprint matching device, and the fingerprint matching device stores the features of the fingerprint matching device, and the fingerprint matching device stores the features of the fingerprint matching device.
The identification means may identify fingerprints by comparing one or more feature quantities stored in the storage means with one or more feature quantities extracted by the feature quantity extraction means. In a fingerprint matching device with this configuration, fingerprints can be identified by comparing the feature quantities of stored partial images with the feature quantities of input partial images. This eliminates the need to store the feature quantities of the entire fingerprint in the storage means, thereby reducing the storage capacity. Furthermore, in the fingerprint matching device of the present invention, the feature quantity extraction means may perform frequency analysis processing on partial fingerprint images to extract frequency spectrum information of the partial fingerprint images as the feature quantities. In a fingerprint matching device with this configuration, instead of extracting minutiae from a fingerprint, ridge information itself is used to generate feature quantities through frequency analysis processing. This shortens the image preprocessing time, enabling faster processing. Furthermore, since there is no problem with variations in the difficulty of minutiae extraction depending on the state of the finger at the time of image input, processing time can be kept constant. In the fingerprint matching device of the present invention, the frequency analysis calculation process performed by the feature extraction means may be at least one of linear predictive computation (LPC) calculation process, group delay spectrum (GDS) calculation process, and fast Fourier transform (FFT) calculation process. In a fingerprint matching device of this configuration, by using a frequency analysis calculation process well known in voice analysis etc. for feature extraction, it is possible to extract features easily and quickly and perform fingerprint matching processing. In addition, in the fingerprint matching device of the present invention, the fingerprint input means may sequentially input image line images consisting of one or more image lines as partial fingerprint images, and the image processing means may detect overlapping image lines in two partial fingerprint images input consecutively by the fingerprint input means and remove them from one of the partial fingerprint images. In a fingerprint matching device of this configuration, the image processing means may extract the input partial images in two steps,
Since the partial input images are sequentially processed and reconstructed, the memory capacity required to store the input partial images is minimized, and parallel processing of input and image processing enables high-speed processing. In addition, in the fingerprint matching device of the present invention, the image processing means may further apply image reduction processing in at least one of the raster direction and the line direction to the partial fingerprint images from which overlapping portions have been removed. In a fingerprint matching device with this configuration, for example, when an LPC calculation process is used to extract features, performing image reduction processing in the raster direction reduces the number of orders required for calculation, thereby reducing the amount of memory required to store the features. Furthermore, performing image reduction processing in the line direction reduces the number of times the features are calculated, thereby reducing the amount of memory required to store the features. In addition, in the fingerprint matching device of the present invention, the identification means may use a DP matching method (dynamic programming). In a fingerprint matching device with this configuration, even if the detection accuracy of the amount of movement is low and the overall length of the features at the time of registration and at the time of matching differs, fingerprint matching can be performed while absorbing the difference in length between the fingerprints being matched. Furthermore, the fingerprint matching method of the present invention is characterized in that it is a fingerprint matching method for matching fingerprints based on an input fingerprint image, and comprises a feature extraction step for calculating and extracting feature amounts for a partial image of the fingerprint, and an identification step for identifying the fingerprint based on the feature amounts extracted by carrying out the feature extraction step. In the fingerprint matching method of this configuration, the feature amounts extracted from the partial image are used for fingerprint identification, so there is no need to store the entire fingerprint image, eliminating the need for a large-capacity memory and eliminating the risk of electronic duplication of the entire fingerprint image. Furthermore, by setting the partial image to be small, the amount of calculation required to obtain feature amounts can be reduced,
If the feature extraction process and the identification process are separated, the processes can be performed in parallel, thereby increasing the speed. In addition to the configuration of the above invention, the fingerprint matching method may have a fingerprint input step of sequentially inputting partial fingerprint images, and an image processing step of comparing and processing the multiple partial fingerprint images sequentially input in the fingerprint input step to remove overlapping portions, and in the feature extraction step, the feature may be extracted from the partial fingerprint images obtained in the image processing step from which overlapping portions have been removed. In a fingerprint matching method of this configuration, the multiple partial fingerprint images sequentially input are combined,
Since the overlapping portions are removed and the image is reconstructed, feature extraction for overlapping input portions is not duplicated, thereby reducing the load on feature extraction. The fingerprint matching method of the present invention may also include a storage step for storing one or more feature values, and the identification step may identify the identity of fingerprints by comparing one or more feature values stored in the storage step with one or more feature values extracted in the feature extraction step. In this fingerprint matching method, the identity of fingerprints can be identified by comparing the feature values of the stored partial image with the feature values of the input partial image, eliminating the need to store the feature values of the entire fingerprint. In the fingerprint matching method of the present invention, the feature extraction step may also perform frequency analysis on the partial fingerprint image, extracting frequency spectrum information of the partial fingerprint image as the feature value. In this fingerprint matching method, instead of extracting minutiae from the fingerprint, ridge information itself is used to generate feature values through frequency analysis. This shortens the image preprocessing time, thereby enabling faster processing. Furthermore, since there is no problem of variations in the difficulty of extracting feature points depending on the state of the finger when the image is input, the processing time can be made constant. Also, in the fingerprint verification method of the present invention, the frequency analysis processing performed in the feature extraction step includes linear prediction (LPC) processing, group delay spectrum (GDS) processing, and the like.
) arithmetic processing or fast Fourier transform (FFT) arithmetic processing may be used. In the fingerprint verification method of this configuration, by using frequency analysis arithmetic processing well known in voice analysis, etc., to extract features, fingerprint verification processing can be performed easily and quickly. In the fingerprint verification method of the present invention, the fingerprint input step may sequentially input image line images consisting of one or more image lines as partial fingerprint images, and the image processing step may detect overlapping image lines in two partial fingerprint images input consecutively in the fingerprint input step and remove them from one of the partial fingerprint images. In the fingerprint verification method of this configuration, the input partial images are sequentially processed two at a time to reconstruct them, minimizing the memory capacity required to hold the input partial images. Furthermore, parallel processing of input and image processing enables high-speed processing. In the fingerprint verification method of the present invention, the image processing step may further apply image reduction processing in at least one of the raster direction and the line direction to the partial fingerprint images from which overlapping portions have been removed. In the fingerprint matching method of this configuration, for example, when LPC calculation processing is used to extract features, performing image reduction processing in the raster direction reduces the order of calculation required, thereby reducing the amount of memory required to store the features. Also, performing image reduction processing in the line direction reduces the number of times the features are calculated, thereby reducing the amount of memory required to store the features. Furthermore, in the fingerprint matching method of the present invention, the identification step may use DP matching (dynamic programming). In the fingerprint matching method of this configuration, even if the detection accuracy of the amount of movement is low and the overall length of the features at the time of registration and at the time of matching is different, fingerprint matching can be performed while absorbing the difference in length between the fingerprints to be matched. Furthermore, the fingerprint matching program of the present invention performs the following based on the input fingerprint image:
a fingerprint matching program for causing a computer to perform fingerprint matching, comprising: a feature extraction step for calculating and extracting feature amounts for partial fingerprint images; and performing the feature extraction step for one or more partial fingerprint images to extract partial fingerprint feature amounts;
and an identification step for identifying a fingerprint based on these partial features. In a fingerprint matching program of this configuration, features extracted from partial images are used for fingerprint identification, eliminating the need to store the entire fingerprint image, eliminating the need for a large-capacity memory and eliminating the risk of electronic duplication of the entire fingerprint image. Furthermore, by defining small partial images, the amount of calculation required to obtain features can be reduced. Separating the feature extraction process from the identification process enables parallel processing, thereby enabling faster processing. In addition to the above configuration, the fingerprint matching program may also cause a computer to execute a fingerprint input step for sequentially inputting partial fingerprint images, and an image processing step for comparing and processing multiple partial fingerprint images sequentially input in the fingerprint input step to remove overlapping portions, and the feature extraction step may extract the features from the partial fingerprint images obtained in the image processing step from which the overlapping portions have been removed. In a fingerprint matching program of this configuration, multiple partial images sequentially input are combined and reconstructed by removing the overlapping portions, eliminating the need for redundant feature extraction for overlapping input portions, thereby reducing the load on feature extraction. Furthermore, the fingerprint matching program of the present invention may have a computer execute a storage step for storing one or more feature quantities, and the identification step may identify the identity of a fingerprint by comparing the one or more feature quantities stored in the storage step with the one or more feature quantities extracted in the feature quantity extraction step. A fingerprint matching program having this configuration can identify the identity of a fingerprint by comparing the feature quantities of the stored partial image with the feature quantities of the input partial image, eliminating the need to store the feature quantities of the entire fingerprint. Furthermore, the fingerprint matching program of the present invention may have the feature quantity extraction step perform frequency analysis processing on the partial image of the fingerprint, extracting frequency spectrum information of the partial image of the fingerprint as the feature quantities. A fingerprint matching program having this configuration does not extract minutiae from a fingerprint, but instead uses ridge information itself to generate feature quantities through frequency analysis processing. This shortens the image preprocessing time, enabling faster processing. Furthermore, since there is no problem of variations in the difficulty of minutiae extraction depending on the state of the finger at the time of image input,
The processing time can be kept constant. In addition, in the fingerprint matching program of the present invention, the frequency analysis calculation process performed in the feature extraction step includes linear prediction (LPC) calculation process, group delay spectrum (
The fingerprint matching program of the present invention may use at least one of a GDS (Geometrical Transform) calculation process and a Fast Fourier Transform (FFT) calculation process. By using a frequency analysis calculation process well known in speech analysis, etc., to extract features, the fingerprint matching program of the present invention can easily and quickly extract features and perform fingerprint matching. Furthermore, in the fingerprint matching program of the present invention, the fingerprint input step may sequentially input image line images consisting of one or more image lines as partial fingerprint images, and the image processing step may detect overlapping image lines in two partial fingerprint images input consecutively in the fingerprint input step and remove the overlapping image lines from one of the partial fingerprint images. The fingerprint matching program of the present invention may reconstruct the input partial images by sequentially processing two partial fingerprint images at a time, thereby minimizing the memory capacity required to hold the input partial images and further enabling faster processing by parallel processing of input and image processing. Furthermore, in the fingerprint matching program of the present invention, the image processing step may further apply image reduction processing in at least one of the raster direction and the line direction to the partial fingerprint images from which overlapping portions have been removed. In the fingerprint matching program of this configuration, for example, when LPC calculation processing is used to extract features, if image reduction processing is performed in the raster direction, the number of orders required for calculation is reduced, and therefore the amount of memory for storing features can be reduced. Also, if image reduction processing is performed in the line direction, the number of times features are calculated is reduced, and therefore the amount of memory for storing features can be reduced. Also, in the fingerprint matching program of the present invention, the identification step is performed using the DP matching method (
A fingerprint matching program having this configuration can perform fingerprint matching by absorbing the difference in length between the fingerprints being matched, even if the detection accuracy of the amount of movement is low and the feature values at the time of registration and at the time of matching are different in overall length. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an embodiment in which the present invention is applied to an electronic lock equipped with a fingerprint matching device will be described with reference to the drawings. As shown in FIG. 1, the electronic lock 100 of this embodiment has:
A fingerprint input device 7 and a switch 8 (fingerprint registration switch 8a and fingerprint deletion switch 8b)
) and a liquid crystal display 10, and is attached to a door or the like, and is connected to an electromagnetic solenoid 9 (FIG. 2
2, the electronic lock 100 of this embodiment is composed of an electronic circuit centered around a CPU 1, a RAM 2, a ROM 3, an EEPROM 4, a fingerprint input device 7, a switch 8, and a
The electronic lock 100 is comprised of an input/output (I/O) port 5 connecting the electromagnetic solenoid 9 to the CPU 1, a liquid crystal display controller (LCDC) 6 controlling the liquid crystal display 10, and a power supply such as a battery (not shown). As shown in FIG. 4, the RAM 2 includes a partial image buffer memory 20 for storing a slice image of a fingerprint input from the fingerprint input device 7, an input feature memory 21 for storing the feature values of the input fingerprint, a joint determination memory 22 for storing the calculation results for determining the joint portion, and a work area 23 for temporarily storing various data. The ROM 3 stores various programs in addition to a fingerprint matching program, and the CPU 1 executes these programs to control the electronic lock 100. As shown in FIG. 5, the EEP-ROM 4 includes a registered feature memory 40 for storing the feature values of registered fingerprints. The EEP-ROM 4 is a nonvolatile memory, so it can retain its contents even when the power supply is interrupted. In addition, the EEP-ROM 4 may be a non-volatile memory such as a flash memory in addition to a normal EEP-ROM. In detail, as shown in Fig. 3, the fingerprint matching device built into the electronic lock 100 is composed of a fingerprint input device 7, an image processing unit 102, a fingerprint feature extraction unit 110, a matching processing unit 114, a determination unit 115, a determination result output unit 116, a partial image buffer memory 20 provided in the RAM 2, an input feature memory 21, a joint determination holding memory 22, and a registered feature memory 40 of the EEP-ROM 4. The fingerprint input device 7 is composed of a sensor 7a and an A/D converter (not shown),
The temperature change of the finger moving on the sensor 7a is output in the form of an input partial image, and stored in RAM2.
The input partial image is stored in the partial image buffer memory 20 within the fingerprint input device 7. In this embodiment, the input partial image is formed in a line shape of 280 pixels wide by 8 pixels high, and is output at least 200 times per second. An example of an input partial image is shown in FIG. 6. The image processing unit 102 performs preprocessing on the input partial image to prepare it for feature extraction, and is composed of a start determination unit 103, a movement amount detection unit 104, an overlapping processing unit 105, a reconstruction processing unit 106, a joint determination preprocessing unit 107, a joint determination holding memory 22, and an image reduction processing unit 109. The start determination unit 103 extracts the center portion (64 pixels wide by 4 pixels high in this embodiment) from two temporally consecutive input partial images obtained from the fingerprint input device 7, and sums the absolute values of the differences in pixel values at the same location. If the number of times this value exceeds a threshold reaches a certain number or more, it is determined that the finger is moving on the fingerprint input device 7, and recording to the joint determination holding memory 22 and the input feature memory 21 is started. Similarly, when the number of times below the threshold reaches a certain number or more, it is determined that the finger has been removed from the input device, and recording to each memory is stopped. After that, matching is performed using the matching processing unit 114. The movement amount detection unit 104 uses two temporally consecutive input partial images obtained from the fingerprint input device 7, and detects the center of one of the input partial images (64 horizontal lines in this embodiment).
The overlapping processing unit 105 extracts an input partial image (8 pixels wide x 8 pixels high) from the fingerprint input device 7. Next, a location shifted by the estimated movement amount is extracted from the other input partial image in the same size. The absolute values of the differences in pixel values at the same locations in these extracted partial images are summed up and used as the image difference. This is repeated for each estimated movement amount, and the movement amount that results in the smallest image difference is output as the detection result of the movement amount of the finger moving on the sensor 7a. The overlapping processing unit 105 overlaps the input partial image obtained from the fingerprint input device 7 by adding the value in the memory and the value of the input image to a buffer memory at a position shifted by the movement amount obtained from the movement amount detection unit 104 and storing the results in the same location. At this time, the number of overlapping times is also recorded in the buffer memory. The reconstruction processing unit 106 reconstructs the image obtained from the fingerprint input device 7 based on the movement amount obtained from the movement amount detection unit 104, and extracts a partial image (280 wide x 8 pixels high in this embodiment) from the image.
The image is output in units of 256 pixels horizontally by 1 pixel vertically. FIG. 7 shows an example of an entire image obtained by the reconstruction processing unit 106. FIG. 8 shows an example of nine consecutive partial images output from the reconstruction processing unit 106. The joint determination preprocessing unit 107 also performs some of the calculations required to determine the joint parts of the finger moving on the sensor 7a, outputs the calculation results, and stores them in the joint determination storage memory 22. First, a Sobel transform is performed on the input image to emphasize the fingerprint features. Next, a Gaussian transform is performed to reduce noise-like pixels. Next, one line (in this embodiment, 256 pixels horizontally by 1 pixel vertically) is extracted, and the number of pixels whose pixel values exceed a threshold is counted and used as the processing result for that line. This value is approximately proportional to the area of the finger contacting the sensor 7a. Portions where this value is small are determined to be joints, and only portions containing valid information are used as data for matching. The determination unit 115 stores the data in the joint determination storage memory 22.
2, the position of the joint is determined after the finger is released from the sensor 7a, and the end point of the matching is determined.
The image is reduced to 1/2 and vertically to 1/3. The horizontal reduction makes it possible to reduce the order required for feature extraction using LPC analysis, which will be described later. Furthermore, the vertical reduction makes it possible to reduce the capacity of the input feature memory 21 without impairing the matching results. The fingerprint feature extraction unit 110 extracts features from one input reduced line (128 pixels horizontally by 1 pixel vertically in this embodiment) and outputs feature data. In this embodiment, LPC analysis is performed using the pixel values of the line as signal changes. The input feature memory 21 continuously records the feature data output from the fingerprint feature extraction unit 110 in memory. Furthermore, when fingerprint matching processing is performed, the matching processing unit 1
14. When instructed to register a fingerprint, the registered feature memory 40 of the EEP-ROM 4 stores and holds the contents of the input feature memory 21. When performing fingerprint matching processing, the registered feature memory 40 of the EEP-ROM 4 outputs feature data in accordance with a request from the matching processing unit 114. The matching processing unit 114 performs DP matching between the feature data stored in the input feature memory 21 and the registered feature memory 40 of the EEP-ROM 4, represents the smallest distance as the distance between the features, and outputs it as the similarity. The determination unit 115 makes a determination by comparing the similarity output from the matching processing unit 114 with a preset threshold, and outputs the result to the determination result output unit 116. The determination result output unit 116 inputs the determination result output from the determination unit 115 and outputs it to the outside of the device. Next, the operation of the electronic lock 100 of this embodiment will be explained based on the flowcharts of Figures 9 to 13. Each step of the flowchart will be referred to as S
In the electronic lock 100 of this embodiment, a fingerprint is registered by pressing the fingerprint registration switch 8a, placing a finger on the fingerprint input device 7, and moving the finger in a slidable manner in the longitudinal direction of the finger, and the plunger 9a is extended to lock the lock. If a finger is placed on the fingerprint input device 7 without pressing the fingerprint registration switch 8a and moved in a slidable manner in the longitudinal direction of the finger, a fingerprint is collated, and if the fingerprint matches the registered fingerprint, the plunger 9a is retracted and the electronic lock 100 is unlocked. Also, if a fingerprint is input by pressing the fingerprint deletion switch 8b, placing a finger on the fingerprint input device 7, and moving the finger in a slidable manner in the longitudinal direction of the finger, a confirmation message is displayed on the liquid crystal display 10, and then the fingerprint deletion switch 8b is pressed again.
Pressing the key erases the registered fingerprint. Figure 9 is a flowchart showing the overall main control process of the electronic lock 100. First, when the power is turned on, the electronic lock is reset and the memory in RAM 2 is initialized (
S40). If any of the switches 8 is pressed, this is detected (S41). If the fingerprint registration switch 8a is pressed (S42: YES), fingerprint registration processing is performed (S43). If the fingerprint deletion switch 8b is pressed (S44: YES) instead of the fingerprint registration switch 8a (S42: NO), fingerprint deletion processing is performed (S45). Details of the fingerprint registration processing and fingerprint deletion processing will be described later. If there is no switch input (S44: NO), fingerprint input is detected (S46). Details of the fingerprint input detection processing will be described later. If there is no fingerprint input (S47: NO), the process returns to S41 and switch input detection is performed. If a fingerprint is input (S47: YES) and it is determined that the input fingerprint matches the registered fingerprint (S48: YES), the plunger 9a is pulled to unlock (S49). Figure 10 is a flowchart showing details of the fingerprint registration processing performed in S43 of Figure 9. When a finger is placed on the fingerprint input device 7 and slid along the length of the finger, a partial image as shown in FIG. 6 is input from the sensor 7a (S50).
Since input is detected at regular time intervals (in this embodiment, 200 times or more per second), one or more partial images are input depending on the speed at which the finger is moved. The input partial images are stored in the partial image buffer memory 20 of the RAM 2 (S51). If only one partial image is detected as an input and only one partial image is stored in the partial image buffer memory 20, an error occurs, the process ends, and the process returns to the main routine (S52: NO). If multiple partial images are detected as input in the partial image buffer memory 20, the process ends and returns to the main routine (S52: NO).
If the value is set to 0 (S52: YES), the movement amount detection unit 104 detects the movement amount, and the reconstruction processing unit 106 corrects the overlapping portions of the partial images based on the detected movement amount and performs reconstruction (S53).
The amount of movement that does not overlap with the above is expelled and stored in the work area 23 of RAM 2.
Next, the overlapping portion of the old frame and the current frame is overlapped by an overlapping processing unit and stored in the work area 23 of the RAM 2, and further the portion of the current frame that does not overlap with the old frame is stored in the work area 23 of the RAM 2.
Then, the fingerprint feature extraction unit 110 extracts features from the reconstructed partial image (S54), stores the extracted features in the input feature memory 21, and then stores the extracted features in the EEP-RO
The fingerprint is stored in the registered feature memory 40 of M4 (S55). Details of the feature extraction process will be described later. Fig. 11 is a flowchart showing details of the fingerprint erasure process performed in S45 of Fig. 9. When a finger is placed on the fingerprint input device 7 and moved in the longitudinal direction of the finger as if sliding, a partial image as shown in Fig. 6 is input from the sensor (S60). The sensor detects input at regular time intervals (in this embodiment, 200 times or more per second),
Depending on the speed of the finger movement, one or more partial images are input. The input partial images are stored in the partial image buffer memory 20 (S61). If only one partial image is detected as being input and only one partial image is stored in the partial image buffer memory 20, an error occurs, the process ends, and the process returns to the main routine (S62: NO). If multiple partial images are stored in the partial image buffer memory 20, an error occurs.
If the partial image is stored in the area (S62: YES), the movement amount detection unit 104 detects the movement amount, and the reconstruction processing unit 106 corrects the overlapping portions of the partial images based on the detected movement amount and performs reconstruction (S63). The reconstruction is performed by moving the movement amount that does not overlap with the partial image (current frame) input later from the partial image (old frame) input earlier and storing it in the work area 23 of RAM 2, then the overlapping portions of the old frame and the current frame are superimposed by the superimposition processing unit and stored in the work area 23 of RAM 2, and further the portion of the current frame that does not overlap with the old frame is superimposed in the work area 23 of RAM 2.
3. Then, the fingerprint feature extraction unit 110 extracts features from the reconstructed partial image (S64) and stores them in the input feature memory 21 (S65). Details of the feature extraction process will be described later. It is determined whether the features stored in the input feature memory 21 are equal to or longer than a predetermined length (for example, 500 lines) (S66). If the length is less than the predetermined length, an error occurs because comparison and matching are difficult, and the process is terminated and the process returns to the main routine (S66: NO). If the length is equal to or longer than the predetermined length (S66: YES),
), the feature stored in the input feature memory 21 in the matching processing unit 114 and E
A DP comparison (dynamic programming) is performed between the features stored in the registered feature memory 40 of the EP-ROM 4 (S67). DP comparison (dynamic programming) is also called DP matching or rubber matching, and is widely used because it has the characteristic of being able to smoothly match even slightly fluctuating data strings. This DP comparison is an algorithm that draws two series of reference data and test data on an x-y plane, and selects the time progression that will result in the shortest cumulative distance, taking into account the distance difference between the actual data. In this embodiment, S
The LPC cepstrum (described later in detail) obtained by the feature extraction process (described later) of 64 is regarded as the spectral data for each fingerprint line, and the LPC cepstrum obtained from the input fingerprint image is arranged vertically on the fingerprint image as test data, and the LPC cepstrum stored in the registered feature memory 40 of the EEP-ROM 4 is arranged vertically on the fingerprint image as reference data to obtain the degree of matching between them. Although the reference data and the test data differ in input speed change and degree of change, these are taken into account by DP comparison, and a search is made for a vertical correspondence that ultimately brings the reference data and the test data closest, and the degree of matching based on the closest vertical correspondence is output as a distance value. A smaller distance value indicates a smaller difference between the two LPC cepstra, and a larger distance value indicates a larger difference between the two LPC cepstra. Next, the determination unit 115 compares the distance value obtained by the DP comparison with a preset threshold value, and determines that there is a match if the distance value is smaller than the threshold value, and determines that there is a mismatch if the distance value is larger than the threshold value (S68). If there is no match, the registered fingerprint is not erased from the registered feature memory 40 of the EEP-ROM 4, and the process ends and returns to the main routine (S69: NO). If there is a match, the feature value of the matching registered fingerprint is erased from the registered feature memory 40 of the EEP-ROM 4 (
9. When a finger is placed on the fingerprint input device 7 and moved in the longitudinal direction of the finger in a sliding motion, a partial image as shown in FIG. 6 is input from the sensor (S80). The sensor detects input at regular intervals (in this embodiment, 200 times or more per second), so one or more partial images are input depending on the speed at which the finger is moved. The input partial images are stored in the partial image buffer memory 20 (S81).
If only one partial image is detected as an input and only one partial image is stored in the partial image buffer memory 20, an error occurs, the process ends, and the process returns to the main routine (S82: NO).
If the value is set to 0 (S82: YES), the movement amount detection unit 104 detects the movement amount, and the reconstruction processing unit 106 corrects the overlapping portions of the partial images based on the detected movement amount and performs reconstruction (S83).
The amount of movement that does not overlap with the above is expelled and stored in the work area 23 of RAM 2.
Next, the overlapping portions of the old and current frames are overlapped by an overlapping processing unit and stored in work area 23 of RAM 2, and further, the portions of the current frame that do not overlap with the old frame are stored in work area 23 of RAM 2. Then, feature extraction is performed on the reconstructed partial images by fingerprint feature extraction unit 110 (S84), and the extracted features are stored in input feature memory 21 of RAM 2 (S85).
The details of the feature extraction process will be described later. It is determined whether the feature stored in the input feature memory 21 is equal to or longer than a predetermined length (for example, 500 lines) (S86).
If the length does not reach the predetermined length, it is difficult to perform comparison and verification, so an error occurs, the process ends, and the process returns to the main routine (S86: NO).
(S86: YES), the matching processing unit 114 performs a DP (dynamic programming) comparison between the feature stored in the input feature memory 21 and the feature stored in the registered feature memory 40 of the EEP-ROM 4 (S87).
The distance value obtained by the P comparison is compared with a preset threshold value. If the distance value is smaller than the threshold value, it is determined to be a match. If the distance value is larger than the threshold value, it is determined to be a mismatch (S88), and the process ends and returns to the main routine. FIG. 13 is a flowchart showing the details of the feature extraction process performed in S54 of FIG. 10, S64 of FIG. 11, and S84 of FIG. 12. In this embodiment, minutiae are not extracted from the fingerprint, but rather, ridge information itself is used for analysis and processing to obtain feature quantities. That is, if a fingerprint image is cut out horizontally and the fingerprint position is taken horizontally and the fingerprint unevenness (shade) is taken vertically, one cut-out line of the fingerprint can be viewed as a waveform signal. Then, by performing an analysis of this waveform signal as is commonly performed in voice data processing, a power spectrum can be obtained. Specifically, each line of the reconstructed input partial image is considered as one frame, and extraction processing is performed for each frame. First, as preprocessing, Hamming windowing is performed (S9
0), and the influence of the edges due to frame segmentation is alleviated. Next, the frame data that has been corrected by Hamming windowing is received, and its autocorrelation function is calculated (S91). Furthermore, based on the obtained autocorrelation function, a linear prediction method (LPC:
LPC coefficients are calculated using Linear Predictive Coding (LPC) (S92). Linear prediction is a well-known technique used for voice compression in mobile phones and the like. Using this technique, voices such as vowels can be estimated using a full-spectrum transfer function, and peak frequencies and the like can be estimated from the spectrum. The LPC coefficients obtained in S92 are then linearly combined to obtain an LPC cepstrum (S93). In this embodiment, the LPC cepstrum thus obtained in the feature extraction process is stored as a feature in the input feature memory 21 of the RAM 2 (S55, S65, S85). Note that in this embodiment, linear prediction (LPC) is used as the frequency analysis calculation process used for feature extraction, and the LPC cepstrum is extracted as a feature, but the frequency analysis calculation process used for feature extraction is not limited to this. For example, the well-known Fast Fourier Transform (FFT)
m) may be used. Fast Fourier transform is a type of algorithm that quickly performs computational processing to calculate the frequency components (spectrum) of a digitized signal, known as discrete Fourier transform. Specifically, the weighted LPC coefficients obtained in S92 are subjected to fast Fourier transform to obtain a power spectrum, which is then used as a feature. Furthermore, the well-known group delay spectrum (GDS) may be used as the frequency analysis computational processing used to extract features. The group delay spectrum (GDS) is defined as the frequency derivative of the phase spectrum in a power transfer function. The number of elements in this array is the number of elements in the phase spectrum minus one. Specifically, the group delay spectrum (GDS) is obtained by taking the phase derivative of the power spectrum obtained by fast Fourier transforming the weighted LPC coefficients, and this is used as a feature. As described above, the fingerprint matching device of this embodiment does not extract minutiae from a fingerprint, but rather extracts features by frequency analysis computational processing, regarding the ridge information itself as a waveform signal. As a result, the processing time required for feature extraction is constant regardless of the state of the fingerprint, and furthermore, feature values can be extracted from partial images without storing the entire fingerprint image. Therefore, compared to conventional fingerprint matching methods that extracted feature data from the entire fingerprint image, matching can be performed with a smaller memory capacity, making it possible to reduce the size of the fingerprint matching device and speed up processing. Furthermore, since it is not necessary to store the entire fingerprint image, security issues due to electronic duplication can be avoided. Note that, since feature values are extracted from partial images, there is a risk of duplication of extraction processing due to overlapping of input images, but this is prevented by performing image reconstruction processing. Furthermore, since feature values are extracted from partial images, there is a possibility of variation from registered feature values for each fingerprint input, but this is absorbed and matched using DP comparison (DP matching). Note that it goes without saying that the present invention can be modified in various ways. For example, in the above embodiment, the present invention was described as being applied to an electronic lock, but the present invention can also be applied to
It goes without saying that the present invention can be applied not only to electronic locks but also to various devices that perform fingerprint matching. In the above embodiment, the fingerprint matching program is stored in ROM 3, but is not limited to being stored in ROM. It may also be stored in a computer-readable storage medium such as a floppy disk or CD-ROM, or may even be distributed via a network such as the Internet. INDUSTRIAL APPLICABILITY As described above, the fingerprint matching device, fingerprint matching method, and fingerprint matching program of the present invention are suitable for use in various devices that perform fingerprint matching. They are particularly suitable for use in electronic locks that are unlocked by fingerprint matching, electronic devices that are activated by fingerprint matching, and information terminals such as mobile phones that perform fingerprint matching.

【図面の簡単な説明】[Brief explanation of the drawings]

図1は、本実施形態の電子錠の外観図であり、図2は、本実施形態の電子錠の
電気的構成を示したブロック図であり、図3は、指紋照合装置の電気的構成を示
したブロック図である。また、図4は、RAM2の記憶エリアを示した模式図で
あり、図5は、EEP−ROM4の記憶エリアを示した模式図であり、図6は、
入力部分画像の例であり、図7は、再構成処理部106で得た画像の例であり、
また、図8は、再構成処理部106から出力される連続した部分画像を9つ並べ
た例である。また、図9は、電子錠の処理の流れの概略を示したフローチャート
であり、図10は、指紋登録処理の詳細を示したフローチャートであり、図11
は、指紋消去処理の詳細を示したフローチャートである。また、図12は、指紋
入力検出処理の詳細を示したフローチャートであり、図13は特徴抽出処理の詳
細を示したフローチャートである。
Fig. 1 is an external view of the electronic lock of this embodiment, Fig. 2 is a block diagram showing the electrical configuration of the electronic lock of this embodiment, Fig. 3 is a block diagram showing the electrical configuration of the fingerprint matching device, Fig. 4 is a schematic diagram showing the memory area of RAM 2, Fig. 5 is a schematic diagram showing the memory area of EEP-ROM 4, Fig. 6 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 7 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 8 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 9 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 10 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 11 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 12 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 13 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 14 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 15 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 16 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 17 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 18 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 19 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 20 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 21 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 22 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 23 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 24 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 25 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 26 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 27 is a schematic diagram showing the memory area of the fingerprint matching device, Fig. 28 is
7 is an example of an input partial image, and FIG. 7 is an example of an image obtained by the reconstruction processing unit 106.
8 shows an example in which nine consecutive partial images are arranged and output from the reconstruction processing unit 106. FIG. 9 is a flowchart showing an outline of the processing flow of the electronic lock, FIG. 10 is a flowchart showing the details of the fingerprint registration processing, and FIG. 11 is a flowchart showing the details of the fingerprint registration processing.
Fig. 12 is a flowchart showing the fingerprint input detection process in detail, and Fig. 13 is a flowchart showing the feature extraction process in detail.

【手続補正書】特許協力条約第34条補正の写し提出書(職権)[Procedure Amendment] Submission of a copy of amendments under Article 34 of the Patent Cooperation Treaty (Official)

【提出日】平成14年7月22日(2002.7.22)[Submission date] July 22, 2002 (2002.7.22)

【手続補正1】[Procedural Correction 1]

【補正対象書類名】明細書[Name of document to be corrected] Statement

【補正対象項目名】特許請求の範囲[Item to be amended] Claims

【補正方法】変更[Correction method] Change

【補正の内容】[Contents of the amendment]

【特許請求の範囲】[Claims]

【手続補正2】[Procedural Correction 2]

【補正対象書類名】図面[Name of document to be corrected] Drawing

【補正対象項目名】第4図[Item name to be corrected] Figure 4

【補正方法】変更[Correction method] Change

【補正の内容】[Contents of the amendment]

【第4図】 [Figure 4]

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE,TR),OA(BF ,BJ,CF,CG,CI,CM,GA,GN,GW, ML,MR,NE,SN,TD,TG),AP(GH,G M,KE,LS,MW,MZ,SD,SL,SZ,TZ ,UG,ZW),UA(AM,AZ,BY,KG,KZ, MD,RU,TJ,TM),AE,AG,AL,AM, AT,AU,AZ,BA,BB,BG,BR,BY,B Z,CA,CH,CN,CR,CU,CZ,DE,DK ,DM,DZ,EE,ES,FI,GB,GD,GE, GH,GM,HR,HU,ID,IL,IN,IS,J P,KE,KG,KP,KR,KZ,LC,LK,LR ,LS,LT,LU,LV,MA,MD,MG,MK, MN,MW,MX,MZ,NO,NZ,PL,PT,R O,RU,SD,SE,SG,SI,SK,SL,TJ ,TM,TR,TT,TZ,UA,UG,US,UZ, VN,YU,ZA,ZW (72)発明者 杉本 龍彦 愛知県一宮市貴船二丁目4番7号 ハイツ つばさ102号 (72)発明者 石坂 寿朗 名古屋市熱田区青池町2−62 ハイツ林 203号 (注)この公表は、国際事務局(WIPO)により国際公開された公報を基に作 成したものである。 なおこの公表に係る日本語特許出願(日本語実用新案登録出願)の国際公開の 効果は、特許法第184条の10第1項(実用新案法第48条の13第2項)に より生ずるものであり、本掲載とは関係ありません。───────────────────────────────────────────────────── Continued from the front page (81) Designated Countries EP(AT,BE,CH,CY, DE, DK, ES, FI, FR, GB, GR, IE, I T, LU, MC, NL, PT, SE, TR), OA(BF , BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP(GH, G M, KE, LS, MW, MZ, SD, SL, SZ, TZ , UG, ZW), UA(AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AG, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, B Z, CA, CH, CN, CR, CU, CZ, DE, DK ,DM,DZ,EE,ES,FI,GB,GD,GE, GH, GM, HR, HU, ID, IL, IN, IS, J P, KE, KG, KP, KR, KZ, LC, LK, LR , LS, LT, LU, LV, MA, MD, MG, MK, MN, MW, MX, MZ, NO, NZ, PL, PT, R O, RU, SD, SE, SG, SI, SK, SL, TJ , TM, TR, TT, TZ, UA, UG, US, UZ, VN, YU, ZA, ZW (72) Inventor Tatsuhiko Sugimoto 2-4-7 Kifune, Ichinomiya City, Aichi Prefecture Tsubasa 102 (72) Inventor: Toshiro Ishizaka 2-62 Aoike-cho, Atsuta-ku, Nagoya 203 (Note) This publication is based on the publication published internationally by the International Bureau of Patents (WIPO). The effect of the international publication of the Japanese patent application (Japanese utility model registration application) related to this publication arises pursuant to Article 184-10, Paragraph 1 of the Patent Act (Article 48-13, Paragraph 2 of the Utility Model Act) and is unrelated to this publication.

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】入力された指紋の画像に基づいて、指紋を照合する指紋照合装置に
おいて、指紋の部分画像について特徴量を演算して抽出する特徴量抽出手段と、
その特徴量抽出手段により抽出された特徴量に基づいて指紋を識別する識別手段
とを備えたことを特徴とする指紋照合装置。
1. A fingerprint matching device for matching fingerprints based on an input fingerprint image, comprising: a feature extraction means for calculating and extracting feature values for a partial fingerprint image;
a fingerprint matching device comprising: a fingerprint identifying means for identifying a fingerprint based on the feature extracted by the feature extracting means;
【請求項2】指紋の部分画像を逐次入力する指紋入力手段と、その指紋入力手段
により逐次入力された複数の指紋の部分画像を比較処理して重複部分を取り除く
画像処理手段とを有し、前記特徴量抽出手段は該画像処理手段から得られる重複
部分を取り除いた指紋の部分画像から前記特徴量を抽出することを特徴とする請
求項1に記載の指紋照合装置。
[Claim 2] A fingerprint matching device as described in claim 1, characterized in that it has a fingerprint input means for sequentially inputting partial fingerprint images, and an image processing means for comparing and processing the partial fingerprint images sequentially input by the fingerprint input means to remove overlapping portions, and the feature extraction means extracts the feature from the partial fingerprint images from which overlapping portions have been removed and which are obtained from the image processing means.
【請求項3】1以上の特徴量を記憶する記憶手段を有し、前記識別手段は、該記
憶手段に記憶された1以上の特徴量と、前記特徴量抽出手段が抽出した1以上の
特徴量とを比較照合することによって指紋の同一性を識別することを特徴とする
請求項1又は2に記載の指紋照合装置。
[Claim 3] A fingerprint matching device as described in claim 1 or 2, characterized in that it has a memory means for storing one or more features, and the identification means identifies the identity of fingerprints by comparing and matching the one or more features stored in the memory means with the one or more features extracted by the feature extraction means.
【請求項4】前記特徴量抽出手段は、指紋の部分画像について周波数解析演算処
理を行い、その指紋の部分画像の周波数スペクトル情報を前記特徴量として抽出
することを特徴とする請求項1乃至3のいずれかに記載の指紋照合装置。
[Claim 4] A fingerprint matching device as described in any one of claims 1 to 3, characterized in that the feature extraction means performs frequency analysis calculation processing on a partial image of the fingerprint and extracts frequency spectrum information of the partial image of the fingerprint as the feature.
【請求項5】前記特徴量抽出手段が演算する周波数解析演算処理として、線形予
測(LPC)演算処理、群遅延スペクトル(GDS)演算処理、高速フーリエ変
換(FFT)演算処理のうち少なくともひとつを用いることを特徴とする請求項
4に記載の指紋照合装置。
[Claim 5] A fingerprint matching device as described in claim 4, characterized in that the frequency analysis calculation processing performed by the feature extraction means uses at least one of linear prediction (LPC) calculation processing, group delay spectrum (GDS) calculation processing, and fast Fourier transform (FFT) calculation processing.
【請求項6】前記指紋入力手段は、1以上の画像ラインよりなる画像ライン画像
を指紋の部分画像として逐次入力し、前記画像処理手段は、前記指紋入力手段に
より連続して入力される2つの指紋の部分画像について重複する画像ラインを検
出し、それを一方の指紋の部分画像から取り除くことを特徴とする請求項2乃至
5のいずれかに記載の指紋照合装置。
[Claim 6] A fingerprint matching device as described in any one of claims 2 to 5, characterized in that the fingerprint input means sequentially inputs image line images consisting of one or more image lines as partial images of a fingerprint, and the image processing means detects overlapping image lines in two partial images of fingerprints input consecutively by the fingerprint input means and removes them from the partial image of one of the fingerprints.
【請求項7】前記画像処理手段は、重複部分を取り除いた指紋の部分画像につい
て、ラスタ方向或いはライン方向の少なくともいずれかに関して画像縮小処理を
さらに適用することを特徴とする請求項2乃至6のいずれかに記載の指紋照合装
置。
[Claim 7] A fingerprint matching device as described in any one of claims 2 to 6, characterized in that the image processing means further applies image reduction processing in at least either the raster direction or the line direction to the partial fingerprint image from which overlapping portions have been removed.
【請求項8】前記識別手段は、DP照合法(動的計画法)を用いることを特徴と
する請求項1乃至7のいずれかに記載の指紋照合装置。
8. The fingerprint matching device according to claim 1, wherein said identifying means uses a DP matching method (dynamic programming).
【請求項9】入力された指紋の画像に基づいて、指紋を照合する指紋照合方法に
おいて、指紋の部分画像について特徴量を演算して抽出する特徴量抽出ステップ
と、その特徴量抽出ステップを実施して抽出された特徴量に基づいて指紋を識別
する識別ステップとを備えたことを特徴とする指紋照合方法。
[Claim 9] A fingerprint matching method for matching fingerprints based on an input fingerprint image, characterized in that it comprises a feature extraction step for calculating and extracting features from a partial image of the fingerprint, and an identification step for identifying the fingerprint based on the features extracted by carrying out the feature extraction step.
【請求項10】指紋の部分画像を逐次入力する指紋入力ステップと、その指紋入
力ステップで逐次入力された複数の指紋の部分画像を比較処理して重複部分を取
り除く画像処理ステップとを有し、前記特徴量抽出ステップでは該画像処理ステ
ップで得られる重複部分を取り除いた指紋の部分画像から前記特徴量を抽出する
ことを特徴とする請求項9に記載の指紋照合方法。
[Claim 10] A fingerprint matching method as described in claim 9, comprising a fingerprint input step of sequentially inputting partial fingerprint images, and an image processing step of comparing and processing the partial fingerprint images sequentially input in the fingerprint input step to remove overlapping portions, wherein in the feature extraction step, the feature is extracted from the partial fingerprint images obtained in the image processing step from which overlapping portions have been removed.
【請求項11】1以上の特徴量を記憶する記憶ステップを有し、前記識別ステッ
プでは、該記憶ステップにおいて記憶された1以上の特徴量と、前記特徴量抽出
ステップにおいて抽出した1以上の特徴量とを比較照合することによって指紋の
同一性を識別することを特徴とする請求項9又は10に記載の指紋照合方法。
[Claim 11] A fingerprint matching method as described in claim 9 or 10, characterized in that it has a storage step for storing one or more features, and in the identification step, the identity of the fingerprints is identified by comparing and matching the one or more features stored in the storage step with the one or more features extracted in the feature extraction step.
【請求項12】前記特徴量抽出ステップでは、指紋の部分画像について周波数解
析演算処理を行い、その指紋の部分画像の周波数スペクトル情報を前記特徴量と
して抽出することを特徴とする請求項9乃至11のいずれかに記載の指紋照合方
法。
[Claim 12] A fingerprint matching method as described in any one of claims 9 to 11, characterized in that in the feature extraction step, frequency analysis calculation processing is performed on a partial image of the fingerprint, and frequency spectrum information of the partial image of the fingerprint is extracted as the feature.
【請求項13】前記特徴量抽出ステップで演算する周波数解析演算処理として、
線形予測(LPC)演算処理、群遅延スペクトル(GDS)演算処理、高速フー
リエ変換(FFT)演算処理のうち少なくともひとつを用いることを特徴とする
請求項12に記載の指紋照合方法。
13. The frequency analysis calculation process performed in the feature extraction step includes:
13. The fingerprint verification method according to claim 12, wherein at least one of linear predictive coding (LPC) calculation processing, group delay spectrum (GDS) calculation processing, and fast Fourier transform (FFT) calculation processing is used.
【請求項14】前記指紋入力ステップでは、1以上の画像ラインよりなる画像ラ
イン画像を指紋の部分画像として逐次入力し、前記画像処理ステップは、前記指
紋入力ステップにおいて連続して入力される2つの指紋の部分画像について重複
する画像ラインを検出し、それを一方の指紋の部分画像から取り除くことを特徴
とする請求項9乃至13のいずれかに記載の指紋照合方法。
[Claim 14] A fingerprint matching method as described in any one of claims 9 to 13, characterized in that in the fingerprint input step, image line images consisting of one or more image lines are input sequentially as partial images of the fingerprint, and in the image processing step, overlapping image lines are detected in the partial images of two fingerprints input consecutively in the fingerprint input step, and are removed from the partial image of one of the fingerprints.
【請求項15】前記画像処理ステップでは、重複部分を取り除いた指紋の部分画
像について、ラスタ方向或いはライン方向の少なくともいずれかに関して画像縮
小処理をさらに適用することを特徴とする請求項10乃至14のいずれかに記載
の指紋照合方法。
[Claim 15] A fingerprint matching method described in any one of claims 10 to 14, characterized in that in the image processing step, image reduction processing is further applied to the partial fingerprint image from which overlapping portions have been removed in at least one of the raster direction or line direction.
【請求項16】前記識別ステップでは、DP照合法(動的計画法)を用いること
を特徴とする請求項9乃至15のいずれかに記載の指紋照合方法。
16. A fingerprint matching method according to claim 9, wherein the identification step uses a DP matching method (dynamic programming).
【請求項17】入力された指紋の画像に基づいて、指紋の照合をコンピュータに
実行させる指紋照合プログラムにおいて、指紋の部分画像について特徴量を演算
して抽出する特徴量抽出ステップと、1以上の指紋部分画像について該特徴量抽
出ステップを実施して指紋の部分特徴量を抽出し、それらの部分特徴量に基づい
て指紋を識別する識別ステップとをコンピュータに実行させる指紋照合プログラ
ム。
[Claim 17] A fingerprint matching program that causes a computer to perform fingerprint matching based on an input fingerprint image, the fingerprint matching program causing a computer to execute a feature extraction step of calculating and extracting features for partial fingerprint images, and an identification step of performing the feature extraction step for one or more partial fingerprint images to extract partial fingerprint features and identify the fingerprint based on those partial features.
【請求項18】指紋の部分画像を逐次入力する指紋入力ステップと、その指紋入
力ステップで逐次入力された複数の指紋の部分画像を比較処理して重複部分を取
り除く画像処理ステップとをコンピュータに実行させ、前記特徴量抽出ステップ
では該画像処理ステップで得られる重複部分を取り除いた指紋の部分画像から前
記特徴量を抽出することを特徴とする請求項17に記載の指紋照合プログラム。
[Claim 18] A fingerprint matching program as described in claim 17, which causes a computer to execute a fingerprint input step of sequentially inputting partial fingerprint images, and an image processing step of comparing and processing the partial fingerprint images sequentially input in the fingerprint input step to remove overlapping portions, and wherein in the feature extraction step, the feature is extracted from the partial fingerprint images obtained in the image processing step from which overlapping portions have been removed.
【請求項19】1以上の特徴量を記憶する記憶ステップをコンピュータに実行さ
せ、前記識別ステップでは、該記憶ステップにおいて記憶された1以上の特徴量
と、前記特徴量抽出ステップにおいて抽出した1以上の特徴量とを比較照合する
ことによって指紋の同一性を識別することを特徴とする請求項17又は18に記
載の指紋照合プログラム。
[Claim 19] A fingerprint matching program as described in claim 17 or 18, characterized in that a computer is caused to execute a storage step for storing one or more features, and in the identification step, the identity of the fingerprint is identified by comparing and matching the one or more features stored in the storage step with the one or more features extracted in the feature extraction step.
【請求項20】前記特徴量抽出ステップでは、指紋の部分画像について周波数解
析演算処理を行い、その指紋の部分画像の周波数スペクトル情報を前記特徴量と
して抽出することを特徴とする請求項17乃至19のいずれかに記載の指紋照合
プログラム。
[Claim 20] A fingerprint matching program as described in any one of claims 17 to 19, characterized in that in the feature extraction step, frequency analysis calculation processing is performed on a partial image of the fingerprint, and frequency spectrum information of the partial image of the fingerprint is extracted as the feature.
【請求項21】前記特徴量抽出ステップで演算する周波数解析演算処理として、
線形予測(LPC)演算処理、群遅延スペクトル(GDS)演算処理、高速フー
リエ変換(FFT)演算処理のうち少なくともひとつを用いることを特徴とする
請求項20に記載の指紋照合プログラム。
21. The frequency analysis calculation process performed in the feature extraction step includes:
21. The fingerprint matching program according to claim 20, wherein at least one of linear predictive coding (LPC) calculation processing, group delay spectrum (GDS) calculation processing, and fast Fourier transform (FFT) calculation processing is used.
【請求項22】前記指紋入力ステップでは、1以上の画像ラインよりなる画像ラ
イン画像を指紋の部分画像として逐次入力し、前記画像処理ステップは、前記指
紋入力ステップにおいて連続して入力される2つの指紋の部分画像について重複
する画像ラインを検出し、それを一方の指紋の部分画像から取り除くことを特徴
とする請求項17乃至21のいずれかに記載の指紋照合プログラム。
[Claim 22] A fingerprint matching program as described in any of claims 17 to 21, characterized in that in the fingerprint input step, image line images consisting of one or more image lines are input sequentially as partial images of a fingerprint, and in the image processing step, overlapping image lines are detected in the partial images of two fingerprints input consecutively in the fingerprint input step, and are removed from the partial image of one of the fingerprints.
【請求項23】前記画像処理ステップでは、重複部分を取り除いた指紋の部分画
像について、ラスタ方向或いはライン方向の少なくともいずれかに関して画像縮
小処理をさらに適用することを特徴とする請求項18乃至22のいずれかに記載
の指紋照合プログラム。
[Claim 23] A fingerprint matching program as described in any of claims 18 to 22, characterized in that in the image processing step, image reduction processing is further applied to the partial fingerprint image from which overlapping portions have been removed in at least one of the raster direction or line direction.
【請求項24】前記識別ステップでは、DP照合法(動的計画法)を用いること
を特徴とする請求項17乃至23のいずれかに記載の指紋照合プログラム。
24. The fingerprint matching program according to claim 17, wherein the identification step uses a DP matching method (dynamic programming).
JP2002514662A 2000-07-24 2001-07-11 Fingerprint verification device, fingerprint verification method, and fingerprint verification program Expired - Lifetime JP4221220B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-227548 2000-07-24
JP2000227548 2000-07-24
PCT/JP2001/006029 WO2002009034A1 (en) 2000-07-24 2001-07-11 Fingerprint collation apparatus, fingerprint collation method, and fingerprint collation program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006345187A Division JP4897470B2 (en) 2000-07-24 2006-12-22 Fingerprint verification device and fingerprint verification program

Publications (2)

Publication Number Publication Date
JPWO2002009034A1 true JPWO2002009034A1 (en) 2003-09-02
JP4221220B2 JP4221220B2 (en) 2009-02-12

Family

ID=18720975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002514662A Expired - Lifetime JP4221220B2 (en) 2000-07-24 2001-07-11 Fingerprint verification device, fingerprint verification method, and fingerprint verification program

Country Status (4)

Country Link
US (1) US7310433B2 (en)
JP (1) JP4221220B2 (en)
AU (1) AU2001271039A1 (en)
WO (1) WO2002009034A1 (en)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203347B2 (en) * 2001-06-27 2007-04-10 Activcard Ireland Limited Method and system for extracting an area of interest from within a swipe image of a biological surface
US7013030B2 (en) * 2002-02-14 2006-03-14 Wong Jacob Y Personal choice biometric signature
JP4027118B2 (en) * 2002-02-25 2007-12-26 富士通株式会社 User authentication method, program, and apparatus
WO2004109455A2 (en) 2003-05-30 2004-12-16 Privaris, Inc. An in-circuit security system and methods for controlling access to and use of sensitive data
JP4454335B2 (en) * 2004-02-12 2010-04-21 Necインフロンティア株式会社 Fingerprint input device
JP2005284629A (en) * 2004-03-29 2005-10-13 Sharp Corp Image collation device, image collation method, image collation program, and computer-readable recording medium recording image collation program
JP4462988B2 (en) 2004-04-13 2010-05-12 Necインフロンティア株式会社 Fingerprint reading method and fingerprint reading system
EP2230247B1 (en) 2004-07-02 2013-05-29 Pioneer-Hi-Bred International, Inc. Antifungal polypeptides
JP4411152B2 (en) 2004-07-05 2010-02-10 Necインフロンティア株式会社 Fingerprint reading method, fingerprint reading system and program
TWI303388B (en) * 2005-03-18 2008-11-21 Egis Technology Inc A sweep-type image sensing chip with image matching function and processing method therefor
KR101961052B1 (en) 2007-09-24 2019-03-21 애플 인크. Embedded authentication systems in an electronic device
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US11165963B2 (en) 2011-06-05 2021-11-02 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
JP6167667B2 (en) * 2013-05-23 2017-07-26 富士通株式会社 Authentication system, authentication method, authentication program, and authentication apparatus
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9483763B2 (en) 2014-05-29 2016-11-01 Apple Inc. User interface for payments
KR102294597B1 (en) * 2014-06-02 2021-08-27 엘지전자 주식회사 Display apparatus and controlling method thereof
CN105447436B (en) * 2014-12-19 2017-08-04 比亚迪股份有限公司 Fingerprint identification system, fingerprint identification method, and electronic device
USD776664S1 (en) * 2015-05-20 2017-01-17 Chaya Coleena Hendrick Smart card
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
EP3270618A1 (en) 2016-07-13 2018-01-17 Konica Minolta, Inc. Authentication device, authentication system, authentication method, and program
DK179978B1 (en) 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR102389562B1 (en) * 2017-09-08 2022-04-22 삼성전자주식회사 Method for processing fingerprint information
KR102301599B1 (en) 2017-09-09 2021-09-10 애플 인크. Implementation of biometric authentication
KR102185854B1 (en) 2017-09-09 2020-12-02 애플 인크. Implementation of biometric authentication
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
EP4264460B1 (en) 2021-01-25 2025-12-24 Apple Inc. Implementation of biometric authentication
US12210603B2 (en) 2021-03-04 2025-01-28 Apple Inc. User interface for enrolling a biometric feature
US12216754B2 (en) 2021-05-10 2025-02-04 Apple Inc. User interfaces for authenticating to perform secure operations

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2872714B2 (en) 1989-11-17 1999-03-24 許 文 星 Binary image thinning method and feature extraction method and processing apparatus
JP3057590B2 (en) 1992-08-06 2000-06-26 中央発條株式会社 Personal identification device
FR2749955B1 (en) * 1996-06-14 1998-09-11 Thomson Csf FINGERPRINT READING SYSTEM
US5737439A (en) * 1996-10-29 1998-04-07 Smarttouch, Llc. Anti-fraud biometric scanner that accurately detects blood flow
JPH10275233A (en) 1997-03-31 1998-10-13 Yamatake:Kk Information processing system, pointing device, and information processing device
US5933516A (en) * 1997-08-07 1999-08-03 Lockheed Martin Corp. Fingerprint matching by estimation of a maximum clique
US6317508B1 (en) * 1998-01-13 2001-11-13 Stmicroelectronics, Inc. Scanning capacitive semiconductor fingerprint detector
JP2000259825A (en) 1999-03-11 2000-09-22 Chuo Spring Co Ltd Image enhancement device
US7079672B2 (en) 2000-01-28 2006-07-18 Chuo Hatsujo Kabushiki Kaisha Fingerprint image evaluating method and fingerprint matching device
SE0001761L (en) * 2000-05-15 2001-07-02 Ericsson Telefon Ab L M Method for generating a composite image and apparatus for detecting fingerprints
JP4262471B2 (en) * 2002-11-12 2009-05-13 富士通株式会社 Biometric feature data acquisition device

Similar Documents

Publication Publication Date Title
JPWO2002009034A1 (en) Fingerprint matching device, fingerprint matching method, and fingerprint matching program
JP4221220B2 (en) Fingerprint verification device, fingerprint verification method, and fingerprint verification program
JP3218004B2 (en) Test signature verification method
US5715325A (en) Apparatus and method for detecting a face in a video image
CN101751550B (en) Fast fingerprint search method and fast fingerprint search system
JP2827994B2 (en) Fingerprint feature extraction device
CN113221086B (en) Offline face authentication method and device, electronic equipment and storage medium
WO2009001121A1 (en) Fingerprint matching method and apparatus
JP2001351103A (en) Image collation device, image collation method, and recording medium recording image collation program
Yin et al. Two steps for fingerprint segmentation
KR100489430B1 (en) Recognising human fingerprint method and apparatus independent of location translation , rotation and recoding medium recorded program for executing the method
KR100374695B1 (en) Automatic Fingerprint Identification System using Direct Ridge Extraction
CN112949361B (en) Fingerprint identification method and device
CN112199975A (en) Identity verification method and device based on facial features
US6785408B1 (en) Fingerprint segment area processing method and associated apparatus
KR960005109B1 (en) Algorithm for a real-time automatic fingerprint recognition system
JP4897470B2 (en) Fingerprint verification device and fingerprint verification program
Tahmasebi et al. A novel adaptive approach to fingerprint enhancement filter design
JPH0757092A (en) Fingerprint matching device
JP2003067751A (en) Fingerprint collation device, fingerprint collation method and fingerprint collation program
EP4028938B1 (en) Method for determining a match between a candidate fingerprint and a reference fingerprint
KR20060064710A (en) Fingerprint Identification Method
Mali et al. Fingerprint recognition using global and local structures
Gavrilescu Shape Variance-Based Feature Extraction for Biometric Fingerprint Analysis
Yoshimural et al. An application of the sequential dynamic programming matching method to off-line signature verification