JP2000215308A - Biometric information authentication device and method - Google Patents
Biometric information authentication device and methodInfo
- Publication number
- JP2000215308A JP2000215308A JP11018208A JP1820899A JP2000215308A JP 2000215308 A JP2000215308 A JP 2000215308A JP 11018208 A JP11018208 A JP 11018208A JP 1820899 A JP1820899 A JP 1820899A JP 2000215308 A JP2000215308 A JP 2000215308A
- Authority
- JP
- Japan
- Prior art keywords
- information
- biometric information
- mode
- authentication
- biometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Collating Specific Patterns (AREA)
Abstract
(57)【要約】
【課題】 個人認証の性能と快適性のバランス、また環
境変動に対する強さなどを状況に応じて調整可能とし、
もって利便性を向上させること。
【解決手段】 被認証者の生体情報を取得する手段
(1)と、その入力情報から被認証者の特徴を抽出して
生体特徴情報と成す手段(2、3)と、該生体特徴情報
と予めカテゴリ別に用意されている登録情報とを照合
(4、5)し、該被認証者の属するカテゴリを決定する
識別手段と、前記生体情報受理手段および識別手段のう
ち少なくとも一方が複数用意された生体情報認証装置に
おいて、それらを組み合わせることによって構成される
認証論理を用いて生体情報認証を行う際、複数の認証論
理モードの中から一つを選択することにより前記生体情
報受理手段および識別手段を制御可能なモード管理手段
(6)を有することを特徴とする。
(57) [Summary] [Problem] The balance between the performance and comfort of personal authentication and the strength against environmental change can be adjusted according to the situation,
Improve convenience. SOLUTION: A means (1) for acquiring biometric information of a person to be authenticated, a means (2, 3) for extracting features of the person to be authenticated from input information thereof and forming biometric feature information, A plurality of identification means for comparing (4, 5) registration information prepared in advance for each category and determining a category to which the subject belongs, and at least one of the biometric information receiving means and the identification means are provided. In the biometric information authentication device, when performing biometric information authentication using an authentication logic configured by combining them, the biometric information receiving unit and the identification unit are selected by selecting one from a plurality of authentication logic modes. It has a controllable mode management means (6).
Description
【0001】[0001]
【発明の属する技術分野】本発明は生体情報を用いた個
人認証装置および個人認証方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal authentication device and a personal authentication method using biometric information.
【0002】[0002]
【従来の技術】これまで生体情報から個人を認証する認
証技術はより高度なセキュリティの実現を目指して様々
な分野にわたって研究が行われてきた。中でも画像処理
技術を用いた顔画像認識による個人認証システムは、認
証に必要な生体情報の入力のために対象とする人物に時
間や手間をほとんどかけさせないという快適性によって
注目されている。しかし顔画像認識は他の虹彩、指紋な
どの生体情報を使用する認識に比べて快適性では勝って
いるものの認識性能において劣っており、このことが個
人認証システムへの適用の障害となってきた。顔画像認
識を用いて高度なセキュリティを実現するためには本人
を識別する率(本人通過率)と本人以外の人物を拒絶す
る率(他人排除率)が共に十分な高さを維持していなく
てはならない。2. Description of the Related Art Hitherto, an authentication technology for authenticating an individual from biological information has been studied in various fields with the aim of realizing higher security. Above all, an individual authentication system based on face image recognition using image processing technology has attracted attention because of the comfort that a target person hardly spends time and effort for inputting biometric information required for authentication. However, facial image recognition is more comfortable than other recognition methods using biometric information such as iris and fingerprint, but its recognition performance is inferior, and this has been an obstacle to its application to personal identification systems. . In order to realize high security using face image recognition, both the rate of identifying a person (passing rate of the person) and the rate of rejecting persons other than the person (rejection rate of others) do not maintain high enough. must not.
【0003】しかし現在の顔画像認識では被認証者の画
像と登録情報を所定の特徴空間で比較・照合して類似度
を求め、その類似度が所定の閾値を超えているか否かで
被認証者が当該登録情報の人物であるか否かを判定する
ことが一般的であるが、判定の基準となる閾値を固定す
ると少なくとも前述のどちらかの率の一方において十分
な高さを得られないという不都合が発生する。However, in the current face image recognition, an image of a person to be authenticated and registered information are compared and collated in a predetermined feature space to obtain a similarity, and the authentication is performed based on whether or not the similarity exceeds a predetermined threshold. It is common to determine whether or not the person is the person of the registration information, but if the threshold used as the criterion for determination is fixed, a sufficient height cannot be obtained at least in one of the above-mentioned rates. Inconvenience occurs.
【0004】例えば他人排除率と本人通過率関係は図2
0で示すようになり、(A)のように閾値を高く設定す
れば他人が通過する低くなるが同時に本人が拒絶される
ことがあり、(B)のように低く設定すれば本人は必ず
通過できても他人も通過することがある。即ちセキュリ
ティの高さと正規利用者が拒否されないことを含んだ快
適性とを共に十分達成することが従来の顔画像認識を用
いた個人認証システムでは困難であった。なお生体情報
の入力における快適性では顔画像に及ばないが、生体情
報として音声を対象とした認証においても上記と同様の
問題が発生する。[0004] For example, the relationship between the exclusion rate of another person and the pass rate of the person is shown in FIG.
If the threshold value is set high as in (A), the pass will be low for others to pass, but at the same time the person may be rejected. If the threshold is set low as in (B), the pass will always occur Even if you can, others may pass. That is, it has been difficult for the conventional personal authentication system using face image recognition to sufficiently achieve both high security and comfort including that a regular user is not rejected. Although the comfort in inputting biometric information is not as good as a face image, the same problem as described above also occurs in authentication for voice as biometric information.
【0005】[0005]
【発明が解決しようとする課題】上述のように従来の顔
や音声による生体情報認証では本人通過率と他人排除率
の双方を十分高く保つことは困難であり、さらに照明や
雑音などの環境条件に対する強さなども含めると、単一
の認証論理のみを用いて十分な認証性能と快適さを持つ
個人認証システムを実現することは難しかった。As described above, it is difficult to keep both the pass-through rate and the rejection rate of other persons sufficiently high by the conventional biometric information authentication using a face or voice, and furthermore, environmental conditions such as lighting and noise are difficult. It is difficult to realize a personal authentication system having sufficient authentication performance and comfort using only a single authentication logic, including the strength of the authentication.
【0006】本発明はこの様な問題点に鑑みて成された
ものであり、その目的とするところは個人認証の性能と
快適性のバランス、また環境変動に対する強さなどを状
況に応じて調整可能とし、もって利便性を向上させたシ
ステムを提供することである。[0006] The present invention has been made in view of such problems, and aims at adjusting the balance between the performance and the comfort of personal authentication and the strength against environmental fluctuations according to the situation. It is an object of the present invention to provide a system which is made possible and thus has improved convenience.
【0007】[0007]
【課題を解決するための手段】上記目的を達成するため
に本発明においては、被認証者から受理した入力情報を
用いて人物を識別・認証するための認証論理を一つの入
力情報に対して複数内蔵し、それらを管理/制御するこ
とによって認証性能と快適性を制御することによる利便
性を実現できる処理手段(モード管理手段)を有するこ
とを特徴とするものである。According to the present invention, in order to achieve the above object, an authentication logic for identifying and authenticating a person using input information received from a person to be authenticated is applied to one input information. A plurality of built-in processing means (mode management means) are provided which can realize convenience by controlling authentication performance and comfort by managing / controlling them.
【0008】[0008]
【発明の実施の形態】まず本発明に係わる生体情報認証
装置とその方法の実施例を図面に従って説明する。ここ
では生体情報として顔画像を用いた認証の実施例につい
て述べる。DESCRIPTION OF THE PREFERRED EMBODIMENTS First, an embodiment of a biometric information authentication apparatus and a method thereof according to the present invention will be described with reference to the drawings. Here, an embodiment of authentication using a face image as biometric information will be described.
【0009】本発明における生体情報認証装置の基本的
構造を示したブロック様式を図1に示す。生体情報受理
部Aは被認証者から認証に必要な入力生体情報を取得す
る手段であり、基本的な構成要素は画像入力部1と顔検
出部2、特徴抽出部3の3つである。画像入力部1は被
認証者の顔画像を含むある一定領域の画像を取得し、そ
の入力画像情報をデジタルデータとして顔検出部2へ伝
送する処理手段である。顔検出部2は画像入力部1から
送られた入力画像情報を解析することによって顔画像が
含まれているかどうかを判断し、含まれている場合には
顔画像情報を抽出して特徴抽出部3へ送る処理手段であ
る。特徴抽出部3は入力画像情報中の顔画像における特
徴量をモード管理部Cによって選択された特徴抽出アル
ゴリズムによって算出し、その結果を生体特徴情報とし
て照合部4へ送る処理手段である。FIG. 1 is a block diagram showing the basic structure of the biometric information authentication device according to the present invention. The biometric information receiving unit A is a unit that acquires input biometric information necessary for authentication from a person to be authenticated. The basic components are an image input unit 1, a face detection unit 2, and a feature extraction unit 3. The image input unit 1 is a processing unit that acquires an image of a certain area including a face image of a person to be authenticated, and transmits the input image information to the face detection unit 2 as digital data. The face detection unit 2 analyzes the input image information sent from the image input unit 1 to determine whether a face image is included, and if so, extracts the face image information to extract a feature image. 3 is a processing means to send to 3. The feature extracting unit 3 is a processing unit that calculates a feature amount of the face image in the input image information by a feature extracting algorithm selected by the mode managing unit C, and sends the result to the matching unit 4 as biometric feature information.
【0010】識別部Bは被認証者が登録されている人物
に含まれているか、またどのカテゴリに分類されるのか
判断する手段であり、照合部4と認証情報記憶部5から
成っている。照合部4はモード管理部Cから送られるモ
ード制御情報によって決定される識別方法を用いて生体
情報受理部Aから送られる生体特徴情報と登録されてい
る認証用登録情報を照合して類似度を求め、被認証者が
登録された人物のどれかと一致しているか識別する処理
手段である。認証情報記憶部5は照合部4が類似度を求
める際に使用される認証用登録情報を記憶しておく処理
手段であり、照合部4が識別を行う際には認証用登録情
報をそこへ伝送する。The identification section B is means for judging whether the person to be authenticated is included in the registered persons or in which category it is classified. The identification section B comprises a collation section 4 and an authentication information storage section 5. The matching unit 4 checks the similarity by comparing the biometric feature information sent from the biometric information receiving unit A with the registered authentication information by using the identification method determined by the mode control information sent from the mode management unit C. This is processing means for determining whether the subject to be authenticated matches any of the registered persons. The authentication information storage unit 5 is a processing unit that stores authentication registration information used when the matching unit 4 obtains a similarity, and stores the authentication registration information there when the matching unit 4 performs identification. Transmit.
【0011】モード管理部Cは照合部4が被認証者の生
体特徴情報を登録情報と照合して識別する際に使用する
識別方法を管理/制御する手段であり、様々な情報に基
づいて識別方法を決定しその結果をモード制御情報とし
て照合部4に伝送する処理手段、すなわちモード決定部
6を持っている。これによってシステムは認証性能と快
適性を制御することになり被認証者の利便性を向上させ
ることができる。The mode management section C is means for managing / controlling an identification method used when the collation section 4 identifies the biometric characteristic information of the person to be authenticated by comparing it with the registered information, and performs identification based on various information. It has a processing means for determining the method and transmitting the result as mode control information to the collating unit 4, that is, a mode determining unit 6. As a result, the system controls the authentication performance and the comfort, and the convenience of the person to be authenticated can be improved.
【0012】前記モード管理手段による認証論理の管理
/制御パターンの例として以下の5つが挙げられる。 (1) 時間によるモードの制御。 (2) センサによって感知される情報に基づくモード
の制御。 (3) 入力画像に含まれる環境情報に基づくモードの
制御。 (4) 管理者および被認証者による外部からの操作に
よるモードの制御。 (5) 複数種の異なる生体情報について、認証に使用
するために被認証者からどれを取得するのか選択するモ
ードの制御。 (6) 生体情報と非生体認証情報について、認証に使
用するために被認証者からどちらを取得するのか選択す
るモードの制御。The following five are examples of authentication logic management / control patterns by the mode management means. (1) Mode control by time. (2) Mode control based on information sensed by sensors. (3) Mode control based on environmental information included in the input image. (4) Mode control by an external operation by the administrator and the subject. (5) Control of a mode for selecting which of a plurality of different types of biometric information to acquire from a subject to be used for authentication. (6) Control of the mode for selecting which of the biometric information and the non-biometric authentication information is to be obtained from the subject for use in authentication.
【0013】(1)〜(3)は生体情報認証装置の中に
モードを制御するための情報を自動的に収集する何らか
の手段を持ち、モード管理部Cがその情報を基にモード
の制御を行うシステムである。この様なモード制御の方
式を自動モード制御と呼ぶ。(4)は生体情報認証装置
の中に管理者および被認証者がモード管理部Cに対して
モードの制御を指示するための命令を送るための外部入
力装置を含んでいることが特徴である。モード管理部C
はここから送られる情報に基づいてモードを決定し各部
に伝達する。この様なモード制御の方式を手動モード制
御と呼ぶ。(1)〜(4)はモード管理部がモードを決
定するための要素となる情報に注目した実施例である
が、(5)、(6)は認証に利用するために被認証者か
らどのような入力情報を取得するかを、モード管理部に
よって制御する実施例である。(1)〜(6)の認証モ
ード制御機構それぞれについてその実施例を示す。 (実施例1)最初の実施例は(1)の時間モード制御で
ある。この場合モード管理手段はあらかじめ設定された
時刻がくると識別手段に対してそれまでとは別のある決
められた識別方法に切り替えるような命令(モード制御
情報)を出す。つまり識別手段は予め設定された時間帯
によって異なる識別方法を用いた識別作業を行うことが
できる。(1) to (3) have some means in the biometric information authentication apparatus for automatically collecting information for controlling the mode, and the mode management unit C controls the mode based on the information. System. Such a mode control mode is called automatic mode control. (4) is characterized in that the biometric information authentication device includes an external input device for sending a command for the manager and the subject to be instructed to control the mode to the mode management unit C. . Mode management unit C
Determines the mode based on the information sent from it and transmits it to each unit. Such a mode control mode is called manual mode control. (1) to (4) are embodiments in which the mode management unit pays attention to information that is an element for determining a mode, but (5) and (6) show which of the subjects to be authenticated to use for authentication. In this embodiment, the mode management unit controls whether to acquire such input information. Examples of each of the authentication mode control mechanisms (1) to (6) will be described. (Embodiment 1) The first embodiment is the time mode control of (1). In this case, when a preset time comes, the mode management means issues an instruction (mode control information) to the identification means to switch to another predetermined identification method. That is, the identification means can perform an identification operation using an identification method that differs depending on a preset time zone.
【0014】ここでは前記時間モード制御システムを取
り入れた生体情報認証装置について説明する。Here, a biological information authentication apparatus incorporating the time mode control system will be described.
【0015】認証を判定するための閾値に対する本人通
過率および他人排除率の変動(図20;山口 修、福井
和広:“動画像を用いた顔認識システム”,PRMU
97−50,pp.17−24(1997))を見ても
分かるように、閾値をどこに設定しても双方を十分高く
固定することは不可能である。そこでどちらか一方につ
いて十分な高さを得られる閾値を二つ設定する。本実施
例では“本人通過率は高いが他人排除率はやや低い”閾
値設定1(本人利便モード)と“本人通過率はやや低い
が他人排除率は高い”閾値設定2(安全優先モード)の
2つを用意する。Changes in the pass-through rate and the rejection rate for other persons with respect to a threshold for determining authentication (FIG. 20: Osamu Yamaguchi, Kazuhiro Fukui: "Face Recognition System Using Video", PRMU)
97-50, pp. 17-24 (1997)), it is impossible to fix both high enough regardless of where the threshold is set. Therefore, two thresholds for obtaining a sufficient height for either one are set. In the present embodiment, the threshold setting 1 (personal convenience mode) “the pass rate is high but the exclusion rate is slightly low” and the threshold setting 2 (safety priority mode) that the pass rate is low but the exclusion rate is high. Prepare two.
【0016】これらのモードを時間帯によって交替させ
ることによって、昼は快適性、夜は安全性を重視したセ
キュリティーシステムを実現する。(図2)時間制御モ
ードにおいてモード管理部Cは本人を識別するために必
要な閾値を、時間帯によって2通りに分けて制御するこ
とができる。閾値設定1はそれほど高い安全性を求めら
れていない昼に使用され、閾値設定2は十分な安全性を
得る必要のある夜に利用される。これはモード管理部C
が人間によって意図的に操作されること無く閾値を変更
することで成り立っており、この様なモード制御を自動
モード制御と呼ぶ。これら2つの閾値設定を使い分ける
ことによって実現するセキュリティーシステムの処理の
流れを、図3のフローチャートを参照しながら説明す
る。By switching these modes depending on the time zone, a security system that emphasizes comfort during the day and security during the night is realized. (FIG. 2) In the time control mode, the mode management unit C can control the threshold value required to identify the user in two ways depending on the time zone. Threshold setting 1 is used during the day when less security is required, and threshold setting 2 is used at night when sufficient security needs to be obtained. This is the mode manager C
Is achieved by changing the threshold value without being intentionally operated by a human, and such mode control is called automatic mode control. The flow of processing of the security system realized by properly using these two threshold settings will be described with reference to the flowchart of FIG.
【0017】画像入力部1は被認証者の顔を捕らえるよ
う考慮して設置されたカメラを用いて画像情報を取得
し、顔検出部2へ伝送する。顔検出部2では入力画像中
に顔が検出された場合のみ検出された顔画像情報を特徴
抽出部3へ送る(ステップS1)。特徴抽出部3では送
られた顔画像情報を解析して取得した特徴量を生体特徴
情報として照合部4へ送る。モード決定部6は作動して
いる時間帯が昼であれば本人利便モードを、夜であれば
安全優先モードで識別を行うよう照合部4に指令を出す
(ステップS2)。照合部4は特徴抽出部3から送られ
る生体特徴情報と認証情報記憶部5から送られる認証登
録情報の双方を照合することによって特徴類似度をもと
め、その類似度の中で最大のものがモード決定部6から
の指示に従って選択された閾値設定を越えているか否か
によって識別を行い、結果を出力する(ステップS
3)。 本実施例では2つのモードの切り替えについて
述べたが、モードは2つに限定するものではなく3つ以
上の複数でもよい。このことは以下の実施例(2)〜
(4)についても同様である。 (実施例2)顔画像認識は照明条件の変動に対して十分
ロバストでなく、照明変動にロバストに作成された特徴
抽出アルゴリズムはそうでないものより基準となる照明
条件の下での認証性能が低いという問題がある。そこで
新たに照度センサを設け、このセンサによって照明の強
度を感知し、強度に応じて特徴抽出アルゴリズムを照明
にロバストなものに切り替える前記(2)に該当するモ
ード制御例を導入する。この様なモード制御を実現した
例が次に説明する本発明に係る第二の実施例である。The image input unit 1 acquires image information using a camera installed in consideration of the face of the person to be authenticated, and transmits the image information to the face detection unit 2. The face detection unit 2 sends the detected face image information to the feature extraction unit 3 only when a face is detected in the input image (step S1). The feature extraction unit 3 analyzes the sent face image information and sends the obtained feature amount to the matching unit 4 as biometric feature information. The mode determining unit 6 issues a command to the collating unit 4 to perform identification in the personal convenience mode when the operating time period is daytime and in the safety priority mode when it is nighttime (step S2). The matching unit 4 obtains the feature similarity by comparing both the biometric feature information sent from the feature extracting unit 3 and the authentication registration information sent from the authentication information storage unit 5, and the largest one of the similarities is the mode. Identification is performed based on whether or not the threshold setting selected according to the instruction from the determination unit 6 is exceeded, and the result is output (step S).
3). In this embodiment, switching between two modes has been described. However, the number of modes is not limited to two, and a plurality of three or more modes may be used. This is explained in the following Examples (2) to
The same applies to (4). (Example 2) Face image recognition is not sufficiently robust to variations in lighting conditions, and a feature extraction algorithm created robustly to variations in lighting has lower authentication performance under reference lighting conditions than otherwise. There is a problem. Therefore, an illuminance sensor is newly provided, and the intensity of the illumination is sensed by this sensor, and a mode control example corresponding to the above (2), which switches the feature extraction algorithm to the one robust to illumination according to the intensity, is introduced. An example in which such mode control is realized is a second embodiment according to the present invention described below.
【0018】本実施例装置は認証項目を顔画像とし、照
明条件に対する性質の異なる2つの特徴抽出方法を用い
て照明にロバストな生体情報認証装置を構成する。2つ
の特徴抽出方法とは、“基準となる照明強度においては
十分高い認識率を達成できるが、それ以外では認識率が
良くない”アルゴリズム1と、“基準となる照明強度に
おいてはアルゴリズム1より認識率は落ちるが、それ以
外ではより高い認識率を可能にできる”アルゴリズム2
である。それぞれを用いた場合の認証を通常モード、照
明ロバストモードとする。(図4)ここで上記アルゴリ
ズム1とアルゴリズム2について説明する。The apparatus according to the present embodiment constitutes a biometric information authentication apparatus which is robust to illumination by using a face image as an authentication item and using two feature extraction methods having different properties with respect to illumination conditions. The two feature extraction methods include an algorithm 1 "a sufficiently high recognition rate can be achieved at a reference illumination intensity, but a poor recognition rate otherwise" algorithm 1 and a "recognition algorithm 1 at a reference illumination intensity""Algorithm 2 reduces the rate but otherwise allows higher recognition rates."
It is. The authentication when each is used is assumed to be a normal mode and an illumination robust mode. (FIG. 4) Here, the algorithm 1 and the algorithm 2 will be described.
【0019】ある照明条件下で人物の顔を撮影して得ら
れる顔画像は顔と言う立体物に照明光が反射して作られ
る反射輝度画像である。装置はこの様な顔の反射輝度画
像を入力し、これを所定の大きさに正規化し、更に輝度
の範囲を正規化して画像パタンとする。上記アルゴリズ
ム1はこの様にして生成される反射輝度表現による画像
パタンを生体特徴情報と成す特徴抽出アルゴリズムであ
る。A face image obtained by photographing a person's face under certain lighting conditions is a reflection luminance image created by reflecting illumination light on a three-dimensional object called a face. The apparatus inputs such a reflection luminance image of the face, normalizes the image to a predetermined size, and further normalizes the luminance range to obtain an image pattern. The above-mentioned algorithm 1 is a feature extraction algorithm in which the image pattern based on the reflected luminance expression generated in this way is used as the biological feature information.
【0020】ところが反射輝度表現による画像パタンは
物体の変形(顔における表情変化などの立体形状変
化)、照明変動(時間帯や天候による照明分光強度や照
明方向の変化)、および物体の姿勢変動(顔における向
きの変化などの撮像方向の変化)などが原因で様々な変
化を受ける。特に照明方向については画像パタンの陰影
の付き方が劇的に変わるという不安定差を抱えているに
も関わらず、照合用登録情報に様々な照明方向のパタン
を予め学習させることが難しい。未学習の照明変動はす
べての入力パタンに未学習の照明輝度を与えてしまう。
そのためアルゴリズム1では学習時と異なる照明条件下
では深刻な認識率低下を起こすのである。However, the image pattern based on the expression of reflected luminance includes deformation of an object (a change in a three-dimensional shape such as a change in facial expression), illumination change (a change in illumination spectral intensity or illumination direction due to time of day or weather), and a change in the posture of the object ( Various changes occur due to changes in the imaging direction such as a change in the orientation of the face. In particular, it is difficult to make the registration information for collation learn patterns in various illumination directions in advance, in spite of the instability difference that the shading of the image pattern changes dramatically in the illumination direction. Unlearned lighting fluctuations give unlearned lighting brightness to all input patterns.
Therefore, the algorithm 1 causes a serious decrease in recognition rate under illumination conditions different from those at the time of learning.
【0021】このような照明変動による認識率低下を防
ぐためには、照明の影響を受けにくく、かつ物体(個人
の顔)固有の特徴情報を温存した特徴量(すなわち画像
表現)による生体特徴情報を用いて認識を行う必要があ
る。照明変動は対象物の反射輝度画像に強い変動を与え
るため、反射輝度表現を生体特徴情報とする限り照明変
動の影響は避けられない。一方、反射輝度パタンから導
かれるある種の画像表現には照明条件に影響されにくい
恒常性があることが知られている。In order to prevent the recognition rate from being lowered due to such illumination fluctuations, biometric feature information based on feature amounts (ie, image representations) that are hardly affected by lighting and that preserve feature information unique to an object (person's face) is preserved. Must be used for recognition. Since the illumination fluctuation gives a strong fluctuation to the reflection luminance image of the object, the influence of the illumination fluctuation is inevitable as long as the reflection luminance expression is used as the biological feature information. On the other hand, it is known that a certain kind of image expression derived from the reflection luminance pattern has a constancy that is hardly influenced by the illumination condition.
【0022】例えば、文献(Yael Moses e
t al., ″Face Recognition:
the Problem of Compensat
ion for Changes in Illumi
nation Direction″, Procee
ding of ECCV′94, 1994)では、
照明変動に対して有効な特徴量として反射輝度画像を微
分して得られる輝度勾配表現(以下、微分画像と呼ぶ)
が提案されている。For example, a reference (Yael Moses e)
t al. , "Face Recognition:
the Problem of Compensat
ion for Changes in Illumi
nation Direction ", Processe
Ding of ECCV'94, 1994)
A luminance gradient expression obtained by differentiating a reflected luminance image as a feature amount effective against illumination fluctuation (hereinafter referred to as a differential image)
Has been proposed.
【0023】反射輝度画像への1階微分は輝度の変化率
を求める操作に相当し、輝度がステップ状に変化する箇
所(エッジ)を抽出する。物体表面には物体特有の反射
率の高低パタンがあり、反射率の低い箇所では照明強度
に依らず常に低い反射輝度が、反射率の高い箇所では照
明強度に依存して反射輝度が高低に変化する。このた
め、1階微分画像は(a)照明が当たる箇所における反
射率の変化と(b)高反射率箇所における陰影変化を表
現している。(a)は物体の姿勢が変わらない限り照明
変動による強度変動はあっても位置変動がないエッジで
あり、(b)は物体の姿勢が変わらなくても照明変動に
より強度と位置がともに変動するエッジである。The first-order differentiation of the reflected luminance image corresponds to an operation for obtaining a rate of change in luminance, and a portion (edge) where the luminance changes stepwise is extracted. On the object surface, there is a high / low pattern of reflectivity peculiar to the object, and in places with low reflectivity the reflection luminance always changes regardless of the illumination intensity, and in places with high reflectivity the reflection luminance changes depending on the illumination intensity. I do. Therefore, the first-order differential image expresses (a) a change in reflectance at a location where illumination is applied and (b) a shadow change at a location with high reflectance. (A) is an edge where there is intensity variation due to illumination variation but there is no positional variation as long as the posture of the object does not change, and (b) both intensity and position vary due to illumination variation even when the posture of the object does not change. Edge.
【0024】微分により抽出されるエッジの傾斜は、微
分処理におけるオペレータの性質に依存する。一般的に
はオペレータが大きいほどなだらかなエッジを抽出で
き、小さいほど急峻なエッジのみが抽出される。どのよ
うな微分オペレータを用いるかは照明によるコントラス
トの強さなどに依存するので、本実施例においては、照
明強度の大きさに応じて使用する微分オペレータの大き
さを小さくする制御を併せてモード決定部により行う。The slope of the edge extracted by the differentiation depends on the nature of the operator in the differentiation process. Generally, a smoother edge can be extracted as the operator is larger, and only a steep edge is extracted as the operator is smaller. Since the type of differential operator to be used depends on the intensity of illumination contrast, etc., in the present embodiment, a control for reducing the size of the differential operator to be used in accordance with the magnitude of the illumination intensity is also provided in the mode. Performed by the decision unit.
【0025】照明変動に対する微分画像の第1の効果
は、(a)が物体の姿勢に応じた物体固有の反射率パタ
ンの特徴を保存していることである。これは微分パタン
を物体認識に使用することの正当性を示している。照明
変動に対する微分画像の第2の効果は、物体表面の反射
率パタンの高低差が大きい、すなわち物体のテクスチャ
が強いほど(a)は(b)より強く現われることであ
る。特に物体が滑らかな曲面を有しているとき、照明に
よる陰影はなだらかな変化を示すので(b)はさらに弱
くなる。これは反射輝度表現では大規模な変動であった
未学習の照明変動が、微分画像では(b)に関する未学
習の変動に抑えられること(局所化と微小化)を意味す
る。微分画像はこのような効果により照明変動恒常性を
有すると考えられる。上記アルゴリズム2は顔の反射輝
度画像を入力し、これを微分処理した後に所定の大きさ
に正規化し、さらに輝度の範囲を正規化して画像パタン
とする。この結果、アルゴリズム2では照明変動の影響
が局所化・微小化されて照明変動ロバスト性が向上す
る。The first effect of the differential image on the illumination variation is that (a) preserves the characteristic of the reflectance pattern unique to the object according to the posture of the object. This demonstrates the validity of using differential patterns for object recognition. The second effect of the differential image on the illumination variation is that the difference in the reflectance pattern on the surface of the object is large, that is, the stronger the texture of the object, the stronger (a) appears than (b). In particular, when the object has a smooth curved surface, the shadow due to illumination shows a gradual change, so that (b) is further weakened. This means that the unlearned illumination fluctuation, which was a large-scale fluctuation in the reflection luminance expression, is suppressed to the unlearned fluctuation related to (b) in the differential image (localization and miniaturization). The differential image is considered to have illumination fluctuation constancy due to such an effect. The algorithm 2 receives a reflected luminance image of the face, differentiates the image, normalizes the image to a predetermined size, and further normalizes the luminance range to obtain an image pattern. As a result, in Algorithm 2, the effect of illumination fluctuation is localized and miniaturized, and the illumination fluctuation robustness is improved.
【0026】しかし、アルゴリズム2は顔の額や頬にお
ける陰影情報(個人の顔の立体形状的特徴を反映してい
る)を落として、眉や目などのテクスチャ情報のみを個
人性として用いるため、これら全てを手がかりに個人性
を認識できるアルゴリズム1より若干認識率が劣るので
ある。以上の結果、アルゴリズム1は”照合用登録情報
学習時の照明条件下では非常に高い認識率を達成できる
が、照明条件がこれからずれると認識率が極端に悪化す
る”アルゴリズムであり、アルゴリズム2は”照合用登
録情報学習時の照明条件下でそこそこ高い認識率を達成
でき、照明条件が変動しても認識率が安定している”ア
ルゴリズムとなる。なお、照明強度の変動に対してはい
ずれのアルゴリズムにおいても画像パタンの輝度を正規
化することで吸収している。However, Algorithm 2 uses only texture information such as eyebrows and eyes as individuality by dropping shadow information (reflecting the three-dimensional shape characteristics of the individual's face) on the forehead and cheek of the face. The recognition rate is slightly lower than Algorithm 1 which can recognize individuality based on all of these clues. As a result, Algorithm 1 is an algorithm that "can achieve a very high recognition rate under the lighting conditions at the time of learning the registered information for collation, but the recognition rate extremely deteriorates if the lighting conditions deviate from this." The algorithm is "a reasonably high recognition rate can be achieved under the lighting conditions at the time of learning the registered information for verification, and the recognition rate is stable even if the lighting conditions fluctuate." Note that any variation in illumination intensity is absorbed by normalizing the brightness of the image pattern in any of the algorithms.
【0027】図5に本実施例のブロック構成を示す。構
造図は図1と良く似ているが、二つ異なる部分がある。
第一に被認証者周辺の照明条件を感知するための装置が
取り付けられたことである。この照明センサ部17は対
象範囲の照明の強度をデジタルデータ(照明強度情報)
としてモード決定部16に伝送する処理手段である。第
二にモード決定部16によってモードの制御を受けるの
は照合部14ではなく特徴抽出部13に変更されたこと
である。照明に強いシステムを作るには特徴抽出を行う
際のアルゴリズムを照明にロバストなものに変更しなく
てはならず、特徴抽出部13に作用しなければならな
い。FIG. 5 shows a block configuration of this embodiment. The structure diagram is very similar to FIG. 1, but there are two different parts.
First, a device for sensing lighting conditions around the subject is installed. The illumination sensor unit 17 converts the intensity of the illumination in the target range into digital data (illumination intensity information).
Is a processing means for transmitting to the mode determination unit 16 as Second, what is controlled by the mode determining unit 16 is that the mode is changed to the feature extracting unit 13 instead of the collating unit 14. In order to create a system that is robust to lighting, the algorithm used for feature extraction must be changed to one that is robust to lighting, and it must act on the feature extraction unit 13.
【0028】以上を踏まえて本実施例装置の処理の流れ
を図6のフローチャートを参照しながら説明する。まず
実施例1と同様に、画像入力部11によって取得された
入力画像から顔特徴を抽出した顔検出部12により顔画
像情報が特徴抽出部13へ送られる(ステップS1
1)。照明センサ部17は被認証者周辺の照明強度を常
に感知しており、照明強度情報をモード決定部16へ伝
送する。モード決定部16は現在の照明強度が照合用登
録情報学習時の照明強度からさほど変化なく、アルゴリ
ズム1で十分許容できる範囲であると判断した場合には
通常モードを、照明強度の変化が大きすぎると判断した
場合には照明ロバストモードを採用するように特徴抽出
部13へ指令を都度出しているものとする(ステップS
12)。特徴抽出部13はこれに従ってアルゴリズムを
選択し特徴抽出作業を行う(ステップS13)。このこ
とによってシステムはそれぞれのモードを単独で用いる
よりも総合的に高い認識率を達成することができる。特
徴抽出部で生成された生体特徴情報は照合部14へ送ら
れ、そこで認証情報記憶部15から送られる認証用登録
情報と照合して認証が行われる。Based on the above, the processing flow of the apparatus of this embodiment will be described with reference to the flowchart of FIG. First, similarly to the first embodiment, face image information is sent to the feature extraction unit 13 by the face detection unit 12 that extracts face features from the input image acquired by the image input unit 11 (step S1).
1). The illumination sensor unit 17 always senses the illumination intensity around the subject and transmits the illumination intensity information to the mode determination unit 16. When the mode determining unit 16 determines that the current illumination intensity does not change much from the illumination intensity at the time of learning the registration information for collation and is within a range that is sufficiently permissible with the algorithm 1, the normal mode is set, and the change in the illumination intensity is too large. If it is determined that a command is issued to the feature extraction unit 13 each time to adopt the illumination robust mode (step S
12). The feature extraction unit 13 selects an algorithm according to the selection and performs a feature extraction operation (step S13). This allows the system to achieve a higher overall recognition rate than using each mode alone. The biometric feature information generated by the feature extracting unit is sent to the matching unit 14, where the biometric feature information is compared with the authentication registration information sent from the authentication information storage unit 15 to perform authentication.
【0029】なお変形例として、モードを変更すること
によって特徴抽出部13において生成される特徴量毎に
照合部14で用いられる識別アルゴリズムを変えること
も可能である。(図7) (実施例3)上述の第二の実施例と同様に照明条件にロ
バストな生体情報認証装置を、前記(3)に該当するモ
ード制御例(3)を用いて実施することもできる。その
基本的なブロック構成は図8に示される通りである。こ
の装置では第二の実施例の図5と比較して照明センサの
代わりに、顔検出部22と特徴抽出部23の間に新たに
照明強度解析部27が設置されている。照明強度解析部
27は顔検出部22から入力された顔画像情報を解析
し、例えば顔画像情報の平均輝度を照明強度情報として
モード決定部26に送る。モード決定部26は照明強度
情報を受けると特徴抽出アルゴリズムを決定し、これを
特徴抽出部23に指令する。また顔検出部22において
取得された顔画像情報は特徴抽出部23を経て照合部2
4にて識別される。このとき特徴抽出部23で用いられ
る特徴抽出アルゴリズムは、第二の実施例と同じ通常モ
ードと照明ロバストモードの2つである。As a modification, by changing the mode, it is also possible to change the identification algorithm used in the matching unit 14 for each feature amount generated in the feature extraction unit 13. (FIG. 7) (Embodiment 3) Similarly to the above-described second embodiment, a biometric information authentication device that is robust to lighting conditions may be implemented using the mode control example (3) corresponding to the above (3). it can. The basic block configuration is as shown in FIG. In this device, an illumination intensity analysis unit 27 is newly provided between the face detection unit 22 and the feature extraction unit 23 instead of the illumination sensor as compared with FIG. 5 of the second embodiment. The illumination intensity analysis unit 27 analyzes the face image information input from the face detection unit 22 and sends, for example, the average luminance of the face image information to the mode determination unit 26 as illumination intensity information. Upon receiving the illumination intensity information, the mode determination unit 26 determines a feature extraction algorithm, and instructs the feature extraction algorithm to the feature extraction unit 23. The face image information acquired by the face detection unit 22 is passed through the feature extraction unit 23 and passed to the collation unit 2.
4 is identified. At this time, the feature extraction algorithms used in the feature extraction unit 23 are the same two modes as in the second embodiment: the normal mode and the illumination robust mode.
【0030】次にこの装置における処理の流れを説明す
る。各処理ステップの主体は異なるが、フローチャート
は第二の実施例で用いた図6と同一である。まず画像入
力部21は定められた領域の画像を取得し、入力画像情
報として顔検出部22へ送る。顔検出部22は入力画像
中に顔を検出すると顔画像情報を抽出して出力する(ス
テップS11)。顔画像情報はそのまま照明強度解析部
27に転送され、画像中の例えば平均輝度が照明強度と
して計算される。その照明強度情報はモード管理部Cへ
送られ最適なモードを決定するための要素となる。モー
ド管理部Cにおけるモード決定部26は受理した照明強
度情報に基づいて特徴抽出に用いるべきアルゴリズムを
決定し、その結果をモード制御情報として特徴抽出部2
3へ伝達する(ステップS12)。Next, the flow of processing in this apparatus will be described. Although the subject of each processing step is different, the flowchart is the same as FIG. 6 used in the second embodiment. First, the image input unit 21 acquires an image of a predetermined area and sends it to the face detection unit 22 as input image information. When detecting a face in the input image, the face detection unit 22 extracts and outputs face image information (step S11). The face image information is transferred to the illumination intensity analysis unit 27 as it is, and for example, the average luminance in the image is calculated as the illumination intensity. The illumination intensity information is sent to the mode management unit C and becomes an element for determining an optimal mode. The mode determination unit 26 in the mode management unit C determines an algorithm to be used for feature extraction based on the received illumination intensity information, and uses the result as mode control information as the feature extraction unit 2.
3 (step S12).
【0031】照明強度が照合用登録情報学習時の照明強
度からさほど変化なく、アルゴリズム1で十分許容範囲
内であれば通常モード、照明強度の変化が大きすぎる場
合は照明ロバストモードを選択するよう指示を出す。特
徴抽出部23は顔検出部22による顔画像情報からモー
ド制御情報に従って決定されたアルゴリズムを用いて特
徴を抽出し(ステップS13)、取得した生体特徴情報
を照合部24へ送る。識別部Bでは照合部24におい
て、認証情報記憶部25から送られる認証用登録情報と
特徴抽出部23から送られる生体特徴情報を用いて認証
が行われる。このようなシステムによって被認証者は第
二の実施例の場合と同様に照明にロバストな個人認証を
受けることができる。If the illumination intensity does not change much from the illumination intensity at the time of learning the registration information for collation, and the algorithm 1 is within a sufficiently allowable range, the normal mode is selected. If the illumination intensity changes too much, the illumination robust mode is selected. Put out. The feature extracting unit 23 extracts features from the face image information by the face detecting unit 22 using an algorithm determined according to the mode control information (step S13), and sends the acquired biometric feature information to the matching unit 24. In the identification unit B, authentication is performed in the matching unit 24 using the authentication registration information sent from the authentication information storage unit 25 and the biometric feature information sent from the feature extraction unit 23. With such a system, the person to be authenticated can receive personal authentication that is robust to lighting as in the case of the second embodiment.
【0032】これまでに挙げた3つの実施例はすべて装
置の中のいずれかの機能ブロックが得た情報を基にモー
ド管理部Bが自動的にモードを決定する自動モード制御
であった。次に挙げる第四の実施例はこれらとは異な
り、モード管理部Bに対して管理者もしくは被認証者自
身がモードを操作する信号を送ることによって、システ
ムが採用するモードを制御することができる。この様な
モード制御を手動モード制御と呼ぶことにする。 (実施例4)ここでは前記(4)に該当するモード制御
を採用して、管理者もしくは被認証者が外部からモード
管理部Cに対してモードを選択するための信号(モード
選択情報)を入力し、それに従って採用すべきモードを
決定する生体情報認証装置を用いたセキュリティシステ
ム(装置a)と(装置b)について説明する。(装置
b)の被認証者によるモード制御については、生体情報
に加えてパスワード、IDカードなどの記憶や物理的手
段を用いた非生体認証情報を併用する実施形態について
説明する。以下において、この装置の実施例として第一
の実施例で使用した二つの識別方法(閾値設定1,2)
を備えたシステム(装置a)と(装置b)について説明
する。In all of the three embodiments described above, the mode management unit B automatically determines the mode based on information obtained by any one of the function blocks in the apparatus. The fourth embodiment described below is different from these, and the mode adopted by the system can be controlled by sending a signal for operating the mode by the administrator or the authenticated person to the mode management unit B. . Such mode control will be referred to as manual mode control. (Embodiment 4) Here, the mode control corresponding to the above (4) is adopted, and a signal (mode selection information) for an administrator or a person to be authenticated to select a mode from the outside to the mode management unit C is adopted. A description will be given of a security system (apparatus a) and (apparatus b) using a biometric information authentication apparatus for inputting and determining a mode to be adopted according to the input. Regarding the mode control by the person to be authenticated of (apparatus b), an embodiment will be described in which, in addition to biometric information, non-biometric authentication information using a storage such as a password or an ID card or physical means is used. In the following, two identification methods (threshold setting 1, 2) used in the first embodiment as an embodiment of this device will be described.
A system (apparatus a) and an apparatus (apparatus b) provided with are described.
【0033】まず管理者によって制御される装置aの実
施例として、管理者が装置付近の例えば受付にいる間は
快適性を重視した本人利便モード、受付を離れる場合は
安全性を重視した安全優先モードを採用するシステムに
ついて説明する。これは管理者が受付にいる場合は管理
者が通過しようとする人物をチェックしているので、本
人利便モードでも十分な不正抑止力が得られるというこ
とを前提としている。First, as an embodiment of the device a controlled by the administrator, a personal convenience mode with an emphasis on comfort while the administrator is at the reception, for example, near the device, and a safety priority with an emphasis on safety when leaving the reception. A system adopting the mode will be described. This is based on the premise that a sufficient fraud deterrence can be obtained even in the personal convenience mode because the administrator checks the person to be passed when the administrator is at the reception.
【0034】そのブロック構造を図9に示す。第一の実
施例と異なるのはモード決定部36が時間帯によってモ
ードを制御するのではなく、代わりに管理者用外部入力
部39からの信号に従ってモードを決定するようになっ
たことである。管理者用外部入力部39は管理者が入力
する信号をモード決定部36に伝達する処理手段であ
る。管理者はモードを切り替えるための信号(モード選
択情報)を送ることによって、自身の都合に応じてモー
ドを制御する利便性を得ることができる。FIG. 9 shows the block structure. The difference from the first embodiment is that the mode determining unit 36 does not control the mode according to the time zone, but instead determines the mode according to the signal from the external input unit 39 for the manager. The administrator external input unit 39 is a processing unit that transmits a signal input by the administrator to the mode determination unit 36. By sending a signal (mode selection information) for switching the mode, the administrator can obtain the convenience of controlling the mode according to his / her own convenience.
【0035】この装置を使用した場合の処理の流れを図
10のフローチャートを参照しながら説明する。通常こ
の装置は照合部34で認証が行われる時は閾値の低い本
人利便モードが使用されるようにモード決定部36によ
って制御されている。管理者は自分が受付を離れる場合
には、管理者用外部入力部39を用いて本人利便モード
から安全優先モードへ切り替える信号をモード決定部3
6に対して入力する。この信号を受けたモード決定部3
6は認証モードを閾値の高い安全優先モードに切り替え
るよう指示を出す(モード制御情報)。この後の情報伝
達過程は第一の実施例と同様である。画像入力部31で
取得した入力画像情報は顔検出部32へ送られる。そこ
で画像中に顔が含まれていると認識した場合には顔画像
情報を(ステップS31)、特徴抽出部33は顔画像情
報を解析して取得した生体特徴情報を照合部34に送
る。これを受けた照合部34は先に指示された(ステッ
プS32)通り安全優先モードで認証をおこなう(ステ
ップS33)。The flow of processing when this apparatus is used will be described with reference to the flowchart of FIG. Normally, this apparatus is controlled by the mode determination unit 36 so that the personal convenience mode having a low threshold is used when the authentication is performed by the collation unit 34. When the administrator leaves the reception, the mode determining unit 3 sends a signal for switching from the personal convenience mode to the safety priority mode using the external input unit 39 for the administrator.
Input for 6. Mode decision unit 3 receiving this signal
6 issues an instruction to switch the authentication mode to the safety priority mode having a higher threshold (mode control information). The subsequent information transmission process is the same as in the first embodiment. The input image information obtained by the image input unit 31 is sent to the face detection unit 32. Therefore, when it is recognized that a face is included in the image, the face image information is sent (step S31), and the feature extracting unit 33 sends the biometric feature information obtained by analyzing the face image information to the matching unit 34. Upon receiving this, the collation unit 34 performs authentication in the safety priority mode as instructed earlier (step S32) (step S33).
【0036】受付に戻った管理者が再び認証モードを本
人利便モードに切り替えるようにモード管理部Cに信号
を送れば、もとの状態に戻ることができる。When the administrator who has returned to the reception sends a signal to the mode management unit C so as to switch the authentication mode to the personal convenience mode again, it is possible to return to the original state.
【0037】次に装置bについて説明する。この装置の
実施例として、被認証者が無線タグ、IDカード、パス
ワードなどの個人IDによって自分の登録認証情報を指
定し、それと入力顔画像情報を用いて一対一の個人認証
を行うことができる生体情報認証装置を用いたセキュリ
ティシステムについて説明する。装置bの基本的な構成
を図11に示す。このシステムは通常安全優先モードで
作動しており、一部の被認証者は登録されている本人で
あるにも関わらず拒絶される場合がある。そのような時
被認証者は被認証者用外部入力部49を用いてモード決
定部46に対して暗証番号を入力し、認証モードを暗証
番号によって指定される特定個人を高い本人通過率で検
証する個人同定モードに切り替えてから再び認証を受け
ることができる。これによって十分高い安全性を維持し
た上で登録された本人である被認証者が最終的に拒絶さ
れる確率が低く押さえられた、非常に利便性の高いセキ
ュリティシステムを実現することができる。Next, the device b will be described. As an example of this device, a person to be authenticated can specify his / her registered authentication information by a personal ID such as a wireless tag, an ID card, and a password, and perform one-to-one personal authentication using the registered authentication information and the input face image information. A security system using the biometric information authentication device will be described. FIG. 11 shows a basic configuration of the device b. The system normally operates in a security priority mode, and some subjects may be rejected even though they are registered. In such a case, the person to be authenticated inputs the personal identification number to the mode determining unit 46 using the externally inputting part 49 for the person to be authenticated, and verifies the authentication mode of the specific individual designated by the personal identification number with a high pass rate. The user can be authenticated again after switching to the personal identification mode. As a result, it is possible to realize a very convenient security system in which the probability that a registered person who is a registered person is finally rejected while maintaining sufficiently high security is kept low.
【0038】装置aの構成と異なる点は外部入力装置が
被認証者用の個人IDを入力する装置、被認証者用外部
入力部49になったことである。このシステムを使用し
た際の処理の流れについて説明する。通常の安全優先モ
ードが作動している場合については第一の実施例で説明
しているので省略し、登録された本人でありながら拒絶
された場合(ステップS41)について図12を参照し
ながら説明する。このとき被認証者は被認証者用外部入
力部49を用いてモード決定部46に対して個人IDを
入力し、モード決定部46は照合部44に対して今回の
み認証モードを個人同定モードに変更する指示と入力さ
れた個人IDとを出力する(モード制御情報)。画像入
力部41と顔検出部42、特徴抽出部43では再び被認
証者の生体情報を入力し、取得された生体特徴情報は照
合部44へ送られる。照合部44はこの生体特徴情報と
認証情報記憶部45から送られる単一の個人認証情報を
個人同定モードによって照合し、再びその結果を出力す
る(ステップS42)。The difference from the configuration of the device a is that the external input device is a device for inputting the personal ID for the user to be authenticated, and the external input unit 49 for the user to be authenticated. A processing flow when this system is used will be described. The case in which the normal safety priority mode is activated has been described in the first embodiment, and therefore will be omitted. The case where the registered person is rejected (step S41) will be described with reference to FIG. I do. At this time, the person to be authenticated inputs the personal ID to the mode determining unit 46 using the external input unit 49 for the person to be authenticated. The change instruction and the input personal ID are output (mode control information). The image input unit 41, the face detection unit 42, and the feature extraction unit 43 input the biometric information of the subject again, and the acquired biometric feature information is sent to the matching unit 44. The collation unit 44 collates the biometric characteristic information with the single personal authentication information sent from the authentication information storage unit 45 in the personal identification mode, and outputs the result again (step S42).
【0039】これまで実施例に挙げてきた認証作業は、
被認証者が多数の登録人物中の誰かと一致しているか否
か判定する識別問題であった。それに対しステップS4
1以降の処理過程(バックアップモード)は被認証者が
登録人物中のある一人に一致しているか否かを判定する
同定問題に帰着している。この誤認識の少ない同定問題
によるバックアップ処理を持つことによって、本実施例
におけるセキュリティシステムは非常に高い安全性を実
現することができる。 (実施例5)モード制御例(1)〜(4)において認証
に用いる生体情報が1種類(顔画像)のみであったのと
は異なり、本実施例において説明される生体情報認証装
置は前記(5)に該当するモード制御を用い、顔画像と
虹彩の2種類を採用している。また(1)〜(4)では
すべて単一の手段によってモードを変更する機構であっ
たのに対し、本実施例では複数の手段によってモードが
制御される機構が取り入れられている。The authentication work described in the above embodiments is
This is an identification problem for determining whether or not a person to be authenticated matches any of a large number of registered persons. Step S4
The processing steps 1 and subsequent (backup mode) result in an identification problem for determining whether or not the person to be authenticated matches one of the registered persons. By having a backup process based on the identification problem with less erroneous recognition, the security system according to the present embodiment can achieve extremely high security. Embodiment 5 Unlike the mode control examples (1) to (4) in which only one type of biometric information (face image) is used for authentication, the biometric information authentication apparatus described in Using the mode control corresponding to (5), two types of face image and iris are adopted. Further, in (1) to (4), the mechanism for changing the mode by a single means is used, whereas in this embodiment, a mechanism for controlling the mode by a plurality of means is adopted.
【0040】本実施例における生体情報認証装置は、昼
は快適性を重視した顔画像による認証を採用し、夜は管
理者がいないため十分警戒が必要であることを考慮して
安全性を重視した虹彩を用いた認証を採用している。虹
彩による認証は虹彩画像を取得するためのカメラを覗き
こまなければならず快適性は高いとは言い難いが、認識
率においては現在までにセキュリティに適用できるだけ
の水準に達していると考えられている。本実施例で使用
するモードについて図13を参照しながら説明する。The biometric information authentication apparatus in this embodiment employs face image authentication in which comfort is emphasized in the daytime, and safety is emphasized in consideration of the fact that there is no manager at night and sufficient caution is required. Authentication using the iris is used. The iris authentication has to look into the camera to acquire the iris image and it is hard to say that comfort is high, but it is thought that the recognition rate has reached a level that can be applied to security by now. I have. The mode used in this embodiment will be described with reference to FIG.
【0041】上述の通り本実施例装置において使用する
モードは時間帯によって交替する。昼は実施例4の装置
aで使用した管理者によるモード制御システムを採用す
る。これは通常管理者が受付にいる時は快適性を重視し
た本人利便モードを使用し、管理者が受付を離れる場合
は外部入力装置を用いて安全性重視の安全優先モードに
切り替えるシステムであるが、既に実施例4において説
明したので詳細は省く。夜は虹彩のみを用いて認証を行
う虹彩認証モードを使用する。虹彩画像を用いて認証を
行うために、この生体情報認証装置は顔画像を取得する
ものとは別に虹彩画像取得用の撮像手段と、その画像か
ら虹彩を検出して特徴量を抽出する機能を備えている。As described above, the mode used in the apparatus of this embodiment is changed depending on the time zone. In the daytime, the mode control system by the administrator used in the device a of the fourth embodiment is adopted. This is a system that normally uses the personal convenience mode that emphasizes comfort when the administrator is at the reception, and switches to the safety priority mode that emphasizes safety using an external input device when the administrator leaves the reception. The details have been omitted since they have already been described in the fourth embodiment. At night, an iris authentication mode in which authentication is performed using only the iris is used. In order to perform authentication using an iris image, this biometric information authentication device has an imaging means for obtaining an iris image separately from that for obtaining a face image, and a function of detecting an iris from the image and extracting a feature amount. Have.
【0042】本実施例による生体情報認証装置の構造に
ついてブロック様式図14を参照しながら説明する。顔
画像を用いた認証に関連した機能を有する顔画像情報受
理部A及び顔認識部Bについてはその機能が実施例3の
生体情報受理部A及び認識部Bと同様であるので省く。
虹彩画像情報受理部Dは虹彩画像取得部58と虹彩検出
部59、虹彩特徴抽出部60によって構成されている。
虹彩画像取得部58は被認証者の虹彩画像を取得できる
ように設定された撮像手段によって画像を取得し、それ
を入力画像情報として虹彩検出部59へ送る処理手段で
ある。虹彩検出部59は伝送されてきた入力画像情報を
解析することによって画像中に虹彩が含まれているか否
か判断し、検出された場合には虹彩部分の画像を虹彩特
徴抽出部60へ送る処理手段である。虹彩特徴抽出部6
0は送られてきた虹彩画像を解析し、虹彩照合部61に
おいて類似度を算出するための特徴量を抽出し虹彩特徴
情報として送る処理手段である。虹彩識別部Eは虹彩照
合部61と虹彩情報記憶部62で構成されている。虹彩
照合部61は虹彩特徴抽出部60から送られる虹彩特徴
情報と虹彩情報記憶部62から送られる登録虹彩情報を
照合することによって類似度を算出し、設定された閾値
と比較することによって識別を行い結果を出力する処理
手段である。虹彩情報記憶部62は虹彩照合部61にお
いて照合を行う際に使用する登録虹彩情報を記憶し、必
要なときに伝送する処理手段である。モード管理部Cは
モード決定部56と管理者用外部入力部57で構成され
ている。モード決定部56は時間帯によって昼は顔認
証、夜は虹彩認証を使用するように命令を出し、また時
刻が昼に属している場合には管理者用外部入力部57か
ら送られたモード選択情報に従って本人利便モードか安
全優先モードのどちらを使用するのか判断し、その結果
を顔照合部54に伝達する処理手段である。時間帯が昼
であれば虹彩情報受理部Dと虹彩識別部Eには機能を停
止しておくよう命令を出し、管理者用外部入力部57か
らのモード選択情報に従ってモードを決定し顔照合部3
4へ伝達する。時間帯が夜であれば顔画像情報受理部A
と顔識別部Bには機能を停止しておくように命令を出
し、虹彩認証のみを行うシステムに移行させる。管理者
用外部入力部57は、時間帯が昼の場合通常は本人利便
モードが作動しているが管理者が受付を離れる場合に安
全優先モードに切り替える信号(モード選択情報)をモ
ード決定部56に対して送るための処理手段であり、実
施例4で説明した管理者用外部入力部39と同じ機能を
持つ。The structure of the biometric information authentication device according to this embodiment will be described with reference to the block diagram of FIG. The face image information receiving unit A and the face recognizing unit B having the function related to the authentication using the face image are omitted because the functions are the same as those of the biological information receiving unit A and the recognizing unit B of the third embodiment.
The iris image information receiving unit D includes an iris image acquiring unit 58, an iris detecting unit 59, and an iris feature extracting unit 60.
The iris image acquisition unit 58 is a processing unit that acquires an image by an imaging unit set so as to acquire an iris image of a person to be authenticated, and sends the image to the iris detection unit 59 as input image information. The iris detector 59 analyzes the transmitted input image information to determine whether or not the image contains an iris. If detected, sends the iris image to the iris feature extractor 60. Means. Iris feature extraction unit 6
Reference numeral 0 denotes a processing unit that analyzes the transmitted iris image, extracts a feature amount for calculating the similarity in the iris matching unit 61, and sends the extracted feature amount as iris feature information. The iris identification unit E includes an iris collation unit 61 and an iris information storage unit 62. The iris matching unit 61 calculates the similarity by comparing the iris feature information sent from the iris feature extracting unit 60 with the registered iris information sent from the iris information storage unit 62, and compares the calculated iris feature information with a set threshold to determine the identification. Processing means for outputting the result. The iris information storage unit 62 is a processing unit that stores registered iris information used when the iris matching unit 61 performs matching, and transmits the registered iris information when necessary. The mode management unit C includes a mode determination unit 56 and an external input unit 57 for manager. The mode determining unit 56 issues a command to use face authentication in the daytime and iris authentication in the nighttime depending on the time zone, and if the time belongs to daytime, the mode selection sent from the external input unit 57 for the administrator. This processing means determines whether to use the personal convenience mode or the safety priority mode according to the information, and transmits the result to the face matching unit 54. If the time zone is daytime, a command is issued to the iris information receiving unit D and the iris discriminating unit E to stop the function, and the mode is determined according to the mode selection information from the external input unit 57 for the administrator. 3
Transmit to 4. If the time zone is night, face image information receiving unit A
Is issued to the face identification unit B to stop the function, and the system shifts to a system that performs only iris authentication. The administrator's external input unit 57 outputs the signal (mode selection information) for switching to the safety priority mode when the time zone is at noon when the personal convenience mode is normally operated but the administrator leaves the reception. And has the same function as the external input unit 39 for manager described in the fourth embodiment.
【0043】本生体情報認証装置を使用した場合の処理
の流れを図15を参照しながら説明する。まず昼の時間
帯に使用したとする(ステップS51)。この時モード
決定部56によって虹彩認証に関連した機能、虹彩画像
情報受理部D及び虹彩識別部Eは停止されており、顔画
像を用いた認証のみが可能である。顔検出部52におい
て顔が検出されると顔画像情報が特徴抽出部53に出力
され(ステップS52)、顔特徴抽出部53では顔検出
部52より受け取った顔画像から特徴量を抽出する(ス
テップS53)。モード決定部56は管理者が受付にい
る通常の場合は本人利便モードを使用し、受付を離れる
場合には管理者が外部入力部57を用いてモードを切り
替え安全優先モードで識別作業を行う(ステップS5
4)よう、顔照合部54に指示を出す。この管理者のモ
ード制御による顔画像認証の詳細は実施例4に説明した
のでここでは省く。次に夜使用した場合について説明す
る(ステップS51)。モード決定部56によって顔認
証に関連した機能、顔画像情報受理部A及び顔識別部B
は停止されており虹彩画像を用いた認証のみ可能であ
る。虹彩検出部59において入力画像中に虹彩が検出さ
れると、虹彩特徴抽出部60は入力虹彩画像から特徴量
を抽出し(ステップS56)、虹彩照合部60において
その特徴量と登録虹彩情報を用いて識別を行う(ステッ
プS57)。 (実施例6)本発明は元々安全性と快適性をバランスよ
く高い水準で備えたセキュリティを実現することを目的
とし、従来の認識技術が抱えている問題点を克服しよう
というものであった。そこで本実施例では前記(6)に
該当するモード制御例を用い、生体情報認証に無線タグ
や暗証番号などの非生体認証情報を組み合わせて、被認
証者の利便性をなるべく損なわずにより高い安全性を目
指したセキュリティシステムを説明する。The flow of processing when the present biometric information authentication device is used will be described with reference to FIG. First, it is assumed that it is used during the daytime (step S51). At this time, the functions related to iris authentication, the iris image information receiving unit D and the iris identifying unit E are stopped by the mode determining unit 56, and only authentication using a face image is possible. When a face is detected by the face detection unit 52, face image information is output to the feature extraction unit 53 (step S52), and the face feature extraction unit 53 extracts a feature amount from the face image received from the face detection unit 52 (step S52). S53). The mode determination unit 56 uses the personal convenience mode when the manager is at the reception normally, and switches the mode using the external input unit 57 to perform the identification work in the safety priority mode when leaving the reception ( Step S5
4) An instruction is issued to the face matching unit 54 as described above. The details of the face image authentication based on the mode control by the administrator have been described in the fourth embodiment, and will not be described here. Next, the case of using at night will be described (step S51). A function related to face authentication by the mode determining unit 56, a face image information receiving unit A and a face identifying unit B
Is stopped, and only authentication using an iris image is possible. When the iris detecting section 59 detects an iris in the input image, the iris feature extracting section 60 extracts a feature amount from the input iris image (step S56), and the iris matching section 60 uses the feature amount and the registered iris information. Identification (step S57). (Embodiment 6) The present invention was originally aimed at realizing security with a high level of balance between safety and comfort, and intended to overcome the problems of the conventional recognition technology. Therefore, in the present embodiment, a mode control example corresponding to the above (6) is used, biometric information authentication is combined with non-biometric authentication information such as a wireless tag and a password, and higher security without impairing the convenience of the person to be authenticated as much as possible. Describes a security system that aims for security.
【0044】本実施例におけるセキュリティシステムで
は生体情報として顔画像を用い、非生体認証情報として
登録者全員に渡される無線タグと暗証番号によって入力
される個人IDを用いることにし、これら顔画像認証と
非生体認証情報を組み合わせることによって成る次の4
つの認証モードを用いて認証を行う。まず昼は管理者が
付近にいることを想定しているため、登録本人でも通過
できないことがあるが本人以外が通過する可能性が低い
実施例1記載の“安全優先モード”による顔画像認証
か、無線タグを用いて個人IDを入力する非生体認証情
報認証のどちらかで登録本人であると認められれば通過
できる“昼モード”を用いる。夜は通常安全優先モード
で認証を行い、通過できなかった場合には無線タグか暗
証番号のどちらか一方によって個人IDを入力し、それ
によって指定される特定個人を高い本人通過率で同定す
る実施例4の装置b記載の“個人同定モード”によって
再度認証を行うことができる“夜モード”を採用する。
(図16)この昼モードと夜モードを時間帯に応じて使
い分けることによって、昼は快適性を、夜は安全性を重
視した認証を行うことができる。In the security system of this embodiment, a face image is used as biometric information, and a wireless tag passed to all registrants and a personal ID input by a personal identification number are used as non-biometric authentication information. Next 4 which is composed by combining non-biometric information
Authentication is performed using two authentication modes. First of all, it is assumed that the manager is nearby in the daytime, so even the registered person may not be able to pass, but it is unlikely that anyone other than the person will pass. In this case, the "daytime mode" is used in which the user can be passed if the registered user is recognized by either non-biometric authentication information authentication using a wireless tag to input a personal ID. In the evening, authentication is performed in the normal safety priority mode, and if it is not passed, enter the personal ID using either the wireless tag or the password, and identify the specific person specified by it with a high pass rate The “night mode” in which the authentication can be performed again by the “personal identification mode” described in the device b of the fourth example is adopted.
(FIG. 16) By properly using the day mode and the night mode according to the time zone, authentication can be performed with emphasis on comfort at daytime and safety at night.
【0045】このセキュリティシステムのブロック構造
図を図17に示す。FIG. 17 shows a block diagram of the security system.
【0046】生体情報受理部Aは実施例1と同様に画像
入力部71、顔検出部72、特徴抽出部73の3つの部
分によって構成されている。これらの部分の役割につい
ては実施例1で説明したものと同様である。As in the first embodiment, the biological information receiving unit A is composed of three parts: an image input unit 71, a face detection unit 72, and a feature extraction unit 73. The roles of these parts are the same as those described in the first embodiment.
【0047】顔画像識別部Bは顔照合部74と登録顔画
像情報記憶部75から成っている。登録顔画像情報記憶
部75は照合に必要な登録顔画像情報を記憶しておき、
必要な時に顔照合部74に送る処理手段である。顔照合
部74は特徴抽出部73から送られる生体特徴情報と登
録顔画像記憶部75から送られる登録顔画像情報をモー
ド決定部76によって指定されたモードにおける閾値設
定に従って照合、識別を行い、通過判定部83に識別結
果情報として送る処理手段である。なお個人同定モード
で認証を行う場合顔情報記憶部75はモード決定部76
から送られる被認証者の個人ID情報を参照して特定個
人の登録顔画像情報のみを顔照合部74へ送り、それと
特徴抽出部73から送られる生体特徴情報を用いて顔照
合部74では個人同定が行われる。The face image identification section B comprises a face collation section 74 and a registered face image information storage section 75. The registered face image information storage unit 75 stores registered face image information necessary for collation,
Processing means for sending to the face matching unit 74 when necessary. The face matching unit 74 performs matching and identification between the biometric feature information sent from the feature extracting unit 73 and the registered face image information sent from the registered face image storage unit 75 according to the threshold setting in the mode specified by the mode determining unit 76, and passes. This is processing means that sends the information to the determination unit 83 as identification result information. In the case of performing authentication in the personal identification mode, the face information storage unit 75 includes a mode determination unit 76
With reference to the personal ID information of the person to be authenticated sent from the user, only the registered face image information of the specific individual is sent to the face matching unit 74, and the face matching unit 74 uses the biometric feature information sent from the feature extracting unit 73. Identification is performed.
【0048】非生体認証情報受理部Fは無線タグによる
個人ID入力に関連した無線受信部77と無線情報照合
部78、登録無線情報記憶部79、暗証番号による個人
IDの入力に関連した暗証番号入力部80と暗証番号照
合部81、登録暗証番号記憶部82から成っている。無
線受信部77は被認証者が所有している無線タグを感知
してID情報を取得し個人ID情報として無線情報照合
部78へ送る処理手段である。登録無線情報記憶部79
は無線タグによる個人IDの照合に必要な登録無線情報
を記憶しておき、必要な時に無線情報照合部78に送る
処理手段である。無線情報照合部78は無線受信部77
から送らる個人ID情報と登録無線情報記憶部79から
送られる登録無線情報を照合、識別し、被認証者が登録
人物のいずれかと一致したか否かを識別結果情報として
通過判定部83へ送り、また照合の結果選られた個人I
Dをモード決定部76にへ送る処理手段である。The non-biometric authentication information receiving unit F includes a wireless receiving unit 77 and a wireless information matching unit 78 related to the input of the personal ID by the wireless tag, a registered wireless information storage unit 79, and a personal identification number related to the input of the personal ID by the personal identification number. An input unit 80, a password collating unit 81, and a registered password storage unit 82 are provided. The wireless receiving unit 77 is a processing unit that senses a wireless tag owned by the authentication target, acquires ID information, and sends the ID information to the wireless information matching unit 78 as personal ID information. Registered wireless information storage unit 79
Is processing means for storing registered wireless information necessary for personal ID collation by the wireless tag and sending it to the wireless information collating unit 78 when necessary. The wireless information collating unit 78 includes a wireless receiving unit 77
The personal ID information sent from the registered wireless information sent from the registered wireless information storage unit 79 is collated and identified, and whether or not the person to be authenticated matches any of the registered persons is sent to the pass determination unit 83 as identification result information. , And the individual I selected as a result of matching
D is a processing unit that sends D to the mode determination unit 76.
【0049】暗証番号入力部80は認証者が入力する暗
証番号を個人ID情報として取得し、暗証番号照合部8
1へ送る処理手段である。登録暗証番号記憶部82は暗
証番号による個人IDの照合に必要な登録暗証番号を記
憶しておき、必要な時に暗証番号照合部81に送る処理
手段である。無線情報照合部81は暗証番号入力部80
から送らる個人ID情報と登録暗証番号記憶部82から
送られる登録暗証番号を照合、識別し、被認証者が登録
人物のいずれかと一致したか否かを通過判定部83に識
別結果情報として送り、また照合の結果選られた個人I
Dをモード決定部76にへ送る処理手段である。The password input unit 80 obtains a password input by the authenticator as personal ID information, and obtains the personal ID information.
1 is a processing means for sending to 1. The registered password storage unit 82 is a processing unit that stores a registered password required for collating the personal ID based on the password and sends it to the password matching unit 81 when necessary. The wireless information collating unit 81 includes a password input unit 80
The personal identification information sent from the personal identification information and the registered personal identification number sent from the registered personal identification number storage part 82 are collated and identified, and whether or not the authenticated person matches any of the registered persons is sent to the passage judgment part 83 as identification result information. , And the individual I selected as a result of matching
D is a processing unit that sends D to the mode determination unit 76.
【0050】モード管理部Cはモード決定部76と通過
判定部83から成っている。モード決定部76は顔照合
部74に対して識別を行う際に使用する閾値設定をその
時間帯が昼であれば閾値設定1、夜であれば閾値設定2
を用いるように指令するモード制御情報を送り、また通
過判定部83に対して昼は安全優先モードによる顔画像
認証と無線タグ認証のどちらか一方、夜は安全優先モー
ドによる顔画像認証か安全優先モード2による認証のど
ちらか一方が成功した場合に通過を許可するよう指定す
る情報をモード制御情報として送る処理手段である。通
過判定部83は顔照合部74と無線情報照合部78、暗
証番号照合部81から送られる識別結果情報を統合し、
モード決定部76から送られるモード制御情報に従って
最終的に通過を許可するか判定する処理手段である。ま
た夜に安全優先モードで通過を許可しない判断をした場
合にはモード決定部に対して個人同定モードで認証を行
うことを要請する再認証要請情報を送る。The mode management section C comprises a mode determination section 76 and a passage determination section 83. The mode determining unit 76 sets a threshold setting used for identification to the face matching unit 74 as a threshold setting 1 if the time zone is daytime, and a threshold setting 2 if it is nighttime.
Is sent to the pass determination unit 83 during the day, either face image authentication in the safety priority mode or wireless tag authentication in the daytime, and face image authentication in the safety priority mode or safety priority in the nighttime. This is processing means for transmitting, as mode control information, information designating permission of passage when either one of the authentications in mode 2 is successful. The pass determination unit 83 integrates the identification result information sent from the face matching unit 74, the wireless information matching unit 78, and the personal identification number matching unit 81,
This is a processing unit that determines whether to finally permit passage according to the mode control information sent from the mode determination unit 76. If it is determined that the passage is not permitted in the safety priority mode at night, re-authentication request information for requesting authentication in the personal identification mode is sent to the mode determining unit.
【0051】本セキュリティシステムを使用した場合の
処理の流れを図18、19を参照しながら説明する。被
認証者が来訪した時間帯が昼であった場合(ステップS
71)、入力画像中に顔が検出されれば(ステップS7
2)安全優先モードによる顔画像認証が行われ認証結果
が“通過”であれば認証は終了する(ステップS7
3)。結果が“不通過”であった場合や前述のステップ
S72において顔が検出されなかった場合には、被認証
者が無線タグを所有していることを感知した上で無線タ
グモードによる非生体認証が行われる(ステップS7
4)。時間帯が夜であればまず顔を検知し安全優先モー
ドによる顔画像認証を行い(ステップS75)、結果が
“通過”であればそこで認証は終了する(ステップS7
6)。結果が“不通過”であれば被認証者から無線タグ
もしくは暗証番号によって個人IDを取得し、改めて顔
画像を取得し直した後に個人同定モードによる認証を改
めて行う(ステップS77)。The flow of processing when this security system is used will be described with reference to FIGS. When the time when the person to be authenticated visited was noon (step S
71) If a face is detected in the input image (step S7)
2) Face image authentication in the safety priority mode is performed, and if the authentication result is “passed”, the authentication ends (step S7).
3). If the result is “non-passing” or if no face is detected in step S72, non-biometric authentication in the wireless tag mode is performed after detecting that the subject has the wireless tag. (Step S7)
4). If the time zone is night, the face is detected first and face image authentication is performed in the safety priority mode (step S75), and if the result is "pass", the authentication ends there (step S7).
6). If the result is "non-passage", a personal ID is obtained from the person to be authenticated by using a wireless tag or a password, and a face image is obtained again, and then authentication in the personal identification mode is performed again (step S77).
【0052】また、実施例において、昼モードの場合に
は最初に生体情報を用いて判断を行い、その後生体情報
を用いて最終判断を下したが、両情報の構成要素の数や
それらの順序などは制限されない。例えば夜モードの場
合に図19ステップS77からステップS78で使用し
た個人同定モードのように無線タグ(非生体認証情報)
の判断を行った後生体情報のチェックを行ったが、これ
は先に非生体認証情報を取得することによって生体情報
の検索範囲を制限するという利得を得るためである。例
えば顔検出範囲の方が無線検出範囲よりも広い場合、迅
速さを重視して顔画像による認証を行った後通過できな
ければ無線タグによる認証を行う昼モードを用いれば良
い。しかしよりセキュリティの高い認証を行うには先に
無線タグによって個人IDを取得し、検索範囲を狭めた
後顔画像認証を行う個人同定モードに切り替えた方が良
い。このように順序関係の違いによっても認識全体のパ
フォーマンスを制御可能である。この制御はこれまでに
述べた制御と同様に時間による制御や管理者の操作によ
る制御などの他の制御と組み合わせて、パラメータの調
整などのモード管理を行うことができる。Further, in the embodiment, in the case of the daytime mode, the judgment is first made using the biometric information, and then the final judgment is made using the biometric information. Is not limited. For example, in the case of the night mode, the wireless tag (non-biometric authentication information) as in the individual identification mode used in steps S77 to S78 in FIG.
The biometric information is checked after the determination of the above is performed in order to obtain a gain of restricting the search range of the biometric information by first acquiring the non-biometric authentication information. For example, when the face detection range is wider than the wireless detection range, the day mode in which authentication is performed by the wireless tag after authentication using the face image is performed after emphasizing quickness and if the face cannot be passed. However, in order to perform authentication with higher security, it is better to first acquire a personal ID using a wireless tag, narrow the search range, and then switch to a personal identification mode in which face image authentication is performed. Thus, the performance of the entire recognition can be controlled by the difference in the order relation. This control can be combined with other controls such as control based on time or control by an administrator in the same manner as the control described above to perform mode management such as parameter adjustment.
【0053】なおこれまで各実施例は顔画像による認証
に基づいて認証を行ったが、生体情報としては音声、指
紋、掌紋、虹彩、網膜などいずれを用いても良い。また
実施例4、6で用いた非生体認証情報の種類も制限され
ない。In the above embodiments, the authentication has been performed based on the authentication based on the face image. However, any of voice, fingerprint, palm print, iris and retina may be used as the biometric information. Further, the types of the non-biometric authentication information used in the fourth and sixth embodiments are not limited.
【0054】本発明は上述した実施の形態に限定される
ものではなく、その技術的範囲において種々変形して実
施することができる。The present invention is not limited to the above-described embodiment, but can be implemented with various modifications within the technical scope.
【0055】[0055]
【発明の効果】以上詳述したように本発明によれば、安
全性と快適性を高い水準で兼ね備えるセキュリティシス
テムを実現することが困難であった従来の生体情報認証
方法を利用して、安全性と快適性のバランスを制御する
ことによる利便性を実現する新たなシステムを提供する
ことができる。また本発明では被認証者の周囲の環境変
動を検知してそれに応じた最適な認証方法を選択するこ
とによって、総合的に認識率の低下を防ぐシステムを提
供することができる。As described above in detail, according to the present invention, a security system that combines security and comfort at a high level is realized by using a conventional biometric information authentication method, which has been difficult to realize. A new system that realizes convenience by controlling the balance between comfort and comfort can be provided. Further, in the present invention, it is possible to provide a system that comprehensively prevents a reduction in recognition rate by detecting a change in the environment around a person to be authenticated and selecting an optimal authentication method according to the change.
【図1】本発明の基本構成を示す図。FIG. 1 is a diagram showing a basic configuration of the present invention.
【図2】実施例1における認証モードの構成を示す図。FIG. 2 is a diagram illustrating a configuration of an authentication mode according to the first embodiment.
【図3】実施例1における処理手続を示す図。FIG. 3 is a diagram showing a processing procedure in the first embodiment.
【図4】実施例2における認証モードの構成を示す図。FIG. 4 is a diagram illustrating a configuration of an authentication mode according to a second embodiment.
【図5】実施例2におけるブロック構成を示す図。FIG. 5 is a diagram illustrating a block configuration according to a second embodiment.
【図6】実施例2における処理手続を示す図。FIG. 6 is a diagram showing a processing procedure in the second embodiment.
【図7】実施例3における認証モードの構成を示す図。FIG. 7 is a diagram illustrating a configuration of an authentication mode according to a third embodiment.
【図8】実施例3におけるブロック構成を示す図。FIG. 8 is a diagram illustrating a block configuration according to a third embodiment.
【図9】実施例4装置aにおけるブロック構成を示す
図。FIG. 9 is a diagram illustrating a block configuration of an apparatus a according to a fourth embodiment.
【図10】実施例4装置aにおける処理手続を示す図。FIG. 10 is a diagram showing a processing procedure in an apparatus a in the fourth embodiment.
【図11】実施例4装置bにおけるブロック構成を示す
図。FIG. 11 is a diagram illustrating a block configuration of a device b according to a fourth embodiment.
【図12】実施例4装置bにおける処理構成を示す図。FIG. 12 is a diagram illustrating a processing configuration in a device b according to the fourth embodiment.
【図13】実施例5における認証モードの構成を示す
図。FIG. 13 is a diagram illustrating a configuration of an authentication mode according to a fifth embodiment.
【図14】実施例5におけるブロック構成を示す図。FIG. 14 is a diagram illustrating a block configuration according to a fifth embodiment.
【図15】実施例5における処理構成を示す図。FIG. 15 is a diagram illustrating a processing configuration according to a fifth embodiment.
【図16】実施例6における認証モードの構成を示す
図。FIG. 16 is a diagram illustrating a configuration of an authentication mode according to a sixth embodiment.
【図17】実施例6におけるブロック構成を示す図。FIG. 17 is a diagram illustrating a block configuration according to a sixth embodiment.
【図18】実施例6における処理構成を示す図。FIG. 18 is a diagram illustrating a processing configuration according to a sixth embodiment.
【図19】実施例6における処理構成を示す図。FIG. 19 is a diagram illustrating a processing configuration according to a sixth embodiment.
【図20】他人排除率と本人通過率との関係を示す図。FIG. 20 is a diagram showing the relationship between the false exclusion rate and the pass-through rate.
1 画像入力部 2 顔検出部 3 特徴抽出部 4 照合部 5 認証情報記憶部 6 モード決定部 DESCRIPTION OF SYMBOLS 1 Image input part 2 Face detection part 3 Feature extraction part 4 Collation part 5 Authentication information storage part 6 Mode determination part
───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 薫 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 (72)発明者 福井 和広 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 (72)発明者 湯浅 真由美 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 Fターム(参考) 5B043 AA09 BA01 GA13 GA17 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Kaoru Suzuki 1-1-30 Oyodonaka, Kita-ku, Osaka-shi, Osaka Toshiba Kansai branch office (72) Inventor Kazuhiro Fukui 1 Oyodonaka, Kita-ku, Osaka, Osaka No. 1-30, Toshiba Kansai Branch (72) Inventor Mayumi Yuasa 1-1-30, Oyodo, Kita-ku, Osaka-shi, Osaka F-term (reference) 5B043 AA09 BA01 GA13 GA17
Claims (11)
情報から被認証者の特徴を抽出して生体特徴情報と成す
生体情報受理手段と、該生体特徴情報と予めカテゴリ別
に用意されている登録情報とを照合し、該被認証者の属
するカテゴリを決定する識別手段とを備えた生体情報認
証装置において、前記生体情報受理手段および識別手段
のうち少なくとも一方が複数用意されており、それらを
組み合わせることによって構成される認証論理を用いて
生体情報認証を行う際、複数の認証論理モードの中から
一つを選択することにより前記生体情報受理手段および
識別手段を制御可能なモード管理手段を有することを特
徴とする生体情報認証装置。1. A biometric information receiving means for acquiring biometric information of a subject and extracting features of the subject from the input information and forming biometric feature information. The biometric information receiving means is prepared for each category in advance with the biometric feature information. A biometric information authentication device, comprising: identification means for determining the category to which the person to be authenticated belongs, wherein at least one of the biometric information reception means and the identification means is provided, and When performing biometric information authentication using authentication logic configured by combining the above, a mode management means capable of controlling the biometric information receiving means and the identification means by selecting one from a plurality of authentication logic modes A biometric information authentication device, comprising:
特徴抽出を行い一ないし複数の生体特徴情報と成す生体
情報受理手段と、前記生体特徴情報の一部もしくは全部
をそれぞれ予めカテゴリ別に用意されている登録情報と
照合し、被認証者の所属するカテゴリを決定する識別手
段とを備えた生体情報認証装置において、該生体情報に
よって分類される複数のモードの中から一つを選択する
ことにより、複数の生体情報による認証の組み合わせを
制御可能なモード管理手段を有することを特徴とする生
体情報認証装置。2. A biometric information receiving means for extracting a feature from one or a plurality of biometric information of an authentication subject to form one or a plurality of biometric feature information, and preparing a part or all of the biometric feature information in advance by category. Selecting one of a plurality of modes classified by the biometric information in a biometric information authentication device having identification means for comparing with registered information and determining a category to which a person to be authenticated belongs. A mode management unit capable of controlling a combination of authentications using a plurality of pieces of biometric information.
情報から被認証者の特徴を抽出して生体特徴情報と成す
生体情報受理手段と、被認証者が所有する非生体認証情
報を取得する非生体認証情報受理手段と、前記生体情報
と非生体認証情報の一方もしくは両方をそれぞれ予めカ
テゴリ別に用意されている登録情報と照合し、被認証者
の所属するカテゴリを決定する識別手段とを備えた生体
情報認証装置において、前記生体情報、非生体認証情報
によって分類される複数のモードの中から一つを選択す
ることにより生体情報と非生体認証情報による認証の組
み合わせを制御可能なモード管理手段を有することを特
徴とする生体情報認証装置。3. Biometric information receiving means for acquiring biometric information of a subject and extracting features of the subject from the input information to form biometric feature information, and non-biometric information possessed by the subject. Non-biometric information receiving means to be obtained, and identification means for comparing one or both of the biometric information and non-biometric information with registration information prepared in advance for each category, and determining a category to which the subject belongs. A biometric information authentication device comprising: a mode in which the combination of biometric information and non-biometric authentication information can be controlled by selecting one of a plurality of modes classified by the biometric information and non-biometric information. A biological information authentication device comprising a management unit.
際、前記モード管理手段によって決定されたモードに従
って特徴抽出方法を変更可能であることを特徴とする請
求項1,2,3記載の生体情報認証装置。4. The living body according to claim 1, wherein, when the living body information receiving unit performs feature extraction, a feature extracting method can be changed according to a mode determined by the mode managing unit. Information authentication device.
ド管理手段によって決定されたモードに従って識別方法
を変更可能であることを特徴とする請求項1,2,3記
載の生体情報認証装置。5. The biometric information authentication device according to claim 1, wherein when the identification unit performs the identification, the identification method can be changed according to a mode determined by the mode management unit.
際、前記モード管理手段によって決定されたモードに従
いパラメータ値を操作することによって特徴抽出方法を
変更可能であることを特徴とする請求項1,2,3記載
の生体情報認証装置。6. The method according to claim 1, wherein when the biometric information receiving unit performs feature extraction, a feature extraction method can be changed by operating a parameter value in accordance with a mode determined by the mode management unit. , A biological information authentication device according to claim 2.
ド管理手段によって決定されたモードに従いパラメータ
値を操作することによって識別方法を変更可能であるこ
とを特徴とする請求項1,2,3記載の生体情報認証装
置。7. The identification method according to claim 1, wherein when the identification means performs the collation, the identification method can be changed by operating a parameter value according to the mode determined by the mode management means. The biometric information authentication device according to the above.
理手段が異なる複数のモードの中から1つのモードを選
択することを特徴とする請求項1,2,3記載の生体情
報認証装置。8. The biometric information authentication apparatus according to claim 1, wherein said mode management means selects one mode from a plurality of different modes according to a time zone for performing authentication.
知手段と、前記検知手段によって得られた環境条件情報
に基づいて複数のモードの中から1つを決定する前記モ
ード管理手段を有することを特徴とする請求項1、2,
3記載の生体情報認証装置。9. An environment detecting means for detecting and acquiring surrounding environmental conditions, and said mode managing means for determining one of a plurality of modes based on environmental condition information obtained by said detecting means. Claims 1 and 2 characterized by the following:
3. The biometric information authentication device according to 3.
からモードを指定可能であり、該モード管理手段は該指
定されたモードに従って前記生体情報受理手段と前記識
別手段の一方もしくは両方の動作を制御可能であること
を特徴とする請求項1、2,3記載の生体情報認証装
置。10. A mode can be designated to the mode management means from the outside of the apparatus, and the mode management means controls one or both operations of the biological information receiving means and the identification means according to the designated mode. The biometric information authentication device according to claim 1, wherein the biometric information authentication device is capable of being used.
力情報から被認証者の特徴を抽出して生体特徴情報と成
す生体情報受理ステップと、該生体特徴情報と予めカテ
ゴリ別に用意されている登録情報とを照合し、該被認証
者の属するカテゴリを決定する識別ステップとを備えた
生体情報認証方法において、前記生体情報受理手段およ
び識別手段のうち少なくとも一方が複数用意されてお
り、それらを組み合わせることによって構成される認証
論理を用いて生体情報認証を行う際、複数の認証論理モ
ードの中から一つを選択することにより前記生体情報受
理手段および識別手段を制御可能なモード管理ステップ
を有することを特徴とする生体情報認証方法。11. A biometric information receiving step of obtaining biometric information of a subject and extracting features of the subject from the input information and forming biometric feature information; Identification step of determining the category to which the person to be authenticated belongs, wherein at least one of the biometric information receiving means and the identification means is provided in a plurality. When performing biometric information authentication using an authentication logic configured by combining the above, a mode management step capable of controlling the biometric information receiving means and the identification means by selecting one from a plurality of authentication logic modes A biometric information authentication method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11018208A JP2000215308A (en) | 1999-01-27 | 1999-01-27 | Biometric information authentication device and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11018208A JP2000215308A (en) | 1999-01-27 | 1999-01-27 | Biometric information authentication device and method |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004376398A Division JP2005149527A (en) | 2004-12-27 | 2004-12-27 | Face authentication apparatus and face authentication method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000215308A true JP2000215308A (en) | 2000-08-04 |
Family
ID=11965242
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11018208A Pending JP2000215308A (en) | 1999-01-27 | 1999-01-27 | Biometric information authentication device and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000215308A (en) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002207999A (en) * | 2001-01-11 | 2002-07-26 | Omron Corp | Personal identification device |
| JP2002236665A (en) * | 2001-02-09 | 2002-08-23 | Matsushita Electric Ind Co Ltd | Personal authentication device |
| JP2002236667A (en) * | 2001-02-09 | 2002-08-23 | Sony Corp | Authentication method, authentication system, authentication device, and authentication module |
| JP2004135040A (en) * | 2002-10-10 | 2004-04-30 | Matsushita Electric Ind Co Ltd | Remote control system |
| JP2004342046A (en) * | 2003-05-19 | 2004-12-02 | Fujitsu Ltd | Software authentication method, software authentication program |
| JP2006155422A (en) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Works Ltd | Image processor |
| JP2007009643A (en) * | 2005-07-04 | 2007-01-18 | Mitsubishi Electric Corp | Access control device |
| JP2007220000A (en) * | 2006-02-20 | 2007-08-30 | Quality Kk | Portable terminal apparatus for authentication and portable terminal program for authentication |
| WO2007097144A1 (en) * | 2006-02-21 | 2007-08-30 | Oki Electric Industry Co., Ltd. | Personal identification device and personal identification method |
| JP2008077269A (en) * | 2006-09-20 | 2008-04-03 | Fujitsu Fsas Inc | Secure system and data protection method for data processor |
| JP2008517352A (en) * | 2004-08-09 | 2008-05-22 | クラシフアイ・リミテッド | Non-contact optical means and 3D fingerprint recognition method |
| JP2009003659A (en) * | 2007-06-21 | 2009-01-08 | Sony Corp | Authentication device, entrance management device, entrance / exit management device, entrance management system, entrance / exit management system, and processing method and program thereof |
| WO2012148000A1 (en) * | 2011-04-28 | 2012-11-01 | 九州日本電気ソフトウェア株式会社 | Image processing system, person identification method, image processing device, and control method and control program for same |
| JP2016021176A (en) * | 2014-07-15 | 2016-02-04 | 富士ゼロックス株式会社 | Authentication apparatus, authentication system, and program |
| JP2018165983A (en) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Face authentication method and apparatus |
| JP2019144695A (en) * | 2018-02-16 | 2019-08-29 | グローリー株式会社 | Face authentication system, face authentication server and face authentication method |
| WO2024048185A1 (en) * | 2022-08-31 | 2024-03-07 | 日本電気株式会社 | Occupant authentication device, occupant authentication method, and computer-readable medium |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05266291A (en) * | 1992-03-03 | 1993-10-15 | Fujitsu Denso Ltd | Entering/leaving person collating device |
| JPH06272440A (en) * | 1993-03-19 | 1994-09-27 | Mitsubishi Electric Corp | Personal identification device |
| JPH0883344A (en) * | 1994-09-14 | 1996-03-26 | Mitsubishi Electric Corp | Image processing apparatus and person state determination apparatus |
| JPH0916767A (en) * | 1995-07-04 | 1997-01-17 | Mitsubishi Electric Corp | Fingerprint collation device |
| JPH0981727A (en) * | 1995-09-12 | 1997-03-28 | Toshiba Corp | Personal authentication device |
| JPH10134185A (en) * | 1996-10-30 | 1998-05-22 | Yamatake Honeywell Co Ltd | Operator verification device |
| JPH10208042A (en) * | 1997-01-17 | 1998-08-07 | Mitsubishi Denki Bill Techno Service Kk | Id discrimination device |
-
1999
- 1999-01-27 JP JP11018208A patent/JP2000215308A/en active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05266291A (en) * | 1992-03-03 | 1993-10-15 | Fujitsu Denso Ltd | Entering/leaving person collating device |
| JPH06272440A (en) * | 1993-03-19 | 1994-09-27 | Mitsubishi Electric Corp | Personal identification device |
| JPH0883344A (en) * | 1994-09-14 | 1996-03-26 | Mitsubishi Electric Corp | Image processing apparatus and person state determination apparatus |
| JPH0916767A (en) * | 1995-07-04 | 1997-01-17 | Mitsubishi Electric Corp | Fingerprint collation device |
| JPH0981727A (en) * | 1995-09-12 | 1997-03-28 | Toshiba Corp | Personal authentication device |
| JPH10134185A (en) * | 1996-10-30 | 1998-05-22 | Yamatake Honeywell Co Ltd | Operator verification device |
| JPH10208042A (en) * | 1997-01-17 | 1998-08-07 | Mitsubishi Denki Bill Techno Service Kk | Id discrimination device |
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002207999A (en) * | 2001-01-11 | 2002-07-26 | Omron Corp | Personal identification device |
| JP2002236665A (en) * | 2001-02-09 | 2002-08-23 | Matsushita Electric Ind Co Ltd | Personal authentication device |
| JP2002236667A (en) * | 2001-02-09 | 2002-08-23 | Sony Corp | Authentication method, authentication system, authentication device, and authentication module |
| JP2004135040A (en) * | 2002-10-10 | 2004-04-30 | Matsushita Electric Ind Co Ltd | Remote control system |
| JP2004342046A (en) * | 2003-05-19 | 2004-12-02 | Fujitsu Ltd | Software authentication method, software authentication program |
| JP2008517352A (en) * | 2004-08-09 | 2008-05-22 | クラシフアイ・リミテッド | Non-contact optical means and 3D fingerprint recognition method |
| JP2006155422A (en) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Works Ltd | Image processor |
| JP2007009643A (en) * | 2005-07-04 | 2007-01-18 | Mitsubishi Electric Corp | Access control device |
| JP2007220000A (en) * | 2006-02-20 | 2007-08-30 | Quality Kk | Portable terminal apparatus for authentication and portable terminal program for authentication |
| WO2007097144A1 (en) * | 2006-02-21 | 2007-08-30 | Oki Electric Industry Co., Ltd. | Personal identification device and personal identification method |
| JP2008077269A (en) * | 2006-09-20 | 2008-04-03 | Fujitsu Fsas Inc | Secure system and data protection method for data processor |
| JP2009003659A (en) * | 2007-06-21 | 2009-01-08 | Sony Corp | Authentication device, entrance management device, entrance / exit management device, entrance management system, entrance / exit management system, and processing method and program thereof |
| US8401245B2 (en) | 2007-06-21 | 2013-03-19 | Sony Corporation | Biometric authentication using variable threshold based on normal entry/exit times |
| WO2012148000A1 (en) * | 2011-04-28 | 2012-11-01 | 九州日本電気ソフトウェア株式会社 | Image processing system, person identification method, image processing device, and control method and control program for same |
| JP5844802B2 (en) * | 2011-04-28 | 2016-01-20 | Necソリューションイノベータ株式会社 | Image processing system, person identification method, image processing apparatus, control method thereof, and control program |
| JP2016021176A (en) * | 2014-07-15 | 2016-02-04 | 富士ゼロックス株式会社 | Authentication apparatus, authentication system, and program |
| JP2018165983A (en) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Face authentication method and apparatus |
| JP7133949B2 (en) | 2017-03-28 | 2022-09-09 | 三星電子株式会社 | Face authentication method and device |
| US11532177B2 (en) | 2017-03-28 | 2022-12-20 | Samsung Electronics Co., Ltd. | Face verification method and apparatus |
| US12525054B2 (en) | 2017-03-28 | 2026-01-13 | Samsung Electronics Co., Ltd. | Face verification method and apparatus |
| JP2019144695A (en) * | 2018-02-16 | 2019-08-29 | グローリー株式会社 | Face authentication system, face authentication server and face authentication method |
| JP7166061B2 (en) | 2018-02-16 | 2022-11-07 | グローリー株式会社 | Face authentication system, face authentication server and face authentication method |
| WO2024048185A1 (en) * | 2022-08-31 | 2024-03-07 | 日本電気株式会社 | Occupant authentication device, occupant authentication method, and computer-readable medium |
| JPWO2024048185A1 (en) * | 2022-08-31 | 2024-03-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2000215308A (en) | Biometric information authentication device and method | |
| US8493178B2 (en) | Forged face detecting method and apparatus thereof | |
| US8818051B2 (en) | Fraud resistant biometric financial transaction system and method | |
| US11714889B2 (en) | Method for authentication or identification of an individual | |
| US9922238B2 (en) | Apparatuses, systems, and methods for confirming identity | |
| US9864756B2 (en) | Method, apparatus for providing a notification on a face recognition environment, and computer-readable recording medium for executing the method | |
| US20130129164A1 (en) | Identity recognition system and method based on hybrid biometrics | |
| US8422746B2 (en) | Face authentication system and authentication method thereof | |
| JP5045128B2 (en) | Face recognition device | |
| JP5439809B2 (en) | Biometric authentication device | |
| KR100554129B1 (en) | Personal authentication device using heat information of human body and its method | |
| US20080040616A1 (en) | Authentication Apparatus, Authentication Method and Program | |
| US20190251245A1 (en) | Method and apparatus with selective combined authentication | |
| KR20020072198A (en) | Detector for identifying facial image | |
| JPH11316836A (en) | Identification device | |
| JP2013101551A (en) | Face image authentication device | |
| JP2005149527A (en) | Face authentication apparatus and face authentication method | |
| KR20110006971A (en) | Front face image detection method for access permission for access authentication user of access control system | |
| JP4434560B2 (en) | Entrance / exit management system | |
| JP2003308524A (en) | Access control system | |
| JP2014086042A (en) | Face authentication device | |
| KR101011272B1 (en) | Multi-User Access Restriction Method of Access Control System | |
| JP2003099780A (en) | Access control system | |
| JP2003256813A (en) | Operator monitoring device | |
| KR102857951B1 (en) | User authentication apparatus and method using combination of iris authentication and face authentication |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040416 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040427 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040624 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040727 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040924 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041026 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050308 |