[go: up one dir, main page]

JP2001195594A - Iris identifying system and method of identifying person by iris recognition - Google Patents

Iris identifying system and method of identifying person by iris recognition

Info

Publication number
JP2001195594A
JP2001195594A JP2000090585A JP2000090585A JP2001195594A JP 2001195594 A JP2001195594 A JP 2001195594A JP 2000090585 A JP2000090585 A JP 2000090585A JP 2000090585 A JP2000090585 A JP 2000090585A JP 2001195594 A JP2001195594 A JP 2001195594A
Authority
JP
Japan
Prior art keywords
iris
pupil
identification
user
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000090585A
Other languages
Japanese (ja)
Inventor
Dae-Hoon Kim
大勲 金
Ryoo Jang-Soo
チャンソ,リュウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iritech Inc
Original Assignee
Iritech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1019990012438A external-priority patent/KR100356600B1/en
Application filed by Iritech Inc filed Critical Iritech Inc
Priority to JP2000090585A priority Critical patent/JP2001195594A/en
Publication of JP2001195594A publication Critical patent/JP2001195594A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system and a method for identifying iris, by which the identity of a living animal is identified by iris scan. SOLUTION: An iris image pickup unit is operated by a control unit interfaced with a data processing unit for preprocessing an input image signal into processing data. The processed data express one of plural parameters for iris identification selected from the group of the density and texture style of an iris fiber structure using a frequency converting method (1), pupil reaction (2), form of the iris (3), autonomic nervous loop reaction (4), form of autonomic nervous loop (5), presence of a recess (6), position of the recess (7), and form of the recess (8). The control unit compares the processed data with a parameter previously stored in a data base corresponding to the processed data parameter and can be operated to measure coincidence expressing the confirmation of the identity.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】技術分野 本発明は、虹彩同定システム、及び虹彩イメージを用い
ることによって生体の同一性を確認する方法に関する。
より詳しくは、本発明は、虹彩繊維構造、自律神経環
(ANW)及び瞳孔の形状並びに光に対するその自発反
応、並びに虹彩イメージからのくぼみの存在、形状及び
位置に関する1以上の同定パラメータを測定することに
よる虹彩同定法に関する。
TECHNICAL FIELD The present invention relates to an iris identification system and a method for confirming the identity of a living body by using an iris image.
More specifically, the present invention measures the iris fiber structure, the shape of the autonomic nerve ring (ANW) and the pupil and its spontaneous response to light, and one or more identifying parameters relating to the presence, shape and location of indentations from the iris image. Iris identification method.

【0002】背景技術 特定の人間を同定するための公知の虹彩同定システム
は、比較の結果にしたがって特定の人間を許容又は拒絶
するために、人間の眼からとった虹彩部分のイメージ信
号からの虹彩コードを、データベースから検索した対応
する虹彩情報と比較する。この従来の虹彩同定システム
は、しかしながら、許容し得る高レベルの同定の正確性
には達していない。
BACKGROUND OF THE INVENTION Known iris identification systems for identifying a particular person include an iris from an image signal of an iris portion taken from the human eye to allow or reject the particular person according to the results of the comparison. Compare the code with the corresponding iris information retrieved from the database. This conventional iris identification system, however, has not reached an acceptable high level of identification accuracy.

【0003】更に、種々の虹彩同定システムは、生存す
る人間の真の虹彩を観察しているかどうかを識別する点
で制限を有しているので、捏造された虹彩イメージを誤
って同定する高いリスクのために、バンキングシステ
ム、電子決算システムなどのようなシステムと共に安全
に用いることはできない。
In addition, various iris identification systems have limitations in identifying whether a living human is observing the true iris, thus increasing the risk of falsely identifying a fabricated iris image. Therefore, it cannot be used safely with systems such as banking systems, electronic settlement systems, and the like.

【0004】発明の概要 本発明の目的は、高レベルの正確性を有する虹彩認識シ
ステムを用いて個人の同一性を確認することである。他
の目的は、虹彩に関連する多数の特性の分析によって、
高いレベルの同定の正確性を達成することである。
SUMMARY OF THE INVENTION It is an object of the present invention to ascertain the identity of an individual using an iris recognition system having a high level of accuracy. Another goal is to analyze a number of properties related to the iris,
Achieving a high level of identification accuracy.

【0005】したがって、本発明の一つの目的は、虹彩
イメージ、光によって生起する瞳孔及び自律神経環の反
応、自律神経環及び瞳孔の形状、並びにくぼみの存在、
位置及び形状から得ることのできる虹彩繊維構造にした
がった複数の虹彩同定パラメータを測定することによっ
て、生体の虹彩を迅速且つ明確に同定することである。
Accordingly, one object of the present invention is to provide an iris image, light-induced pupil and autonomic ring reactions, autonomic nervous ring and pupil shapes, and the presence of depressions.
It is to quickly and unambiguously identify a living iris by measuring a plurality of iris identification parameters according to the iris fiber structure that can be obtained from the position and shape.

【0006】本発明にしたがって虹彩走査により生存動
物の同一性を確認するためのシステムは、生存動物を同
定する同定情報を受容するための制御ユニット、及び、
同定情報と比較するための同定可能な生体に関係する予
め定められた個人情報を包含するための、制御ユニット
によってアクセスされるデータベースを含むデータ蓄積
ユニットを含む。カメラを含む虹彩イメージピックアッ
プユニットは、同定情報が予め定められた情報に対応す
る場合に、まず虹彩イメージを取り込んで入力イメージ
信号を生成させるために制御ユニットによって操作され
る。データ処理ユニットは、入力イメージ信号を処理デ
ータに予備処理する。蓄積ユニットは、それぞれの同定
可能な生体に関して、(1)周波数変換法を用いた虹彩
繊維構造の密度及びテキスチャー形態、(2)瞳孔反
応、(3)瞳孔の形状、(4)自律神経環反応、(5)
自律神経環の形状、(6)くぼみの存在、(7)くぼみ
の位置、及び(8)くぼみの形状、からなる群から選択
される、、予め蓄積された虹彩同定のための複数のパラ
メータのうちの少なくとも一つを含む。制御ユニット
は、処理されたデータとパラメータとを比較して、同一
性が確認されたことを示す一致性があるかどうかを測定
するように操作することができる。
In accordance with the present invention, a system for confirming the identity of a living animal by iris scanning comprises a control unit for receiving identification information identifying the living animal, and
A data storage unit including a database accessed by the control unit for containing predetermined personal information relating to the identifiable organism for comparison with the identification information. The iris image pickup unit including the camera is operated by the control unit to first capture the iris image and generate an input image signal when the identification information corresponds to the predetermined information. The data processing unit pre-processes the input image signal into processed data. For each identifiable living body, the storage unit comprises: (1) density and texture morphology of the iris fiber structure using the frequency conversion method; (2) pupil response; (3) pupil shape; , (5)
A plurality of pre-stored parameters for iris identification, selected from the group consisting of the shape of the autonomic nerve ring, (6) the presence of the depression, (7) the position of the depression, and (8) the shape of the depression. Including at least one of them. The control unit may be operable to compare the processed data with the parameters to determine whether there is a match indicating that the identity has been confirmed.

【0007】本発明の好ましい態様によれば、カメラ
は、生存動物の両方の眼を撮影するように形成されてい
る。データ処理ユニットは、イメージ入力信号を、それ
ぞれの眼を表す処理データに別々に処理する。この方法
においては、虹彩走査によって生存動物の同一性を確認
するためのより高いレベルの同定正確性が得られる。
According to a preferred aspect of the present invention, the camera is configured to photograph both eyes of a living animal. The data processing unit separately processes the image input signal into processing data representing each eye. In this way, a higher level of identification accuracy is obtained by iris scanning to confirm the identity of the surviving animal.

【0008】同定システムにアクセスするためには、ま
ず同定される生体が同定情報をシステム中入力する。あ
る態様においては、同定情報データは、PIN(個人同
定番号)又は幾つかの他の独特の同定情報を用いてシス
テムにアクセスする、カード読み取りユニット、キー入
力ユニットなどを用いて入力することができる。また、
音声始動システムを用いることもできる。
[0008] In order to access the identification system, the organism to be identified first inputs identification information into the system. In some embodiments, the identification information data can be entered using a card reading unit, key entry unit, etc., that accesses the system using a PIN (Personal Identification Number) or some other unique identification information. . Also,
A voice activation system can also be used.

【0009】虹彩イメージピックアップユニットは、好
ましくは、カメラと連動して制御ユニットによって操作
され、連続して複数の虹彩イメージを取り込んで入力イ
メージ信号を生成させるための光源を含む。眼を照射す
ることによって、虹彩が収縮することが認められ、した
がって、連続イメージによって、システムが虹彩の収
縮、及び所望の場合には引き続く虹彩の膨張を取り込む
ことが可能になる。光源は、好ましくは赤外光源であ
る。
[0009] The iris image pickup unit is preferably operated by the control unit in conjunction with the camera and includes a light source for continuously capturing a plurality of iris images and generating an input image signal. By illuminating the eye, it is noted that the iris contracts, and therefore a continuous image allows the system to capture the iris contraction and, if desired, the subsequent iris dilation. The light source is preferably an infrared light source.

【0010】本発明の他の独特の特徴によれば、システ
ムは、位置決めデータに翻訳されたユーザーの体格の特
性を含むデータベース中の予め定められた個人情報にア
クセスすることに基づいて、カメラをユーザーの眼と自
動的に整列させることを可能にするための、虹彩イメー
ジピックアップユニットと制御ユニットとのインターフ
ェースを有することを特徴とする。
In accordance with another unique feature of the present invention, a system for controlling a camera based on accessing predetermined personal information in a database containing characteristics of a user's physique translated into positioning data. It has an interface between the iris image pickup unit and the control unit to enable automatic alignment with the user's eyes.

【0011】上記に記載したように、システムは、好ま
しくは、虹彩特性に帰することのできる異なるパラメー
タを分析する能力を有する。しかしながら、本発明は、
上記記載のプロセスパラメータ又は全パラメータセット
以下のプロセスパラメータのサブセットの一つのみをス
クリーニング及び分析することによって、ユーザーの同
一性を確認するように操作することができる。
[0011] As noted above, the system preferably has the ability to analyze different parameters that can be attributed to iris characteristics. However, the present invention
By screening and analyzing only one of the above described process parameters or a subset of the process parameters below the entire parameter set, one can operate to confirm the identity of the user.

【0012】虹彩繊維構造の密度及びテキスチャー形態
を分析するために用いられる独特の方法は、好ましく
は、Haar変換を用いる周波数変換法を含む。現在の
ところ好ましい態様によれば、本発明は、Haar変換
関数を用いてスペクトル変換の可変マルチセクターシス
テムを与える。この独特の方法によれば、虹彩イメージ
の選択された一つを、複数のセクターに分割し、それぞ
れのセクターに関して多数のHaar関数係数を算出す
る。このスペクトル分析のマルチセクターシステムによ
って、有利に、例えば、瞼、睫などによる欠陥又は干渉
の存在によって引き起こされる干渉によって歪曲される
虹彩のあるセクターを排除することが可能になる。これ
らの欠陥は、高い周波数係数の生成及び隣接するセクタ
ーの係数との間の予め定められた鋭利な変動によって明
確にされる。したがって、隣接するセクターごとの分析
によって、Haar変換を虹彩認識技術に適用すること
が可能になる。
[0012] The unique method used to analyze the density and texture morphology of the iris fiber structure preferably comprises a frequency conversion method using the Haar transform. According to a presently preferred aspect, the present invention provides a variable multi-sector system for spectral transformation using a Haar transform function. According to this unique method, a selected one of the iris images is divided into a plurality of sectors and a number of Haar function coefficients are calculated for each sector. This multi-sector system of spectral analysis advantageously makes it possible to eliminate sectors with irises that are distorted by interference caused by the presence of defects or interferences, for example by eyelids, eyelashes and the like. These deficiencies are manifested by the generation of high frequency coefficients and predetermined sharp variations between adjacent sector coefficients. Therefore, the analysis for each adjacent sector makes it possible to apply the Haar transform to the iris recognition technology.

【0013】Haar変換を用いると、選択された低周
波数ゾーンを表すHaar係数を選択することと好まし
く組み合わせて、先例のない高いレベルの認識正確性を
有する虹彩参照記録を生成することが可能である。
Using the Haar transform, it is possible to produce an iris reference record with an unprecedented high level of recognition accuracy, preferably in combination with selecting Haar coefficients representing the selected low frequency zone. .

【0014】本発明は、一態様においては、連続した一
連の虹彩イメージを用いて、時間当たりの虹彩の収縮及
び膨張を示す曲線によって表される瞳孔ヒストグラム又
はピュピログラム(pupillogram)を生成する。本発明
は、同定正確性を向上させるための更なる手段としてそ
の勾配変化を分析することにより、ピュピログラムを分
析するための新規な技術を提供する。本発明は、また、
同定正確性を向上させるための更なる手段として瞳孔の
境界、形状及び位置を分析することを特徴とする。
The invention, in one aspect, uses a series of iris images to generate a pupil histogram or pupillogram represented by a curve representing iris contraction and dilation over time. The present invention provides a novel technique for analyzing pupilograms by analyzing the gradient change as a further means to improve identification accuracy. The present invention also provides
As a further means for improving identification accuracy, the pupil boundary, shape and position are analyzed.

【0015】本発明は、また、自律神経環の形状及び反
応、並びに存在する場合には、同定正確性を向上させる
ための更なる手段として、くぼみの存在、位置及び形状
に関する情報を処理する。
The present invention also processes information about the shape, response, and, if present, the presence, location, and shape of the indentation, as a further measure to improve identification accuracy.

【0016】本発明は、また、システムのための上述の
虹彩同定パラメータを分析することを意図し且つそれを
可能にし、これを虹彩同定以外に用いる。例えば、ドラ
ッグ又はアルコールの存在又は使用に関して個人を試験
するためのシステムを形成することも本発明の範囲内で
ある。このタイプのシステムにおいては、生存動物を同
定する同定情報を受容するための制御ユニット、及び同
定情報と比較するために同定可能な生体に関連する予め
定められた個人情報を包含するための、制御ユニットに
よってアクセスされるデータベースを含むデータ蓄積ユ
ニットが与えられる。虹彩イメージピックアップユニッ
トは、虹彩イメージを取り込み、入力イメージ信号を生
成させるための、制御ユニットによって走査されるカメ
ラを含む。データ処理ユニットは、入力イメージ信号を
処理データに予備処理する。制御ユニットは、時間当た
りの光刺激に応答する虹彩瞳孔の平均収縮及び膨張を表
す入力イメージ信号の処理の結果として得られるデータ
を処理して、処理データが現在又は過去の中毒を示すか
どうかを測定する。このシステムは、ピュピログラムの
曲線の形状が、人間がアルコール又はドラッグに中毒し
ている場合に、人間がアルコール又はドラッグを含んで
いない場合の曲線の形状と比較して異なるという発見に
基づいている。
The present invention also contemplates and enables the analysis of the iris identification parameters described above for the system, which is used for purposes other than iris identification. For example, it is within the scope of the present invention to form a system for testing an individual for the presence or use of a drug or alcohol. In this type of system, a control unit for receiving identification information identifying a living animal, and a control unit for including predetermined personal information relating to an organism that can be identified for comparison with the identification information. A data storage unit is provided that includes a database accessed by the unit. The iris image pickup unit includes a camera scanned by a control unit for capturing an iris image and generating an input image signal. The data processing unit pre-processes the input image signal into processed data. The control unit processes data resulting from processing of the input image signal representing the average contraction and dilation of the iris pupil in response to light stimuli per hour to determine whether the processed data indicates current or past addiction. Measure. This system is based on the finding that the shape of the curve of the pupilogram is different when a person is addicted to alcohol or drugs compared to the shape of a curve when a person does not contain alcohol or drugs.

【0017】生存動物の同一性を確認するか、又は人間
の体内のドラッグ及びアルコールの少なくとも一つの存
在を試験するための方法もまた、上記に記載したような
虹彩同定パラメータを特別に選択することに基づいて、
本発明により提供される。本発明の更に他の目的及び有
利性は、以下の詳細な説明から当業者には明らかとなる
であろう。以下の説明においては、本発明の好ましい態
様のみが、発明の実施が意図されるベストモードを単に
示すものとして示され記載されている。認識されるよう
に、本発明は、他の異なる態様が可能であり、その幾つ
かの詳細は、発明から逸脱することなく、種々の明らか
な特徴において修正を加えることが可能である。したが
って、図面及び説明は、例示のものとしてみなされるべ
きであり、制限するものではない。
[0017] Methods for confirming the identity of living animals or testing for the presence of at least one of drugs and alcohols in the human body also require special selection of iris identification parameters as described above. On the basis of the,
Provided by the present invention. Still other objects and advantages of the present invention will become apparent to those skilled in the art from the following detailed description. In the following description, only the preferred embodiments of the invention are shown and described merely as indicative of the best mode intended to practice the invention. As will be realized, the invention is capable of other different aspects, and its several details are capable of modifications in various obvious features, all without departing from the invention. Accordingly, the drawings and description should be regarded as illustrative and not restrictive.

【0018】図面の詳細な説明 図1Aは、本発明による生体の虹彩を同定するためのシ
ステム14のブロックダイヤグラムである。生体は、人
間及び動物を含む、同定のための虹彩を有する生存動物
を包含する。システム14は、好ましくは、カードの情
報記録メディアにアクセスすることによって、個人カー
ド番号を蓄積しているカード上に記録された情報を読み
取り且つ同定するカード読み取りユニット40を含む。
PINを入力するための複数のキーを有するキー入力ユ
ニット50は、それぞれのキー入力に対応した電気信号
を生成する。虹彩イメージピックアップユニット20
は、特定の制御信号の予め定められた順番に従って自動
的に連続して点滅して、オートフォーカス機能を有する
カメラが、数秒の間、(例えば、1秒間に25フレーム
以上を生成する速度で)虹彩の動的イメージを取り込む
ことを可能にする複数の光源を有する。駆動ユニット3
0は、モータを用いて特定の制御信号を供給することに
よって、虹彩イメージピックアップユニット20に、カ
メラ位置の照明及び調節のための電力を供給する。
DETAILED DESCRIPTION OF THE DRAWINGS FIG. 1A is a block diagram of a system 14 for identifying an iris of a living subject according to the present invention. Living organisms include living animals having an iris for identification, including humans and animals. The system 14 preferably includes a card reading unit 40 for reading and identifying information recorded on the card storing the personal card number by accessing an information recording medium of the card.
A key input unit 50 having a plurality of keys for inputting a PIN generates an electric signal corresponding to each key input. Iris image pickup unit 20
Flashes automatically and continuously according to a predetermined order of a specific control signal, and a camera having an auto-focus function is operated for a few seconds (for example, at a speed of generating 25 frames or more per second). It has multiple light sources that allow capturing a dynamic image of the iris. Drive unit 3
0 supplies power for illumination and adjustment of the camera position to the iris image pickup unit 20 by supplying specific control signals using a motor.

【0019】データ処理ユニット60は、虹彩イメージ
ピックアップユニット20によって取り込まれた入力イ
メージ信号を予備処理する。データ蓄積ユニット80
は、それぞれの人間の個人カード番号又はPINにそれ
ぞれ関連した、(1)個々の虹彩のイメージ信号から抽
出し得る虹彩繊維構造の密度及びテキスチャー形態;
(2)光に応答する自律神経環(ANW)の動き;
(3)光に応答する瞳孔の動き;(4)ANWの形状;
(5)瞳孔の形状;(6)くぼみの存在、位置及び形
状;を含む、複数の同定パラメータを蓄積するためのデ
ータベースを形成する。制御ユニット70は、カード読
み取りユニット又はキー入力ユニットによって入力され
たか又は読み取られたカード番号又はPINに関してデ
ータベースを検索し、動的虹彩イメージを獲得し、カメ
ラの位置を個人情報に基づいて自動的に調節し、イメー
ジ信号からユーザーの同一性を確認するために複数の虹
彩同定パラメータを測定することによって、ユーザーの
同一性を確認することにより、特定の人間に関する虹彩
を識別する。この場合においては、特定の人間に関する
虹彩情報だけでなく、それぞれの人間に関する更なる情
報(例えば、虹彩イメージを取り込む際のカメラ高さ、
或いはそれぞれの人間に対する最も適切なカメラ高さに
直接関係する個人の身長の情報)をデータ蓄積ユニット
80に蓄積して、ユニット80が、更なる情報を読み取
ることによってカメラ高さを自動的に調節することを可
能にすることができる。
The data processing unit 60 pre-processes the input image signal captured by the iris image pickup unit 20. Data storage unit 80
Are associated with each person's personal card number or PIN, respectively: (1) the density and texture form of the iris fiber structure that can be extracted from the individual iris image signals;
(2) movement of the autonomic nerve ring (ANW) in response to light;
(3) Pupil movement in response to light; (4) ANW shape;
A database for storing a plurality of identification parameters including (5) pupil shape; (6) presence, position, and shape of the depression is formed. The control unit 70 searches the database for the card number or PIN entered or read by the card reading unit or key input unit, obtains a dynamic iris image, and automatically positions the camera based on personal information. Identifying the user's identity by adjusting and measuring a plurality of iris identification parameters to determine the user's identity from the image signal identifies the iris for a particular human. In this case, in addition to the iris information about a particular person, further information about each person (eg, camera height when capturing an iris image,
Alternatively, the individual's height information, which is directly related to the most appropriate camera height for each person, is stored in the data storage unit 80, and the unit 80 automatically adjusts the camera height by reading the additional information. Can be made possible.

【0020】図1Bは、図1Aの虹彩イメージピックア
ップユニット20の例示を示す双眼カメラ及び照明シス
テムの一部の側面斜視図である。虹彩イメージピックア
ップユニット20は、カメラ16、及び、虹彩のイメー
ジを取り込むために要求される位置の複数の第1及び第
2のレンズ11及び12を有する。オートフォーカスの
ための可変取り込みゾーン(フレックスゾーン)を有す
るカメラ16を用いることが好ましい。更に、ユーザー
の瞼、睫の動き及び瞬きの結果としてオートフォーカス
機能の低下を防ぐために、5mmよりも大きな焦点深さ
を有する第2のレンズ12を用いることが好ましい。第
1及び第2のレンズ11、12は、好ましくは、それぞ
れの眼に関して与えられる。
FIG. 1B is a side perspective view of a portion of the binocular camera and illumination system showing an example of the iris image pickup unit 20 of FIG. 1A. The iris image pickup unit 20 has a camera 16 and a plurality of first and second lenses 11 and 12 at positions required to capture an image of the iris. It is preferable to use a camera 16 having a variable capture zone (flex zone) for autofocus. Further, it is preferable to use a second lens 12 having a depth of focus greater than 5 mm to prevent a reduction in the autofocus function as a result of eyelid and eyelash movement and blinking of the user. The first and second lenses 11, 12 are preferably provided for each eye.

【0021】虹彩イメージピックアップユニット20
は、更に、図1Bの虹彩イメージピックアップユニット
20と関連してユーザーの眼をカメラの中心部分に固定
することによって、虹彩が一つの側に偏るのを防ぐため
の視野誘導ユニット18(図2〜図4を参照)を有す
る。更に、ある態様においては、初期オートフォーカス
及び輝度の調節のための側部光源を用いることができ
る。図2は、視野ポインターを示すための図1Bからの
参照図であり、図3は、図2の視野ポインターを詳細に
示すものである。図4は、視野誘導光源L4からの光を
ユーザーの眼に反射するという図2における視野ポイン
ターの操作を説明するための参照図である。
Iris image pickup unit 20
Further, in connection with the iris image pickup unit 20 of FIG. 1B, the visual field guiding unit 18 (FIGS. 2 to 2) for fixing the user's eyes to the central portion of the camera to prevent the iris from being biased to one side. (See FIG. 4). Further, in some embodiments, a side light source for initial autofocus and brightness adjustment can be used. FIG. 2 is a reference diagram from FIG. 1B to show the view pointer, and FIG. 3 shows the view pointer of FIG. 2 in detail. FIG. 4 is a reference diagram for explaining the operation of the visual field pointer in FIG. 2 to reflect light from the visual field guiding light source L4 to the user's eyes.

【0022】図2〜4において示されるように、視野誘
導ユニットは、ユーザーの視野を誘導するための淡い青
色又は赤色の光を発光する誘導光源L4(参照番号17
でも示される)から構成することができる。反射ユニッ
ト18bは、光源17からの光をカメラ16の中心部分
から反射し、支持ユニット18aは、反射ユニットをレ
ンズの中心に整列させて支持する。この場合、支持ユニ
ット18aは、好ましくは、レンズの中心に配置された
場合であっても虹彩イメージに影響を与えることを防ぐ
ように、透明なガラス様の材料で構成される。反射ユニ
ット18bは、視野誘導光源L4からの光をユーザーの
眼に反射するように、一定の傾斜を有する反射面を有す
る。
As shown in FIGS. 2 to 4, the visual field guiding unit includes a guiding light source L4 (reference numeral 17) that emits light blue or red light for guiding a user's visual field.
As shown). The reflection unit 18b reflects the light from the light source 17 from the central portion of the camera 16, and the support unit 18a aligns and supports the reflection unit at the center of the lens. In this case, the support unit 18a is preferably made of a transparent glass-like material so as to prevent affecting the iris image even when located at the center of the lens. The reflection unit 18b has a reflection surface having a certain inclination so as to reflect light from the visual field guide light source L4 to the user's eyes.

【0023】図5は、図1Bの第2のレンズ12の正面
図である。第2のレンズの正面12のある配置において
は、瞳孔及びANWの動き(即ち収縮及び膨張)を刺激
するフラッシュ光源L3(12b)が与えられる。複数
の赤外光源L2(12a)が、レンズ12の周縁にそっ
て環状又は輪状の配列で配置されており、ソフトウェア
によって、カメラ16が虹彩イメージ及び明澄な瞳孔イ
メージを取り込むことができるように制御されている。
フラッシュ光源12bは、好ましくは、ソフトウェアに
よって短いサイクルで自動的に発光するように制御され
た青色のダイオードである。
FIG. 5 is a front view of the second lens 12 of FIG. 1B. In one arrangement of the front surface 12 of the second lens, a flash light source L3 (12b) is provided that stimulates pupil and ANW movement (ie, contraction and dilation). A plurality of infrared light sources L2 (12a) are arranged in an annular or annular array along the periphery of the lens 12 so that the software allows the camera 16 to capture an iris image and a clear pupil image. Is controlled.
Flash light source 12b is preferably a blue diode that is controlled by software to automatically emit light in short cycles.

【0024】図6は、コンピュータ制御によって行なわ
れる虹彩イメージピックアップユニット20によるイメ
ージ信号の取り込みの例のフローチャートである。調節
ステップS61においては、カード番号又はPINに基
づいてデータベースから検索される個人情報を用いるこ
とによってカメラ位置(高さ)が調節され、複数の光源
(12a及び17)が、オートフォーカスのために同時
にONに切り替えられて、ユーザーの眼を対物レンズに
引き付ける。ステップS62においては、発光する光源
17を用いることによって、ユーザーの眼が対物レンズ
に誘導される。カメラのオートフォーカスがステップS
63において行なわれる。ステップS67においては、
動いているANW及び瞳孔の動的イメージが、虹彩の瞳
孔及びANWの動きを誘導する短いサイクルでの光源1
2bの発光(S66)によって数秒間獲得される。ステ
ップS68においては、上述のステップS61〜S68
の後に、全ての発光している光源が消される。
FIG. 6 is a flow chart of an example of taking in an image signal by the iris image pickup unit 20 performed by computer control. In adjustment step S61, the camera position (height) is adjusted by using personal information retrieved from a database based on the card number or PIN, and the plurality of light sources (12a and 17) are simultaneously set for autofocus. Switched to ON, attracts the user's eyes to the objective lens. In step S62, the user's eyes are guided to the objective lens by using the light source 17 that emits light. Camera auto focus is step S
At 63 is performed. In step S67,
A light source 1 in a short cycle in which a moving ANW and pupil dynamic image induces iris pupil and ANW movement.
Acquired for several seconds by the emission of 2b (S66). In step S68, the above-described steps S61 to S68
After, all emitting light sources are turned off.

【0025】図7は、図6のステップS61におけるカ
メラ高さの調節の詳細のフローチャートである。フロー
チャートは、以下のステップを包含する:カード番号又
はPINを入力する(S71);入力されたカード番号
又はPINについてデータベースを検索することによっ
て、対応する個人のカメラ高さに関する情報を獲得する
(S72);カメラ高さの獲得された情報をカメラの現
在の高さの情報と比較した後に、モータを前進又は逆進
方向に回転させる(S73)ことによって対応する個人
に好適なカメラ高さを調節する。
FIG. 7 is a detailed flowchart of the adjustment of the camera height in step S61 of FIG. The flowchart includes the following steps: Enter a card number or PIN (S71); obtain information on the camera height of the corresponding individual by searching the database for the entered card number or PIN (S72). ); After comparing the acquired information of the camera height with the information of the current height of the camera, adjust the camera height suitable for the corresponding individual by rotating the motor forward or backward (S73). I do.

【0026】図8は、本発明の一態様に従って虹彩分析
を行なうために必要な入力虹彩信号の選択ゾーン(x)
を説明するための虹彩イメージの例示である。虹彩を分
析するために選択されるべきゾーンは、ANW10bの
少なくとも一部及び全瞳孔10aを含んでいなければな
らない。更に、選択ゾーン(x)は、好ましくは、明確
に視認され、瞼、睫等によって影響されない部分であ
り、虹彩直径の1/3よりも大きく1/2よりも小さい
範囲内に設定される。
FIG. 8 shows a selection zone (x) of the input iris signal required to perform iris analysis according to one aspect of the present invention.
5 is an example of an iris image for explaining the following. The zone to be selected for analyzing the iris must include at least a portion of the ANW 10b and the entire pupil 10a. Further, the selection zone (x) is preferably a portion that is clearly visible and is not affected by eyelids, eyelashes, and the like, and is set within a range of more than 1 / and less than の of the iris diameter.

【0027】図16は、以下により詳細に説明するよう
な、本発明の好ましい態様におけるスペクトル分析の可
変マルチセクターシステムを用いた虹彩イメージ分析の
例示である。スペクトル分析の可変マルチセクターシス
テムによって、虹彩の視認部分の選択を、分析のため
に、干渉によって歪曲されないようにして、同定プロセ
スの信頼性を向上させることが可能になる。眼の口径の
解剖学的特徴及び瞼の膨らみを、同定及び排除すること
が可能である。殆ど事前には不可能である端縁による欠
陥又は干渉、即ちグレアを、同定及び排除することが可
能である。
FIG. 16 is an illustration of iris image analysis using a variable multi-sector system of spectral analysis in a preferred embodiment of the present invention, as described in more detail below. The variable multi-sector system of spectral analysis allows the selection of the visible portion of the iris to be distorted by interference for analysis, thereby improving the reliability of the identification process. Anatomical features of the eye caliber and eyelid bulge can be identified and eliminated. Edge defects or interferences, or glare, which are almost impossible in advance, can be identified and eliminated.

【0028】図9は、本発明の全虹彩同定法を説明する
ための高レベルフローチャートであり、図10A〜10
Cは、図9の高レベルフローチャートのステップの詳細
な一連のフローチャートである。
FIG. 9 is a high-level flowchart for explaining the whole iris identification method of the present invention.
C is a detailed series of flowcharts for the steps of the high-level flowchart of FIG.

【0029】図10A〜10Cにおいて示されるよう
に、本発明による虹彩同定法においては、以下のプロセ
スの一つ以上を包含させることによって種々の態様を認
識することができる。第1に、カード番号又はPIN確
認プロセスS101〜S103によって、データベース
から対応する番号に従う個人情報を検索し取得すること
によって、ユーザーの同一性が確かめられる。カード番
号又はPINを入力した後、イメージ獲得プロセスS1
04〜S105により、確認プロセス中に得られたユー
ザーの個人情報に従ってカメラ位置を調節し、複数の光
源を制御することによって、動的虹彩イメージが獲得さ
れる。
As shown in FIGS. 10A to 10C, in the iris identification method according to the present invention, various aspects can be recognized by including one or more of the following processes. First, the identity of a user can be confirmed by searching and acquiring personal information according to a corresponding number from a database by a card number or PIN confirmation process S101 to S103. After entering the card number or PIN, the image acquisition process S1
According to 04-S105, a dynamic iris image is acquired by adjusting the camera position according to the user's personal information obtained during the confirmation process and controlling the plurality of light sources.

【0030】本発明によって取得し且つ分析することが
できる異なる同定パラメータについて、以下に説明す
る。
The different identification parameters that can be obtained and analyzed according to the invention are described below.

【0031】虹彩繊維構造の密度及びテキスチャー形態 虹彩繊維構造確認プロセスS106〜S110を用い
て、上述のプロセス中に獲得された選択された静止虹彩
イメージのWavelet変換によって虹彩分析に適し
たゾーンのイメージ信号を変換することによって同定パ
ラメータを測定した後に、対応する同定パラメータによ
ってユーザーの同一性が確かめられる。スペクトル分析
の可変マルチセクターシステムに関して以下に説明する
ように、変換は、図8のゾーン又は図16の個々のセク
ターに適用することができる。
Density and Texture Morphology of Iris Fiber Structure Using the iris fiber structure confirmation processes S106-S110, the image signals of the zones suitable for iris analysis by Wavelet transform of the selected still iris image acquired during the above process. After measuring the identification parameters by transforming, the identity of the user is ascertained by the corresponding identification parameters. The transformation can be applied to the zones of FIG. 8 or to the individual sectors of FIG. 16, as described below with respect to the variable multi-sector system of spectral analysis.

【0032】本発明の一態様においては、虹彩構造確認
プロセスは、ステップS106、S107(図10A)
において、虹彩イメージの動的信号を予備処理すること
によって、虹彩イメージ分析に適したゾーン(選択ゾー
ンx;実質的にANWの一部及び全瞳孔を含み、虹彩直
径の1/3よりも大きく1/2よりも小さい範囲内)を
選択し;ステップS108において、二次元Wavel
et変換(例えば、Haar変換のようなWavele
t変換)によって選択されたゾーンの選択された静止イ
メージ信号を変換した後に虹彩繊維構造密度及びテキス
チャー形態に関する特殊化された情報を表すWavel
et変換係数同定パラメータを測定し;ステップS10
9、S110によって、データベースから対応するパラ
メータを検索することによってユーザーの同一性を確認
する;工程から構成することができる。
In one embodiment of the present invention, the iris structure confirmation process includes steps S106 and S107 (FIG. 10A).
, By pre-processing the dynamic signal of the iris image, a zone suitable for iris image analysis (selection zone x; substantially greater than one-third of the iris diameter, including part of the ANW and the entire pupil). / 2) (in a range smaller than / 2); in step S108, two-dimensional Wave
et transformation (eg, Wavelet like Haar transformation)
Wave which represents specialized information on iris fiber structure density and texture morphology after transforming the selected still image signal of the selected zone by the t transform).
Measure the et conversion coefficient identification parameter; Step S10
9. In S110, the identity of the user is confirmed by searching the corresponding parameter from the database;

【0033】Wavelet変換 概して、虹彩繊維構造の密度及びテキスチャー形態は人
間毎に異なる。主として低周波数ゾーンにおける密度に
関する情報を含むWavelet変換(特に、Haar
変換のようなWavelet変換)を行なうと、特に、
二次元Haar変換係数の低周波数成分は、虹彩繊維密
度及びテキスチャー形態の殆どの情報を有する。
Wavelet Transform Generally, the density and texture morphology of the iris fiber structure varies from person to person. Wavelet transforms containing information about the density mainly in the low frequency zone (especially Haar
In particular, when performing Wavelet transformation such as transformation,
The low-frequency component of the two-dimensional Haar transform coefficient has most information on the iris fiber density and texture morphology.

【0034】低周波数成分は、上記したように選択され
た虹彩イメージ信号に関してWavelet変換を行な
い、周波数特性を測定し、周波数特性を示す二次元Ha
ar変換の選択された低周波数係数を同定パラメータと
して決定することによって、虹彩繊維密度及びテキスチ
ャー形態の殆どの情報を有するように選択される。本発
明においてこのように適用されるHaar変換は、対称
で、分離可能で、単一であり、寸法(スケール)及び位
置によって変動する以下のHaar関数を用いる。
The low frequency component is subjected to Wavelet transform on the iris image signal selected as described above, and the frequency characteristic is measured.
By determining the selected low frequency coefficient of the ar transform as an identification parameter, it is selected to have most information on iris fiber density and texture morphology. The Haar transform so applied in the present invention uses the following Haar function which is symmetric, separable, unitary and varies with size (scale) and position.

【0035】更なるHaar関数は、以下のように定義
される。
A further Haar function is defined as follows:

【数1】 (Equation 1)

【0036】スペクトル分析アルゴリズムを簡単にする
ために、好ましい態様は、標準化ファクター2−m/2
を無視する。したがって、上記関数の定義は次のように
なる。
To simplify the spectral analysis algorithm, the preferred embodiment uses a standardization factor of 2- m / 2
Ignore Therefore, the definition of the above function is as follows.

【数2】 (Equation 2)

【0037】この関数は、また、シグナムHaar関数
と呼ばれる。関数の二進数がリスティングにおける関数
の次数を決定する。本発明において、実際のHaar変
換を測定する場合には、大きなサイズのイメージのため
に膨大な計算となる。しかしながら、コンピュータ計算
時間は、変換フローグラフのバタフライ構造によって大
きく向上する。
This function is also called the Signum Haar function. The binary of the function determines the order of the function in the listing. In the present invention, when measuring the actual Haar transform, a huge amount of calculation is required for a large-sized image. However, the computation time is greatly improved by the butterfly structure of the transformation flow graph.

【0038】シグナムHaar関数による迅速なスペク
トル変換アルゴリズムをグラフで示したものを図15に
示す(ここではn=18である)。このグラフは、変換
フローグラフのバタフライ構造を表す。グラフの縦軸に
沿って、P0〜P7は、変換されるピクセル値を示す。
FIG. 15 shows a graph of a rapid spectrum conversion algorithm using the Signum Haar function (here, n = 18). This graph represents the butterfly structure of the conversion flow graph. Along the vertical axis of the graph, P0 to P7 indicate pixel values to be converted.

【0039】このフローグラフにおいて、右に向かって
進行するそれぞれの連続レベルに関する値は、以下の式
に基づく先の値による。
In this flow graph, the value for each continuous level that progresses to the right is based on the previous value based on the following equation.

【数3】 式中、m=n+1であり、X[n]はピクセルnの明度
である。
(Equation 3) Where m = n + 1 and X [n] is the brightness of pixel n.

【0040】変換フローグラフのバタフライ構造を用い
る結果として、Haar関数によるスペクトル変換プロ
グラムは、従来の方法よりも200倍早く操作される。
As a result of using the butterfly structure of the transformation flow graph, the spectrum transformation program with the Haar function operates 200 times faster than the conventional method.

【0041】可変マルチセクター分析 Haar関数を用いたスペクトル分析の可変マルチセク
ターシステムを以下に説明する。可変マルチセクターシ
ステムは、好ましくは図8に関して上記したゾーン選択
法の全体に亙って行なわれる。時折、グレアの形成、瞼
及び睫における干渉が虹彩のセクション内で起こるか、
或いは虹彩の大きな可視部分が分析のために利用できな
い場合がある。虹彩の部分が干渉を受けたり利用できな
いことにより、比較のために利用できるセクターの数が
減少し、それによって人間同定の信頼性が低下する。
Variable Multi-Sector Analysis A variable multi-sector system for spectral analysis using the Haar function will be described below. The variable multi-sector system is preferably implemented throughout the zone selection method described above with respect to FIG. Occasionally, glare formation, interference in the eyelids and eyelashes occurs within the section of the iris,
Alternatively, a large visible portion of the iris may not be available for analysis. The interference or unavailability of the iris portion reduces the number of sectors available for comparison, thereby reducing the reliability of human identification.

【0042】イメージ分析は、虹彩イメージを、図16
に示すように、外側環100及び瞳孔120を含む内側
環状ゾーンも分割することによって開始される。環状ゾ
ーンから外側内部及び外部環100を分割する境界は、
虹彩の基点から50ピクセルの距離に設定される。50
ピクセルよりも大きいか又は小さい値は、更なる態様に
おいて用いることができる。外側環の外側境界は、ほぼ
鞏膜と虹彩の境界において始まる。外側環の直径は、個
人間で異なる虹彩寸法、虹彩イメージを得る異なる範囲
などのような多くのファクターのために変化する可能性
がある。外側環100に対応する虹彩の部分と、瞳孔1
20と外側環100との間の領域110とは、異なる速
度で収縮及び膨張するので、内側及び外側環に関して異
なる標準化ファクターが用いられる。
In the image analysis, the iris image is converted to the image shown in FIG.
As shown in, the inner ring zone including the outer ring 100 and the pupil 120 is also started by splitting. The boundary separating the outer inner and outer rings 100 from the annular zone is:
The distance is set to 50 pixels from the origin of the iris. 50
Values larger or smaller than pixels can be used in further aspects. The outer border of the outer annulus begins approximately at the sclera-iris border. The diameter of the outer annulus can vary due to many factors, such as different iris sizes between individuals, different ranges for obtaining iris images, and the like. Iris corresponding to outer ring 100 and pupil 1
Since region 110 between 20 and outer ring 100 contracts and expands at different rates, different normalization factors are used for the inner and outer rings.

【0043】現在好ましい態様においては、それぞれの
領域100、110を、次に、好ましくは等しい寸法の
16のセクターに、即ち、合計で参照記号I〜I31
によって示される全部で32のセクターに更に分割す
る。32セクターI〜I31のそれぞれに関して、上
記記載のようにWavelet変換を用いて1,024
Haar関数係数を算出して、32×32のマトリクス
を形成する。しかしながら、すべてのゾーンにおけるセ
クターの全数(n+p)、それぞれの個々のゾーンにお
けるセクターの数(n,p)、セクターの寸法及びHa
ar関数係数の数を変化させてもよいことは、本発明の
範囲内である。即ち、それぞれのゾーンは、異なる数の
セクター(n,p)を有していてよく、即ち、領域11
0は、放射状に10のセクターに分割することができ
(P=10)、一方外側環100は、放射状に16のセ
クターに分割される(n=16)。
In a currently preferred embodiment, each region 100, 110 is then divided into 16 sectors, preferably of equal size, ie, the reference symbols I 0 -I 31 in total.
Is further subdivided into a total of 32 sectors. For each of the 32 sectors I 0 to I 31 , 1,024 using the Wavelet transform as described above
The Haar function coefficients are calculated to form a 32 × 32 matrix. However, the total number of sectors in all zones (n + p), the number of sectors in each individual zone (n, p), the dimensions of the sectors and Ha
It is within the scope of the present invention that the number of ar function coefficients may be varied. That is, each zone may have a different number of sectors (n, p), ie, the region 11
0 can be radially divided into 10 sectors (P = 10), while outer ring 100 is radially divided into 16 sectors (n = 16).

【0044】次に、概して、それぞれ下瞼及び上瞼に関
して参照記号13A及び13Bによって示される瞼又は
睫によって邪魔されるか又は干渉されるセクターは、隣
接セクター係数比較によって拒絶される。隣接するセク
ター係数を比較することによって、高周波数係数の鋭利
な変動が観察された場合には、そのセクターは欠陥とし
て拒絶される。図16を参照すると、セクター比較は、
セクター0を15から、及びセクター7を8から分割す
る水平線において始まる四つのセクターの群について行
なわれ、時計方向又は時計の逆方向に、隣接するセクタ
ーについて進行する。この方法においては、セクターI
〜I,I〜I,I〜I11及びI15〜I
12が比較される。
Next, generally, sectors that are obstructed or interfered by eyelids or eyelashes, indicated by reference symbols 13A and 13B with respect to the lower and upper eyelids, respectively, are rejected by adjacent sector coefficient comparison. If a sharp change in the high frequency coefficient is observed by comparing adjacent sector coefficients, the sector is rejected as a defect. Referring to FIG. 16, the sector comparison is:
This is done for a group of four sectors starting at the horizontal which divides sector 0 from 15 and sector 7 from 8 and proceeds clockwise or counterclockwise for adjacent sectors. In this method, sector I
0 to I 3 , I 7 to I 4 , I 8 to I 11 and I 15 to I
12 are compared.

【0045】例えば、セクターI及びIにおける高
周波数係数が比較され、差が、予め定められたセクター
高周波数係数しきい値を超えない場合には、セクターI
は良好として認識される。セクターIは、良好とし
て認識されるか、或いは、瞼によって閉じられた場合に
は瞳孔の分析中に拒絶される。次に、セクターI及び
の係数が比較され、図16において示されるよう
に、瞼の境界はセクターIに位置している。セクター
における境界は、セクター高周波数係数しきい値を
超える差を引き起こし、セクターIは拒絶される。セ
クターIを拒絶した後、セクターIも同様に拒絶さ
れる。同様のプロセスを、残りの四分円のセクターに関
して繰り返す。
For example, the high frequency coefficients in sectors I 0 and I 1 are compared, and if the difference does not exceed a predetermined sector high frequency coefficient threshold,
1 is recognized as good. Sector I 0 is recognized as good or rejected during pupil analysis if closed by eyelids. Next, the coefficient of sectors I 1 and I 2 are compared, as shown in FIG. 16, the border of eyelid is located in sector I 2. Boundary in the sector I 2 will cause the difference exceeding the sector high frequency coefficient threshold and sector I 2 will be rejected. After rejecting the sector I 2, sector I 3 also be rejected as well. A similar process is repeated for the remaining quadrant sectors.

【0046】分析から拒絶されたセクターを除去した
後、完全な1,024Haar係数のサブセットを選択
する。選択される係数の数は、種々のファクターによっ
て決定される。係数が不必要に多すぎると、データベー
スのサイズが増大し、係数が少なすぎると、認識の質が
低下する。更に、幾つかの係数は、イメージの輝度の変
化と共に変化しており、また幾つかの高周波数係数は多
すぎるノイズを含んでいるので、選択しない。実験の結
果、好ましい態様は、1,024Haar係数の32×
32マトリクスから選択された31の係数を用いる。選
択された係数の特定のマトリクス位置は、次のものであ
る:(0,1),(1,0),(1,1),(0,
2),(0,3),(2,0),(3,0),(1,
2),(1,3),(2,1),(3,1),(0,
4),(0,5),(0,6),(0,7),(4,
0),(5,0),(6,0),(7,0),(1,
4),(1,5),(1,6),(1,7),(4,
1),(5,1),(6,1),(7,1),(2,
2),(3,2),(2,3)及び(3,3)。異なる
態様においてはより多いか又はより少ない数の係数を用
いることができる。
After removing the rejected sectors from the analysis, a subset of the complete 1,024 Haar coefficients is selected. The number of coefficients selected is determined by various factors. Unnecessarily too many coefficients increase the size of the database, while too few coefficients degrade recognition quality. In addition, some coefficients are not selected because they change with changes in image brightness, and some high frequency coefficients contain too much noise. As a result of the experiment, a preferable mode is 32 × 1,024 Haar coefficient.
31 coefficients selected from 32 matrices are used. The specific matrix positions of the selected coefficients are: (0,1), (1,0), (1,1), (0,
2), (0,3), (2,0), (3,0), (1,
2), (1,3), (2,1), (3,1), (0,
4), (0,5), (0,6), (0,7), (4,
0), (5, 0), (6, 0), (7, 0), (1,
4), (1,5), (1,6), (1,7), (4,
1), (5,1), (6,1), (7,1), (2,1)
2), (3,2), (2,3) and (3,3). More or less coefficients can be used in different embodiments.

【0047】32のセクターI〜I31のそれぞれか
ら31の係数を選択することによって、大きさが約1キ
ロバイトの虹彩参照記録を生成することができる。記録
の最初の32ビットは、セクター拒絶分析結果を含む。
By selecting 31 coefficients from each of the 32 sectors I 0 -I 31 , an iris reference record approximately 1 kilobyte in size can be generated. The first 32 bits of the record contain the result of the sector rejection analysis.

【0048】同定される新しい虹彩イメージを、上記の
参照イメージと同様の方法で処理する。得られる特性記
録を、データベース中に記録されているすべての虹彩参
照記録と比較する。入力と参照虹彩係数との間の差の合
計を、セクター毎に算出する。合計の値は、係数標準化
のために、0〜2の範囲内である。1の合計値は絶対的
にグレーなイメージを表し、0はセクタースペクトルの
完全な一致を示し、2は同等のモジュールであるが反対
の符号のスペクトルを表す。
The new iris image that is identified is processed in a manner similar to the reference image described above. The resulting characteristic record is compared to all iris reference records recorded in the database. The sum of the difference between the input and the reference iris coefficient is calculated for each sector. The value of the sum is in the range of 0 to 2 for coefficient normalization. A total value of 1 represents an absolutely gray image, 0 represents a perfect match of the sector spectrum, and 2 represents a spectrum of equivalent modules but of opposite sign.

【0049】直接的な実験の結果、幾つかのセクター
は、虹彩の蠕動(虹彩の幾つかの領域の迅速な無意識の
動き)のために参照セクターと異なることが分かった。
したがって、合計値が1未満のセクターのみが虹彩イメ
ージ分析において好ましく用いられる。この方法におい
ては、蠕動によって害されたセクターは、拒絶されたセ
クターに加えられ、認識作業からは排除される。虹彩イ
メージ分析において用いられるセクターの最小数は、そ
れぞれの眼に関して10である。認識の質を対応して低
下させれば、これよりも少ないセクターを用いることが
できる。差を強調するために、セクター係数の比較の結
果を掛け合わせる。したがって、同定するイメージが参
照イメージを一致する場合には、得られる値は0に近く
なる。これに対して、異なるイメージが導く値は数百〜
数千の範囲内である。
Direct experiments have shown that some sectors differ from the reference sector due to iris peristalsis (rapid unconscious movement of some areas of the iris).
Therefore, only sectors with a total value less than 1 are preferably used in iris image analysis. In this way, the sectors perturbed by peristalsis are added to the rejected sectors and excluded from the recognition task. The minimum number of sectors used in iris image analysis is 10 for each eye. Fewer sectors can be used if the quality of perception is correspondingly reduced. Multiply the results of the sector coefficient comparisons to emphasize the differences. Thus, if the image to be identified matches the reference image, the value obtained will be close to zero. On the other hand, different images lead to hundreds of values.
Within the thousands.

【0050】低周波数スペクトル係数は、虹彩繊維構造
の密度及びテキスチャー形態に関する多くの情報を含ん
でいるので、Haar変換の結果から実験的に選択され
た低周波数ゾーンの係数を同定のために利用する。
Since the low frequency spectral coefficients contain a lot of information about the density and texture morphology of the iris fiber structure, the coefficients of the low frequency zones experimentally selected from the results of the Haar transform are used for identification. .

【0051】自律神経環及び瞳孔反応 図10Bの瞳孔及びANW反応確認プロセスS111〜
S116により、獲得された虹彩の動的イメージから瞳
孔及びANWを検出することによって、対応する同定パ
ラメータによってユーザーの同一性が確かめられる。次
に、検出された動的イメージ信号からの瞳孔及びANW
の動的反応(収縮及び膨張)を用いて同定パラメータを
測定する。
Autonomic Nervous Ring and Pupillary Response Pupil and ANW Response Confirmation Process S111-FIG. 10B
At S116, by detecting the pupil and the ANW from the acquired dynamic image of the iris, the identity of the user is confirmed by the corresponding identification parameters. Next, the pupil and ANW from the detected dynamic image signal
The identification parameters are measured using the dynamic response (contraction and expansion) of

【0052】更に、本発明の一態様においては、瞳孔及
びANW反応確認プロセスは、以下の工程から構成する
ことができる:虹彩の獲得された動的イメージの中心部
分をコンピュータ処理することによって瞳孔ゾーンを検
出し(図10BのS111、S112);ANWのゾー
ンをコンピュータ処理し(S113);検出されたゾー
ンにおける動く瞳孔及びANWの反応(膨張又は収縮)
時間をコンピュータ算出した後に、生存瞳孔及びANW
をそれぞれ認識するための同定パラメータを測定し(S
114);データベースから対応するパラメータを検索
することによってユーザーの同一性を確かめる。
Further, in one aspect of the present invention, the pupil and ANW response confirmation process can comprise the following steps: Pupil zone by computer processing a central portion of the acquired dynamic image of the iris. (S111, S112 in FIG. 10B); computer processing of the ANW zone (S113); response of the moving pupil and ANW in the detected zone (expansion or contraction).
After computing the time, the surviving pupil and ANW
The identification parameter for recognizing each is measured (S
114); Verify the identity of the user by searching the database for the corresponding parameters.

【0053】図11は、一定の角度θにおける瞳孔10
a及びANW10bの動きを説明するための虹彩10c
の例示イメージであり、図12は、時間変動に伴う一次
元データにおいて変換された、平均瞳孔半径R1、一定
の角度θにおける瞳孔半径R2、及び一定の角度θにお
けるANWの半径R3を示すグラフである。グラフにお
いて、第1の時間「t1」はフラッシュ光源の操作時間
を表し、第2の時間「t2」はR1の収縮の開始時間を
表し、第3の時間「t3」は平均瞳孔半径が最小の時間
を表し、第4の時間「t4」は瞳孔半径が一定の角度θ
において最小の時間を表し、第5の時間「t5」はAN
Wの半径が一定の角度θにおいて最小の時間を表す。し
たがって、これらの動的イメージを比較した結果とし
て、光に対して無意識に反応する瞳孔及びANWの反応
を通して、それぞれの同定パラメータを得ることができ
る。
FIG. 11 shows the pupil 10 at a constant angle θ.
a and an iris 10c for explaining the movement of the ANW 10b
FIG. 12 is a graph showing the average pupil radius R1, the pupil radius R2 at a certain angle θ, and the ANW radius R3 at a certain angle θ converted in one-dimensional data with time variation. is there. In the graph, the first time “t1” represents the operation time of the flash light source, the second time “t2” represents the start time of the contraction of R1, and the third time “t3” represents the time when the average pupil radius is the minimum. Represents the time, and the fourth time “t4” is a time when the pupil radius is a constant angle θ.
Represents the minimum time, and the fifth time “t5” is AN
The radius of W represents the minimum time at a constant angle θ. Therefore, as a result of comparing these dynamic images, it is possible to obtain respective identification parameters through the pupil and the ANW that respond unconsciously to light.

【0054】上記の目的のために、本発明は、瞳孔が収
縮する際に瞳孔半径の動きが一定の割合(例えば5%以
上)を超えた場合には生体を表すと考えられる予め定め
られた参照値を用いる。瞳孔端もまた、瞳孔の動きを観
察するために、取り込まれた虹彩動的イメージから検出
されなければならない。現在のところ、対称中心検索ア
ルゴリズムを用いることによって、虹彩のほぼ中心を決
定した後に瞳孔端を検出することが可能である。
For this purpose, the present invention provides a predetermined method which is considered to represent a living body if the movement of the pupil radius exceeds a certain percentage (for example, 5% or more) when the pupil contracts. Use the reference value. Pupil edges must also be detected from the captured iris dynamic image to observe pupil movement. At present, it is possible to detect the pupil edge after determining the approximate center of the iris by using a symmetric center search algorithm.

【0055】この方法によれば、虹彩イメージをその中
心で取り込むことができずに、ある程度右又は左に偏っ
ている場合であっても、エラーを起こすことなく虹彩を
同定することが可能である。
According to this method, even if the iris image cannot be captured at its center and is somewhat shifted to the right or left, the iris can be identified without causing an error. .

【0056】虹彩イメージが同定するためには偏り過ぎ
ている場合には、再度取り込むことができる。また、虹
彩イメージではなく他のイメージを取り込んだ場合に
は、多くの場合において、真のイメージと偽のイメージ
とを識別することができる。
If the iris image is too biased for identification, it can be captured again. In addition, when another image is captured instead of the iris image, a true image and a false image can be distinguished in many cases.

【0057】上記記載の対称中心検索アルゴリズムにお
いては、以下の関数F(i)を、イメージの水平線及び
垂直線に関して得る。
In the symmetric center search algorithm described above, the following function F (i) is obtained for the horizontal and vertical lines of the image.

【数4】 ここで、(Equation 4) here,

【数5】 およびNはイメージ線の長さであり、x(i)は水平線
又は垂直線のi番目のピクセルの輝度であり、i≦0の
場合にはx(i)=x(0)であり、i≧0の場合には
x(i)=x(N)である。
(Equation 5) And N are the lengths of the image lines, x (i) is the luminance of the ith pixel of the horizontal or vertical line, and if i ≦ 0, then x (i) = x (0), i When ≧ 0, x (i) = x (N).

【0058】かかる場合においては、関数F(i)の絶
対値を最小にする定義のドメイン(i)は、対称の中心
に存在する。これらの方法を水平線及び垂直線に提供す
ると、関数F(i)の絶対値を最小にする定義のドメイ
ン(i)が横切る点が対称の中心として設定される。水
平線及び垂直線の定義のドメイン(i)が横切らずに散
乱する場合、特にこれらが予め定められた範囲から偏向
する場合には、これは、取り込まれたイメージが虹彩イ
メージではないか又は虹彩イメージが右又は左に過度に
偏っていることを示し、したがって、この虹彩イメージ
は、更なる同定を行なう前に再び取り込まなければなら
ない。
In such a case, the definition domain (i) that minimizes the absolute value of the function F (i) exists at the center of symmetry. Providing these methods for horizontal and vertical lines, the point of intersection of the defined domain (i) that minimizes the absolute value of the function F (i) is set as the center of symmetry. If the domain (i) of the definition of the horizontal and vertical lines scatters without traversing, especially if they deviate from a predetermined range, this means that the captured image is not an iris image or an iris image Indicates that the iris is excessively biased to the right or left, and thus the iris image must be recaptured before further identification can be performed.

【0059】動的イメージが上記の虹彩について取り込
まれた場合には、瞳孔及びANWが、フラッシュ光源1
2bによって収縮及び膨張せしめられる。瞳孔及びAN
Wの動きは同時には起こらず、それぞれの人間によって
異なるタイプを示す。このような同時に起こらない動き
から得られる瞳孔及びANW反応(図11及び12)か
らのパラメータが同定のために用いられる。
If a dynamic image was captured for the iris, the pupil and ANW would be
It is contracted and expanded by 2b. Pupil and AN
The movement of W does not occur at the same time, but shows different types for each person. The parameters from the pupil and ANW response (FIGS. 11 and 12) resulting from such non-simultaneous movements are used for identification.

【0060】図17を参照すると、ピュピログラム又は
瞳孔ヒストグラムによって、時間T における光のフラ
ッシュに応答する瞳孔の平均収縮及び膨張が示される。
縦軸は瞳孔の大きさ又は半径を示し、横軸はT又は光
のフラッシュの時間によって始まる時間を示す。T
は、瞳孔が光のフラッシュに応答して収縮し始める時
間であり;T−Tは瞳孔の応答の潜在時間である。
は光のフラッシュの前の瞳孔の平均半径である。T
は瞳孔が最小半径Aに収縮した時間である。瞳孔が
収縮するための時間から潜在時間を引いた値がT−T
又はTである。T及びTは、それぞれ、動的虹
彩イメージの40番目及び70番目の時間であり、A
及びAは、時間T及びTにおける瞳孔の対応する
半径である。Sは、TとTとの間の瞳孔収縮の速
度である。DABは、TとTとの間の瞳孔収縮曲線
にそった直線距離である。%Aは、Tにおける瞳孔
膨張距離又はA−Aと、平均瞳孔収縮距離又はAL
−Amとの比である。%Aは、Tにおける瞳孔膨張
距離又はA−Aと、平均瞳孔収縮距離又はAL−Am
との比である。
Referring to FIG. 17, pupilogram or
By the pupil histogram, the time T 0Hula of light in
The average contraction and dilation of the pupil in response to ash is shown.
The vertical axis indicates the size or radius of the pupil, and the horizontal axis indicates T0Or light
Indicates the time that begins by the time of the flash. T
LIs when the pupil begins to contract in response to a flash of light
Between; TL-T0Is the latency of the pupil response.
ALIs the average radius of the pupil before the flash of light. T
mIs the minimum radius A of the pupilmIs the time of contraction. Pupil
The value obtained by subtracting the latent time from the time to shrink is Tm-T
LOr TPIt is. T1And T2Are each dynamic rainbow
The 40th and 70th times of the Aya image1
And A2Is the time T1And T2Corresponding pupil at
Radius. SPIs TLAnd TmSpeed of pupil contraction between
Degrees. DABIs TLAnd TmPupil contraction curve between
It is a straight line distance along. % A1Is T1Pupil in
Expansion distance or A1-AmAnd average pupil contraction distance or AL
-AmAnd the ratio. % A2Is T2Pupil dilation in children
Distance or A2-AmAnd average pupil contraction distance or AL-Am
And the ratio.

【0061】ドラッグ又はアルコールを用いている人間
のピュピログラムは、ドラッグ又はアルコールを使用し
ていない人間のピュピログラムとは異なっているので、
ピュピログラムは、個人によるドラッグ及び/又はアル
コールの使用を検出するのに用いることができる。ドラ
ッグを用いている人間のピュピログラムは、瞳孔が最小
半径Tに収縮する時間が、標準時間よりもゆっくりに
なる。アルコールを用いている人間のピュピログラム
は、アルコールを用いていない人間と比較して、より平
坦になる、即ちDABがアルコールユーザーに関しては
より小さくなる。また、%A及び%Aは、アルコー
ルユーザーに関してはより小さくなる。
The pupilogram of humans using drugs or alcohols is different from the pupilograms of humans not using drugs or alcohols.
Pupilograms can be used to detect drug and / or alcohol use by individuals. In a human pupilogram using a drug, the time for the pupil to contract to the minimum radius T M is slower than the standard time. Pupilograms for humans using alcohol are flatter, ie, the D AB is smaller for alcohol users compared to humans who do not use alcohol. Moreover,% A 1 and% A 2 are smaller with respect to the alcohol user.

【0062】自律神経環及び瞳孔の形状 次に、ANW及び瞳孔形状確認プロセスS117〜S1
19により、選択された虹彩イメージからANW及び瞳
孔を検出し、ANW及び瞳孔の検出された形状に従って
同定パラメータを測定することによって、ユーザーの同
一性を確かめる。ANW形状は、本発明において、中央
軸変換を選択された虹彩イメージ信号に適用して用いる
ことによって、独特に測定される。瞳孔形状は、本発明
において、当該技術において公知のように、端検出及び
曲線合致アルゴリズムを用いることによって、独特に測
定される。
Autonomic Nervous Ring and Pupil Shape Next, ANW and pupil shape confirmation processes S117 to S1
According to 19, the identity of the user is ascertained by detecting the ANW and the pupil from the selected iris image and measuring the identification parameters according to the detected shape of the ANW and the pupil. The ANW shape is uniquely measured in the present invention by using a central axis transform applied to the selected iris image signal. Pupil shape is uniquely measured in the present invention by using edge detection and curve matching algorithms, as is known in the art.

【0063】自律神経環 更に、本発明のそれぞれの態様においては、ANW及び
瞳孔確認プロセスは、以下の工程から構成することがで
きる:ステップS117(図10B及び10C)によ
り、選択された虹彩イメージ信号からANW及び瞳孔を
検出し;ステップS118により、検出されたANWの
二次元イメージ信号を中央軸変換によって変換し、瞳孔
の形状を上記記載のように端検出及び曲線合致アルゴリ
ズムによって変換することによってANWの形状に基づ
いて同定パラメータをコンピュータ算出し;ステップS
119及びS120により、データベースから対応する
同定パラメータを検索することによってユーザーの同一
性を確かめる。
Autonomic Nerve Ring In addition, in each aspect of the present invention, the ANW and pupil identification process may comprise the following steps: The iris image signal selected by step S117 (FIGS. 10B and 10C). , The ANW and the pupil are detected from step S118; the two-dimensional image signal of the detected ANW is transformed by the central axis transformation, and the pupil shape is transformed by the edge detection and curve matching algorithm as described above. Computer calculation of identification parameters based on the shape of
According to 119 and S120, the identity of the user is confirmed by searching the corresponding identification parameter from the database.

【0064】図13は、虹彩イメージから検出された端
を表すANW10b及びくぼみ10dの例示図であり、
図14は、中央軸変換によって変換された一次元データ
での、図13において示されるANW10b及びくぼみ
10dの例示図である。特定の形状を有する対象の中央
軸変換は、例えば、二点以上において対象の境界に接す
る円の中心の位置である。言い換えれば、これは、対象
の境界から最も近接する点の位置である。したがって、
二次元対象を中央軸変換によって一次元データに変換す
ることが可能であるので、これを、ANW形状及び瞳孔
の形状及び位置を同定するために適用することができ
る。
FIG. 13 is a view showing an example of the ANW 10b and the depression 10d representing the edge detected from the iris image.
FIG. 14 is an exemplary diagram of the ANW 10b and the depression 10d shown in FIG. 13 with the one-dimensional data converted by the central axis conversion. The center axis transformation of an object having a specific shape is, for example, the position of the center of a circle that touches the object boundary at two or more points. In other words, this is the position of the point closest to the target boundary. Therefore,
Since it is possible to transform a two-dimensional object into one-dimensional data by means of a central axis transformation, this can be applied to identify the shape and position of the ANW shape and the pupil.

【0065】図18は、形状、位置及び同定パラメータ
を示す瞳孔及び虹彩の例示図である。瞳孔の形状は、本
発明において、当該技術において公知の端検出アルゴリ
ズムを用いて、独特に測定される。瞳孔端は、概して、
図18において参照記号10aによって示される。更
に、図18において参照記号10i及び10hによって
それぞれ示される虹彩及び瞳孔の中心は、ジオメトリー
によって測定され、同定パラメータとして用いられる。
概して参照記号10jによって示される虹彩中心と瞳孔
中心との間の分離方向及び距離は、同定パラメータとし
て用いられる。
FIG. 18 is an illustration of the pupil and iris showing the shape, position and identification parameters. Pupil shape is uniquely measured in the present invention using edge detection algorithms known in the art. Pupil edges are generally
In FIG. 18, it is indicated by reference numeral 10a. Further, the centers of the iris and pupil, indicated by reference signs 10i and 10h in FIG. 18, respectively, are measured by geometry and used as identification parameters.
The separation direction and distance between the center of the iris and the center of the pupil, generally indicated by reference symbol 10j, are used as identification parameters.

【0066】更に、多くの瞳孔は完全には円形の形状で
はなく、多くは、楕円長軸の方向に偏差する楕円であ
る。好ましい態様においては、瞳孔の楕円度の配向及び
大きさは、本発明において、当該技術において公知の曲
線及び形状合致アルゴリズムを用いて、独特に測定され
る。図18を参照すると、瞳孔楕円の長軸及び短軸は、
それぞれ、参照記号10m及び10nによって示され
る。瞳孔の楕円度は、短軸10nと長軸10mとの比と
して表される。図18において概して参照記号10fに
よって示される瞳孔の周縁に沿った平坦部分、並びにそ
れぞれ10g及び10eによって示される瞳孔が凹んだ
り膨らんだりしている領域を認識及び特徴付けて、更な
る同定パラメータとして認識の質を向上させることがで
きる。
Furthermore, many pupils are not perfectly circular in shape, but many are ellipses that deviate in the direction of the major axis of the ellipse. In a preferred embodiment, the orientation and magnitude of the pupil ellipticity is uniquely measured in the present invention using curve and shape matching algorithms known in the art. Referring to FIG. 18, the major axis and the minor axis of the pupil ellipse are
Indicated by reference symbols 10m and 10n, respectively. The pupil ellipticity is expressed as the ratio between the short axis 10n and the long axis 10m. Recognize and characterize the flat portion along the periphery of the pupil, generally indicated by reference numeral 10f in FIG. 18, and the area where the pupil is depressed or bulging, indicated by 10g and 10e, respectively, and recognize them as further identification parameters. Quality can be improved.

【0067】くぼみの検出 また、くぼみ確認プロセスS121〜S127を用い
て、くぼみが存在しているか否かを判断し、くぼみが存
在している場合にはそのゾーンを検出し、次に、検出さ
れたくぼみの位置及び形状に基づいて同定パラメータを
測定することによって、ユーザーの同一性を確かめる。
Detection of dents Further, using dent confirmation processes S121 to S127, it is determined whether or not dents are present. If a dent is present, the zone is detected. The identity of the user is ascertained by measuring identification parameters based on the location and shape of the depression.

【0068】更に、本発明による虹彩同定法において
は、図10Cに示される以下の複数の工程の少なくとも
一つを含ませることによって、くぼみ確認プロセスを上
記の態様に適用することができる。即ち、第1のくぼみ
確認プロセスS121を行ない、次に、ステップS12
5〜S129により、獲得された虹彩の選択された静止
イメージに基づいてくぼみが存在しているかどうかを判
断することによってユーザーの同一性を確かめ、次に、
くぼみが存在している場合にはくぼみのイメージ信号を
中央軸変換によって変換し、変換結果からのくぼみの位
置及び形状に基づいて同定パラメータを測定する。第2
のくぼみ確認プロセスS122〜S124は、第1のく
ぼみ確認プロセスの結果としてくぼみが存在していない
場合に行なわれ、参照虹彩中にくぼみが存在しているか
どうかを再び判断した後に参照虹彩中にくぼみがない場
合にはユーザーは許可され、逆に参照虹彩中にくぼみが
存在する場合にはユーザーは拒絶される。
Further, in the iris identification method according to the present invention, the indentation confirmation process can be applied to the above-described embodiment by including at least one of the following plurality of steps shown in FIG. 10C. That is, a first dent confirmation process S121 is performed, and then a step S12 is performed.
5 to S129, verify the identity of the user by determining whether a depression is present based on the selected still image of the acquired iris,
If a dent exists, the image signal of the dent is converted by central axis conversion, and the identification parameter is measured based on the position and shape of the dent from the conversion result. Second
The indentation confirmation processes S122 to S124 are performed when the indentations do not exist as a result of the first indentation confirmation process. If not, the user is allowed; conversely, if there is a depression in the reference iris, the user is rejected.

【0069】更に、本発明のそれぞれの態様において
は、第1のくぼみ確認プロセスは、以下の工程から構成
することができる:ステップS121(図10C)によ
り、獲得された虹彩の静止イメージ信号から虹彩イメー
ジの端を検出することによってくぼみが存在しているか
否かを判断し;判断ステップの結果としてくぼみが存在
している場合には、ステップS125によりくぼみゾー
ンを検出し;ステップS126により、検出されたくぼ
みゾーンの二次元イメージ信号を中央軸変換によって変
換した後にくぼみの形状及び位置に基づいて同定パラメ
ータをコンピュータ算出し;ステップS127〜S12
9により、データベースから対応するパラメータを検索
することによってユーザーの同一性を確かめる。
Further, in each aspect of the present invention, the first dent confirmation process can comprise the following steps: Step S121 (FIG. 10C), from the acquired iris still image signal, the iris. It is determined whether an indentation exists by detecting an edge of the image; if an indentation exists as a result of the determination step, an indentation zone is detected in step S125; and an indentation zone is detected in step S126. After converting the two-dimensional image signal of the hollow zone by the central axis conversion, the identification parameters are computer-calculated based on the shape and position of the hollow; steps S127 to S12.
9 ascertains the user's identity by searching the database for the corresponding parameters.

【0070】更に、本発明のそれぞれの態様において
は、第2のくぼみ確認プロセスは、以下の工程から構成
することができる:ステップS121により、入力イメ
ージ中にくぼみが存在しているかどうかを判断し;ステ
ップS122により、入力イメージ中にくぼみが存在し
ていない場合には参照虹彩中にくぼみが存在しているか
どうかを再び判断し;ステップS123により、くぼみ
が参照虹彩中に存在していない場合には許可し、ステッ
プS124により、参照虹彩中にくぼみが存在している
場合には拒絶する。
Further, in each aspect of the present invention, the second indentation confirmation process can comprise the following steps: Step S121 determines whether an indentation is present in the input image. If it is determined in step S122 that no depression is present in the input image, it is determined again whether or not a depression is present in the reference iris; if it is determined in step S123 that no depression is present in the reference iris, Is permitted, and rejected if there is a depression in the reference iris in step S124.

【0071】上記のように構成された本発明の操作及び
本発明によって達成される効果について、実施例を用い
ることによって以下に説明する。
The operation of the present invention configured as described above and the effects achieved by the present invention will be described below by using examples.

【0072】まず、カード読み取りユニット40又はキ
ー入力ユニット50により、カード番号を読み取るか、
或いはユーザーのPINをキー打ちによって入力する。
カード番号及びPIN確認プロセスを行なって、制御ユ
ニット70中のデータ蓄積ユニット80においてカード
番号及びPINを検索することによって対応する番号が
存在するかどうかを測定する。
First, the card number is read by the card reading unit 40 or the key input unit 50,
Alternatively, the user's PIN is input by keystroke.
A card number and PIN verification process is performed to determine whether the corresponding number is present by searching for the card number and PIN in the data storage unit 80 in the control unit 70.

【0073】対応する番号がない場合には、ユーザーは
同定できないユーザーとして拒絶される。対応する番号
が見出された場合には、次に制御ユニット70によりユ
ーザーが同定できるユーザーとして許可され、次に、カ
ード番号又はPINに対応する更なる個人情報を読み取
った後に、制御信号をモータ駆動ユニット30に送っ
て、カメラ高さをユーザーに適するように調節する。こ
の時点において、制御信号は、現在のカメラ位置とユー
ザーに適したカメラ位置との間の高さの差を比較して、
次にモータを前進又は逆進方向に駆動することによって
カメラ高さを自動的に調節する。更に、二つの目の間の
幅もまた、それぞれのユーザーに関して調節することが
できる。
If there is no corresponding number, the user is rejected as an unidentified user. If a corresponding number is found, then the control unit 70 allows the user to be identified and then, after reading further personal information corresponding to the card number or PIN, sends the control signal to the motor. It is sent to the drive unit 30 to adjust the camera height to suit the user. At this point, the control signal compares the height difference between the current camera position and the camera position appropriate for the user,
The camera height is then automatically adjusted by driving the motor forward or backward. Further, the width between the two eyes can also be adjusted for each user.

【0074】次に、制御ユーザー70により、虹彩イメ
ージピックアップユニット20を制御することによって
赤外光源12aを点灯することにより、最初のオートフ
ォーカスの調節が行なわれる。ユーザーは、視野誘導光
源17を点灯することによって視野ポインター18に導
かれて、虹彩イメージが位置方向に偏ることが防止され
る。したがって、虹彩イメージを取り込む際には、取り
込まれる人間の虹彩イメージの視野が、誘導光源17
(即ち淡青色の光源)によってレンズの中心部分に固定
される。
Next, the control user 70 controls the iris image pickup unit 20 to turn on the infrared light source 12a, thereby performing the first autofocus adjustment. The user is guided to the visual field pointer 18 by turning on the visual field guiding light source 17, thereby preventing the iris image from being biased in the position direction. Therefore, when capturing an iris image, the field of view of the captured human iris image depends on the guiding light source 17.
(I.e., light blue light source) fixed to the center of the lens.

【0075】虹彩動的イメージは、短いサイクルでフラ
ッシュ光源12bを操作しながら数秒間とられる。次に
全ての光源が消される。虹彩イメージは、所定のソフト
ウェアによって短時間に制御されたフラッシュ光源12
bによって瞳孔及びANWの変化する形状を示すように
とられなければならない。この目的のために、本発明に
おいては1秒当たり25フレームを超える虹彩イメージ
がとられる。
The iris dynamic image is taken for a few seconds while operating the flash light source 12b in a short cycle. Then all light sources are turned off. The iris image is obtained by controlling the flash light source 12 controlled in a short time by predetermined software.
b must be taken to indicate the changing shape of the pupil and the ANW. To this end, the present invention takes more than 25 iris images per second.

【0076】上記記載のように取り込まれた虹彩の連続
イメージは、データ処理ユニット60において予備処理
される。次に、虹彩分析に適したゾーンが選択された後
に、対応するゾーンのイメージ信号が選択される。好ま
しい態様においては、分析は、上記に詳細に説明したス
ペクトル変換の可変マルチセクターシステムにしたがっ
て、セクター毎に行なわれる。他の態様においては、虹
彩を分析するために用いられるゾーンは、図8において
示される全瞳孔を含む水平方向のストリップ状の領域、
即ち明確に視認される部分である。なぜならば、これ
は、同定される人間の睫、瞼などによって影響されない
からである。
The continuous image of the iris captured as described above is pre-processed in the data processing unit 60. Next, after selecting a zone suitable for iris analysis, an image signal of the corresponding zone is selected. In a preferred embodiment, the analysis is performed on a sector-by-sector basis according to the variable multi-sector system of spectral transformation described in detail above. In another aspect, the zones used to analyze the iris are horizontal strip-like areas that include the entire pupil as shown in FIG.
That is, it is a part that is clearly recognized. This is because it is unaffected by the identified human eyelashes, eyelids, etc.

【0077】制御ユニット70は、虹彩繊維構造確認プ
ロセスを行なって、上記に詳細に説明したように、選択
された低周波数成分のみを用いることによって、ユーザ
ーの同一性を確かめる。
The control unit 70 performs an iris fiber structure verification process to verify the identity of the user by using only the selected low frequency components, as described in detail above.

【0078】次に、制御ユニット70において、瞳孔及
びANW反応確認プロセスが行なわれ、瞳孔動的イメー
ジから瞳孔及びANWの反応を分析した後に、瞳孔及び
ANWの収縮及び膨張がフラッシュ光源12bによって
引き起こされた場合には生体を表すものとして取り込ま
れたイメージが許可され、動きがない場合には生体を表
さないものとして取り込まれたイメージが拒絶される。
Next, a pupil and ANW response confirmation process is performed in the control unit 70, and after the pupil and ANW responses are analyzed from the pupil dynamic image, the pupil and ANW contraction and expansion are caused by the flash light source 12b. In this case, the image captured as representing the living body is permitted, and if there is no movement, the image captured as not representing the living body is rejected.

【0079】続いて、ANW及び瞳孔形状確認プロセス
が制御ユニット70により行なわれ、選択された静止虹
彩イメージからのそれぞれの人間において異なる特性を
有するANWゾーンの二次元イメージ信号を上記記載の
中央軸変換(又はガラスファイヤ法)によって一次元デ
ータに変換することによって、ANW及び瞳孔形状に基
づいて個人の同一性を確かめる。上記記載のような瞳孔
の特定の特徴もまた、同定され比較される。
Subsequently, an ANW and pupil shape confirmation process is performed by the control unit 70 to convert the two-dimensional image signal of the ANW zone having different characteristics in each human from the selected still iris image into the central axis transformation described above. The identity of the individual is confirmed based on the ANW and the pupil shape by converting it to one-dimensional data by (or glass fire method). Certain features of the pupil as described above are also identified and compared.

【0080】次に、第1及び第2のくぼみ確認プロセス
が制御ユニット70により行なわれ、くぼみが存在する
か否か、並びにくぼみが存在する場合にはその位置及び
形状を同定する同定法によってユーザーの同一性が最終
的に確かめられる。ANWの中央軸変換の結果において
示されるように、くぼみは、イメージ処理プロセスによ
り図13及び図14の選択された虹彩静止イメージから
抽出され、くぼみ形状が端検出により明確に認められた
場合には中央軸変換により一次元データの形状及び位置
を表すことによって、くぼみの形状及び位置が同定パラ
メータとして用いられる。
Next, the first and second dent confirmation processes are performed by the control unit 70, and the identification method for identifying whether or not the dent is present and, if so, the position and shape of the dent, are performed by the user. Is finally confirmed. As shown in the results of the median axis transformation of the ANW, the dimples were extracted from the selected iris still images of FIGS. 13 and 14 by an image processing process, and if the dimple shape was clearly recognized by edge detection, By expressing the shape and position of the one-dimensional data by the central axis conversion, the shape and position of the depression are used as identification parameters.

【0081】したがって、本発明は、虹彩繊維構造及び
テキスチャー形態、光に応答する瞳孔及びANW反応、
ANW及び瞳孔の形状、虹彩動的イメージから獲得され
たくぼみの存在、形状及び位置を用いて多数の虹彩同定
のためのパラメータを測定することによって、生存人間
の虹彩を、偽造を防ぎ迅速に且つ正確に同定することに
より、特定の人間を識別する方法を提供するので、バン
キングシステム及び電子処理/決算システムに適用した
場合には金銭的な事故を防ぎ、アクセス制御システムに
適用した場合にはセキュリティーに関連する事故を排除
することができるという、数多くの有利性を有する。
Thus, the present invention provides a method for iris fiber structure and texture morphology, pupil and ANW response to light,
By measuring the parameters for multiple iris identification using the ANW and pupil shape, the presence, shape and location of indentations obtained from the iris dynamic image, the iris of a surviving human can be quickly and safely prevented from forgery. Accurate identification provides a way to identify a particular person, thus preventing financial accidents when applied to banking and electronic processing / closing systems, and security when applied to access control systems. It has numerous advantages in that accidents associated with can be eliminated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1Aは、本発明によって、生体の虹彩を同定
するための例示システムのブロックダイヤグラムであ
る。図1Bは、図1Aの態様及びその照明システムにお
ける虹彩イメージピックアップユニットの一態様を示す
カメラの側面斜視図である。
FIG. 1A is a block diagram of an exemplary system for identifying an iris of a living body according to the present invention. FIG. 1B is a side perspective view of the camera showing the embodiment of FIG. 1A and one embodiment of the iris image pickup unit in the lighting system.

【図2】図2は、図1Bの虹彩イメージピックアップユ
ニットのために用いられる視野ポインターを説明するた
めに図1Bから部分的にとられた参照図である。
FIG. 2 is a reference diagram partially taken from FIG. 1B to illustrate a field pointer used for the iris image pickup unit of FIG. 1B.

【図3】図3は、図2の視野ポインターの詳細図であ
る。
FIG. 3 is a detailed view of the field pointer of FIG. 2;

【図4】図4は、視野誘導光源をユーザーの目に反射す
る図2の視野ポインターを説明するための参照図であ
る。
FIG. 4 is a reference diagram illustrating the view pointer of FIG. 2 that reflects a view guiding light source to a user's eyes.

【図5】図1Bのシステムにおける第2のレンズの正面
図である。
FIG. 5 is a front view of a second lens in the system of FIG. 1B.

【図6】図6は、コンピュータ制御によって行なわれる
虹彩イメージピックアップユニットにおいてイメージ信
号を取り込む例のフローチャートである。
FIG. 6 is a flowchart of an example in which an iris image pickup unit is controlled by a computer to capture an image signal.

【図7】図7は、図6におけるカメラの高さ調節の例の
フローチャートである。
FIG. 7 is a flowchart of an example of height adjustment of the camera in FIG. 6;

【図8】図8は、虹彩分析のために必要な入力イメージ
信号の選択された領域(x)を説明するための虹彩イメ
ージの例示図である。
FIG. 8 is an exemplary diagram of an iris image for explaining a selected area (x) of an input image signal required for iris analysis.

【図9】図9は、本発明の虹彩同定法の全操作を説明す
る高レベルフローチャートである。
FIG. 9 is a high-level flowchart illustrating all operations of the iris identification method of the present invention.

【図10】図10A〜10Cは、図9のフローチャート
の詳細な連続フローチャートである。
10A to 10C are detailed continuous flowcharts of the flowchart of FIG. 9;

【図11】図11は、一定角度における虹彩及び自律神
経環の動的な動きを説明するための虹彩イメージの例示
図である。
FIG. 11 is a view showing an example of an iris image for explaining dynamic movement of the iris and the autonomic nerve ring at a certain angle.

【図12】図12は、図11の瞳孔の半径を瞳孔ヒスト
グラム又はピュピログラムの形態で表し、時間変動によ
る一次元データに変換された自律神経環を表す対応する
グラフである。
FIG. 12 is a corresponding graph showing the radius of the pupil of FIG. 11 in the form of a pupil histogram or pupilogram and showing the autonomic nerve ring converted to one-dimensional data due to time variation.

【図13】図13は、虹彩イメージの端が抽出される自
律神経環及びくぼみの例示図である。
FIG. 13 is an exemplary diagram of an autonomic nerve ring and a hollow from which an edge of an iris image is extracted.

【図14】図14は、中央軸変換によって一次元データ
に変換された図13の自律神経環及びくぼみの例示図で
ある。
FIG. 14 is a view showing an example of the autonomic nervous ring and the hollow of FIG. 13 converted into one-dimensional data by central axis conversion.

【図15】図15は、Haar変換フローグラフのバタ
フライ構造のダイヤグラムである。
FIG. 15 is a diagram of a butterfly structure of a Haar transform flow graph.

【図16】図16は、スペクトル分析の可変マルチセク
ターシステムを説明するための虹彩イメージの例示図で
ある。
FIG. 16 is an exemplary diagram of an iris image for explaining a variable multi-sector system for spectral analysis.

【図17】図17は、時間当たりの瞳孔の平均半径の他
のピュピログラムのグラフである。
FIG. 17 is a graph of another Pupilogram of the average pupil radius per hour.

【図18】図18は、抽出される瞳孔特性情報を含む瞳
孔の例示図である。
FIG. 18 is an exemplary diagram of a pupil including extracted pupil characteristic information.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 7/18 K 5L096 7/18 A61B 5/10 320Z (31)優先権主張番号 特願平11−350612 (32)優先日 平成11年11月5日(1999.11.5) (33)優先権主張国 日本(JP) Fターム(参考) 4C038 VA07 VB04 VC01 VC05 5B043 AA01 AA09 BA04 DA06 EA06 EA07 EA08 EA09 EA10 FA03 GA03 5B047 AA23 AB02 BB01 BC04 BC05 BC11 BC16 BC20 CA12 CA17 CA19 CB17 5C022 AA05 AB15 AB22 AC54 AC74 5C054 CA04 CA05 CF05 FC12 HA05 HA18 5L096 AA06 BA08 BA18 CA03 CA14 CA17 DA02 FA04 FA06 FA19 FA26 FA35 FA62 FA66 FA68 FA69 FA72 GA19 HA02 HA08 JA11 KA09 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 H04N 7/18 K 5L096 7/18 A61B 5/10 320Z (31) Priority claim number Patent application Hei 11-350612 (32) Priority date November 5, 1999 (11.5 November 1999) (33) Priority claim country Japan (JP) F-term (reference) 4C038 VA07 VB04 VC01 VC05 5B043 AA01 AA09 BA04 DA06 EA06 EA07 EA08 EA09 EA10 FA03 GA03 5B047 AA23 AB02 BB01 BC04 BC05 BC11 BC16 BC20 CA12 CA17 CA19 CB17 5C022 AA05 AB15 AB22 AC54 AC74 5C054 CA04 CA05 CF05 FC12 HA05 HA18 5L096 AA06 BA08 BA18 CA03 FA14 FA17 FA02 FA04 GA19 HA02 HA08 JA11 KA09

Claims (75)

【特許請求の範囲】[Claims] 【請求項1】 虹彩走査によって生存動物の同一性を確
認するためのシステムであって、以下の要素: (a)生存動物を同定する同定情報を受容するための制
御ユニット、及び、同定情報と比較するための同定可能
な生体に関係する予め定められた個人情報を包含するた
めの、制御ユニットによってアクセスされるデータベー
スを含むデータ蓄積ユニット; (b)同定情報が予め定められた情報に対応する場合
に、虹彩イメージを取り込んで入力イメージ信号を生成
させるために制御ユニットによって操作されるカメラを
含む虹彩イメージピックアップユニット;及び (c)入力イメージ信号を処理データに予備処理するた
めのデータ処理ユニット;を含み、 前記蓄積ユニットが、(1)周波数変換法を用いた虹彩
繊維構造の密度及びテキスチャー形態、(2)瞳孔反
応、(3)瞳孔の形状、(4)自律神経環反応、(5)
自律神経環の形状、(6)くぼみの存在、(7)くぼみ
の位置、及び(8)くぼみの形状、からなる群から選択
される、同定可能な生体に関する、予め蓄積された虹彩
同定のための複数のパラメータのうちの少なくとも一つ
を含み、前記制御ユニットが、処理されたデータと前記
パラメータとを比較して、同一性が確認されたことを示
す一致性を有するかどうかを決定するように操作し得る
ことを特徴とする前記システム。
1. A system for confirming the identity of a living animal by iris scanning, comprising: (a) a control unit for receiving identification information for identifying a living animal; A data storage unit including a database accessed by the control unit for containing predetermined personal information relating to an identifiable organism for comparison; (b) the identification information corresponds to the predetermined information An iris image pickup unit including a camera operated by a control unit to capture an iris image and generate an input image signal, and (c) a data processing unit for pre-processing the input image signal into processed data; Wherein the storage unit comprises: (1) a density and texture of an iris fiber structure using a frequency conversion method; Char form, (2) pupillary reaction, (3) the shape of the pupil, (4) autonomous nervous ring reaction, (5)
For pre-stored iris identification of an identifiable organism, selected from the group consisting of: the shape of the autonomic nerve ring, (6) the presence of a depression, (7) the position of the depression, and (8) the shape of the depression. And wherein the control unit compares the processed data with the parameter to determine whether there is a match indicating that the identity has been confirmed. The system characterized in that the system can be operated.
【請求項2】 前記カメラが、前記生存動物の二つの眼
を撮影するように形成されており、前記データ処理ユニ
ットが、イメージ入力を、それぞれの眼を表す処理デー
タ信号に別々に処理するように操作し得る請求項1に記
載のシステム。
2. The method according to claim 1, wherein the camera is configured to capture two eyes of the living animal, and wherein the data processing unit separately processes the image input into processed data signals representing each eye. The system of claim 1 operable on a computer.
【請求項3】 それぞれの眼に関して同定目的で同じパ
ラメータが検査される請求項2に記載のシステム。
3. The system according to claim 2, wherein the same parameters are examined for identification purposes for each eye.
【請求項4】 それぞれの眼に関して同定目的で違うパ
ラメータが検査される請求項2に記載のシステム。
4. The system according to claim 2, wherein different parameters are examined for identification purposes for each eye.
【請求項5】 それぞれの眼に関して、その眼に関係す
る識別される特性又は特徴を表す関数として、違うパラ
メータが選択される請求項4に記載のシステム。
5. The system of claim 4, wherein for each eye, different parameters are selected as a function representing the identified characteristic or characteristic associated with that eye.
【請求項6】 少なくとも一つのカード読み取りユニッ
ト、及びまず入力された同定情報を受容して前記制御ユ
ニットに送るためのキー入力ユニットを更に含む請求項
1に記載のシステム。
6. The system according to claim 1, further comprising at least one card reading unit and a key input unit for first receiving the input identification information and sending it to the control unit.
【請求項7】 前記虹彩イメージピックアップユニット
が、カメラと連動して制御ユニットによって操作され、
連続して複数の虹彩イメージを取り込んで前記入力イメ
ージ信号を生成させるための光源を含む請求項1に記載
のシステム。
7. The iris image pickup unit is operated by a control unit in conjunction with a camera,
The system of claim 1, including a light source for capturing a plurality of iris images in succession to generate the input image signal.
【請求項8】 前記光源が赤外光源である請求項7に記
載のシステム。
8. The system according to claim 7, wherein said light source is an infrared light source.
【請求項9】 前記予め定められた個人情報が、前記制
御ユニットによって前記虹彩イメージピックアップユニ
ットとインターフェースしてカメラとユーザーの眼とを
自動的に整列させる位置決めデータを含む請求項1に記
載のシステム。
9. The system of claim 1, wherein the predetermined personal information includes positioning data that interfaces with the iris image pickup unit by the control unit to automatically align a camera with a user's eye. .
【請求項10】 前記処理データが、前記パラメータの
少なくとも二つを表す請求項1に記載のシステム。
10. The system of claim 1, wherein the processing data represents at least two of the parameters.
【請求項11】 前記処理データが、前記パラメータの
全てを表す請求項10に記載のシステム。
11. The system of claim 10, wherein said processing data represents all of said parameters.
【請求項12】 周波数変換法がWavelet変換を
用いる請求項1に記載のシステム。
12. The system of claim 1, wherein the frequency conversion method uses a Wavelet transform.
【請求項13】 周波数変換法がHaar変換を用いる
請求項12に記載のシステム。
13. The system of claim 12, wherein the frequency conversion method uses a Haar transform.
【請求項14】 処理データが、曲線のあてはめ及び端
検出のアルゴリズムの少なくとも一つを用いて測定され
た瞳孔の形状を含む請求項1に記載のシステム。
14. The system of claim 1, wherein the processing data includes a pupil shape measured using at least one of a curve fitting and edge detection algorithm.
【請求項15】 処理データが、瞳孔の楕円率及び楕円
長軸の方向を含む請求項14に記載のシステム。
15. The system according to claim 14, wherein the processing data includes a pupil ellipticity and a direction of a major axis of the ellipse.
【請求項16】 存在する場合には、瞳孔の周縁に沿っ
た平坦な部分が同定目的で認識される請求項14に記載
のシステム。
16. The system of claim 14, wherein a flat portion along the periphery of the pupil, if present, is recognized for identification purposes.
【請求項17】 二次元Haar変換係数の低周波数成
分が、入力イメージ信号の選択された一つから同定目的
で得られる請求項13に記載のシステム。
17. The system of claim 13, wherein a low frequency component of the two-dimensional Haar transform coefficients is obtained for identification purposes from a selected one of the input image signals.
【請求項18】 Haar変換がシグナムHaar関数
の集合から選択される請求項13に記載のシステム。
18. The system of claim 13, wherein the Haar transform is selected from a set of Signum Haar functions.
【請求項19】 Haar変換が、変換フローグラフの
バタフライ構造で処理される請求項13に記載のシステ
ム。
19. The system according to claim 13, wherein the Haar transform is processed in a butterfly structure of the transform flow graph.
【請求項20】 入力イメージ信号の少なくとも選択さ
れた一つが、前記Haar変換関数を用いてスペクトル
変換の可変マルチセクターシステムで分析される請求項
13に記載のシステム。
20. The system according to claim 13, wherein at least a selected one of the input image signals is analyzed in a variable multi-sector system of spectral transform using the Haar transform function.
【請求項21】 スペクトル分析のマルチセクターシス
テムによって、干渉によって歪曲されない分析目的のた
めに、虹彩の可視部分を表す虹彩のセクターの可変選択
が可能になる請求項20に記載のシステム。
21. The system of claim 20, wherein the multi-sector system of spectral analysis allows for variable selection of iris sectors that represent the visible portion of the iris for analysis purposes that are not distorted by interference.
【請求項22】 スペクトル分析のマルチセクターシス
テムによって、境界による欠陥又は干渉を同定して同定
分析から排除することが可能になる請求項21に記載の
システム。
22. The system according to claim 21, wherein the multi-sector system of spectral analysis allows defects or interference due to boundaries to be identified and excluded from the identification analysis.
【請求項23】 入力虹彩イメージの選択された一つ
を、前記スペクトル分析の目的のために、鞏膜−虹彩の
ほぼ境界に位置する外側境界を有する外環と、外環から
内側に離隔していて、外側境界から内側に予め定められ
た距離だけ離隔した半径を有する内側環状部分とに分割
する請求項22に記載のシステム。
23. A selected one of the input iris images is, for the purpose of said spectral analysis, an outer ring having an outer boundary located approximately at the sclera-iris boundary and inwardly spaced from the outer ring. 23. The system of claim 22, wherein the system divides into an inner annular portion having a radius spaced inwardly from the outer boundary by a predetermined distance.
【請求項24】 前記予め定められた距離が約30〜8
0ピクセルである請求項23に記載のシステム。
24. The predetermined distance is between about 30-8.
24. The system of claim 23, which is zero pixels.
【請求項25】 外環、及び外環との環状ゾーンの境界
と、瞳孔の周縁との間に配置された環状ゾーン内の領域
を、それぞれ、複数のセクター(n)及び(p)にそれ
ぞれ分割し、ここでnはpと同一又は異なり、n+pセ
クターの合計を生成し、Haar係数の所定値(m
がm×mマトリクスを形成するHaar変換を用いて算
出される請求項24に記載のシステム。
25. The outer ring, and the region in the annular zone disposed between the boundary of the annular zone with the outer ring and the periphery of the pupil, are respectively assigned to a plurality of sectors (n) and (p). Divide, where n is the same as or different from p, generate a sum of n + p sectors, and a predetermined value (m 2 ) of the Haar coefficient
26. The system of claim 24, wherein is calculated using a Haar transform forming an mxm matrix.
【請求項26】 n=16、p=16、m=32であ
り、前記32セクターのそれぞれに関して、1024H
aar関数係数がHaar変換を用いて32×32マト
リクスから算出される請求項25に記載のシステム。
26. n = 16, p = 16, m = 32 and 1024H for each of the 32 sectors.
26. The system of claim 25, wherein the aar function coefficients are calculated from a 32x32 matrix using a Haar transform.
【請求項27】 瞼、睫などによって妨げられるか又は
干渉されるセクターを、隣接セクターHaar係数比較
によって拒絶する請求項26に記載のシステム。
27. The system of claim 26, wherein sectors obstructed or interfered by eyelids, eyelashes, etc. are rejected by adjacent sector Haar coefficient comparison.
【請求項28】 隣接するセクターHaar係数の比較
によって、高周波数係数の予め定められた鋭利な変動が
検出された場合には、セクターを分析中に欠陥として拒
絶する請求項25に記載のシステム。
28. The system of claim 25, wherein if the comparison of adjacent sector Haar coefficients detects a predetermined sharp variation in the high frequency coefficient, the sector is rejected as a defect during analysis.
【請求項29】 拒絶されたセクターを分析から除去し
た後に、mHaar係数の全セットのサブセットを選
択して、分析目的のために選択されたmHaar係数
のm×mマトリクスからの予め定められた数の係数を生
成する請求項28に記載のシステム。
29. After removing rejected sectors from the analysis, a subset of the entire set of m 2 Haar coefficients is selected to pre-select from the m × m matrix of m 2 Haar coefficients selected for analysis purposes. 29. The system of claim 28, wherein the system generates a defined number of coefficients.
【請求項30】 m=32で、前記サブセットが、Ha
ar係数の32×32マトリクスから選択された31の
係数を含む請求項29に記載のシステム。
30. When m = 32, the subset is Ha
30. The system of claim 29, comprising 31 coefficients selected from a 32x32 matrix of ar coefficients.
【請求項31】 予め定められた数の係数の選択を用い
て虹彩参照記録を生成する請求項29に記載のシステ
ム。
31. The system of claim 29, wherein the iris reference record is generated using a selection of a predetermined number of coefficients.
【請求項32】 前記予め定められた数の係数が、同定
目的のために用いられる選択された低周波数ゾーンを表
す請求項31に記載のシステム。
32. The system of claim 31, wherein said predetermined number of coefficients represents a selected low frequency zone used for identification purposes.
【請求項33】 前記制御ユニットが、入力イメージ信
号を用いて、光刺激に応答する時間当たりの瞳孔の平均
収縮及び膨張を表す瞳孔ヒストグラム又はピュピログラ
ム(pupillogram)を生成することによって、瞳孔反応を
表す情報を算出する請求項1に記載のシステム。
33. The control unit represents a pupil response by using the input image signal to generate a pupil histogram or pupillogram representing an average contraction and dilation of the pupil per time in response to a light stimulus. The system of claim 1, wherein the information is calculated.
【請求項34】 前記カメラが、オートフォーカスのた
めの可変取り込み又はフレックスゾーンを有する請求項
1に記載のシステム。
34. The system of claim 1, wherein the camera has a variable capture or flex zone for autofocus.
【請求項35】 前記カメラが、ユーザーの眼の移動の
結果としてのオートフォーカスの低下を防ぐために、5
mmよりも大きな焦点距離を有している第2のレンズを
更に有する請求項1に記載のシステム。
35. The camera as set forth in claim 25, wherein:
The system of claim 1, further comprising a second lens having a focal length greater than mm.
【請求項36】 前記ピュピログラムによって生存動物
のイメージ走査が確保される請求項33に記載のシステ
ム。
36. The system of claim 33, wherein said pupilogram ensures image scanning of live animals.
【請求項37】 前記虹彩イメージピックアップユニッ
トが、更に、ユーザーの眼をカメラのレンズと整列させ
るための視野誘導ユニットを有する請求項1に記載のシ
ステム。
37. The system of claim 1, wherein the iris image pickup unit further comprises a field-of-view guidance unit for aligning a user's eye with a camera lens.
【請求項38】 複数の赤外光源が、第2のカメラレン
ズの周縁の回りに環状に配列されている請求項35に記
載のシステム。
38. The system of claim 35, wherein the plurality of infrared light sources are arranged annularly around a periphery of the second camera lens.
【請求項39】 人間内のドラッグ又はアルコールの存
在に関して試験するためのシステムであって、以下の要
素: (a)生存動物を同定する同定情報を受容するための制
御ユニット; (b)虹彩イメージを取り込んで入力イメージ信号を生
成させるための、制御ユニットによって操作されるカメ
ラを含む虹彩イメージピックアップユニット; (c)入力イメージ信号を処理データに予備処理するた
めのデータ処理ユニット;を含み、 前記制御ユニットが、前記入力イメージ信号の処理の結
果として得られた処理データを、時間当たりの光刺激に
応答する虹彩瞳孔の平均収縮及び膨張を表すように計算
して、それによって、人間がアルコール又はドラッグに
中毒している場合と人間がアルコール又はドラッグを含
んでいない場合とを比較して、ピュピログラムの曲線の
形状が異なっているために、処理データが現在又は過去
の中毒の指標となるかどうかを決定するように操作し得
る前記システム。
39. A system for testing for the presence of a drug or alcohol in a human, comprising: (a) a control unit for receiving identification information identifying a surviving animal; (b) an iris image An iris image pickup unit including a camera operated by a control unit for capturing an input image signal to generate an input image signal; and (c) a data processing unit for preprocessing the input image signal into processed data. A unit calculates the processed data resulting from processing of the input image signal to represent the average contraction and dilation of the iris pupil in response to light stimuli per time, whereby humans may be exposed to alcohol or drugs. Comparison between a person who is addicted to alcohol and a person who does not contain alcohol or drugs. , In order to have different shape of the curve of pupillogram, the system processes the data may be manipulated to determine whether an indicator of the current or past addiction.
【請求項40】 人間の体内におけるドラッグ又はアル
コールの少なくとも一つの存在に関して試験するための
方法であって、 (a)人間の虹彩及び瞳孔の実質的に同じ部分の複数の
イメージを異なる時間において得て; (b)前記複数のイメージを瞳孔ヒストグラムに処理
し; (c)ステップ(b)において処理された前記瞳孔ヒス
トグラムの特性を算出し;そして (d)前記比較ステップ(c)に基づいて、ドラッグ又
はアルコールの少なくとも一つの存在を確認する;ステ
ップを含むことを特徴とする前記方法。
40. A method for testing for the presence of at least one drug or alcohol in a human body, comprising: (a) obtaining a plurality of images of substantially the same portion of a human iris and pupil at different times. (B) processing the plurality of images into a pupil histogram; (c) calculating characteristics of the pupil histogram processed in step (b); and (d) based on the comparing step (c), Ascertaining the presence of at least one of a drug or an alcohol;
【請求項41】 前記瞳孔ヒストグラムに関連する曲線
の平坦度特性が、ドラッグ及びアルコールの少なくとも
一つの存在を表す請求項40に記載の方法。
41. The method of claim 40, wherein the flatness characteristic of the curve associated with the pupil histogram indicates the presence of at least one of a drug and an alcohol.
【請求項42】 生存動物の同一性を確認する方法であ
って、 (a)まず、生存動物が、データベースにおいて同定さ
れている生存動物に対応する同一性を有しているかどう
かを測定し; (b)ステップ(a)の結果がイエスである場合には、
生存体の眼の虹彩及び瞳孔の少なくとも一部分を表す複
数のイメージを得て; (c)前記複数のイメージを処理して、周波数変換法を
用いた虹彩繊維構造の密度及びテキスチャー形態、瞳孔
反応、瞳孔の形状、自律神経環反応、自律神経環の形
状、くぼみの存在、くぼみの位置、及びくぼみの形状の
少なくとも一つからなる群から選択される虹彩同定パラ
メータ情報を得て; (d)先に得られた虹彩同定情報の予め定められた特性
を、ステップ(c)で得られた虹彩同定情報を比較し;
そして (e)ステップ(d)において比較したデータの一致の
兆候が存在するかどうかを確認する;ステップを含むこ
とを特徴とする前記方法。
42. A method for confirming the identity of a surviving animal, comprising: (a) first determining whether the surviving animal has an identity corresponding to the surviving animal identified in the database; (B) If the result of step (a) is yes,
Obtaining a plurality of images representing at least a portion of the iris and pupil of the living organism's eye; (c) processing the plurality of images to obtain a density and texture morphology of the iris fiber structure using a frequency conversion method, a pupil response, Obtaining iris identification parameter information selected from at least one of a pupil shape, an autonomic nervous ring reaction, an autonomic nervous ring shape, the presence of a depression, a position of the depression, and a shape of the depression; (d) Comparing the predetermined characteristics of the iris identification information obtained in step (c) with the iris identification information obtained in step (c);
And (e) verifying whether there is any indication of a match of the data compared in step (d);
【請求項43】 それぞれの眼の複数のイメージを得る
更なるステップを含む請求項42に記載の方法。
43. The method of claim 42, further comprising the step of obtaining a plurality of images of each eye.
【請求項44】 インプットされたパスワード情報を、
同定し得る人間の予め蓄積された情報と合致させること
によって請求項42のステップ(b)を始める更なるス
テップを含む請求項42に記載の方法。
44. The input password information,
43. The method of claim 42, further comprising the step of starting step (b) of claim 42 by matching with pre-stored human identifiable information.
【請求項45】 眼を光源で照射し、連続して複数の前
記虹彩イメージを取り込む更なるステップを含む請求項
42に記載の方法。
45. The method of claim 42, further comprising the step of illuminating the eye with a light source and capturing a plurality of said iris images in succession.
【請求項46】 照射のために赤外光源を用いる請求項
45に記載の方法。
46. The method according to claim 45, wherein an infrared light source is used for the irradiation.
【請求項47】 カメラをユーザーの眼と整列させて、
複数のイメージを得る更なるステップを含む請求項42
に記載の方法。
47. Aligning the camera with the user's eye,
43. The method of claim 42, further comprising the step of obtaining a plurality of images.
The method described in.
【請求項48】 前記複数のイメージを処理して、前記
同定パラメータの少なくとも二つに関連する情報を得る
請求項42に記載の方法。
48. The method of claim 42, wherein said plurality of images are processed to obtain information relating to at least two of said identification parameters.
【請求項49】 前記パラメータのそれぞれを同定目的
のために処理する請求項42に記載の方法。
49. The method of claim 42, wherein each of said parameters is processed for identification purposes.
【請求項50】 処理ステップ(c)においてWave
let変換を用いる請求項42に記載の方法。
50. In the processing step (c), Wave
43. The method of claim 42, wherein a let transform is used.
【請求項51】 処理ステップ(c)においてHaar
変換を用いる請求項50に記載の方法。
51. Haar in the processing step (c)
The method of claim 50, wherein a transform is used.
【請求項52】 処理ステップが、曲線のあてはめ及び
端検出のアルゴリズムの少なくとも一つを用いる虹彩瞳
孔の形状の分析を含む請求項42に記載の方法。
52. The method of claim 42, wherein the processing step comprises analyzing an iris pupil shape using at least one of a curve fitting and edge detection algorithm.
【請求項53】 処理ステップが、瞳孔の楕円率及び楕
円長軸の方向を検出することを含む請求項52に記載の
方法。
53. The method of claim 52, wherein the processing step includes detecting a pupil ellipticity and a direction of a major axis of the ellipse.
【請求項54】 処理ステップが、瞳孔の周縁に沿った
平坦な部分の存在を測定することを含む請求項53に記
載の方法。
54. The method of claim 53, wherein the processing step comprises measuring the presence of a flat portion along the periphery of the pupil.
【請求項55】 処理ステップが、入力イメージ信号の
選択された一つから二次元Haar変換係数の低周波数
成分を得ることを含む請求項51に記載の方法。
55. The method of claim 51, wherein the processing step comprises obtaining low-frequency components of two-dimensional Haar transform coefficients from a selected one of the input image signals.
【請求項56】 処理ステップが、シグナムHaar関
数の集合からHaar変換を選択することを含む請求項
51に記載の方法。
56. The method of claim 51, wherein the processing step comprises selecting a Haar transform from a set of Signum Haar functions.
【請求項57】 処理ステップが、干渉によって歪曲さ
れない分析目的のために、虹彩の可視部分を表す虹彩の
セクターの可変選択が起こることを可能にするためにス
ペクトル分析の可変マルチセクターシステムを用いるこ
とを含む請求項51に記載の方法。
57. The processing step uses a variable multi-sector system of spectral analysis to allow a variable selection of sectors of the iris representing visible portions of the iris to occur for analysis purposes that are not distorted by interference. 52. The method of claim 51, comprising:
【請求項58】 スペクトル分析の可変マルチセクター
システムを用いて、同定分析から、同定される境界によ
る欠陥又は干渉を排除する更なるステップを含む請求項
57に記載の方法。
58. The method of claim 57, further comprising using a variable multi-sector system of spectral analysis to eliminate defects or interference due to identified boundaries from the identification analysis.
【請求項59】 処理ステップが、虹彩イメージを、外
環内に位置する予め定められた数のセクター、及び瞳孔
を含む外環と同心的に形成された環状領域とに分割する
ことを含む請求項57に記載の方法。
59. The processing step includes dividing the iris image into a predetermined number of sectors located within the outer ring and an outer ring including the pupil and a concentrically formed annular region. Item 58. The method according to Item 57.
【請求項60】 前記セクターを、セクターと隣接する
セクターとについて分析し、高周波数係数の予め定めら
れた鋭利な変動が検出された場合にはそのセクターを欠
陥として拒絶する請求項59に記載の方法。
60. The method according to claim 59, wherein the sector is analyzed for a sector and an adjacent sector, and if a predetermined sharp variation in high frequency coefficient is detected, the sector is rejected as a defect. Method.
【請求項61】 処理ステップが、拒絶されるセクター
の除去の後に、分析目的で選択される予め定められた数
の全ての係数のサブセットを測定し、それぞれの選択さ
れたセクターに関するサブセットにおける予め定められ
た数の係数の選択を用いて、請求項42の比較ステップ
(d)において用いられる虹彩参照記録を生成する請求
項60に記載の方法。
61. A processing step comprising: after removal of rejected sectors, measuring a subset of a predetermined number of all coefficients selected for analysis purposes and determining a predetermined subset of subsets for each selected sector. 61. The method of claim 60, wherein the selected number of coefficients is used to generate an iris reference record for use in comparing step (d) of claim 42.
【請求項62】 選択されたセクターの選択された周波
数ゾーンを表す係数を同定目的に用いる請求項61に記
載の方法。
62. The method of claim 61, wherein a coefficient representing a selected frequency zone of a selected sector is used for identification purposes.
【請求項63】 可変取り込み又はフレックスゾーンを
有するカメラのオートフォーカスを用いて複数の虹彩イ
メージを得る請求項42に記載の方法。
63. The method of claim 42, wherein a plurality of iris images are obtained using autofocus of a camera having variable capture or flex zones.
【請求項64】 予め蓄積された情報を用いて、眼と、
ステップ(b)における複数のイメージを得る源とを自
動的に整列させる更なるステップを含む請求項42に記
載の方法。
64. An eye, using information stored in advance,
43. The method of claim 42, further comprising the step of automatically aligning the plurality of image sources in step (b) with a source.
【請求項65】 瞳孔及び虹彩に関連する自律神経環の
反応に基づいてユーザーの虹彩を同定する方法であっ
て、 (a)ユーザーによって適当にアクセスされるデータベ
ースから予め蓄積された個人情報を検索することによっ
てユーザーの同一性を確認し; (b)カメラによってユーザーの虹彩の一連のイメージ
を獲得し; (c)虹彩の獲得されたイメージの選択された一つから
虹彩のゾーンのイメージ信号を選択し、選択されたゾー
ンのイメージ信号から同一性確認パラメータを測定する
ことによって、虹彩繊維構造確認プロセスを開始して、
ユーザーの同一性を確認し; (d)獲得された虹彩イメージの選択された一つから瞳
孔及び自律神経環のゾーンを検出し、瞳孔及び自律神経
環の検出されたゾーンの選択されたイメージ信号から瞳
孔及び自律神経環の動的反応(収縮及び膨張)を算出
し、関連する同定パラメータを測定することによって、
瞳孔及び自律神経環反応確認プロセスを開始して、ユー
ザーの同一性を確認し; (e)同定パラメータを、個人情報として予め蓄積され
た同定パラメータと比較することによってユーザーの同
一性を確認する;ステップを含むことを特徴とする前記
方法。
65. A method for identifying a user's iris based on the response of the autonomic nervous ring associated with the pupil and iris, comprising: (a) retrieving pre-stored personal information from a database suitably accessed by the user; (B) acquiring a series of images of the user's iris by a camera; and (c) converting the image signal of the iris zone from a selected one of the acquired images of the iris. Initiating the iris fiber structure confirmation process by selecting and measuring the identity confirmation parameter from the image signal of the selected zone,
(D) detecting a zone of a pupil and an autonomic nerve ring from a selected one of the acquired iris images; and selecting a selected image signal of the detected zone of the pupil and the autonomic nerve ring. By calculating the dynamic response (contraction and dilation) of the pupil and the autonomic nervous ring from and measuring the relevant identification parameters,
Initiate the pupil and autonomic nervous system reaction confirmation process to confirm the identity of the user; (e) Confirm the identity of the user by comparing the identification parameters with the identification parameters previously stored as personal information; The above method, comprising the steps of:
【請求項66】 イメージ獲得プロセスが、 カメラ位置を、請求項65のステップ(c)から得られ
たユーザーの予め蓄積された個人情報に従って自動的に
調節し;カメラの焦点を整列させ自動的に調節し;光源
をオンにして、瞳孔及び自律神経環の動きを誘導し;光
源を消す;ステップを含む請求項65に記載の方法。
66. The image acquisition process automatically adjusts the camera position according to the user's pre-stored personal information obtained from step (c) of claim 65; aligns and automatically focuses the camera. 66. The method of claim 65, comprising adjusting; turning on the light source to induce movement of the pupil and autonomic ring; extinguishing the light source.
【請求項67】 虹彩繊維構造確認プロセスが、 Haar変換によって虹彩の選択されたイメージ信号を
変換することによって、対応する虹彩繊維構造に関連す
るWavelet変換係数から導かれた同定パラメータ
を測定し;データベースからの予め蓄積された対応する
パラメータを検索することによってユーザーの同一性を
確認する;ステップを含む請求項65に記載の方法。
67. An iris fiber structure verification process comprising: determining an identification parameter derived from a Wavelet transform coefficient associated with a corresponding iris fiber structure by converting a selected image signal of the iris by a Haar transform; 66. The method of claim 65, comprising verifying the identity of the user by retrieving corresponding pre-stored parameters from the user.
【請求項68】 虹彩内の瞳孔及び自律神経環の反応に
基づいて虹彩を同定する方法であって、 (a)ユーザーによって適当にアクセスされるデータベ
ースから予め蓄積された個人情報を検索することによっ
てユーザーの同一性を確認し; (b)カメラによって虹彩の一連のイメージを獲得し; (c)獲得された虹彩イメージの選択された一つから瞳
孔及び自律神経環のゾーンを検出し、瞳孔及び自律神経
環の検出されたゾーンの選択されたイメージ信号から瞳
孔及び自律神経環の動的反応(収縮及び膨張)を算出
し、関連する同定パラメータを測定することによって、
瞳孔及び自律神経環反応確認プロセスを開始して、ユー
ザーの同一性を確認し; (d)同定パラメータを、個人情報として予め蓄積され
た同定パラメータと比較することによってユーザーの同
一性を確認する;ステップを含むことを特徴とする方
法。
68. A method for identifying an iris based on a reaction of a pupil and an autonomic nervous ring in the iris, comprising: (a) retrieving pre-stored personal information from a database suitably accessed by a user; (B) acquiring a series of images of the iris by a camera; (c) detecting zones of a pupil and an autonomic nerve ring from a selected one of the acquired iris images; By calculating the dynamic response (contraction and dilation) of the pupil and the autonomic nervous ring from the selected image signal of the detected zone of the autonomic nervous ring and measuring the relevant identification parameters,
Initiate the pupil and autonomic nervous ring reaction confirmation process to confirm the identity of the user; (d) Confirm the identity of the user by comparing the identification parameters with the identification parameters previously stored as personal information; A method comprising the steps of:
【請求項69】 請求項65のステップ(d)が、 検出された自律神経環ゾーンからの二次元イメージ信号
を中央軸変換によって変換し、検出されたゾーンにおけ
る自律神経環の形状を算出することによって、自律神経
環の形状を同定するためのパラメータを算出する、こと
を含む請求項65に記載の方法。
69. The step (d) of claim 65, wherein the two-dimensional image signal from the detected autonomic nerve ring zone is converted by a central axis transformation, and the shape of the autonomic nerve ring in the detected zone is calculated. 66. The method of claim 65, comprising calculating a parameter for identifying a shape of the autonomic nerve ring.
【請求項70】 虹彩を同定するための方法であって、 (a)ユーザーによって適当にアクセスされるデータベ
ースから予め蓄積された個人情報を検索することによっ
てユーザーの同一性を確認し; (b)カメラによってユーザーの虹彩の一連のイメージ
を獲得し; (c)くぼみが存在している場合には獲得されたイメー
ジからくぼみゾーンを検出し、くぼみの形状及び位置に
基づいて同定確認パラメータを測定することによって、
第1のくぼみ確認プロセスを開始してユーザーの同一性
を確認する;ステップを含むことを特徴とする方法。
70. A method for identifying an iris, comprising: (a) verifying the identity of a user by retrieving previously stored personal information from a database suitably accessed by the user; (b) Acquiring a series of images of the user's iris with a camera; (c) detecting the indentation zone from the acquired image, if any, and measuring identification parameters based on the shape and position of the indentation. By
Initiating a first indentation verification process to verify the identity of the user;
【請求項71】 くぼみが存在していない場合に、参照
虹彩中にもくぼみが存在していないかどうかのユーザー
の同一性を確認して、参照虹彩中にくぼみが存在する場
合にはユーザーを不適当として拒絶する、第2のくぼみ
確認プロセスを更に含む請求項70に記載の方法。
71. When no depression is present, the user's identity as to whether a depression is also present in the reference iris is confirmed, and when a depression is present in the reference iris, the user is identified. 71. The method of claim 70, further comprising a second dent confirmation process rejecting as inappropriate.
【請求項72】 獲得された虹彩イメージの中心部分を
算出することによって瞳孔及び自律神経環のゾーンを検
出し;検出されたゾーンの動く瞳孔及び自律神経環の反
応(収縮又は膨張)を算出することによって同定パラメ
ータを測定し;データベースから対応するパラメータを
検索することによってユーザーの同一性を確認する;更
なるステップを含む請求項71に記載の方法。
72. Detecting the pupil and autonomic nervous ring zones by calculating the central part of the acquired iris image; calculating the response (contraction or dilation) of the moving pupil and autonomic nervous ring in the detected zone. 72. The method of claim 71, further comprising: determining an identification parameter by determining the identity of the user by retrieving the corresponding parameter from a database;
【請求項73】 分析のための選択された虹彩に関連す
るゾーンの外側の自律神経環のゾーンを検出し;検出さ
れた自律神経環ゾーンでの二次元イメージ信号を中央軸
変換によって変換し、検出されたゾーンにおける自律神
経環の形状を算出することによって、自律神経環の形状
を同定するためのパラメータを算出し;データベースか
ら対応するパラメータを検索することによってユーザー
の同一性を確認する;更なるステップを含む請求項71
に記載の方法。
73. Detect a zone of an autonomic nerve ring outside a zone associated with a selected iris for analysis; transforming a two-dimensional image signal at the detected autonomic nerve ring zone by a central axis transformation; Calculating parameters for identifying the shape of the autonomic nervous ring by calculating the shape of the autonomic nervous ring in the detected zone; confirming the identity of the user by searching the corresponding parameters from the database; 72. The method of claim 71, comprising:
The method described in.
【請求項74】 第1のくぼみ確認プロセスが、 虹彩の選択された獲得イメージ信号から虹彩イメージの
端を検出することによって、くぼみが存在しているか否
かを判断し;判断ステップの結果としてくぼみが存在し
ている場合にはくぼみゾーンを検出し;検出されたくぼ
みゾーンでの二次元イメージ信号を中央軸変換によって
変換した後に、くぼみの形状及び位置に基づいて同定パ
ラメータを算出し;データベースから対応するパラメー
タを検索することによってユーザーの同一性を確認す
る;ことを含む請求項71に記載の方法。
74. A first dip identification process comprising: determining whether an dip is present by detecting an edge of the iris image from a selected acquired image signal of the iris; the dip as a result of the determining step Detecting the indentation zone if exists; converting the two-dimensional image signal in the detected indentation zone by central axis transformation, and calculating the identification parameter based on the shape and position of the indentation; 72. The method of claim 71, comprising: verifying a user's identity by searching a corresponding parameter.
【請求項75】 虹彩走査によって生存動物の同一性を
確認するためのシステムであって、以下の要素: (a)生存動物を同定する同定情報を受容するための制
御ユニット、及び制御ユニットによってアクセスされ、
同定情報と比較するための同定可能な生体に関連する予
め定められた個人情報を有するためのデータベースを含
むデータ蓄積ユニット; (b)同定情報が予め定められた情報に対応する場合
に、左及び右の眼の虹彩イメージを取り込んで入力イメ
ージ信号を生成させるための、制御ユニットによって操
作される双眼カメラ虹彩イメージピックアップユニッ
ト;及び (c)入力イメージ信号を処理データに予備処理するた
めのデータ処理ユニット;を含むことを特徴とするシス
テム。
75. A system for confirming the identity of a living animal by iris scanning, comprising: (a) a control unit for receiving identification information identifying a living animal, and access by the control unit. And
A data storage unit including a database for having predetermined personal information relating to an identifiable organism for comparison with the identification information; (b) when the identification information corresponds to the predetermined information, A binocular camera iris image pickup unit operated by a control unit for capturing an iris image of the right eye to generate an input image signal; and (c) a data processing unit for pre-processing the input image signal into processed data. A system comprising:
JP2000090585A 1999-04-09 2000-03-29 Iris identifying system and method of identifying person by iris recognition Pending JP2001195594A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000090585A JP2001195594A (en) 1999-04-09 2000-03-29 Iris identifying system and method of identifying person by iris recognition

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
KR19990012439 1999-04-09
KR19990012440 1999-04-09
KR1019990012438A KR100356600B1 (en) 1999-04-09 1999-04-09 A Method For Identifying The Iris Of Persons Based On The Shape Of Lacuna And/Or Autonomous Nervous Wreath
JP11-350612 1999-11-05
JP35061299 1999-11-05
JP1999-12440 1999-11-05
JP1999-12438 1999-11-05
JP1999-12439 1999-11-05
JP2000090585A JP2001195594A (en) 1999-04-09 2000-03-29 Iris identifying system and method of identifying person by iris recognition

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2001146516A Division JP4006192B2 (en) 1999-04-09 2001-05-16 Iris recognition system and method

Publications (1)

Publication Number Publication Date
JP2001195594A true JP2001195594A (en) 2001-07-19

Family

ID=27531299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000090585A Pending JP2001195594A (en) 1999-04-09 2000-03-29 Iris identifying system and method of identifying person by iris recognition

Country Status (1)

Country Link
JP (1) JP2001195594A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167227A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Personal authentication method, iris registration device, iris authentication device, and personal authentication program
JP2008522652A (en) * 2004-12-06 2008-07-03 パルチ−ワッセルマン,ダフナ Multivariate dynamic biometric system
JP2009502382A (en) * 2005-08-05 2009-01-29 ハイデルベルク・エンジニアリング・ゲー・エム・ベー・ハー Biometric authentication or biometric verification method and system
JP2009529195A (en) * 2006-03-03 2009-08-13 ハネウェル・インターナショナル・インコーポレーテッド Invariant radial iris segmentation
US7796784B2 (en) 2002-11-07 2010-09-14 Panasonic Corporation Personal authentication method for certificating individual iris
JP2013501282A (en) * 2009-08-04 2013-01-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Recursive biometric data
CN111801043A (en) * 2018-01-19 2020-10-20 儿童国家医疗中心 Bioassays for non-invasive detection of drug use and physiological conditions
CN113221594A (en) * 2020-01-17 2021-08-06 北京眼神智能科技有限公司 Iris identification and drug-taking detection method, device, readable storage medium and equipment
CN113469717A (en) * 2021-07-26 2021-10-01 北京电信规划设计院有限公司 Animal identity pedigree tracing system and method based on block chain and iris recognition

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03179572A (en) * 1989-12-08 1991-08-05 Dainippon Printing Co Ltd Personal identifying device using ic card
JPH06203145A (en) * 1993-01-07 1994-07-22 Fuji Electric Co Ltd Personal recognition device
JPH07312711A (en) * 1994-05-16 1995-11-28 Hooutec Kk FACE IMAGE DATA CAPTURE METHOD, DEVICE, AND SYSTEM
JPH09218957A (en) * 1995-12-05 1997-08-19 Advantest Corp Image processing method
JPH10162146A (en) * 1996-11-29 1998-06-19 Oki Electric Ind Co Ltd Individual discriminating device
JPH10340342A (en) * 1997-06-06 1998-12-22 Oki Electric Ind Co Ltd Individual identification device
JPH1115972A (en) * 1997-06-20 1999-01-22 Oki Electric Ind Co Ltd Iris image pickup device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03179572A (en) * 1989-12-08 1991-08-05 Dainippon Printing Co Ltd Personal identifying device using ic card
JPH06203145A (en) * 1993-01-07 1994-07-22 Fuji Electric Co Ltd Personal recognition device
JPH07312711A (en) * 1994-05-16 1995-11-28 Hooutec Kk FACE IMAGE DATA CAPTURE METHOD, DEVICE, AND SYSTEM
JPH09218957A (en) * 1995-12-05 1997-08-19 Advantest Corp Image processing method
JPH10162146A (en) * 1996-11-29 1998-06-19 Oki Electric Ind Co Ltd Individual discriminating device
JPH10340342A (en) * 1997-06-06 1998-12-22 Oki Electric Ind Co Ltd Individual identification device
JPH1115972A (en) * 1997-06-20 1999-01-22 Oki Electric Ind Co Ltd Iris image pickup device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004167227A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Personal authentication method, iris registration device, iris authentication device, and personal authentication program
US7796784B2 (en) 2002-11-07 2010-09-14 Panasonic Corporation Personal authentication method for certificating individual iris
JP2008522652A (en) * 2004-12-06 2008-07-03 パルチ−ワッセルマン,ダフナ Multivariate dynamic biometric system
JP2014028280A (en) * 2005-08-05 2014-02-13 Heidelberg Engineering Gmbh Method and system for biometric identification or verification
JP2009502382A (en) * 2005-08-05 2009-01-29 ハイデルベルク・エンジニアリング・ゲー・エム・ベー・ハー Biometric authentication or biometric verification method and system
JP2009529195A (en) * 2006-03-03 2009-08-13 ハネウェル・インターナショナル・インコーポレーテッド Invariant radial iris segmentation
KR101423153B1 (en) * 2006-03-03 2014-07-25 허니웰 인터내셔널 인코포레이티드 Invariant radial iris segmentation
JP2013501282A (en) * 2009-08-04 2013-01-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Recursive biometric data
CN111801043A (en) * 2018-01-19 2020-10-20 儿童国家医疗中心 Bioassays for non-invasive detection of drug use and physiological conditions
JP2021511141A (en) * 2018-01-19 2021-05-06 チルドレンズ ナショナル メディカル センターChildren’S National Medical Center Bioassays for non-invasive detection of substance use and physiological conditions
JP7279999B2 (en) 2018-01-19 2023-05-23 チルドレンズ ナショナル メディカル センター Bioassays for noninvasive detection of drug use and physiological states
US11931171B2 (en) 2018-01-19 2024-03-19 Children's National Medical Center Bioassay for the non-invasive detection of drug use and physiologic conditions
CN113221594A (en) * 2020-01-17 2021-08-06 北京眼神智能科技有限公司 Iris identification and drug-taking detection method, device, readable storage medium and equipment
CN113469717A (en) * 2021-07-26 2021-10-01 北京电信规划设计院有限公司 Animal identity pedigree tracing system and method based on block chain and iris recognition
CN113469717B (en) * 2021-07-26 2024-03-19 北京电信规划设计院有限公司 Animal identity pedigree tracing system and method based on blockchain and iris recognition

Similar Documents

Publication Publication Date Title
EP1093633B1 (en) Iris identification system and method of identifying a person through iris recognition
EP0215818B1 (en) Iris recognition system
CN100403981C (en) Positive patient identification method and apparatus
US8170293B2 (en) Multimodal ocular biometric system and methods
JP3271750B2 (en) Iris identification code extraction method and device, iris recognition method and device, data encryption device
JP2001195594A (en) Iris identifying system and method of identifying person by iris recognition
JP4006192B2 (en) Iris recognition system and method
KR20010006975A (en) A method for identifying the iris of persons based on the reaction of the pupil and autonomous nervous wreath
KR20010006976A (en) A system for identifying the iris of persons
JP4619384B2 (en) Iris identification system
JP2004288221A (en) Iris identification system
JP3848953B2 (en) Living body eye determination method and living body eye determination device
EP1804646B1 (en) Corneal biometry
KR100356600B1 (en) A Method For Identifying The Iris Of Persons Based On The Shape Of Lacuna And/Or Autonomous Nervous Wreath
JP2008206536A (en) Personal authentication system using retina image
KR100924271B1 (en) Identification system and method using iris and recording medium storing computer program source for the method
KR20060105272A (en) Eye Image Judgment Method Using Adaboost Algorithm
NZ554604A (en) Corneal Biometry
KR20060105273A (en) Eye Position Search System and Eye Position Search Method Using Eye Image Scatter Map
HK1089636B (en) Positive patient identification