JP2004005167A - Eye position specifying method and apparatus - Google Patents
Eye position specifying method and apparatus Download PDFInfo
- Publication number
- JP2004005167A JP2004005167A JP2002159546A JP2002159546A JP2004005167A JP 2004005167 A JP2004005167 A JP 2004005167A JP 2002159546 A JP2002159546 A JP 2002159546A JP 2002159546 A JP2002159546 A JP 2002159546A JP 2004005167 A JP2004005167 A JP 2004005167A
- Authority
- JP
- Japan
- Prior art keywords
- eye position
- eye
- iris
- image
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】認証時の目画像獲得において、高い精度で目位置を特定する。
【解決手段】認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、前記目画像から瞳孔と虹彩のそれぞれの中心と径を検出し(S11、S12)、前記瞳孔の中心が前記虹彩の径に含まれ(S13)、かつ前記虹彩の中心が前記瞳孔の径に含まれる(S14)ことを目位置を特定するための条件にする。この構成により、目以外の誤った画像を認証処理の対象とすることがなくなり、高い精度で目位置を特定することができる。
【選択図】 図4An eye position is specified with high accuracy in acquiring an eye image at the time of authentication.
In an eye position specifying method for specifying an eye position image to be authenticated with respect to an eye image acquired for authentication, a center and a diameter of each of a pupil and an iris are detected from the eye image (S11). , S12), the condition that the center of the pupil is included in the diameter of the iris (S13) and the center of the iris is included in the diameter of the pupil (S14) is set as the condition for specifying the eye position. With this configuration, an erroneous image other than the eye is not subjected to the authentication processing, and the eye position can be specified with high accuracy.
[Selection diagram] Fig. 4
Description
【0001】
【発明の属する技術分野】
本発明は、虹彩を利用した認証装置や網膜を利用した認証装置など(以下、虹彩認証装置と記す)で必要とされる目画像獲得を行うための目位置特定方法および装置に関するものである。
【0002】
【従来の技術】
従来、この種の虹彩認証装置は、ユーザの意思あるいは自動フォーカス機能によって目の位置を合わせて、連続的に画像を取り込み、所定のフォーカス判定値以上の値が検出された時の画像を確定データとして、認証する機能を備えていた。
【0003】
【発明が解決しようとする課題】
しかし、このような従来の虹彩認証装置では、目のみならず、眼鏡、眉毛、鼻などにフォーカスが合うことも多く、また目の位置に対するフォーカスが不十分であり、目とは異なる画像を獲得することが多いという問題があった。さらに、取り込まれた目画像全体に対し、画像処理により目の位置を特定する際、睫毛などの影響により目の位置を正確に検出特定しづらいという問題があった。また、複雑な目位置特定のための演算処理を実行するために、目位置特定の時間が長くなり、また、目位置特定後に行われる認証処理を含めた全体の時間が長くなるという問題があった。
【0004】
本発明の目位置特定方法および装置は、目位置特定に関する上記問題点を解決するためになされたもので、認証時の目画像獲得において、高い精度で目位置を特定することを目的とするものである。また、目位置特定の時間や、処理全体の時間を短縮することを目的とするものである。
【0005】
【課題を解決するための手段】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、前記目画像から瞳孔と虹彩のそれぞれの中心と径を検出し、前記瞳孔の中心が前記虹彩の径に含まれ、かつ前記虹彩の中心が前記瞳孔の径に含まれることを目位置を特定するための条件にする。
【0006】
上記構成により、瞳孔および虹彩の有無に加え、虹彩領域内に存在する瞳孔の位置関係を判定することで、目以外の誤った画像を認証処理の対象とすることがなくなり、高い精度で目位置を特定することができる。
【0007】
本発明の目位置特定方法は、請求項1記載の目位置特定方法において、前記瞳孔の中心が前記虹彩の径に含まれ、かつ前記瞳孔の円周上の任意点が前記虹彩の径の内側に含まれることを目位置を特定するための条件にする。
【0008】
上記構成により、瞳孔および虹彩の有無、虹彩領域内に存在する瞳孔の位置関係の判定に加え、瞳孔円周上の任意点が虹彩円内に存在するかを判定することで、さらに高い精度で目位置を特定することができる。
【0009】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、瞳孔領域の任意点の輝度値と虹彩領域の任意点の輝度値との所定の輝度差および前記虹彩領域の任意点の輝度値と強膜領域の任意点の輝度値との所定の輝度差を条件にして目位置を特定するための条件にする。
【0010】
上記構成により、瞳孔領域内の任意点の輝度値と虹彩領域内の輝度値との間の輝度差および虹彩領域内の任意点の輝度値と強膜(白目)領域の輝度値との間の輝度差に基づき生体眼としての瞳孔および虹彩の有無を判定することで、目以外の誤った画像を認証処理の対象と認識することがなくなり、高い精度で目位置を特定することができる。
【0011】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、瞳孔領域の任意点の輝度値と虹彩領域の任意点の輝度値との所定の輝度変化率および前記虹彩領域の任意点の輝度値と強膜領域の任意点の輝度値との所定の輝度変化率を条件にして目位置を特定するための条件にする。
【0012】
上記構成により、瞳孔領域内の任意点の輝度値と虹彩領域内の輝度値との間の輝度変化率および虹彩領域内の任意点の輝度値と強膜(白目)領域の輝度値との間の輝度変化率に基づき生体眼としての瞳孔および虹彩の有無を判定するため、目以外の誤った画像を認証処理の対象とすることがなくなり、高い精度で目位置を特定することができる。
【0013】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、瞳孔の中心が虹彩の右半径から左半径に含まれ、虹彩の中心が瞳孔の右半径から左半径に含まれ、瞳孔の右半径が虹彩の右半径より小さく、瞳孔の左半径が虹彩の左半径より小さく、瞳孔の上半径が虹彩の上半径より小さく、瞳孔の下半径が虹彩の下半径より小さいことの少なくとも1つを目位置を特定するための条件にする。
【0014】
上記構成により、瞳孔および虹彩の有無に加え、虹彩領域内に存在する瞳孔の位置関係が適正であるかを判定するため、目以外の誤った画像を認証処理の対象とすることがなくなり、高い精度で目位置を特定することができるる。
【0015】
本発明の目位置特定方法は、請求項1から6のいずれか1項記載の目位置特定方法において、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、前記目画像を複数の短冊状に分解し、各短冊毎に抽出した画像中心座標に基づいて真の画像中心を抽出し目位置を特定する。
【0016】
上記構成により、正確な画像中心を抽出するため、以降の目位置特定処理において高い精度で目位置の特定を行うことができる。
【0017】
本発明の目位置特定方法は、請求項1記載の目位置特定方法において、強膜の領域を検出することを生体眼としての目位置を特定する条件にする。
【0018】
上記構成により、瞳孔および虹彩の有無、虹彩領域内に存在する瞳孔の位置関係の判定に加え、強膜(白目)の領域の有無を判定する機能を備えるため、さらに高い精度で目位置を特定することができる。
【0019】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、前記目位置の画像を、獲得する目画像の範囲を変えて行う複数回の処理により特定する。
【0020】
上記構成により、範囲を変えて複数回の目位置特定を行うため、さらに高い精度で目位置を特定することができる。
【0021】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、前記目位置の画像の欠落領域の第1の境界線を検出し、前記第1の境界線が虹彩領域あるいは瞳孔領域と重なる領域の第2の境界線を仮想生成し、前記第2の境界線と虹彩領域の境界線とで画定される有効領域が認証可能な面積かを判定する。
【0022】
上記構成により、反射光や雑音等により目画像の一部が欠落して認証処理が困難な場合は、認証処理の対象となる目画像を特定する前に、予め認証可能かを判定し、必要であれば再度目画像獲得処理を促すことで、認証不能な目画像に基づいて認証を行うことがなくなり、認証時間を短縮することができる。
【0023】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、瞳孔および虹彩を中心とする領域に限定したフォーカス判定を行った後、前記目画像を獲得する。
【0024】
上記構成により、フォーカス判定の対象を瞳孔および虹彩を中心とする領域に限定することで、認証処理に不要な目以外の領域の画像を獲得することがなくなり、また、瞳孔および虹彩を中心としたフォーカス判定を行うことができるため、高い精度で目位置を特定することができる。
【0025】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、前記目画像に対し、隣合う画素の輝度値の変化率を用いて検出した境界線に基づいて瞳孔および虹彩の有無を検出する。
【0026】
上記構成により、隣合う画素の輝度値の変化率を用いて瞳孔と虹彩との境界あるいは虹彩と強膜(白目)との境界を検出することで、座標演算を行うことなく瞳孔および虹彩の有無を判定することができるため、目位置特定の時間を短縮することができる。
【0027】
本発明の目位置特定方法は、認証のために獲得した目画像に対して認証対象となる目位置の画像を特定する目位置特定方法において、前記目画像に対して、予め目の形状に合わせて用意した特定のテンプレートを目位置を中心に配置し、該テンプレート領域外をマスクする。
【0028】
上記構成により、目の形状に合わせたテンプレートを用いて獲得した画像からテンプレート領域外をマスクすることで、目の周辺に位置する雑音成分の原因となる睫毛等を除去して、瞳孔および虹彩の位置検出の精度を向上させ、高い精度で目位置を特定することができる。
【0029】
本発明の認証装置は、請求項1から14のいずれか1項記載の目位置特定方法を用いて特定した目位置の画像に対して認証を行う。この構成により、高い精度で特定した目位置に対して認証処理を行うことで、認証精度が向上する。また、目位置特定の時間が短縮されるため、認証処理を含めた処理全体の時間を短縮することができる。
【0030】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を用いて説明する。
図1は本発明の第1の実施形態の目位置特定方法における目画像のイメージを示す図、図2は目画像の座標を示す図である。図1および図2に示すように、目画像獲得は、人の目に対して特定した瞳孔中心座標(x_p0,y_p0)1、虹彩中心座標(x_i0,y_i0)2、瞳孔円周上の任意点座標(x_p,y_p)3および虹彩円周上の任意点座標(x_i,y_i)4に基づいて行う。図3は、第1の実施形態の目位置特定方法を行うための虹彩認証装置の構成を示す図、図4は目位置特定方法の処理の流れを示す図である。
【0031】
図3に示すように、レンズ11および撮像素子12により取り込まれた画像データは、画像処理部13で認証処理の対象となる目画像決定処理が行われ、その後、認証処理部18で虹彩解析または瞳孔解析に基づく認証処理が行われる。画像処理部13は、フォーカス判定部14、画像獲得部15、瞳孔と虹彩のそれぞれの中心位置と径を検出する機能を有する目位置特定部16および認証処理の対象となる画像を決定する認証処理画像決定部17で構成される。目位置特定部16は、上記機能に加えて以降の実施形態に記載された機能を有し、第1の実施形態では瞳孔と虹彩のそれぞれの中心位置と径を比較する機能を有する。
【0032】
図4に示すように、目位置特定部16の処理は、瞳孔中心座標(x_p,y_p)および径(rp)の検出(S11)および虹彩中心座標(x_i,y_i)および径(ri)の検出(S12)を行い、その後、瞳孔中心が虹彩の径に含まれるかを判断し(x_i0−ri<x_p0<x_i0+ri,y_i0−ri<y_p0<y_i0+ri)(S13)、虹彩中心が瞳孔の径に含まれるかを判断する(x_p0−rp<x_i0<x_p0+rp,y_p0−rp<y_i0<y_p0+rp)(S14)。瞳孔中心が虹彩の径に含まれ、かつ虹彩中心が瞳孔の径に含まれることを目位置を特定するための条件とする。
【0033】
図1に示したように、人の目画像であると認識するためには、虹彩領域内に瞳孔が位置している必要があるが、第1の実施形態によれば、目位置特定部16において、瞳孔および虹彩の有無に加え、虹彩領域内に存在する瞳孔の位置関係を判定する機能を備えるため、目以外の誤った画像を認証処理の対象とすることがなくなる。
【0034】
図5は本発明の第2の実施形態の目位置特定方法の処理の流れを示す図である。第2の実施形態では、第1の実施形態の処理に加え、瞳孔円周上の任意点が虹彩円内に存在するかを判定する(S15)。この判定は、瞳孔中心と瞳孔円周上の任意点との距離aと、虹彩中心と虹彩円周上の任意点との距離bとを比較し、a<bの関係にあることを条件に行う。ここで、a=√((x_p−x_p0)2+(y_p−y_p0)2)、b=√((x_i−x_i0)2+(y_i−y_i0)2)である。
【0035】
図1に示すように、人の目画像であると認識するためには、虹彩領域内に瞳孔が位置している必要があるが、第2の実施形態によれば、目位置特定部16において、瞳孔および虹彩の有無、虹彩領域内に存在する瞳孔の位置関係の判定に加え、瞳孔円周上の任意点が虹彩円内に存在するかを判定する機能を備えるため、さらに高い精度で目画像を認識することができる。
【0036】
図6は本発明の第3の実施形態の目位置特定方法の処理の流れを示す図である。第3の実施形態では、瞳孔中心座標(x_p,y_p)および径(rp)を検出して瞳孔領域の抽出(S16)および虹彩中心座標(x_i,y_i)および径(ri)を検出して虹彩領域の抽出(S17)を行う。その後、瞳孔領域内の任意点の輝度値と虹彩領域内の輝度値とを比較し、輝度差が所定の範囲内かの判定を行い(S18)、虹彩領域内の任意点の輝度値と強膜(白目)領域の輝度値とを比較し、輝度差が所定の範囲内かの判定を行う(S19)。
【0037】
図1に示すように、人の目画像であると認識するためには、強膜(白目)領域と虹彩との間に輝度差があり、かつ虹彩と瞳孔との間に輝度差がある必要があるが、第3の実施形態によれば、目位置特定部16において、瞳孔領域内の任意点の輝度値と虹彩領域内の輝度値との間の輝度差および虹彩領域内の任意点の輝度値と強膜(白目)領域の輝度値との間の輝度差に基づき生体眼としての瞳孔および虹彩の有無を判定する機能を備えるため、目以外の誤った画像を認証処理の対象とすることがなくなる。
【0038】
図7は本発明の第4の実施形態の目位置特定方法の処理の流れを示す図である。第4の実施形態では、瞳孔中心座標(x_p,y_p)および径(rp)を検出して瞳孔領域の抽出(S16)および虹彩中心座標(x_i0,y_i0)および径(ri)を検出して虹彩領域の抽出(S17)を行う。その後、瞳孔領域内の任意点の輝度値と虹彩領域内の輝度値とを比較し、輝度変化率が所定の範囲内かの判定を行い(S18)、虹彩領域内の任意点の輝度値と強膜(白目)領域の輝度値とを比較し、輝度変化率が所定の範囲内かの判定を行う(S19)。
【0039】
図1に示すように、人の目画像であると認識するためには、強膜(白目)領域と虹彩との間の輝度差および虹彩と瞳孔との間の輝度差があり、かつこられの輝度差が所定の変化率である必要があるが、第4の実施形態によれば、目位置特定部16において、瞳孔領域内の任意点の輝度値と虹彩領域内の輝度値との間の輝度変化率および虹彩領域内の任意点の輝度値と強膜(白目)領域の輝度値との間の輝度変化率に基づき生体眼としての瞳孔および虹彩の有無を判定する機能を備えるため、目以外の誤った画像を認証処理の対象とすることがなくなる。
【0040】
図8は本発明の第5の実施形態の目位置特定方法における目画像の座標を示す図である。図8に示すように、目画像獲得は、人の目に対して特定した瞳孔中心座標(x_p0,y_p0)1、虹彩中心座標(x_i0,y_i0)2に加え、瞳孔水平右半径(rp_r)19、瞳孔水平左半径(rp_l)20、虹彩水平右半径(ri_r)21、虹彩水平左半径(ri_l)22、瞳孔垂直上半径(rp_u)23、瞳孔垂直下半径(rp_d)24、虹彩垂直上半径(ri_u)25および虹彩垂直下半径(ri_d)26に基づいて行う。図9は、第5の実施形態の目位置特定方法の処理の流れを示す図である。ここで、瞳孔半径rp=rp_r+rp_l(rp_u+rp_d)、虹彩半径ri=ri_r+ri_l(ri_u+ri_d)である。
【0041】
図9に示すように、第5の実施形態では、瞳孔中心座標(x_p,y_p)および瞳孔水平右半径(rp_r)、瞳孔水平左半径(rp_l)、瞳孔垂直上半径(rp_u)、瞳孔垂直下半径(rp_d)の検出(S22)ならびに虹彩中心座標(x_i,y_i)および虹彩水平右半径(ri_r)、虹彩水平左半径(ri_l)、虹彩垂直上半径(ri_u)、虹彩垂直下半径(ri_d)の検出(S23)を行い、その後、瞳孔中心が虹彩水平右半径から左半径に含まれるかを判断し(x_i0−ri<x_p0<x_i0+ri,y_i0−ri<y_p0<y_i0+ri)(S24)、虹彩中心が瞳孔水平右半径から左半径に含まれるかを判断し(x_p0−rp<x_i0<x_p0+rp,y_p0−rp<y_i0<y_p0+rp)(S25)、瞳孔水平右半径が虹彩水平右半径より小さく(rp_r<ri_r)、瞳孔水平左半径が虹彩水平左半径より小さく(rp_l<ri_l)、かつ瞳孔垂直上半径が虹彩垂直上半径より小さく(rp_u<ri_u)、瞳孔垂直下半径が虹彩垂直下半径より小さいかを判断する(rp_d<ri_d)(S26)。瞳孔中心が虹彩水平右半径から左半径に含まれ、虹彩中心が瞳孔水平右半径から左半径に含まれ、かつ瞳孔水平右半径が虹彩水平右半径より小さく、瞳孔水平左半径が虹彩水平左半径より小さく、瞳孔垂直上半径が虹彩垂直上半径より小さく、瞳孔垂直下半径が虹彩垂直下半径より小さいことを条件に虹彩領域内に瞳孔があると判定し、このときの目画像を認証処理の対象とする。
【0042】
図1に示したように、人の目画像であると認識するためには、虹彩領域内に瞳孔が位置している必要があるが、第5の実施形態によれば、目位置特定部16において、瞳孔および虹彩の有無に加え、虹彩領域内に存在する瞳孔の位置関係が適正であるかを判定する機能を備えるため、目以外の誤った画像を認証処理の対象とすることがなくなる。
【0043】
図10は本発明の第6の実施形態の目位置特定方法における目画像のイメージを示す図である。図10に示すように、目画像獲得は、人の目に対して特定した瞳孔中心座標(x_p0,y_p0)、虹彩中心座標(x_i0,y_i0)、瞳孔円周上の任意点座標および虹彩円周上の任意点座標に加え、雑音成分を除去するために複数の短冊状に分割した検出範囲27に基づいて行う。図11は、第6の実施形態の目位置特定方法の処理の流れを示す図である。
【0044】
図11に示すように、第6の実施形態では、瞳孔中心座標((x_p,y_p))および径(rp)の検出(S11)および虹彩中心座標(x_i,y_i)および径(ri)の検出(S12)を行う前に、画像を短冊状に分解する(S27)。その後、各短冊毎に抽出した画像中心座標に基づいて真の画像中心を抽出し(S28)、目位置を特定する(S29)。例えば、各短冊毎に抽出した複数の画像中心から多数決で決定した画像中心を真の画像中心とする。
【0045】
第6の実施形態によれば、目位置特定部16において、正確な画像中心を抽出する機能を備えるため、以降の目位置特定処理において精度の高い検出が可能となる。
【0046】
図12は本発明の第7の実施形態の目位置特定方法の処理の流れを示す図である。第7の実施形態では、第1の実施形態に加え、強膜(白目)の領域の有無を判定する(S30)。
【0047】
第7の実施形態によれば、目位置特定部16において、瞳孔および虹彩の有無、虹彩領域内に存在する瞳孔の位置関係の判定に加え、強膜(白目)の領域の有無を判定する機能を備えるため、さらに高い精度で目画像を認識することができる。
【0048】
図13は本発明の第8の実施形態の目位置特定方法の処理の流れを示す図である。第8の実施形態では、目位置特定部16において、瞳孔あるいは虹彩のそれぞれの中心と位置の検出結果に基づき、獲得する目画像の範囲を変えて複数回の目位置特定処理を行う(S31、S32、S33)。この場合、眉毛やほくろなど明らかに目画像とは異なる画像が含まれている場合は、これらの画像を使用せずに認証処理画像を決定する。
【0049】
第8の実施形態によれば、目位置特定部16において、範囲を変えて複数回の目位置特定を行う機能を備えるため、さらに高い精度で目画像を認識することができる。
【0050】
図14は本発明の第9の実施形態の目位置特定方法における目画像のイメージを示す図、図15は目画像の座標を示す図、図16は目位置特定方法の処理の流れを示す図である。図14および図15に示すように、第9の実施形態では、虹彩あるいは瞳孔における反射光や雑音等により目画像の一部が欠落したときの目位置特定を行う。図14において、目画像の欠落領域は、目画像のうちの瞳孔領域および虹彩領域の一部に存在し、図15の座標において、欠落領域の境界線Ia、欠落領域と虹彩領域あるいは瞳孔領域と重なる領域の境界線Ib、虹彩領域の境界線Icで示される。
【0051】
図16に示すように、目位置を特定した目画像に対して、反射光などにより欠落した領域の境界線Iaを検出し(S34)、境界線Iaが虹彩領域あるいは瞳孔領域と重なる領域の境界線Ibを仮想生成する(S35)。境界線Ibと虹彩領域の境界線Icとで画定される有効領域が認証可能な面積かを判定する(S36)。認証可能な面積と判定した場合は、このときの目画像を認証処理の対象とする。認証可能な面積は、要求される認証精度に応じて変わり、低い認証精度の場合は虹彩領域を完全に特定できなくてもよいため、認証可能な面積は小さい。一方、高い認証精度の場合は虹彩領域をほぼ完全に特定する必要があるため、認証可能な面積は大きい。また、誤認識を許容できる範囲に認証可能な面積を設定するようにしてもよい。
【0052】
第9の実施形態によれば、反射光や雑音等により目画像の一部が欠落して認証処理が困難な場合は、目位置特定部16において、認証処理の対象となる目画像を特定する前に、予め認証可能かを判定し、必要であれば再度目画像獲得処理を促す機能を備えることで、不要な認証を行うことがなくなる。
【0053】
図17は本発明の第10の実施形態の目位置特定方法における目画像のイメージを示す図である。第10の実施形態では、フォーカス判定部14において、瞳孔および虹彩を中心とする領域(フォーカス判定エリア29)に限定したフォーカス演算を行い、フォーカス判定を行う。
【0054】
第10の実施形態によれば、フォーカス判定部14において、フォーカス判定の対象を瞳孔および虹彩を中心とする領域に限定すること、認証処理に不要な目以外の領域の画像を獲得することがなくなり、また、瞳孔および虹彩を中心としたフォーカス判定を行うことができる。
【0055】
図18は第11の実施形態の目位置特定方法の目画像の座標を示す図、図19は目位置特定方法の処理の流れを示す図である。第11の実施形態では、隣合う画素の輝度値の変化率を用いて獲得した画像の中から瞳孔と虹彩との境界あるいは虹彩と強膜(白目)との境界を検出する。
【0056】
図19に示すように、目位置特定部16の処理は、まず、隣合う画素の輝度値の変化率を用いて、獲得した画像の中から境界線を検出し(S37)、検出した境界線が弧状であれば瞳孔と虹彩との境界線と判断する(S38)。次に、隣合う画素の輝度値の変化率を用いて、獲得した画像の中から境界線を検出し(S39)、検出した境界線が弧状であれば虹彩と強膜(白目)との境界線と判断する(S40)。輝度値の変化率は、瞳孔と虹彩および虹彩と強膜(白目)のそれぞれの境界線を検出するために予め設定される。
【0057】
第11の実施形態によれば、目位置特定部16において、隣合う画素の輝度値の変化率を用いて瞳孔と虹彩との境界あるいは虹彩と強膜(白目)との境界を検出する機能を備えることで、座標演算を行うことなく瞳孔および虹彩の有無を判定することができる。
【0058】
図20は第12の実施形態の目位置特定方法の目画像のイメージを示す図である。第12の実施形態では、予め目の形状に合わせて用意した特定のテンプレート32を、獲得した画像に対して目位置を中心に配置しテンプレート領域外をマスクする。
【0059】
第12の実施形態によれば、目位置特定部16において、目の形状に合わせたテンプレートを用いて獲得した画像からテンプレート領域外をマスクする機能を備えることで、目の周辺に位置する雑音成分の原因となる睫毛等を除去して、瞳孔および虹彩の位置検出の精度を向上させ、高い精度で目画像を認識することができる。
【0060】
図21は本発明の第13の実施形態の目位置特定方法を行うための虹彩認証装置の構成を示している。第13の実施形態では、目位置特定部16で特定した目位置情報をフォーカス判定部14へフィードバックする。
【0061】
第13の実施形態に示した虹彩認証装置を適用することで、フォーカス判定部14でのフォーカス判定精度が向上するため、瞳孔および虹彩の位置検出精度が向上する。従って、高い精度で瞳孔および虹彩の有無の判定、位置関係の判定、生体眼の検出を行うことができ、目以外の誤った画像を認証処理の対象と認識することがなくなる。
【0062】
【発明の効果】
以上説明したように、本発明は、瞳孔および虹彩の有無に加え、虹彩領域内に存在する瞳孔の位置関係を判定することで、目以外の誤った画像を認証処理の対象とすることがなくなり、高い精度で目位置を特定することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の目位置特定方法における目画像のイメージ。
【図2】本発明の第1の実施形態の目位置特定方法における目画像の座標。
【図3】本発明の第1の実施形態の目位置特定方法を行うための認証装置。
【図4】本発明の第1の実施形態の目位置特定方法を示すフローチャート。
【図5】本発明の第2の実施形態の目位置特定方法を示すフローチャート。
【図6】本発明の第3の実施形態の目位置特定方法を示すフローチャート。
【図7】本発明の第4の実施形態の目位置特定方法を示すフローチャート。
【図8】本発明の第5の実施形態の目位置特定方法における目画像のイメージ。
【図9】本発明の第5の実施形態の目位置特定方法を示すフローチャート。
【図10】本発明の第6の実施形態の目位置特定方法における目画像のイメージ。
【図11】本発明の第6の実施形態の目位置特定方法を示すフローチャート。
【図12】本発明の第7の実施形態の目位置特定方法を示すフローチャート。
【図13】本発明の第8の実施形態の目位置特定方法を示すフローチャート。
【図14】本発明の第9の実施形態の目位置特定方法における目画像のイメージ。
【図15】本発明の第9の実施形態の目位置特定方法における目画像の座標。
【図16】本発明の第9の実施形態の目位置特定方法を示すフローチャート。
【図17】本発明の第10の実施形態の目位置特定方法における目画像のイメージ。
【図18】本発明の第11の実施形態の目位置特定方法における目画像のイメージ。
【図19】本発明の第11の実施形態の目位置特定方法を示すフローチャート。
【図20】本発明の第12の実施形態の目位置特定方法における目画像のイメージ。
【図21】本発明の第13の実施形態の認証装置。
【符号の説明】
1 瞳孔中心座標
2 虹彩中心座標
3 瞳孔円周上の任意点座標
4 虹彩円周上の任意点座標
5 強膜(白目)
8 睫毛
9 上瞼
10 下瞼
11 レンズ
12 撮像素子
13 画像処理部
14 フォーカス判定部
15 画像獲得部
16 目位置特定部
17 認証処理画像決定部
18 認証処理部
19 瞳孔水平右半径
20 瞳孔水平左半径
21 虹彩水平右半径
22 虹彩水平左半径
23 瞳孔垂直上半径
24 瞳孔垂直下半径
25 虹彩垂直上半径
26 虹彩垂直下半径
27 検出範囲
28 反射光による目画像の欠落領域
29 フォーカス判定エリア
31 画素
32 テンプレート[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an eye position specifying method and apparatus for acquiring an eye image required in an authentication device using an iris, an authentication device using a retina, and the like (hereinafter, referred to as an iris authentication device).
[0002]
[Prior art]
Conventionally, this type of iris authentication device continuously captures images by adjusting the eye position according to the user's intention or the automatic focus function, and determines an image when a value equal to or greater than a predetermined focus determination value is detected as fixed data. As an authentication function.
[0003]
[Problems to be solved by the invention]
However, such a conventional iris authentication device often focuses not only on the eyes but also on the glasses, eyebrows, nose, etc., and the focus on the positions of the eyes is insufficient, so that an image different from the eyes is obtained. There was a problem that often. Furthermore, when specifying the position of the eye by image processing with respect to the entire captured eye image, there is a problem that it is difficult to accurately detect and specify the position of the eye due to the influence of eyelashes and the like. In addition, there is a problem that the time required for specifying the eye position is long due to the execution of the complicated calculation processing for specifying the eye position, and that the entire time including the authentication processing performed after specifying the eye position is long. Was.
[0004]
An eye position specifying method and apparatus according to the present invention has been made to solve the above-described problems related to eye position specification, and has an object to specify an eye position with high accuracy in acquiring an eye image at the time of authentication. It is. It is another object of the present invention to reduce the time for specifying the eye position and the time for the entire process.
[0005]
[Means for Solving the Problems]
An eye position specifying method according to the present invention is an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication, wherein the center and the diameter of each of a pupil and an iris are obtained from the eye image. Is detected, and that the center of the pupil is included in the diameter of the iris and the center of the iris is included in the diameter of the pupil is set as a condition for specifying an eye position.
[0006]
With the above configuration, in addition to the presence or absence of the pupil and the iris, the positional relationship of the pupil existing in the iris region is determined, so that an erroneous image other than the eye is not subjected to the authentication processing, and the eye position can be accurately determined. Can be specified.
[0007]
The eye position identification method according to the present invention is the eye position identification method according to claim 1, wherein the center of the pupil is included in the diameter of the iris, and an arbitrary point on the circumference of the pupil is inside the diameter of the iris. Is included as a condition for specifying the eye position.
[0008]
According to the above configuration, in addition to the presence or absence of the pupil and the iris, in addition to the determination of the positional relationship of the pupil present in the iris region, by determining whether an arbitrary point on the pupil circumference exists in the iris circle, with even higher accuracy. The eye position can be specified.
[0009]
An eye position identification method according to the present invention is an eye position identification method for identifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication, the method comprising the steps of: A condition for specifying an eye position is set based on a predetermined luminance difference from a luminance value of a point and a predetermined luminance difference between a luminance value of an arbitrary point in the iris region and a luminance value of an arbitrary point in the scleral region. .
[0010]
With the above configuration, the luminance difference between the luminance value of an arbitrary point in the pupil region and the luminance value in the iris region and the luminance difference between the luminance value of the arbitrary point in the iris region and the luminance value of the sclera (white-eye) region By determining the presence or absence of the pupil and the iris as the living eye based on the luminance difference, an erroneous image other than the eye is not recognized as a target of the authentication processing, and the eye position can be specified with high accuracy.
[0011]
An eye position identification method according to the present invention is an eye position identification method for identifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication, the method comprising the steps of: A condition for specifying an eye position on the condition of a predetermined luminance change rate with respect to a point luminance value and a predetermined luminance change rate between a luminance value of an arbitrary point in the iris region and a luminance value of an arbitrary point in the scleral region. To
[0012]
With the above configuration, the luminance change rate between the luminance value of an arbitrary point in the pupil region and the luminance value in the iris region and the luminance change rate of the arbitrary point in the iris region and the luminance value of the sclera (white eye) region Since the presence or absence of a pupil and an iris as a living eye is determined based on the luminance change rate of, an erroneous image other than the eye is not subjected to the authentication processing, and the eye position can be specified with high accuracy.
[0013]
An eye position identification method according to the present invention is an eye position identification method for identifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication, wherein the center of the pupil is included from the right radius to the left radius of the iris. The center of the iris is included from the right radius of the pupil to the left radius, the right radius of the pupil is smaller than the right radius of the iris, the left radius of the pupil is smaller than the left radius of the iris, and the upper radius of the pupil is the upper radius of the iris. At least one that is smaller and the lower radius of the pupil is smaller than the lower radius of the iris is a condition for specifying the eye position.
[0014]
With the above configuration, in addition to the presence or absence of the pupil and the iris, it is determined whether or not the positional relationship of the pupil existing in the iris region is appropriate. The eye position can be specified with high accuracy.
[0015]
An eye position specifying method according to the present invention is the eye position specifying method according to any one of claims 1 to 6, wherein the eye position image to be authenticated is specified with respect to the eye image acquired for authentication. In the position specifying method, the eye image is decomposed into a plurality of strips, and the true image center is extracted based on the image center coordinates extracted for each strip to specify the eye position.
[0016]
According to the above configuration, the eye position can be specified with high accuracy in the subsequent eye position specifying process in order to accurately extract the center of the image.
[0017]
According to the eye position specifying method of the present invention, in the eye position specifying method of the present invention, detecting the scleral region is a condition for specifying the eye position as a living eye.
[0018]
With the above configuration, in addition to determining the presence or absence of the pupil and the iris and the positional relationship between the pupils existing in the iris region, the function of determining the presence or absence of the sclera (white eye) region is provided. can do.
[0019]
An eye position specifying method according to the present invention is an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image obtained for authentication, wherein the eye position image is obtained in a range of the obtained eye image. Are specified by a plurality of processes performed by changing
[0020]
According to the above configuration, since the eye position is specified a plurality of times while changing the range, the eye position can be specified with higher accuracy.
[0021]
An eye position specifying method according to the present invention is the eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication, wherein the first boundary of the missing area of the image of the eye position is provided. Detecting a line, virtually generating a second boundary line of an area where the first boundary line overlaps the iris region or the pupil region, and defining an effective region defined by the second boundary line and the boundary line of the iris region. Is determined to be an area that can be authenticated.
[0022]
According to the above configuration, when part of an eye image is missing due to reflected light, noise, or the like, and authentication processing is difficult, before identifying an eye image to be subjected to authentication processing, it is determined in advance whether authentication is possible and necessary. Then, by prompting the eye image acquisition process again, the authentication is not performed based on the unauthenticated eye image, and the authentication time can be reduced.
[0023]
An eye position specifying method according to the present invention is an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication, the focus determination being limited to an area centered on a pupil and an iris. After that, the eye image is obtained.
[0024]
With the above configuration, by limiting the focus determination target to an area centered on the pupil and the iris, it is not necessary to obtain an image of an area other than the eyes unnecessary for the authentication process, and the center of the pupil and the iris is also reduced. Since the focus determination can be performed, the eye position can be specified with high accuracy.
[0025]
An eye position specifying method according to the present invention is an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication, wherein the eye image has a luminance value of an adjacent pixel. The presence or absence of a pupil and an iris are detected based on the boundary detected using the change rate.
[0026]
According to the above configuration, by detecting the boundary between the pupil and the iris or the boundary between the iris and the sclera (white eye) using the change rate of the luminance value of the adjacent pixels, the presence or absence of the pupil and the iris without performing coordinate calculation. Can be determined, so that the time for specifying the eye position can be reduced.
[0027]
An eye position specifying method according to the present invention is an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication. The specific template prepared in this manner is arranged around the eye position, and the area outside the template area is masked.
[0028]
With the above configuration, by masking the outside of the template region from an image acquired using a template adapted to the shape of the eye, eyelashes and the like that cause noise components located around the eye are removed, and the pupil and the iris are removed. The accuracy of position detection can be improved, and the eye position can be specified with high accuracy.
[0029]
An authentication device of the present invention authenticates an image of an eye position specified by using the eye position specifying method according to any one of claims 1 to 14. With this configuration, the authentication process is performed on the eye position specified with high accuracy, thereby improving the authentication accuracy. Further, since the time for specifying the eye position is reduced, the time for the entire processing including the authentication processing can be reduced.
[0030]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an image of an eye image in the eye position specifying method according to the first embodiment of the present invention, and FIG. 2 is a diagram showing coordinates of the eye image. As shown in FIGS. 1 and 2, eye image acquisition is based on pupil center coordinates (x_p0, y_p0) 1, iris center coordinates (x_i0, y_i0) 2, and an arbitrary point on the pupil circumference. This is performed based on the coordinates (x_p, y_p) 3 and the coordinates (x_i, y_i) 4 of an arbitrary point on the iris circumference. FIG. 3 is a diagram illustrating a configuration of an iris authentication device for performing the eye position specifying method according to the first embodiment, and FIG. 4 is a diagram illustrating a processing flow of the eye position specifying method.
[0031]
As shown in FIG. 3, the image data captured by the
[0032]
As shown in FIG. 4, the processing of the eye
[0033]
As shown in FIG. 1, the pupil needs to be located in the iris region in order to recognize the image as a human eye image, but according to the first embodiment, the eye
[0034]
FIG. 5 is a diagram showing a processing flow of an eye position specifying method according to the second embodiment of the present invention. In the second embodiment, in addition to the processing of the first embodiment, it is determined whether an arbitrary point on the pupil circumference exists in the iris circle (S15). In this determination, the distance a between the center of the pupil and an arbitrary point on the pupil circumference is compared with the distance b between the center of the iris and an arbitrary point on the circumference of the iris, and under the condition that a <b. Do. Here, a = √ ((x_p−x_p0) 2 + (Y_py-y_p0) 2 ), B = √ ((x_ix−i_0)) 2 + (Y_i-y_i0) 2 ).
[0035]
As shown in FIG. 1, the pupil needs to be located in the iris region in order to recognize the image as a human eye image. In addition to determining the presence or absence of the pupil and the iris and the positional relationship of the pupil existing in the iris area, the function of determining whether an arbitrary point on the pupil circumference is present in the iris circle is provided. Images can be recognized.
[0036]
FIG. 6 is a diagram showing a processing flow of an eye position specifying method according to the third embodiment of the present invention. In the third embodiment, pupil center coordinates (x_p, y_p) and diameter (rp) are detected to extract a pupil region (S16), and iris center coordinates (x_i, y_i) and diameter (ri) are detected. A region is extracted (S17). Thereafter, the luminance value of an arbitrary point in the pupil region is compared with the luminance value in the iris region to determine whether the luminance difference is within a predetermined range (S18). The luminance value of the film (white-eye) region is compared to determine whether the luminance difference is within a predetermined range (S19).
[0037]
As shown in FIG. 1, in order to recognize a human eye image, there is a luminance difference between the sclera (white eye) region and the iris and a luminance difference between the iris and the pupil. However, according to the third embodiment, in the eye
[0038]
FIG. 7 is a diagram showing a processing flow of an eye position specifying method according to the fourth embodiment of the present invention. In the fourth embodiment, pupil center coordinates (x_p, y_p) and diameter (rp) are detected to extract a pupil region (S16), and iris center coordinates (x_i0, y_i0) and diameter (ri) are detected. A region is extracted (S17). Thereafter, the luminance value of an arbitrary point in the pupil region is compared with the luminance value in the iris region to determine whether the luminance change rate is within a predetermined range (S18). The luminance value of the sclera (white eye) region is compared with the luminance value to determine whether the luminance change rate is within a predetermined range (S19).
[0039]
As shown in FIG. 1, in order to recognize the image as a human eye image, there are a luminance difference between the sclera (white-eye) region and the iris and a luminance difference between the iris and the pupil. Although the luminance difference needs to have a predetermined rate of change, according to the fourth embodiment, the eye
[0040]
FIG. 8 is a diagram showing the coordinates of an eye image in the eye position specifying method according to the fifth embodiment of the present invention. As shown in FIG. 8, eye image acquisition is performed in addition to pupil center coordinates (x_p0, y_p0) 1 and iris center coordinates (x_i0, y_i0) 2 specified for the human eye, and a pupil horizontal right radius (rp_r) 19. Pupil horizontal left radius (rp_l) 20, iris horizontal right radius (ri_r) 21, iris horizontal left radius (ri_l) 22, pupil vertical upper radius (rp_u) 23, pupil vertical lower radius (rp_d) 24, iris vertical upper radius (Ri_u) 25 and the iris vertical lower radius (ri_d) 26. FIG. 9 is a diagram illustrating a flow of processing of an eye position specifying method according to the fifth embodiment. Here, pupil radius rp = rp_r + rp_l (rp_u + rp_d), and iris radius ri = ri_r + ri_l (ri_u + ri_d).
[0041]
As shown in FIG. 9, in the fifth embodiment, pupil center coordinates (x_p, y_p), pupil horizontal right radius (rp_r), pupil horizontal left radius (rp_l), pupil vertical upper radius (rp_u), pupil vertical lower radius Detection of radius (rp_d) (S22) and iris center coordinates (x_i, y_i) and iris horizontal right radius (ri_r), iris horizontal left radius (ri_l), iris vertical upper radius (ri_u), iris vertical lower radius (ri_d) Is detected (S23), and then it is determined whether the pupil center is included in the iris horizontal right radius to the left radius (x_i0-ri <x_p0 <x_i0 + ri, y_i0-ri <y_p0 <y_i0 + ri) (S24), and the iris center Is determined to be included in the pupil horizontal right radius to the left radius (x_p0−rp <x_i0 <x_p0 + rp, y_p0−rp <y_i0 <y_ 0 + rp) (S25), the pupil horizontal right radius is smaller than the iris horizontal right radius (rp_r <ri_r), the pupil horizontal left radius is smaller than the iris horizontal left radius (rp_l <ri_l), and the pupil vertical upper radius is the iris vertical upper radius. It is determined whether it is smaller (rp_u <ri_u) and the pupil vertical lower radius is smaller than the iris vertical lower radius (rp_d <ri_d) (S26). The pupil center is included in the iris horizontal right radius to the left radius, the iris center is included in the pupil horizontal right radius to the left radius, and the pupil horizontal right radius is smaller than the iris horizontal right radius, and the pupil horizontal left radius is the iris horizontal left radius. Smaller, the pupil vertical upper radius is smaller than the iris vertical upper radius, and the pupil is determined to be present in the iris region on the condition that the pupil vertical lower radius is smaller than the iris vertical lower radius. set to target.
[0042]
As shown in FIG. 1, the pupil needs to be located in the iris region in order to recognize the image as a human eye image. However, according to the fifth embodiment, the eye
[0043]
FIG. 10 is a diagram showing an image of an eye image in the eye position specifying method according to the sixth embodiment of the present invention. As shown in FIG. 10, eye image acquisition is performed by pupil center coordinates (x_p0, y_p0), iris center coordinates (x_i0, y_i0), arbitrary point coordinates on the pupil circumference, and iris circumference specified for the human eye. In addition to the above arbitrary point coordinates, the detection is performed based on the
[0044]
As shown in FIG. 11, in the sixth embodiment, detection of pupil center coordinates ((x_p, y_p)) and diameter (rp) (S11) and detection of iris center coordinates (x_i, y_i) and diameter (ri) are performed. Before performing (S12), the image is decomposed into strips (S27). Thereafter, the true image center is extracted based on the image center coordinates extracted for each strip (S28), and the eye position is specified (S29). For example, the image center determined by majority from a plurality of image centers extracted for each strip is set as a true image center.
[0045]
According to the sixth embodiment, since the eye
[0046]
FIG. 12 is a diagram showing a processing flow of an eye position specifying method according to the seventh embodiment of the present invention. In the seventh embodiment, in addition to the first embodiment, the presence or absence of a sclera (white-eye) region is determined (S30).
[0047]
According to the seventh embodiment, in addition to the determination of the presence or absence of the pupil and the iris and the positional relationship between the pupils existing in the iris region, the function of determining the presence or absence of the sclera (white-eye) region in the eye
[0048]
FIG. 13 is a diagram showing a processing flow of an eye position specifying method according to the eighth embodiment of the present invention. In the eighth embodiment, the eye
[0049]
According to the eighth embodiment, since the eye
[0050]
FIG. 14 is a diagram showing an image of an eye image in the eye position specifying method according to the ninth embodiment of the present invention, FIG. 15 is a diagram showing coordinates of the eye image, and FIG. 16 is a diagram showing a flow of processing of the eye position specifying method. It is. As shown in FIGS. 14 and 15, in the ninth embodiment, the eye position is specified when a part of the eye image is missing due to reflected light or noise at the iris or pupil. In FIG. 14, the missing region of the eye image exists in a part of the pupil region and the iris region in the eye image, and in the coordinates of FIG. 15, the boundary line Ia of the missing region, the missing region and the iris region or the pupil region. This is indicated by a boundary line Ib of the overlapping region and a boundary line Ic of the iris region.
[0051]
As shown in FIG. 16, a boundary line Ia of a region missing due to reflected light or the like is detected from the eye image in which the eye position is specified (S34), and a boundary line Ia of the region where the boundary line Ia overlaps with the iris region or the pupil region is detected. The line Ib is virtually generated (S35). It is determined whether the effective region defined by the boundary line Ib and the boundary line Ic of the iris region is an area that can be authenticated (S36). If it is determined that the area can be authenticated, the eye image at this time is subjected to the authentication processing. The area that can be authenticated changes according to the required authentication accuracy. In the case of low authentication accuracy, the iris region does not need to be completely specified, and thus the area that can be authenticated is small. On the other hand, in the case of high authentication accuracy, it is necessary to specify the iris region almost completely, so that the area that can be authenticated is large. Further, the area that can be authenticated may be set in a range where erroneous recognition is allowable.
[0052]
According to the ninth embodiment, when part of an eye image is missing due to reflected light, noise, or the like, and authentication processing is difficult, the eye
[0053]
FIG. 17 is a diagram showing an image of an eye image in the eye position specifying method according to the tenth embodiment of the present invention. In the tenth embodiment, the
[0054]
According to the tenth embodiment, the
[0055]
FIG. 18 is a diagram illustrating the coordinates of an eye image in the eye position specifying method according to the eleventh embodiment, and FIG. 19 is a diagram illustrating the flow of processing in the eye position specifying method. In the eleventh embodiment, a boundary between a pupil and an iris or a boundary between an iris and a sclera (white eye) is detected from an image acquired using a change rate of a luminance value of an adjacent pixel.
[0056]
As shown in FIG. 19, the processing of the eye
[0057]
According to the eleventh embodiment, the eye
[0058]
FIG. 20 is a diagram showing an image of an eye image in the eye position specifying method according to the twelfth embodiment. In the twelfth embodiment, a
[0059]
According to the twelfth embodiment, the eye
[0060]
FIG. 21 shows the configuration of an iris authentication device for performing the eye position specifying method according to the thirteenth embodiment of the present invention. In the thirteenth embodiment, the eye position information specified by the eye
[0061]
By applying the iris authentication device described in the thirteenth embodiment, the focus determination accuracy of the
[0062]
【The invention's effect】
As described above, according to the present invention, in addition to the presence / absence of the pupil and the iris, the positional relationship between the pupils present in the iris region is determined, so that an erroneous image other than the eye is not subjected to the authentication processing. The eye position can be specified with high accuracy.
[Brief description of the drawings]
FIG. 1 is an image of an eye image in an eye position specifying method according to a first embodiment of the present invention.
FIG. 2 shows coordinates of an eye image in an eye position specifying method according to the first embodiment of the present invention.
FIG. 3 is an authentication device for performing the eye position specifying method according to the first embodiment of the present invention.
FIG. 4 is a flowchart showing an eye position specifying method according to the first embodiment of the present invention.
FIG. 5 is a flowchart illustrating an eye position specifying method according to a second embodiment of the present invention.
FIG. 6 is a flowchart illustrating an eye position specifying method according to a third embodiment of the present invention.
FIG. 7 is a flowchart illustrating an eye position specifying method according to a fourth embodiment of the present invention.
FIG. 8 is an image of an eye image in an eye position specifying method according to a fifth embodiment of the present invention.
FIG. 9 is a flowchart illustrating an eye position specifying method according to a fifth embodiment of the present invention.
FIG. 10 is an image of an eye image in an eye position specifying method according to a sixth embodiment of the present invention.
FIG. 11 is a flowchart illustrating an eye position specifying method according to a sixth embodiment of the present invention.
FIG. 12 is a flowchart illustrating an eye position specifying method according to a seventh embodiment of the present invention.
FIG. 13 is a flowchart illustrating an eye position specifying method according to an eighth embodiment of the present invention.
FIG. 14 is an image of an eye image in an eye position specifying method according to a ninth embodiment of the present invention.
FIG. 15 shows coordinates of an eye image in an eye position specifying method according to a ninth embodiment of the present invention.
FIG. 16 is a flowchart showing an eye position specifying method according to a ninth embodiment of the present invention.
FIG. 17 is an image of an eye image in an eye position specifying method according to a tenth embodiment of the present invention.
FIG. 18 is an image of an eye image in an eye position specifying method according to an eleventh embodiment of the present invention.
FIG. 19 is a flowchart illustrating an eye position specifying method according to an eleventh embodiment of the present invention.
FIG. 20 is an image of an eye image in an eye position specifying method according to a twelfth embodiment of the present invention.
FIG. 21 shows an authentication device according to a thirteenth embodiment of the present invention.
[Explanation of symbols]
1 pupil center coordinates
2 Iris center coordinates
3. Arbitrary point coordinates on the pupil circumference
4 Arbitrary point coordinates on the iris circumference
5 Sclera (white eye)
8 Eyelashes
9 Upper eyelid
10 Lower eyelid
11 lenses
12 Image sensor
13 Image processing unit
14 Focus judgment unit
15 Image acquisition unit
16 Eye position identification unit
17 Authentication processing image determination unit
18 Authentication processing section
19 pupil horizontal right radius
20 pupil horizontal left radius
21 iris horizontal right radius
22 iris horizontal left radius
23 pupil vertical upper radius
24 pupil vertical lower radius
25 Vertical iris radius
26 Vertical iris lower radius
27 Detection range
28 Missing area of eye image due to reflected light
29 Focus judgment area
31 pixels
32 templates
Claims (29)
前記目画像から瞳孔と虹彩のそれぞれの中心と径を検出し、前記瞳孔の中心が前記虹彩の径に含まれ、かつ前記虹彩の中心が前記瞳孔の径に含まれることを目位置を特定するための条件にすることを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
The center and diameter of each of the pupil and the iris are detected from the eye image, and the eye position is specified such that the center of the pupil is included in the diameter of the iris and the center of the iris is included in the diameter of the pupil. Eye position identification method characterized by the following conditions:
瞳孔領域の任意点の輝度値と虹彩領域の任意点の輝度値との所定の輝度差および前記虹彩領域の任意点の輝度値と強膜領域の任意点の輝度値との所定の輝度差を条件にして目位置を特定するための条件にすることを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
A predetermined luminance difference between a luminance value of an arbitrary point in the pupil region and a luminance value of an arbitrary point in the iris region and a predetermined luminance difference between the luminance value of an arbitrary point in the iris region and the luminance value of an arbitrary point in the scleral region. An eye position specifying method, wherein the condition is a condition for specifying an eye position.
瞳孔領域の任意点の輝度値と虹彩領域の任意点の輝度値との所定の輝度変化率および前記虹彩領域の任意点の輝度値と強膜領域の任意点の輝度値との所定の輝度変化率を条件にして目位置を特定するための条件にすることを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
A predetermined luminance change rate between a luminance value at an arbitrary point in the pupil region and a luminance value at an arbitrary point in the iris region, and a predetermined luminance change between a luminance value at an arbitrary point in the iris region and a luminance value at an arbitrary point in the scleral region. An eye position specifying method, wherein a condition for specifying an eye position is set based on a rate.
瞳孔の中心が虹彩の右半径から左半径に含まれ、虹彩の中心が瞳孔の右半径から左半径に含まれ、瞳孔の右半径が虹彩の右半径より小さく、瞳孔の左半径が虹彩の左半径より小さく、瞳孔の上半径が虹彩の上半径より小さく、瞳孔の下半径が虹彩の下半径より小さいことの少なくとも1つを目位置を特定するための条件にすることを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
The center of the pupil is included from the right radius to the left radius of the iris, the center of the iris is included from the right radius of the pupil to the left radius, the right radius of the pupil is smaller than the right radius of the iris, and the left radius of the pupil is the left radius of the iris. An eye position characterized by at least one of a condition that the eye radius is smaller than the radius, the upper radius of the pupil is smaller than the upper radius of the iris, and the lower radius of the pupil is smaller than the lower radius of the iris. Identification method.
前記目画像を複数の短冊状に分解し、各短冊毎に抽出した画像中心座標に基づいて真の画像中心を抽出し目位置を特定することを特徴とする請求項1から6のいずれか1項記載の目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
7. The eye image according to claim 1, wherein the eye image is decomposed into a plurality of strips, a true image center is extracted based on the image center coordinates extracted for each strip, and an eye position is specified. Eye position specification method described in section.
前記目位置の画像を、獲得する目画像の範囲を変えて行う複数回の処理により特定することを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying method, wherein the eye position image is specified by a plurality of processes performed while changing the range of the obtained eye image.
前記目位置の画像の欠落領域の第1の境界線を検出し、前記第1の境界線が虹彩領域あるいは瞳孔領域と重なる領域の第2の境界線を仮想生成し、前記第2の境界線と虹彩領域の境界線とで画定される有効領域が認証可能な面積かを判定することを特徴とする目画像特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
Detecting a first boundary line of a missing region of the image at the eye position, virtually generating a second boundary line of a region where the first boundary line overlaps with an iris region or a pupil region; And determining whether an effective area defined by the iris area and the boundary line of the iris area is an area that can be authenticated.
瞳孔および虹彩を中心とする領域に限定したフォーカス判定を行った後、前記目画像を獲得することを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying method, wherein the eye image is obtained after performing focus determination limited to an area centered on a pupil and an iris.
前記目画像に対し、隣合う画素の輝度値の変化率を用いて検出した境界線に基づいて瞳孔および虹彩の有無を検出することを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying method, wherein the presence or absence of a pupil and an iris is detected based on a boundary detected using a change rate of a luminance value of an adjacent pixel in the eye image.
前記目画像に対して、予め目の形状に合わせて用意した特定のテンプレートを目位置を中心に配置し、該テンプレート領域外をマスクすることを特徴とする目位置特定方法。In an eye position specifying method for specifying an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying method comprising: arranging a specific template prepared in advance in accordance with the shape of the eye with respect to the eye image, centering on the eye position, and masking the outside of the template area.
前記目画像から瞳孔と虹彩のそれぞれの中心と径を検出し、前記瞳孔の中心が前記虹彩の径に含まれ、かつ前記虹彩の中心が前記瞳孔の径に含まれることを条件にして目位置を特定する目位置特定手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
The center and diameter of each of the pupil and the iris are detected from the eye image, and the eye position is determined on the condition that the center of the pupil is included in the diameter of the iris and the center of the iris is included in the diameter of the pupil. An eye position specifying device, comprising: an eye position specifying unit that specifies the eye position.
瞳孔領域の任意点の輝度値と虹彩領域の任意点の輝度値との所定の輝度差および前記虹彩領域の任意点の輝度値と強膜領域の任意点の輝度値との所定の輝度差を条件にして目位置を特定する目位置特定手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
A predetermined luminance difference between a luminance value of an arbitrary point in the pupil region and a luminance value of an arbitrary point in the iris region and a predetermined luminance difference between the luminance value of an arbitrary point in the iris region and the luminance value of an arbitrary point in the scleral region. An eye position specifying device, comprising: an eye position specifying unit that specifies an eye position as a condition.
瞳孔領域の任意点の輝度値と虹彩領域の任意点の輝度値との所定の輝度変化率および前記虹彩領域の任意点の輝度値と強膜領域の任意点の輝度値との所定の輝度変化率を条件にして目位置を特定する目位置特定手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
A predetermined luminance change rate between a luminance value at an arbitrary point in the pupil region and a luminance value at an arbitrary point in the iris region, and a predetermined luminance change between a luminance value at an arbitrary point in the iris region and a luminance value at an arbitrary point in the scleral region. An eye position specifying device, comprising: an eye position specifying means for specifying an eye position on condition of a rate.
瞳孔の中心が虹彩の右半径から左半径に含まれ、虹彩の中心が瞳孔の右半径から左半径に含まれ、瞳孔の右半径が虹彩の右半径より小さく、瞳孔の左半径が虹彩の左半径より小さく、瞳孔の上半径が虹彩の上半径より小さく、瞳孔の下半径が虹彩の下半径より小さいことの少なくとも1つを条件にして目位置を特定する目位置を特定する目位置特定手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
The center of the pupil is included from the right radius to the left radius of the iris, the center of the iris is included from the right radius of the pupil to the left radius, the right radius of the pupil is smaller than the right radius of the iris, and the left radius of the pupil is the left radius of the iris. Eye position specifying means for specifying an eye position for specifying an eye position on the condition that at least one of the following is smaller than the radius, the upper radius of the pupil is smaller than the upper radius of the iris, and the lower radius of the pupil is smaller than the lower radius of the iris. An eye position specifying device, comprising:
前記目位置特定手段が、前記目画像を複数の短冊状に分解し、各短冊毎に抽出した画像中心座標に基づいて真の画像中心を抽出し目位置を特定することを特徴とする請求項15から20のいずれか1項記載の目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
The eye position specifying means decomposes the eye image into a plurality of strips, extracts a true image center based on image center coordinates extracted for each strip, and specifies an eye position. 21. The eye position specifying device according to any one of 15 to 20.
前記目位置の画像を、獲得する目画像の範囲を変えて行う複数回の処理により特定する手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying device, comprising: means for specifying the image of the eye position by performing a plurality of processes while changing the range of the obtained eye image.
前記目位置の画像の欠落領域の第1の境界線を検出し、前記第1の境界線が虹彩領域あるいは瞳孔領域と重なる領域の第2の境界線を仮想生成し、前記第2の境界線と虹彩領域の境界線とで画定される有効領域が認証可能な面積かを判定する手段を備えることを特徴とする目画像特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
Detecting a first boundary line of a missing region of the image at the eye position, virtually generating a second boundary line of a region where the first boundary line overlaps with an iris region or a pupil region; An eye image identification apparatus, comprising: means for determining whether an effective area defined by a boundary of an iris area and an iris area is an authenticable area.
瞳孔および虹彩を中心とする領域に限定したフォーカス判定を行い目画像を獲得するフォーカス判定手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying apparatus comprising: a focus determination unit configured to perform a focus determination limited to an area centered on a pupil and an iris to acquire an eye image.
前記目画像に対し、隣合う画素の輝度値の変化率を用いて検出した境界線に基づいて瞳孔および虹彩の有無を検出する目位置特定手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying device, comprising: an eye position specifying unit that detects the presence or absence of a pupil and an iris based on a boundary detected using a change rate of a luminance value of an adjacent pixel with respect to the eye image.
前記目画像に対して、予め目の形状に合わせて用意した特定のテンプレートを目位置を中心に配置し、該テンプレート領域外をマスクする目位置特定手段を備えることを特徴とする目位置特定装置。In an eye position specifying device that specifies an image of an eye position to be authenticated with respect to an eye image acquired for authentication,
An eye position specifying device for arranging a specific template prepared in advance in accordance with the shape of the eye with respect to the eye image at the center of the eye position and masking the outside of the template area; .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002159546A JP2004005167A (en) | 2002-05-31 | 2002-05-31 | Eye position specifying method and apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002159546A JP2004005167A (en) | 2002-05-31 | 2002-05-31 | Eye position specifying method and apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004005167A true JP2004005167A (en) | 2004-01-08 |
Family
ID=30429279
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002159546A Pending JP2004005167A (en) | 2002-05-31 | 2002-05-31 | Eye position specifying method and apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2004005167A (en) |
Cited By (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007272435A (en) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | Facial feature extraction apparatus and facial feature extraction method |
| US7593550B2 (en) | 2005-01-26 | 2009-09-22 | Honeywell International Inc. | Distance iris recognition |
| US7761453B2 (en) | 2005-01-26 | 2010-07-20 | Honeywell International Inc. | Method and system for indexing and searching an iris image database |
| US7933507B2 (en) | 2006-03-03 | 2011-04-26 | Honeywell International Inc. | Single lens splitter camera |
| US8045764B2 (en) | 2005-01-26 | 2011-10-25 | Honeywell International Inc. | Expedient encoding system |
| US8049812B2 (en) | 2006-03-03 | 2011-11-01 | Honeywell International Inc. | Camera with auto focus capability |
| US8050463B2 (en) | 2005-01-26 | 2011-11-01 | Honeywell International Inc. | Iris recognition system having image quality metrics |
| US8064647B2 (en) | 2006-03-03 | 2011-11-22 | Honeywell International Inc. | System for iris detection tracking and recognition at a distance |
| US8063889B2 (en) | 2007-04-25 | 2011-11-22 | Honeywell International Inc. | Biometric data collection system |
| US8085993B2 (en) | 2006-03-03 | 2011-12-27 | Honeywell International Inc. | Modular biometrics collection system architecture |
| US8090246B2 (en) | 2008-08-08 | 2012-01-03 | Honeywell International Inc. | Image acquisition system |
| US8090157B2 (en) | 2005-01-26 | 2012-01-03 | Honeywell International Inc. | Approaches and apparatus for eye detection in a digital image |
| US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
| US8213782B2 (en) | 2008-08-07 | 2012-07-03 | Honeywell International Inc. | Predictive autofocusing system |
| KR101164769B1 (en) * | 2011-12-13 | 2012-07-12 | 한국 한의학 연구원 | Apparatus and method of detecting eye feature point |
| US8280119B2 (en) | 2008-12-05 | 2012-10-02 | Honeywell International Inc. | Iris recognition system using quality metrics |
| US8436907B2 (en) | 2008-05-09 | 2013-05-07 | Honeywell International Inc. | Heterogeneous video capturing system |
| US8442276B2 (en) | 2006-03-03 | 2013-05-14 | Honeywell International Inc. | Invariant radial iris segmentation |
| US8472681B2 (en) | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
| US8630464B2 (en) | 2009-06-15 | 2014-01-14 | Honeywell International Inc. | Adaptive iris matching using database indexing |
| US8705808B2 (en) | 2003-09-05 | 2014-04-22 | Honeywell International Inc. | Combined face and iris recognition system |
| US8742887B2 (en) | 2010-09-03 | 2014-06-03 | Honeywell International Inc. | Biometric visitor check system |
| CN108288248A (en) * | 2018-01-02 | 2018-07-17 | 腾讯数码(天津)有限公司 | A kind of eyes image fusion method and its equipment, storage medium, terminal |
| WO2018220963A1 (en) * | 2017-06-02 | 2018-12-06 | ソニー株式会社 | Information processing device, information processing method, and program |
| US10417494B2 (en) | 2015-09-30 | 2019-09-17 | Fujitsu Limited | Line-of-sight detection method and device |
| CN113032017A (en) * | 2019-12-25 | 2021-06-25 | 大众问问(北京)信息科技有限公司 | Equipment awakening method and device and electronic equipment |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0787510A (en) * | 1993-07-19 | 1995-03-31 | Sharp Corp | Feature area extraction method and feature area extraction circuit |
| JP2000036036A (en) * | 1998-07-17 | 2000-02-02 | Media Technology:Kk | Iris information acquisition device and iris identification device |
| JP2001184483A (en) * | 1999-12-22 | 2001-07-06 | Oki Electric Ind Co Ltd | Device and method for personal identification |
| JP2001522679A (en) * | 1997-11-14 | 2001-11-20 | ブラウン、スチュアート | Automatic light reflection screening |
| JP2002125142A (en) * | 2000-10-16 | 2002-04-26 | Matsushita Electric Ind Co Ltd | Iris imaging device |
-
2002
- 2002-05-31 JP JP2002159546A patent/JP2004005167A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0787510A (en) * | 1993-07-19 | 1995-03-31 | Sharp Corp | Feature area extraction method and feature area extraction circuit |
| JP2001522679A (en) * | 1997-11-14 | 2001-11-20 | ブラウン、スチュアート | Automatic light reflection screening |
| JP2000036036A (en) * | 1998-07-17 | 2000-02-02 | Media Technology:Kk | Iris information acquisition device and iris identification device |
| JP2001184483A (en) * | 1999-12-22 | 2001-07-06 | Oki Electric Ind Co Ltd | Device and method for personal identification |
| JP2002125142A (en) * | 2000-10-16 | 2002-04-26 | Matsushita Electric Ind Co Ltd | Iris imaging device |
Cited By (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8705808B2 (en) | 2003-09-05 | 2014-04-22 | Honeywell International Inc. | Combined face and iris recognition system |
| US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
| US8090157B2 (en) | 2005-01-26 | 2012-01-03 | Honeywell International Inc. | Approaches and apparatus for eye detection in a digital image |
| US8285005B2 (en) | 2005-01-26 | 2012-10-09 | Honeywell International Inc. | Distance iris recognition |
| US8045764B2 (en) | 2005-01-26 | 2011-10-25 | Honeywell International Inc. | Expedient encoding system |
| US8488846B2 (en) | 2005-01-26 | 2013-07-16 | Honeywell International Inc. | Expedient encoding system |
| US8050463B2 (en) | 2005-01-26 | 2011-11-01 | Honeywell International Inc. | Iris recognition system having image quality metrics |
| US7593550B2 (en) | 2005-01-26 | 2009-09-22 | Honeywell International Inc. | Distance iris recognition |
| US7761453B2 (en) | 2005-01-26 | 2010-07-20 | Honeywell International Inc. | Method and system for indexing and searching an iris image database |
| US8085993B2 (en) | 2006-03-03 | 2011-12-27 | Honeywell International Inc. | Modular biometrics collection system architecture |
| US8064647B2 (en) | 2006-03-03 | 2011-11-22 | Honeywell International Inc. | System for iris detection tracking and recognition at a distance |
| US8761458B2 (en) | 2006-03-03 | 2014-06-24 | Honeywell International Inc. | System for iris detection, tracking and recognition at a distance |
| US8049812B2 (en) | 2006-03-03 | 2011-11-01 | Honeywell International Inc. | Camera with auto focus capability |
| US7933507B2 (en) | 2006-03-03 | 2011-04-26 | Honeywell International Inc. | Single lens splitter camera |
| US8442276B2 (en) | 2006-03-03 | 2013-05-14 | Honeywell International Inc. | Invariant radial iris segmentation |
| JP2007272435A (en) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | Facial feature extraction apparatus and facial feature extraction method |
| US8063889B2 (en) | 2007-04-25 | 2011-11-22 | Honeywell International Inc. | Biometric data collection system |
| US8436907B2 (en) | 2008-05-09 | 2013-05-07 | Honeywell International Inc. | Heterogeneous video capturing system |
| US8213782B2 (en) | 2008-08-07 | 2012-07-03 | Honeywell International Inc. | Predictive autofocusing system |
| US8090246B2 (en) | 2008-08-08 | 2012-01-03 | Honeywell International Inc. | Image acquisition system |
| US8280119B2 (en) | 2008-12-05 | 2012-10-02 | Honeywell International Inc. | Iris recognition system using quality metrics |
| US8630464B2 (en) | 2009-06-15 | 2014-01-14 | Honeywell International Inc. | Adaptive iris matching using database indexing |
| US8472681B2 (en) | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
| US8742887B2 (en) | 2010-09-03 | 2014-06-03 | Honeywell International Inc. | Biometric visitor check system |
| KR101164769B1 (en) * | 2011-12-13 | 2012-07-12 | 한국 한의학 연구원 | Apparatus and method of detecting eye feature point |
| US10417494B2 (en) | 2015-09-30 | 2019-09-17 | Fujitsu Limited | Line-of-sight detection method and device |
| WO2018220963A1 (en) * | 2017-06-02 | 2018-12-06 | ソニー株式会社 | Information processing device, information processing method, and program |
| US11080888B2 (en) | 2017-06-02 | 2021-08-03 | Sony Corporation | Information processing device and information processing method |
| CN108288248A (en) * | 2018-01-02 | 2018-07-17 | 腾讯数码(天津)有限公司 | A kind of eyes image fusion method and its equipment, storage medium, terminal |
| CN113032017A (en) * | 2019-12-25 | 2021-06-25 | 大众问问(北京)信息科技有限公司 | Equipment awakening method and device and electronic equipment |
| CN113032017B (en) * | 2019-12-25 | 2024-02-02 | 大众问问(北京)信息科技有限公司 | Device wake-up method, device and electronic device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2004005167A (en) | Eye position specifying method and apparatus | |
| US7197166B2 (en) | Iris extraction method capable of precisely determining positions and sizes of irises in a digital face image | |
| CN101893858B (en) | Method for controlling distance between eyes of user and screen of electronic equipment | |
| CN103577801B (en) | Method and system for quality measurement of biometric verification | |
| JP4845698B2 (en) | Eye detection device, eye detection method, and program | |
| CN107438854B (en) | System and method for performing fingerprint-based user authentication using images captured by a mobile device | |
| US9971920B2 (en) | Spoof detection for biometric authentication | |
| CA2882413C (en) | System and method for on-axis eye gaze tracking | |
| US7798643B2 (en) | System for analyzing eye responses to automatically track size, location, and movement of the pupil | |
| US7614745B2 (en) | System for analyzing eye responses to automatically determine impairment of a subject | |
| US20160019420A1 (en) | Multispectral eye analysis for identity authentication | |
| US20160019421A1 (en) | Multispectral eye analysis for identity authentication | |
| US20170091550A1 (en) | Multispectral eye analysis for identity authentication | |
| JP2004021406A (en) | Eye position identification method and authentication device | |
| CN105550631A (en) | Iris image acquisition method and apparatus | |
| JPWO2018220963A1 (en) | Information processing apparatus, information processing method, and program | |
| JP2004046451A (en) | Eye image pickup device and individual authentication device | |
| CN105447450A (en) | Method and device for judging left iris and right iris in iris recognition | |
| JP4996943B2 (en) | Facial feature point detection apparatus, facial feature point detection method, and program | |
| WO2021095278A1 (en) | Image processing method, image processing device, and image processing program | |
| CN105760848B (en) | A kind of pupil positioning method based on annular mask convolution | |
| KR101548625B1 (en) | Method for removing glint and control device for recognizing iris using the same | |
| CN110046533A (en) | Biopsy method for living things feature recognition | |
| KR20020065248A (en) | Preprocessing of Human Iris Verification | |
| CN107690648A (en) | A kind of image preview method and device based on iris recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050509 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060324 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071114 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071121 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071128 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071205 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071212 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080514 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080521 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080924 |