[go: up one dir, main page]

JP2024153324A - Biometric determination device and biometric determination method - Google Patents

Biometric determination device and biometric determination method Download PDF

Info

Publication number
JP2024153324A
JP2024153324A JP2023067141A JP2023067141A JP2024153324A JP 2024153324 A JP2024153324 A JP 2024153324A JP 2023067141 A JP2023067141 A JP 2023067141A JP 2023067141 A JP2023067141 A JP 2023067141A JP 2024153324 A JP2024153324 A JP 2024153324A
Authority
JP
Japan
Prior art keywords
subject
light
eye
image
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023067141A
Other languages
Japanese (ja)
Inventor
拓也 中道
Takuya NAKAMICHI
高明 上野
Takaaki Ueno
道生 畑木
Michio Hataki
史雄 春名
Fumio Haruna
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi LG Data Storage Inc
Original Assignee
Hitachi LG Data Storage Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi LG Data Storage Inc filed Critical Hitachi LG Data Storage Inc
Priority to JP2023067141A priority Critical patent/JP2024153324A/en
Priority to PCT/JP2024/003034 priority patent/WO2024219046A1/en
Publication of JP2024153324A publication Critical patent/JP2024153324A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

To provide an organism determination device and an organism determination method capable of determining whether or not a subject is an organism based on an eye image, with a simple constitution.SOLUTION: The organism determination device is a device for adding an organism determination function to an external device which performs authentication. The organism determination device comprises: a light source which generates infrared light; a camera which captures an image of a subject with an optical axis different from the light source; and a controller which controls the light source and the camera. The controller detects an eye of the subject from the image captured with the camera, determines whether or not light is absorbed into the pupil of the eye of the subject, and determines the subject as an organism when determining that the light is absorbed into the pupil of the eye of the subject.SELECTED DRAWING: Figure 3

Description

本発明は生体判定装置及び生体判定方法に関する。 The present invention relates to a liveness determination device and liveness determination method.

顔認証装置においては、なりすましを防止するためにカメラに写っている被写体が生体であるかどうかを判定ことによってセキュリティを向上することができる。また、顔にマスクを装着している場合、顔の皮膚表面の特徴を使用して生体を判定することが難しくなる。 In a facial recognition device, security can be improved by determining whether the subject captured by the camera is a living body in order to prevent impersonation. In addition, if a mask is worn on the face, it becomes difficult to determine whether the subject is a living body using the characteristics of the facial skin surface.

そこで、眼球の特徴を利用して生体を判定する方法がある。たとえば、特許文献1に記載の方法ではカメラの光軸と同軸で照明して撮影した画像を用いて、網膜反射を検知して生体と判定する。 There are methods for determining whether a person is alive by using characteristics of the eyeball. For example, the method described in Patent Document 1 uses images captured by illuminating the subject on the same axis as the camera's optical axis to detect retinal reflexes and determine whether a person is alive.

特開2005-040591号公報JP 2005-040591 A

特許文献1に記載の技術は、網膜反射を利用して生体を判定することができる。ただしカメラと光源の光軸を同一にするため、光を折り返すための複数のミラーやレンズを配置する機構が必要となり、厚みや重量が増加する。スマートフォンや設置型の認証装置に搭載される生体判定装置においては、薄型で軽量であることが求められるため、特許文献1と異なる機構を用いた生体判定方法が望まれる。即ち、特許文献1に記載の技術に比べて、より簡易な構成で生体か否かを判定することができる生体判定装置及び生体判定方法が求められている。 The technology described in Patent Document 1 can determine whether a person is alive by utilizing retinal reflex. However, to align the optical axis of the camera and the light source, a mechanism is required to arrange multiple mirrors and lenses to reflect the light, which increases the thickness and weight. Since a biometric determination device to be mounted on a smartphone or a stationary authentication device is required to be thin and lightweight, a biometric determination method using a different mechanism from that of Patent Document 1 is desired. In other words, there is a demand for a biometric determination device and a biometric determination method that can determine whether a person is alive with a simpler configuration than the technology described in Patent Document 1.

本発明は上記課題を解決するためになされた。即ち、本発明の目的の一つは、簡易な構成で目の画像から生体か否かを判定することができる生体判定装置及び生体判定方法を提供することにある。 The present invention has been made to solve the above problems. That is, one of the objects of the present invention is to provide a liveness determination device and liveness determination method that can determine whether or not a subject is a live person from an image of the eye with a simple configuration.

上記課題を解決するために、本発明の生体判定装置は、赤外光を発生する光源と、前記光源と異なる光軸で被写体を撮像するカメラと、前記光源と前記カメラとを制御するコントローラと、を備える生体判定装置であって、前記コントローラは、前記カメラで撮像された画像から前記被写体の眼を検出し、前記被写体の眼の瞳孔に光が吸収されているか否かを判定し、前記被写体の眼の瞳孔に光が吸収されていると判定した場合に生体と判定するように構成されている。 In order to solve the above problem, the living body determination device of the present invention is a living body determination device that includes a light source that generates infrared light, a camera that captures an image of a subject with an optical axis different from that of the light source, and a controller that controls the light source and the camera, and the controller is configured to detect the eye of the subject from the image captured by the camera, determine whether or not light is absorbed by the pupil of the eye of the subject, and determine that the subject is living if it is determined that light is absorbed by the pupil of the eye of the subject.

本発明の生体判定方法は、赤外光を発生する光源と、前記光源と異なる光軸で被写体を撮像するカメラと、前記光源と前記カメラとを制御するコントローラと、を用いた生体判定方法であって、前記コントローラによって、前記カメラで撮像された画像から被写体の眼を検出し、前記被写体の眼の瞳孔に光が吸収されているか否かを判定し、前記被写体の眼の瞳孔に光が吸収されていると判定した場合に生体と判定する。 The living body determination method of the present invention is a living body determination method using a light source that generates infrared light, a camera that captures an image of a subject with an optical axis different from that of the light source, and a controller that controls the light source and the camera, and the controller detects the subject's eye from the image captured by the camera, determines whether or not light is being absorbed by the pupil of the subject's eye, and determines that the subject is living if it is determined that light is being absorbed by the pupil of the subject's eye.

本発明によれば、簡易な構成で目の画像から生体か否かを判定することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。 According to the present invention, it is possible to determine whether or not an object is a living body from an image of an eye using a simple configuration. Note that the effects described here are not necessarily limited to those described herein, and may be any of the effects described in this disclosure.

図1は第1実施形態に係る生体判定装置のハードウェア構成の一例を説明する図である。FIG. 1 is a diagram illustrating an example of a hardware configuration of a biometric determination device according to the first embodiment. 図2は第1実施形態に係る生体判定装置と被写体の位置関係を示す図である。FIG. 2 is a diagram showing the positional relationship between the biometric determination device according to the first embodiment and a subject. 図3は第1実施形態に係る生体判定装置とその周辺機器および外部機器の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram showing the configuration of the biometric determination device according to the first embodiment and its peripheral devices and external devices. 図4は実物の目の赤外線画像および虹彩領域の内接矩形内の画素のヒストグラムの例を示す図である。FIG. 4 shows an example infrared image of a real eye and a histogram of pixels within the inscribed rectangle of the iris region. 図5は印刷物の目の赤外線画像および虹彩領域の内接矩形内の画素のヒストグラムの例を示す図である。FIG. 5 shows an example infrared image of a print of an eye and a histogram of pixels within the inscribed rectangle of the iris region. 図6は第2実施形態に係る生体判定装置とその周辺機器および外部機器の構成を示す機能ブロック図である。FIG. 6 is a functional block diagram showing the configuration of a living body determination device according to the second embodiment, and its peripheral devices and external devices. 図7は実物の目の赤外線画像および虹彩領域の内接矩形内の画素のヒストグラムの例を示す図である。FIG. 7 shows an example infrared image of a real eye and a histogram of pixels within the inscribed rectangle of the iris region. 図8は第3実施形態に係る生体判定装置とその周辺機器および外部機器の構成を示す機能ブロック図である。FIG. 8 is a functional block diagram showing the configuration of a living body determination device according to the third embodiment, and its peripheral devices and external devices. 図9は第4実施形態に係る生体判定装置とその周辺機器および外部機器の構成を示す機能ブロック図である。FIG. 9 is a functional block diagram showing the configuration of a living body determination device according to the fourth embodiment, and its peripheral devices and external devices. 図10は第4実施形態に係る生体判定装置の生体判定部の動作を示すフローチャートである。FIG. 10 is a flowchart showing the operation of the liveness determination unit of the liveness determination device according to the fourth embodiment.

以下、本発明の各実施形態について、図面を参照して詳細に説明する。各実施形態に係る生体判定装置は、被写体が生体か否かを判定する目的でも撮像の同意が得られた施設(例えば店舗やオフィスなど)に設置されることを想定している。 Each embodiment of the present invention will be described in detail below with reference to the drawings. The biometric determination device according to each embodiment is intended to be installed in a facility (such as a store or office) where consent to capturing images has been obtained for the purpose of determining whether a subject is a living body or not.

また、かかる生体判定装置は、上述した顔認証装置に接続され、かかる顔認証装置に生体判定機能を付加することにより、人物のなりすましを防止することができる。但し、技術的には上記に限定されるものではなく、顔認証装置以外の任意の装置、特に、生体か否かを判定する必要がある装置(例えば、居眠り監視システム)に接続することができる。あるいは、生体判定装置単体で使用してもよい。 Furthermore, such a biometric determination device can be connected to the face recognition device described above, and by adding a biometric determination function to the face recognition device, it is possible to prevent impersonation of a person. However, the technology is not limited to the above, and it can be connected to any device other than a face recognition device, particularly a device that needs to determine whether or not a person is a living body (for example, a drowsy driving monitoring system). Alternatively, it may be used as a stand-alone biometric determination device.

<<第1実施形態>>
まず、図1~図3を参照して、本発明の第1実施形態に係る生体判定装置の構成を説明する。第1実施形態に係る生体判定装置は、概して、被写体の顔を光源で照明し、カメラで撮影(撮像)した顔画像のうち目の領域の画素値から瞳孔で光が吸収されているか否かを判定して生体判定を行う構成を備える。
<<First embodiment>>
First, the configuration of a liveness determination device according to a first embodiment of the present invention will be described with reference to Figures 1 to 3. The liveness determination device according to the first embodiment generally has a configuration for illuminating the face of a subject with a light source, and determining whether or not light is absorbed by the pupil from pixel values of the eye area in a face image captured (picked up) by a camera to perform liveness determination.

図1は本発明の第1実施形態に係る生体判定装置1のハードウェア構成図である。生体判定装置1は、本装置全体の制御を司る制御部としてのコントローラ11を備える。かかるコントローラ11のハードウェアとしては、CPU(Central Processing Unit)111H、ROM(Read Only Memory)112H、RAM(Random Access Memory)113H、カメラ制御部114H、光源制御部115Hおよび出力部116H等を備えている。これら各ブロックの具体例等については後述する。 Figure 1 is a hardware configuration diagram of a biometric determination device 1 according to a first embodiment of the present invention. The biometric determination device 1 includes a controller 11 as a control unit that controls the entire device. The hardware of the controller 11 includes a CPU (Central Processing Unit) 111H, a ROM (Read Only Memory) 112H, a RAM (Random Access Memory) 113H, a camera control unit 114H, a light source control unit 115H, and an output unit 116H. Specific examples of each of these blocks will be described later.

また、図1に示すように、生体判定装置1は、上述したコントローラ11内のカメラ制御部114Hに接続され、被写体を撮像して当該被写体の画像情報を取得可能なカメラ12と、光源制御部115Hに接続され被写体を照明する光源と、を備える。 As shown in FIG. 1, the biometric determination device 1 also includes a camera 12 that is connected to the camera control unit 114H in the controller 11 and is capable of capturing an image of a subject and acquiring image information of the subject, and a light source that is connected to the light source control unit 115H and illuminates the subject.

上記のカメラ12および光源13は、赤外線を撮像および照明できるものが好ましい。赤外線とすることで、被写体が不快にならないようにすることができ、ユーザビリティを向上することができる。また。例えば、虹彩が可視光領域で黒の場合の被写体でも、高精度に生体を判定することができる。光源13には、例えば、赤外線LED(light-emitting diode)などを用いることができる。 It is preferable that the camera 12 and light source 13 described above are capable of capturing and illuminating infrared light. Using infrared light can prevent the subject from feeling uncomfortable, improving usability. In addition, for example, even if the subject's iris is black in the visible light range, it is possible to determine whether the subject is alive with high accuracy. For example, an infrared LED (light-emitting diode) can be used as the light source 13.

非制限的な一具体例では、カメラ12は、図示しないレンズや絞りなどの光学素子および撮像素子を通じて撮像したアナログの画像信号をA/D変換してデジタルデータ化し、かかるデジタルの画像データをカメラ制御部114Hに出力する。 In one non-limiting example, the camera 12 A/D converts an analog image signal captured through optical elements such as a lens and an aperture (not shown) and an image sensor to digital data, and outputs the digital image data to the camera control unit 114H.

CPU111Hは、ROM112HまたはRAM113Hに格納されている種々のプログラムを読み出して実行する。具体的には、CPU111Hがプログラムを実行することにより、生体判定装置1の各部の機能が実現される。 The CPU 111H reads and executes various programs stored in the ROM 112H or the RAM 113H. Specifically, the functions of each part of the biometric determination device 1 are realized by the CPU 111H executing the programs.

ROM112Hは、CPU111Hが実行するプログラムおよび実行に必要な各種パラメータを格納するための記憶媒体である。 ROM112H is a storage medium for storing the programs executed by CPU111H and various parameters required for execution.

RAM113Hは、CPU111Hが一時的に使用する各種情報を格納するための作業領域としての役割を担う記憶媒体である。また、RAM113Hは、CPU111Hが使用するデータの一時保管領域としても機能する。 RAM 113H is a storage medium that serves as a working area for storing various information that is temporarily used by CPU 111H. RAM 113H also functions as a temporary storage area for data used by CPU 111H.

なお、生体判定装置1は、CPU111HとROM112HとRAM113Hとをそれぞれ複数備えた構成であってもよい。 The biometric determination device 1 may be configured to include multiple CPUs 111H, ROMs 112H, and RAMs 113H.

カメラ制御部114Hは、図示しない入出力インターフェース等を備え、カメラ12から、フレーム毎に、2次元情報を含む画像のデータを入力(取得)し、かかるデータをCPU111H等に供給する。 The camera control unit 114H includes an input/output interface (not shown) and inputs (acquires) image data including two-dimensional information from the camera 12 for each frame, and supplies the data to the CPU 111H, etc.

光源制御部115Hは、図示しない入出力インターフェース等を備え、光源13を制御する。このとき、光源が複数ある場合は、光源制御部115Hは、それぞれの光源を独立して制御してもよい。光源制御部115Hと光源13との間は、USB(Universal Serial Bus)、I2C(Inter-Integrated Circuit)、SPI(Serial Peripheral Interface)、UART(Universal Asynchronous Receiver Transmitter)などのプロトコルでデータを送受信することができる。 The light source control unit 115H includes an input/output interface (not shown) and controls the light source 13. In this case, if there are multiple light sources, the light source control unit 115H may control each light source independently. Data can be transmitted and received between the light source control unit 115H and the light source 13 using protocols such as USB (Universal Serial Bus), I2C (Inter-Integrated Circuit), SPI (Serial Peripheral Interface), and UART (Universal Asynchronous Receiver Transmitter).

出力部116Hは、CPU111Hによって処理された結果を周辺装置(例えばディスプレイやスピーカ)や外部装置(例えば顔認証装置)等に出力する。CPU111Hによって処理された結果は、ROM112HまたはRAM113Hに保存されることができる。 The output unit 116H outputs the results of processing by the CPU 111H to a peripheral device (e.g., a display or speaker) or an external device (e.g., a face recognition device). The results of processing by the CPU 111H can be stored in the ROM 112H or the RAM 113H.

なお、生体判定装置1のハードウェア構成は、図1に示す構成に限定されない。例えばCPU111H、ROM112H、RAM113Hを生体判定装置1とは別体として設けるようにしてもよい。その場合、生体判定装置1は汎用のコンピュータ(例えばサーバコンピュータやパーソナルコンピュータ、スマートフォン等)を用いて実現するようにしてもよい。 The hardware configuration of the biometric determination device 1 is not limited to the configuration shown in FIG. 1. For example, the CPU 111H, the ROM 112H, and the RAM 113H may be provided separately from the biometric determination device 1. In that case, the biometric determination device 1 may be realized using a general-purpose computer (e.g., a server computer, a personal computer, a smartphone, etc.).

また、複数のコンピュータをネットワークで接続して、生体判定装置1の各部の機能を各コンピュータが分担することもできる。一方で、生体判定装置1の機能の1つ以上を、専用のハードウェアを用いて実現することもできる。 In addition, multiple computers can be connected via a network, with each computer sharing the functions of each part of the biometric determination device 1. On the other hand, one or more of the functions of the biometric determination device 1 can also be realized using dedicated hardware.

図2は生体判定装置1と被写体の位置関係を示す図である。カメラ12と光源13は幅Wだけ離れて設置されており、カメラ12は被写体を距離Dの位置から撮影を行う。生体判定装置1は、人の顔の高さに設置されており、例えば、スタンドや壁等に設置される。カメラ12の光軸ax1及び光源13の光軸ax2は異なっている。図2ではカメラ12と光源13が生体判定装置1の内部に設置されている図を示しているが、これらはインターフェース等を介して、生体判定装置1の外部に設置されていてもよい。また、図2では1つの光源しか図示していないが、光源13は複数の光源から構成することもできる。 Figure 2 is a diagram showing the positional relationship between the biometric determination device 1 and the subject. The camera 12 and light source 13 are installed a width W apart, and the camera 12 takes a picture of the subject from a position at a distance D. The biometric determination device 1 is installed at the height of a person's face, for example, on a stand or a wall. The optical axis ax1 of the camera 12 and the optical axis ax2 of the light source 13 are different. Although Figure 2 shows the camera 12 and light source 13 installed inside the biometric determination device 1, they may be installed outside the biometric determination device 1 via an interface or the like. Also, although Figure 2 shows only one light source, the light source 13 may be composed of multiple light sources.

図3は生体判定装置1とその周辺の機能構成を示すブロック図である。生体判定装置1は、周辺機器2や外部機器3に接続されている。 Figure 3 is a block diagram showing the functional configuration of the biometric determination device 1 and its periphery. The biometric determination device 1 is connected to a peripheral device 2 and an external device 3.

生体判定装置1は、図1で上述したカメラ12および光源13と、図1のコントローラ11(CPU111Hなど)の機能としての、撮影制御部101、目検出部102、瞳孔吸収判定部103、生体判定部104、通信部105、および外部インターフェース106を備える。 The biometric determination device 1 includes the camera 12 and light source 13 described above in FIG. 1, and, as functions of the controller 11 (CPU 111H, etc.) in FIG. 1, an imaging control unit 101, an eye detection unit 102, a pupil absorption determination unit 103, a biometric determination unit 104, a communication unit 105, and an external interface 106.

撮影制御部101は、カメラ12の撮影のタイミングと、光源13の照明のタイミングを制御する。撮影制御部101は、例えば後述する外部インターフェース106を介して周辺機器2から撮影タイミングの入力を受けて撮影を開始する。撮影制御部101は、まず光源13を照明し、照明している間カメラで撮影する。撮影は、連続的に複数フレームにわたって撮影してもよいし、1フレームだけ撮影してもよい。本例では、例えば30フレーム/秒で連続的に撮影する例を説明する。1フレームだけ撮影する場合は、光源13の照明も1フレームの間だけでよい。 The shooting control unit 101 controls the timing of shooting by the camera 12 and the timing of illumination by the light source 13. The shooting control unit 101 starts shooting by receiving an input of shooting timing from the peripheral device 2, for example, via the external interface 106 described below. The shooting control unit 101 first illuminates the light source 13 and shoots with the camera while it is illuminated. The shooting may be performed continuously over multiple frames, or only one frame may be shot. In this example, an example of shooting continuously at, for example, 30 frames/second will be described. When shooting only one frame, the illumination of the light source 13 need only last for one frame.

撮影制御部101が周辺機器2から受け取る撮影タイミングは、例えば、タッチパネルを搭載するディスプレイ21上に配置したタッチボタンや、リモコン23のボタンなど、ユーザの所望の操作によって入力される。また、別の例として、マイク24で音を検知したタイミングや、人感センサ25で人間の存在を検知したタイミングなど、装置が自動的に撮影を開始することも可能である。 The timing of shooting that the shooting control unit 101 receives from the peripheral device 2 is input by the user's desired operation, for example, by touch buttons arranged on the display 21 equipped with a touch panel, or by buttons on the remote control 23. As another example, the device can automatically start shooting when sound is detected by the microphone 24, or when the presence of a human is detected by the human sensor 25.

また、人感センサの代わりに、カメラ12で常に撮影を行い、カメラ12で撮影した画像内に人間を検知したらカメラ12が画像を出力することも可能である。カメラ12で撮影した画像内から人間を検知する処理は、カメラ12で行ってもよいし撮影制御部101で行ってもよい。カメラ12で撮影した画像内から人間を検知する方法として、深層学習を用いることができる。深層学習を用いる場合、事前に複数の人の例えば顔画像をディープニューラルネットワークに学習させることで実現することができる。また、その他にも、固定された環境で生体判定装置1を使用する場合、前のフレームと現在のフレームの画像の差分を用いて人を検知することもできる。例えば、前のフレームと現在のフレームの各画素を減算し、減算結果が一定値以上の画素が一定数以上ある場合に人が画像に現れたとして判定することができる。 In addition, instead of a human sensor, it is also possible to constantly take pictures with the camera 12, and when a human is detected in the image taken by the camera 12, the camera 12 can output the image. The process of detecting a human from the image taken by the camera 12 may be performed by the camera 12 or by the image taking control unit 101. Deep learning can be used as a method of detecting a human from an image taken by the camera 12. When using deep learning, this can be achieved by having a deep neural network learn, for example, face images of multiple people in advance. In addition, when the biometric determination device 1 is used in a fixed environment, a person can also be detected using the difference between the images of the previous frame and the current frame. For example, each pixel of the previous frame and the current frame can be subtracted, and if there are a certain number of pixels whose subtraction result is equal to or greater than a certain value, it can be determined that a person has appeared in the image.

カメラ12は、撮影制御部101から受信する撮影タイミングにしたがって被写体を撮影し、撮影した画像を目検出部102に出力する。このとき、撮影したすべての画像を目検出部102に出力してもよいし、上述のように画像内に人間を検知している場合にのみ目検出部102に出力してもよい。 The camera 12 captures an image of a subject according to the capture timing received from the capture control unit 101, and outputs the captured image to the eye detection unit 102. At this time, all captured images may be output to the eye detection unit 102, or may be output to the eye detection unit 102 only when a human is detected in the image as described above.

目検出部102は、カメラ12から入力した画像内から被写体の目を検出する。目の検出には、例えば、深層学習を用いることができる。深層学習を用いる場合、事前に複数の人の目をディープニューラルネットワークに学習させることで実現することができる。また、パターンマッチングを用いることもできる。その他の方法として、被写体の目の位置および方向とカメラ12の位置および方向が固定されている場合には、上述のような目の検出処理をすることなく、カメラ12で撮影した画像内の特定の位置を目として検出することもできる。 The eye detection unit 102 detects the eyes of the subject from within the image input from the camera 12. Eye detection can be achieved, for example, by using deep learning. When using deep learning, this can be achieved by having a deep neural network learn the eyes of multiple people in advance. Pattern matching can also be used. As another method, when the position and direction of the subject's eyes and the position and direction of the camera 12 are fixed, it is also possible to detect a specific position in the image captured by the camera 12 as the eye, without performing the eye detection process described above.

また、目検出部102は、カメラ12から入力した画像内から検出した目の領域を切り出した画像を瞳孔吸収判定部103に出力する。このとき、左右の目を両方とも検出して両方の目の領域を切り出した画像を出力してもよいし、左右どちらかの目のみを検出して片方の目の領域を切り出した画像を出力してもよい。 The eye detection unit 102 also outputs an image of the eye area detected from the image input from the camera 12 to the pupil absorption determination unit 103. At this time, it may detect both the left and right eyes and output an image of both eye areas, or it may detect only one of the left and right eyes and output an image of one eye area.

目検出部102は、少なくとも虹彩と瞳孔を含むように切り出す。切り出しは、図4に示すような虹彩領域の外接矩形や内接矩形でもよいし、虹彩領域に合わせた円形でもよい。外接矩形や内接矩形を切り出す場合は、例えば、検出した目の位置を中心として目と目の間隔の一定の割合を領域の幅および高さとして切り出すことができる。円形を切り出す場合は、検出した目の位置を中心として目と目の間隔の一定の割合を半径として切り出すことができる。 The eye detection unit 102 cuts out an area that includes at least the iris and pupil. The cutout may be a circumscribing rectangle or inscribing rectangle around the iris area as shown in FIG. 4, or a circle that fits the iris area. When cutting out a circumscribing rectangle or inscribing rectangle, for example, the detected eye position may be used as the center to cut out an area with a certain percentage of the distance between the eyes as its width and height. When cutting out a circle, the detected eye position may be used as the center to cut out an area with a certain percentage of the distance between the eyes as its radius.

また、別の方法としてラプラシアンフィルタなどのエッジフィルタを使用して虹彩領域の外形を取得し、外形の内接矩形や外接矩形、または外形の内部を切り出してもよい。
瞳孔吸収判定部103は、瞳孔に光が吸収されているか否かを判定し、判定結果を出力する。瞳孔吸収判定部103は、目検出部102が出力した目の画像を入力とし、該目の画像に光が吸収されているか否かを判定する。
As another method, the outline of the iris region may be obtained using an edge filter such as a Laplacian filter, and the inscribed rectangle or circumscribed rectangle of the outline, or the inside of the outline, may be cut out.
The pupil absorption determination unit 103 determines whether or not light is absorbed by the pupil and outputs the determination result. The pupil absorption determination unit 103 receives the eye image output by the eye detection unit 102 as an input and determines whether or not light is absorbed by the eye image.

瞳孔に光が吸収されているかどうかの判定方法として、画像に暗い画素(瞳孔に光が吸収されていることを示す暗い画素)があるかどうかによって判定することができる。図4は、実物の人間の目付近の赤外線画像の例と虹彩領域の内接矩形のヒストグラムである。また、図5は、印刷物の人間の目付近の赤外線画像の例と虹彩領域の内接矩形のヒストグラムである。実物の目の赤外線画像の場合、瞳孔部分が赤外線を吸収することによって暗くなるため、ヒストグラムの暗い画素値に画素があるが、印刷物の場合は暗い画素が存在しない。印刷物の場合,黒い部分でも光源の光を反射し一定量の光がカメラ側に戻ってくるためである。この方法の場合、瞳孔吸収判定部103は、目の領域の画素を走査し、一定値以下の画素が一定個以上存在する場合に瞳孔に光が吸収されていると判定することができる。 Whether or not light is absorbed by the pupil can be determined by whether or not there are dark pixels in the image (dark pixels that indicate that light is absorbed by the pupil). Figure 4 shows an example of an infrared image of the vicinity of a real human eye and a histogram of the inscribed rectangle of the iris region. Figure 5 shows an example of an infrared image of the vicinity of a real human eye and a histogram of the inscribed rectangle of the iris region. In the case of an infrared image of a real eye, the pupil area becomes dark by absorbing infrared light, so there are pixels with dark pixel values in the histogram, but in the case of a printout, there are no dark pixels. This is because in the case of a printout, even the black parts reflect the light from the light source and a certain amount of light returns to the camera. In this method, the pupil absorption determination unit 103 scans the pixels in the eye area and can determine that light is absorbed by the pupil if there are a certain number or more pixels below a certain value.

瞳孔に光が吸収されているかどうかの別の判定方法としてヒストグラムの形状から判定する方法もある。具体的には、例えば、まずヒストグラムの移動平均を計算し、得られた移動平均を微分して極大値を求める。求められた極大値の個数および極大値の位置から瞳孔に光が吸収されていると判定することができる。例えば、画素値50以下に極大値が1個以上かつ画素値100~200の間に極大値が1個以上、などの条件で判定することができる。 Another method for determining whether light is being absorbed by the pupil is to make a determination from the shape of the histogram. Specifically, for example, first the moving average of the histogram is calculated, and the resulting moving average is differentiated to find the maximum value. It can then be determined that light is being absorbed by the pupil from the number of maximum values found and their positions. For example, this can be determined based on conditions such as there being one or more maximum values below a pixel value of 50 and one or more maximum values between pixel values 100 and 200.

他の方法としては、グラフの勾配や尖度、歪度、半値幅などを求め、決定木などの予測モデルを使用して瞳孔に光が吸収されていると判定することもできる。このとき、勾配などはグラフの横軸を区切って複数算出してもよい。さらに他の方法として、深層学習を用いることができる。深層学習を用いる場合、事前に実物の人間の虹彩領域の内接矩形をディープニューラルネットワークに学習させることで実現することができる。 As another method, the gradient, kurtosis, skewness, half-width, etc. of the graph can be calculated, and a predictive model such as a decision tree can be used to determine that light is being absorbed by the pupil. In this case, the gradient, etc. can be calculated multiple times by dividing the horizontal axis of the graph. As yet another method, deep learning can be used. When using deep learning, this can be achieved by having a deep neural network learn the inscribed rectangle of the iris area of a real human in advance.

瞳孔吸収判定部103は、目検出部102が検出した目が両目の場合は、それぞれ独立して瞳孔に光が吸収されているかどうかを判定し、それぞれ独立して判定結果を出力する。 When the eye detection unit 102 detects both eyes, the pupil absorption determination unit 103 determines whether light is being absorbed by the pupil of each eye independently, and outputs the determination results for each eye independently.

生体判定部104は、瞳孔吸収判定部103が出力した判定結果をもとに被写体が生体か否かを判定し、判定結果を出力する。 The living body determination unit 104 determines whether the subject is a living body or not based on the determination result output by the pupil absorption determination unit 103, and outputs the determination result.

生体判定部104は、瞳孔吸収判定部103が瞳孔に光が吸収されていると判定した場合は、生体であると判定する。 If the pupil absorption determination unit 103 determines that light is being absorbed by the pupil, the living body determination unit 104 determines that the subject is living.

生体判定部104は、目検出部102が両方の目の領域を切り出した画像を出力する場合、瞳孔吸収判定部103が出力する両方の目の判定結果をもとに生体か否かを判定する。このとき、瞳孔吸収判定部103が両方の目の瞳孔が光を吸収している場合に生体であると判定してもよい、どちらか片方の目の瞳孔のみが光を吸収している場合に生体であると判定してもよい。どちらか片方の目の瞳孔のみが光を吸収している場合に生体であると判定する場合、例えば、片目を閉じている(ウィンク)をしている場合や、片目の画像にノイズが混入した場合などでも生体であると判定することができる。 When the eye detection unit 102 outputs an image in which the areas of both eyes have been cut out, the live body determination unit 104 determines whether or not the subject is a live body based on the determination results for both eyes output by the pupil absorption determination unit 103. At this time, the pupil absorption determination unit 103 may determine that the subject is a live body when the pupils of both eyes are absorbing light, or may determine that the subject is a live body when only the pupil of one eye is absorbing light. When determining that the subject is a live body when only the pupil of one eye is absorbing light, it can also determine that the subject is a live body even if, for example, one eye is closed (wink) or noise is mixed into the image of one eye.

生体判定部104が複数のフレームを使用して生体か否かを判定することもできる。複数のフレームを使用して判定する場合、複数のフレームのうち、一定のフレーム数以上で、瞳孔吸収判定部103が、瞳孔が光を吸収していると判定した場合に生体であると判定することができる。これによって、例えば、被写体がまばたきをしている場合や、あるフレームの画像にノイズが混入した場合などでも生体であると判定することができる。 The biometric determination unit 104 can also use multiple frames to determine whether or not a subject is a living organism. When multiple frames are used to make a determination, if the pupil absorption determination unit 103 determines that the pupil is absorbing light in at least a certain number of frames among the multiple frames, it can determine that a subject is a living organism. This makes it possible to determine that a subject is a living organism even if the subject is blinking or noise is mixed into the image of a certain frame, for example.

通信部105は、外部機器3との通信を行う(図3を参照)。通信部105は、生体判定部104の判定結果を外部機器3に送信する。 The communication unit 105 communicates with the external device 3 (see FIG. 3). The communication unit 105 transmits the result of the determination by the biometric determination unit 104 to the external device 3.

図3に示す例では、通信部105は、外部機器3の外部通信部31と無線通信を行う構成としている。ここで、通信部105の通信手段(方式)としては、例えばWiFiやBluetooth(登録商標)などのワイヤレス通信を用いることができる。他の例として、通信部105は、有線で外部機器3と通信してもよい。かくして、生体判定装置1は、被写体が生体であるか否かの判定結果を、通信部105を介してサーバー等の外部機器3に送信し、外部機器3に顔認証などを行わせることができる。 In the example shown in FIG. 3, the communication unit 105 is configured to perform wireless communication with the external communication unit 31 of the external device 3. Here, the communication means (method) of the communication unit 105 can be wireless communication such as WiFi or Bluetooth (registered trademark). As another example, the communication unit 105 can communicate with the external device 3 via a wired connection. Thus, the biometric determination device 1 can transmit the determination result as to whether the subject is a living body or not to the external device 3 such as a server via the communication unit 105, and cause the external device 3 to perform face recognition, etc.

外部通信部31は、通信部105から受信したデータを外部機器3に送信する。外部通信部31が受信するデータは、例えば生体判定部104の判定結果などである。また、外部機器3が備える機能を生体判定装置1内に設ける構成としてもかまわない。 The external communication unit 31 transmits the data received from the communication unit 105 to the external device 3. The data received by the external communication unit 31 is, for example, the result of the determination by the liveness determination unit 104. In addition, the functions provided by the external device 3 may be provided within the liveness determination device 1.

外部機器3は、望ましくは、被写体の生体判定結果を必要とする認証装置である。なお、かかる認証装置の構成は公知であるため、その詳述を割愛する。また、外部機器3は、被写体の生体判定結果を必要とするものであれば、認証装置以外の種々の装置とされ得る。 The external device 3 is preferably an authentication device that requires the result of a biometric determination of the subject. Note that the configuration of such an authentication device is publicly known, so a detailed description thereof will be omitted. In addition, the external device 3 may be various devices other than an authentication device, so long as they require the result of a biometric determination of the subject.

通信部105は、カメラ12で撮影した画像を外部機器3に送信することもできる。これによって、外部機器3が画像認証装置である場合に、被写体の画像を別途撮影することなく認証を行うことができる。 The communication unit 105 can also transmit images captured by the camera 12 to the external device 3. This allows authentication to be performed without separately capturing an image of the subject, when the external device 3 is an image authentication device.

外部インターフェース106は、この例では有線ケーブルを介して周辺機器2との間で電気信号の送受信を行う。 In this example, the external interface 106 transmits and receives electrical signals to and from the peripheral device 2 via a wired cable.

図3に示すように、周辺機器2は、ディスプレイ21、スピーカ22、リモコン23、マイク24、および人感センサ25を含み、各々のブロック(機器)が有線ケーブルを介して外部インターフェース106と接続されている。 As shown in FIG. 3, the peripheral device 2 includes a display 21, a speaker 22, a remote control 23, a microphone 24, and a human presence sensor 25, and each block (device) is connected to the external interface 106 via a wired cable.

外部インターフェース106は、生体判定部104の判定結果を周辺機器2に送信することもできる。例えば、生体判定部104の判定結果をディスプレイ21に表示することができる。他の例では、生体判定部104の判定結果をもとにスピーカ22で警告音を鳴らすことができる。 The external interface 106 can also transmit the result of the determination made by the biometric determination unit 104 to the peripheral device 2. For example, the result of the determination made by the biometric determination unit 104 can be displayed on the display 21. In another example, an alarm can be sounded by the speaker 22 based on the result of the determination made by the biometric determination unit 104.

第1実施形態によれば、被写体の赤外線画像を使用して目の画像から生体か否かを判定することできる。また、第1実施形態に係る生体判定装置1は、カメラと光源の光軸を同一にするための特殊な機構を必要しない。即ち、第1実施形態に係る生体判定装置1は、簡易な構成で目の画像から生体か否かを判定することできる。これによって、薄型で軽量な装置で生体判定を実施することができ、外部機器3としての認証装置のセキュリティを向上することができる。 According to the first embodiment, it is possible to determine whether or not a subject is a living body from an image of the eye using an infrared image of the subject. Furthermore, the living body determination device 1 according to the first embodiment does not require a special mechanism for aligning the optical axes of the camera and the light source. In other words, the living body determination device 1 according to the first embodiment can determine whether or not a subject is a living body from an image of the eye with a simple configuration. This allows the living body determination to be performed with a thin and lightweight device, improving the security of the authentication device as the external device 3.

<<第2実施形態>>
本発明の第2実施形態に係る生体判定装置1Aについて説明する。第2実施形態では、第1実施形態に係る生体判定装置1の構成をベースとしつつ、角膜反射判定部を追加的に設けた構成例について説明する。なお、第1実施形態と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
<<Second embodiment>>
A living body determination device 1A according to a second embodiment of the present invention will be described. In the second embodiment, a configuration example in which a corneal reflex determination unit is additionally provided based on the configuration of the living body determination device 1 according to the first embodiment will be described. Note that components having the same configurations and functions as those in the first embodiment are given the same reference numerals, and detailed descriptions thereof will be omitted.

第2実施形態に係る生体判定装置1Aでは、ある程度強い光を眼球に照射した場合に角膜が光を反射することを利用する。この反射像は一般に、第1プルキンエ像として知られる。 The biometric determination device 1A according to the second embodiment utilizes the phenomenon that the cornea reflects light when a relatively strong light is irradiated onto the eyeball. This reflected image is generally known as the first Purkinje image.

図6は、角膜反射判定部107を備えた第2実施形態に係る生体判定装置1Aの機能構成図である。図6に示すように、生体判定装置1Aにおいて、角膜反射判定部107は、目検出部102の後段かつ生体判定部104の前段に接続されている。このため、第2実施形態では、目検出部102および生体判定部104の機能が第1実施形態の場合と幾分相違することから、以下は類似符号を用いて目検出部102Aおよび生体判定部104Aと称する。 Figure 6 is a functional configuration diagram of a liveness determination device 1A according to the second embodiment, which includes a corneal reflex determination unit 107. As shown in Figure 6, in the liveness determination device 1A, the corneal reflex determination unit 107 is connected after the eye detection unit 102 and before the liveness determination unit 104. Therefore, in the second embodiment, the functions of the eye detection unit 102 and the liveness determination unit 104 differ somewhat from those in the first embodiment, and therefore will be referred to below using similar reference numerals as the eye detection unit 102A and the liveness determination unit 104A.

第2実施形態の目検出部102Aは、基本的な機能は第1実施形態の目検出部102と同じであり、カメラ12から入力した画像内から検出した目の領域を切り出す。 The eye detection unit 102A in the second embodiment has the same basic function as the eye detection unit 102 in the first embodiment, and cuts out the detected eye area from the image input from the camera 12.

一方で、目検出部102Aは、切り出した目の領域を瞳孔吸収判定部103に加えて角膜反射判定部107に出力する。 On the other hand, the eye detection unit 102A adds the cut-out eye area to the pupil absorption determination unit 103 and outputs it to the corneal reflex determination unit 107.

角膜反射判定部107は、角膜が光を反射しているか否かを判定し、判定結果を出力する。角膜反射判定部107は、目検出部102Aが出力した目の画像を入力とし、該目の画像に光が反射しているか否かを判定する。 The corneal reflex determination unit 107 determines whether the cornea is reflecting light and outputs the determination result. The corneal reflex determination unit 107 receives the image of the eye output by the eye detection unit 102A as input and determines whether light is being reflected by the image of the eye.

角膜が光を反射しているかどうかの判定方法として、画像に明るい画素(角膜が光を反射していることを示す明るい画素)があるかどうかによって判定することができる。図7は、実物の人間の目付近の赤外線画像の例と虹彩領域の内接矩形のヒストグラムである。実物の目の赤外線画像の場合、角膜が赤外線を反射することによって一部分が明るくなるため、ヒストグラムの明るい画素値に画素があるが、印刷物の場合は明るい画素が存在しない。この方法の場合、角膜反射判定部107は、目の領域の画素を走査し、一定値以上の画素が一定個以上存在する場合に角膜が光を反射していると判定することができる。 Whether the cornea is reflecting light can be determined by whether or not there are bright pixels in the image (bright pixels that indicate that the cornea is reflecting light). Figure 7 shows an example of an infrared image of the area near a real human eye and a histogram of the inscribed rectangle of the iris region. In the case of an infrared image of a real eye, the cornea reflects infrared light, making some parts brighter, so there are pixels with bright pixel values in the histogram, but in the case of a printout, there are no bright pixels. With this method, the corneal reflex determination unit 107 scans the pixels in the eye region, and can determine that the cornea is reflecting light if there are a certain number of pixels above a certain value.

角膜が光を反射しているかどうかの別の判定方法としてヒストグラムの形状から判定する方法もある。具体的には、例えば、まずヒストグラムの移動平均を計算し、得られた移動平均を微分して極大値を求める。求められた極大値の個数および極大値の位置から角膜が光を反射していると判定することができる。例えば、画素値100~200の間に極大値が1個以上かつ画素値230以上に極大値が1個以上、などの条件で判定することができる。 Another method for determining whether the cornea is reflecting light is to make a determination from the shape of the histogram. Specifically, for example, first the moving average of the histogram is calculated, and the resulting moving average is differentiated to find the maximum value. It can then be determined that the cornea is reflecting light from the number of maximum values found and their positions. For example, it can be determined that there is at least one maximum value between pixel values 100 and 200, and at least one maximum value above pixel value 230.

他の方法としては、グラフの勾配や尖度、歪度、半値幅などを求め、決定木などの予測モデルを使用して瞳孔に光が吸収されていると判定することもできる。このとき、勾配などはグラフの横軸を区切って複数算出してもよい。さらに他の方法として、深層学習を用いることができる。深層学習を用いる場合、事前に実物の人間の虹彩領域の内接矩形をディープニューラルネットワークに学習させることで実現することができる。 As another method, the gradient, kurtosis, skewness, half-width, etc. of the graph can be calculated, and a predictive model such as a decision tree can be used to determine that light is being absorbed by the pupil. In this case, the gradient, etc. can be calculated multiple times by dividing the horizontal axis of the graph. As yet another method, deep learning can be used. When using deep learning, this can be achieved by having a deep neural network learn the inscribed rectangle of the iris area of a real human in advance.

角膜反射判定部107は、目検出部102Aが検出した目が両目の場合は、それぞれ独立して角膜が光を反射しているかどうかを判定し、それぞれ独立して判定結果を出力する。 When the eye detection unit 102A detects both eyes, the corneal reflex determination unit 107 determines whether the cornea of each eye is reflecting light independently, and outputs the determination results independently for each eye.

生体判定部104Aは、瞳孔吸収判定部103および角膜反射判定部107が出力した判定結果をもとに被写体が生体か否かを判定し、判定結果を出力する。瞳孔吸収判定部103および角膜反射判定部107が両目の判定結果を独立して出力する場合は、まず、生体判定部104Aは瞳孔吸収判定部103および角膜反射判定部107が出力する同一の目に対して片目ずつ生体判定を行い、その後左右の目の生体判定結果に応じて生体判定結果を出力する。このとき、左右の目の両方を生体と判定した場合のみに生体であると判定してもよいし、左右の目のどちらかのみを生体と判定した場合に生体であると判定してもよい。 The liveness determination unit 104A determines whether the subject is a live organism based on the determination results output by the pupil absorption determination unit 103 and the corneal reflex determination unit 107, and outputs the determination result. When the pupil absorption determination unit 103 and the corneal reflex determination unit 107 output the determination results for both eyes independently, the liveness determination unit 104A first performs liveness determination for each of the same eyes output by the pupil absorption determination unit 103 and the corneal reflex determination unit 107, and then outputs a liveness determination result according to the liveness determination results for the left and right eyes. At this time, the subject may be determined to be a live organism only when both the left and right eyes are determined to be live organisms, or may be determined to be a live organism only when only one of the left and right eyes is determined to be live organisms.

瞳孔吸収判定部103および角膜反射判定部107が出力する同一の片方の目に対して生体判定を行うとき、瞳孔吸収判定部103が瞳孔に光が吸収されていると判定したときと角膜反射判定部107が、角膜が光を反射していると判定したときの両方を満たすときに生体であると判定してもよいし、どちらか片方が満たされる場合に生体であると判定してもよい。 When performing a liveness determination for the same eye output by the pupil absorption determination unit 103 and the corneal reflex determination unit 107, it may be determined that a living body is present when both the pupil absorption determination unit 103 determines that the pupil is absorbing light and the corneal reflex determination unit 107 determines that the cornea is reflecting light are satisfied, or it may be determined that a living body is present when either one of the conditions is satisfied.

また、第2実施形態によれば、第1実施形態と同じく、生体判定部104が複数のフレームを使用して生体か否かを判定することもできる。 Furthermore, according to the second embodiment, as in the first embodiment, the liveness determination unit 104 can use multiple frames to determine whether or not a subject is a live person.

第2実施形態に係る生体判定装置1Aによれば、上述した第1実施形態の構成に基づく効果に加えて、角膜反射を判定することにより、より高精度に生体判定を行うことができる。 The biometric determination device 1A according to the second embodiment has the effect based on the configuration of the first embodiment described above, and by determining the corneal reflex, it is possible to perform biometric determination with higher accuracy.

<<第3実施形態>>
本発明の第3実施形態に係る生体判定装置1Bについて説明する。第3実施形態では、第2実施形態に係る生体判定装置1Aの構成をベースとしつつ、顔判定部108を追加的に設けた構成例について説明する。なお、第2実施形態と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
<<Third embodiment>>
A biometric determination device 1B according to a third embodiment of the present invention will be described. In the third embodiment, a configuration example in which a face determination unit 108 is additionally provided based on the configuration of the biometric determination device 1A according to the second embodiment will be described. Note that components having the same configurations and functions as those in the second embodiment are given the same reference numerals, and detailed descriptions thereof will be omitted.

図8は、顔判定部108を備えた第3実施形態に係る生体判定装置1Bの機能構成図である。図8に示すように、生体判定装置1Bにおいて、顔判定部108は、カメラ12の後段かつ目検出部102Aおよび外部インターフェースの前段に接続されている。このため、第3実施形態では、カメラ12、目検出部102A、外部インターフェース106、周辺機器2、ディスプレイ21、スピーカ22の機能が第2実施形態の場合と幾分相違することから、以下は類似符号を用いてカメラ12B、目検出部102B、外部インターフェース106B、周辺機器2B、ディスプレイ21Bおよびスピーカ22Bと称する。 Figure 8 is a functional configuration diagram of a biometric determination device 1B according to the third embodiment, which includes a face determination unit 108. As shown in Figure 8, in the biometric determination device 1B, the face determination unit 108 is connected after the camera 12 and before the eye detection unit 102A and the external interface. For this reason, in the third embodiment, the functions of the camera 12, eye detection unit 102A, external interface 106, peripheral device 2, display 21, and speaker 22 are somewhat different from those in the second embodiment, so hereinafter, similar reference numerals will be used to refer to the camera 12B, eye detection unit 102B, external interface 106B, peripheral device 2B, display 21B, and speaker 22B.

第3実施形態のカメラ12Bは、基本的な機能は第1実施形態および第2実施形態のカメラ12と同じであり、撮影制御部101から受信する撮影タイミングにしたがって被写体を撮影する。 The camera 12B of the third embodiment has the same basic functions as the camera 12 of the first and second embodiments, and captures an image of a subject according to the capture timing received from the capture control unit 101.

一方で、カメラ12Bは、撮影した画像を目検出部102Bに代えて顔判定部108に出力する。 On the other hand, camera 12B outputs the captured image to face determination unit 108 instead of eye detection unit 102B.

顔判定部108は、カメラ12が撮影した画像に含まれる被写体の顔の大きさおよび顔の向きを算出する。算出した被写体の顔の大きさが一定以上かつ、被写体の顔の向きがカメラの光軸を基準として一定以下(例えば、例えば、顔の向きとカメラの光軸とのなす角が、所定の閾値角度以下)であれば、カメラ12が撮影した画像を目検出部102Bに出力する。被写体の顔の大きさを制限することは、カメラ12Bと被写体の距離を制限することになり、距離が遠い場合にカメラ12が撮影した画像を目検出部102Bに出力しなくなる。被写体とカメラ12Bの距離が遠い場合は、角膜での光の反射や瞳孔での吸収をカメラ12Bが撮影した画像から観察しにくくなる。被写体とカメラ12Bの距離を制限することによって、生体判定精度の低下を防ぐことができる。また、顔の向きが一定以上大きい場合にも、角膜での光の反射や瞳孔での吸収をカメラ12Bが撮影した画像から観察しにくくなる。被写体の顔の向きを制限することによって、生体判定精度の低下を防ぐことができる。 The face determination unit 108 calculates the size and orientation of the subject's face included in the image captured by the camera 12. If the calculated size of the subject's face is equal to or larger than a certain value and the orientation of the subject's face is equal to or smaller than a certain value based on the optical axis of the camera (for example, the angle between the orientation of the face and the optical axis of the camera is equal to or smaller than a predetermined threshold angle), the image captured by the camera 12 is output to the eye detection unit 102B. Limiting the size of the subject's face limits the distance between the camera 12B and the subject, and when the distance is large, the image captured by the camera 12 is not output to the eye detection unit 102B. When the distance between the subject and the camera 12B is large, it becomes difficult to observe the reflection of light at the cornea and the absorption of the pupil from the image captured by the camera 12B. By limiting the distance between the subject and the camera 12B, it is possible to prevent a decrease in the accuracy of the live body determination. Also, when the orientation of the face is larger than a certain value, it becomes difficult to observe the reflection of light at the cornea and the absorption of light at the pupil from the image captured by the camera 12B. By limiting the orientation of the subject's face, it is possible to prevent a decrease in the accuracy of biometric determination.

顔判定部108は、算出した被写体の顔の大きさが一定以下の場合、外部インターフェース106Bに顔が小さいことを含む情報を出力する。 If the calculated size of the subject's face is less than a certain size, the face determination unit 108 outputs information including the fact that the face is small to the external interface 106B.

外部インターフェース106Bは周辺機器2Bに接続され、顔判定部108から受け取った顔が小さいことを含む情報を周辺機器2Bに含まれるディスプレイ21Bとスピーカ22Bの両方もしくはどちらかに出力する。 The external interface 106B is connected to the peripheral device 2B, and outputs the information received from the face determination unit 108, including the fact that the face is small, to either or both of the display 21B and speaker 22B included in the peripheral device 2B.

ディスプレイ21Bは、顔が小さいことを含む情報を受け取った場合、カメラ12Bに近づくように被写体に指示する。例えば、ディスプレイ21Bが持つ画面上に「近づいてください」というような文章を表示したり、近づくように指示するイラストを表示したりすることができる。 When display 21B receives information including the fact that the face is small, it instructs the subject to move closer to camera 12B. For example, it can display a sentence such as "Please move closer" on the screen of display 21B, or an illustration instructing the subject to move closer.

スピーカ22Bは、顔が小さいことを含む情報を受け取った場合、カメラ12Bに近づくように被写体に指示する。例えば、「カメラに近づいてください」というような音声を発することができる。 If speaker 22B receives information that includes information that the subject has a small face, it instructs the subject to move closer to camera 12B. For example, it can emit a voice message saying, "Please move closer to the camera."

顔判定部108は、算出した被写体の顔の向きがカメラの光軸を基準として一定以上の場合、外部インターフェース106Bに顔の向きが大きいことを含む情報を出力する。 If the calculated orientation of the subject's face relative to the optical axis of the camera is greater than a certain level, the face determination unit 108 outputs information including the fact that the orientation of the face is large to the external interface 106B.

外部インターフェース106Bは周辺機器2Bに接続され、顔判定部108から受け取った顔の向きが大きいことを含む情報を周辺機器2Bに含まれるディスプレイ21Bとスピーカ22Bの両方もしくはどちらかに出力する。 The external interface 106B is connected to the peripheral device 2B, and outputs information received from the face determination unit 108, including information about the large face orientation, to either or both of the display 21B and speaker 22B included in the peripheral device 2B.

ディスプレイ21Bは、顔の向きが大きいことを含む情報を受け取った場合、カメラ12Bの正面を向くように被写体に指示する。例えば、ディスプレイ21Bが持つ画面上に「正面を向いてください」というような文章を表示したり、正面を向くように指示するイラストを表示したりすることができる。 When display 21B receives information including the fact that the subject's face is facing forward, it instructs the subject to face the camera 12B. For example, it can display a sentence such as "Please face forward" on the screen of display 21B, or an illustration instructing the subject to face forward.

スピーカ22Bは、顔の向きが大きいことを含む情報を受け取った場合、カメラ12Bの正面を向くように被写体に指示する。例えば、「カメラに顔を向けてください」というような音声を発することができる。 When speaker 22B receives information that indicates the subject's face is facing a large direction, it instructs the subject to face camera 12B. For example, it can emit a voice message saying, "Please face the camera."

顔判定部108は、カメラ12が撮影した画像に含まれる被写体の顔の大きさのみを算出してもよい。この場合、算出した被写体の顔の大きさが一定以上の場合にカメラ12Bが撮影した画像を目検出部102Bに出力する。 The face determination unit 108 may calculate only the size of the subject's face included in the image captured by the camera 12. In this case, if the calculated size of the subject's face is equal to or larger than a certain value, the image captured by the camera 12B is output to the eye detection unit 102B.

また、顔判定部108は、カメラ12が撮影した画像に含まれる被写体の顔の向きのみを算出してもよい。この場合、被写体の顔の向きがカメラの光軸を基準として一定以下の場合にカメラ12Bが撮影した画像を目検出部102Bに出力する。 Face determination unit 108 may also calculate only the orientation of the subject's face contained in the image captured by camera 12. In this case, if the orientation of the subject's face is equal to or smaller than a certain value relative to the optical axis of the camera, the image captured by camera 12B is output to eye detection unit 102B.

第3実施形態によれば、被写体の顔の大きさや顔の向きを制限することによって、生体判定精度の低下を防ぐことができる。また、顔認証装置が生体判定装置1Bに接続される場合、被写体の顔の大きさや顔の向きを制限することによって、顔認証精度の低下を防ぐことも期待できる。 According to the third embodiment, by limiting the size and orientation of the subject's face, it is possible to prevent a decrease in the accuracy of biometric determination. In addition, when a face recognition device is connected to the biometric determination device 1B, it is expected that a decrease in the accuracy of face recognition can be prevented by limiting the size and orientation of the subject's face.

<<第4実施形態>>
第4実施形態では、第2実施形態に係る生体判定装置1Aの構成をベースとしつつ、光源の照射強度を変更した2フレームの画像を使用して生体判定を行う例について説明する。なお、第2実施形態と同一の構成、機能を有するものには同一の符号を付して、その詳細な説明を省略する。
<<Fourth embodiment>>
In the fourth embodiment, an example of performing a live body determination using two frames of images in which the illumination intensity of the light source is changed while using the configuration of the live body determination device 1A according to the second embodiment as a base will be described. Note that components having the same configurations and functions as those in the second embodiment are given the same reference numerals, and detailed descriptions thereof will be omitted.

図9は、第4実施形態に係る生体判定装置1Cの機能構成図である。第4実施形態では、光源13、撮影制御部101および生体判定部104の機能が第2実施形態の場合と幾分相違することから、以下は類似符号を用いて光源13C、撮影制御部101Cおよび生体判定部104Cと称する。 Figure 9 is a functional configuration diagram of a biometric determination device 1C according to the fourth embodiment. In the fourth embodiment, the functions of the light source 13, the photography control unit 101, and the biometric determination unit 104 are somewhat different from those in the second embodiment, so hereinafter they will be referred to as the light source 13C, the photography control unit 101C, and the biometric determination unit 104C using similar reference numerals.

撮影制御部101Cは、第2実施形態の撮影制御部101の機能に加え、光源13Cの照明の強さを制御する。撮影制御部101Cは、光源13Cが強く光(例えば、赤外光)を照射するフレームと弱く光(例えば、赤外光)を照射するフレームを交互に撮影するように制御する。例えば、撮影制御部101Cは、光源13Cが光(例えば、赤外光)を第一の強さで照射するフレームと光(例えば、赤外光)を第一の強さより弱い第二の強さで照射するフレームを交互に撮影するように制御する。 The imaging control unit 101C controls the illumination intensity of the light source 13C in addition to the functions of the imaging control unit 101 in the second embodiment. The imaging control unit 101C controls the imaging so that frames in which the light source 13C irradiates strong light (e.g., infrared light) and frames in which the light source 13C irradiates weak light (e.g., infrared light) are alternately captured. For example, the imaging control unit 101C controls the imaging so that frames in which the light source 13C irradiates light (e.g., infrared light) at a first intensity and frames in which the light source 13C irradiates light (e.g., infrared light) at a second intensity that is weaker than the first intensity are alternately captured.

光源13Cが光を強く照射するフレームでは、実物の目の場合に瞳孔吸収判定部103が、所定の判定方法及び所定の判定基準によって、瞳孔で光が吸収されていると判定する強さかつ、実物の目の場合に角膜反射判定部107が、角膜が光を反射していると判定する強さになるように光源13Cを制御する(光源13Cの照明の強さ(光源13Cが発生する光の強さ)を制御する。)。光源13Cが光を弱く照射するフレームでは、所定の判定方法及び所定の判定基準によって、実物の目の場合でも瞳孔吸収判定部103が瞳孔で光が吸収されていると判定しない強さかつ、実物の目の場合でも角膜反射判定部107が、角膜が光を反射していると判定しない強さになるように光源13Cを制御する(光源13Cの照明の強さ(光源13Cが発生する光の強さ)を制御する。)。なお、所定の判定方法は、例えば、既述した判定方法の何れかであり、所定の判定基準は判定に適した基準である。 In a frame in which the light source 13C strongly irradiates light, the light source 13C is controlled so that the pupil absorption judging unit 103 judges that the light is absorbed by the pupil in the case of a real eye by a predetermined judging method and a predetermined judging criterion, and the corneal reflex judging unit 107 judges that the cornea is reflecting the light in the case of a real eye (the illumination intensity of the light source 13C (the intensity of the light generated by the light source 13C) is controlled). In a frame in which the light source 13C weakly irradiates light, the light source 13C is controlled so that the pupil absorption judging unit 103 does not judge that the light is absorbed by the pupil in the case of a real eye, and the corneal reflex judging unit 107 does not judge that the cornea is reflecting the light in the case of a real eye by a predetermined judging method and a predetermined judging criterion (the illumination intensity of the light source 13C (the intensity of the light generated by the light source 13C) is controlled). The predetermined judging method is, for example, any of the judging methods described above, and the predetermined judging criterion is a criterion suitable for the judgment.

光源13Cが光を弱く照射するフレームでは、所定の判定方法及び所定の判定基準によって、実物の目の場合に瞳孔吸収判定部103が瞳孔で光が吸収されていると判定する強さかつ、実物の目の場合でも角膜反射判定部107が、角膜が光を反射していると判定しない強さになるように光源13Cを制御してもよい。また、光源13Cが光を弱く照射するフレームでは、光源13Cを照射しないようにしてもよい。以下の例では、光源13Cが光を弱く照射するフレームでは、所定の判定方法及び所定の判定基準によって、実物の目の場合でも瞳孔吸収判定部103が瞳孔で光が吸収されていると判定しない強さかつ、実物の目の場合でも角膜反射判定部107が、角膜が光を反射していると判定しない強さになるように光源13Cを制御する例を説明する。 In a frame in which the light source 13C weakly irradiates light, the light source 13C may be controlled by a predetermined judgment method and a predetermined judgment criterion so that the light intensity is such that the pupil absorption judgment unit 103 judges that the light is absorbed by the pupil in the case of a real eye, and the corneal reflex judgment unit 107 does not judge that the cornea is reflecting light even in the case of a real eye. Also, in a frame in which the light source 13C weakly irradiates light, the light source 13C may not be irradiated. In the following example, an example will be described in which the light source 13C is controlled by a predetermined judgment method and a predetermined judgment criterion so that the light intensity is such that the pupil absorption judgment unit 103 does not judge that the light is absorbed by the pupil in the case of a real eye, and the corneal reflex judgment unit 107 does not judge that the cornea is reflecting light even in the case of a real eye.

撮影制御部101Cは、撮影したフレームの照射強度の情報を生体判定部104Cに出力する。 The imaging control unit 101C outputs information on the irradiation intensity of the captured frame to the biometric determination unit 104C.

光源13Cは、撮影制御部101Cによって、光の照射強度および照射タイミングを制御される。 The light source 13C has its light irradiation intensity and irradiation timing controlled by the imaging control unit 101C.

生体判定部104Cは、光源13Cを強く照射したフレームと光源13Cを弱く照射したフレームの2つに対する瞳孔吸収判定部103の判定結果と角膜反射判定部107の判定結果を使って生体判定を行う。図10は係る処理の一具体例を示すフローチャートである。以下、図10を参照して、生体判定部104Cの処理を説明する。 The living body determination unit 104C performs a living body determination using the determination results of the pupil absorption determination unit 103 and the corneal reflex determination unit 107 for two frames, one in which the light source 13C is strongly irradiated and the other in which the light source 13C is weakly irradiated. FIG. 10 is a flowchart showing one specific example of such processing. The processing of the living body determination unit 104C will be described below with reference to FIG. 10.

生体判定部104Cは、撮影制御部101Cから得られた照射強度が強いフレームのときに処理を開始する。 The biometric determination unit 104C starts processing when a frame with a strong irradiation intensity obtained from the imaging control unit 101C is detected.

ステップ401において、生体判定部104Cは、撮影制御部101Cから得られた照射強度が強いフレームのときに処理を開始しているため、強く照射したフレームの瞳孔吸収判定部103の判定結果を受信する。 In step 401, the biometric determination unit 104C starts processing for a frame with a strong irradiation intensity obtained from the imaging control unit 101C, and therefore receives the determination result of the pupil absorption determination unit 103 for the frame with strong irradiation.

生体判定部104Cは、強く照射したフレームにおいて、瞳孔吸収判定部103が瞳孔に光が吸収されていると判定した場合(ステップ402、YES)、ステップ403に移行する。一方、生体判定部104Cは、瞳孔吸収判定部103が瞳孔に光が吸収されていないと判定した場合(ステップ402、NO)、ステップ410に移行する。 If the pupil absorption determination unit 103 determines that light is absorbed by the pupil in a strongly illuminated frame (step 402, YES), the biometric determination unit 104C proceeds to step 403. On the other hand, if the pupil absorption determination unit 103 determines that light is not absorbed by the pupil (step 402, NO), the biometric determination unit 104C proceeds to step 410.

ステップ403において、生体判定部104Cは、強く照射したフレームの角膜反射判定部107の判定結果を受信する。 In step 403, the biometric determination unit 104C receives the determination result of the corneal reflex determination unit 107 for the strongly illuminated frame.

生体判定部104Cは、強く照射したフレームにおいて、角膜反射判定部107が角膜が光を反射していると判定した場合(ステップ404、YES)、ステップ405に移行する。一方、生体判定部104Cは、角膜反射判定部107が角膜が光を反射していないと判定した場合(ステップ404、NO)、ステップ410に移行する。 If the corneal reflex determination unit 107 determines that the cornea is reflecting light in a strongly illuminated frame (step 404, YES), the biometric determination unit 104C proceeds to step 405. On the other hand, if the corneal reflex determination unit 107 determines that the cornea is not reflecting light (step 404, NO), the biometric determination unit 104C proceeds to step 410.

ステップ405において、生体判定部104Cは、弱く照射したフレームの瞳孔吸収判定部103の判定結果を受信する。撮影制御部101Cは、光源13Cに対して強く照射するフレームと弱く照射するフレームを交互に撮影するように制御しているため、ステップ405では弱く照射したフレームの瞳孔吸収判定部103の判定結果を受信することができる。 In step 405, the biometric determination unit 104C receives the determination result of the pupil absorption determination unit 103 for the weakly illuminated frame. Since the imaging control unit 101C controls the light source 13C to alternately capture frames with strong illumination and frames with weak illumination, in step 405, it is possible to receive the determination result of the pupil absorption determination unit 103 for the weakly illuminated frame.

生体判定部104Cは、弱く照射したフレームにおいて、瞳孔吸収判定部103が瞳孔に光が吸収されていると判定した場合(ステップ406、YES)、ステップ410に移行する。一方、生体判定部104Cは、瞳孔吸収判定部103が瞳孔に光が吸収されていないと判定した場合(ステップ406、NO)、ステップ407に移行する。 If the pupil absorption determination unit 103 determines that light is absorbed by the pupil in the weakly illuminated frame (step 406, YES), the biometric determination unit 104C proceeds to step 410. On the other hand, if the pupil absorption determination unit 103 determines that light is not absorbed by the pupil (step 406, NO), the biometric determination unit 104C proceeds to step 407.

ステップ407において、生体判定部104Cは、弱く照射したフレームの角膜反射判定部107の判定結果を受信する。 In step 407, the biometric determination unit 104C receives the determination result of the corneal reflex determination unit 107 for the weakly illuminated frame.

生体判定部104Cは、弱く照射したフレームにおいて、角膜反射判定部107が角膜が光を反射していると判定した場合(ステップ408、YES)、ステップ410に移行する。一方、生体判定部104Cは、角膜反射判定部107が角膜が光を反射していないと判定した場合(ステップ408、NO)、ステップ409に移行する。 If the corneal reflex determination unit 107 determines that the cornea is reflecting light in the weakly illuminated frame (step 408, YES), the biometric determination unit 104C proceeds to step 410. On the other hand, if the corneal reflex determination unit 107 determines that the cornea is not reflecting light (step 408, NO), the biometric determination unit 104C proceeds to step 409.

ステップ409において、生体判定部104Cは、被写体を生体と判定する。 In step 409, the biometric determination unit 104C determines that the subject is a biometric subject.

ステップ410において、生体判定部104Cは、被写体を生体ではないと判定する。 In step 410, the biometric determination unit 104C determines that the subject is not a biometric subject.

なお、強く照射するフレームに対する処理(S401からS404)と弱く照射するフレームに対する処理(S405からS408)は入れ替えてもよい。また、同一のフレームに対する処理であれば、瞳孔吸収判定部103の判定結果に対する処理(S401とS402、S405とS406)と角膜反射判定部107のそれぞれの判定結果に対する処理(S403とS404、S407とS408)は入れ替えてもよい。 The processing for frames with strong illumination (S401 to S404) and the processing for frames with weak illumination (S405 to S408) may be interchanged. Furthermore, if the processing is for the same frame, the processing for the judgment results of the pupil absorption judgment unit 103 (S401 and S402, S405 and S406) and the processing for the judgment results of the corneal reflex judgment unit 107 (S403 and S404, S407 and S408) may be interchanged.

また、強く照射するフレームと弱く照射するフレームをペアとして、複数のペアを使用して生体判定を行ってもよい。 Also, multiple pairs of frames with strong and weak illumination may be used to perform liveness determination.

第4実施形態によれば、光源13Cを強く照射するフレームと弱く照射するフレームを交互に切り替えて生体判定を行うことによってより高精度に生体判定を行うことができる。例えば、特殊な塗料を印刷物に塗布したり、印刷物の特定な箇所を加工したり(孔をあけたり)することにより、瞳孔吸収と角膜反射を再現した印刷物を用意できたとしても、弱く照射するフレームでも瞳孔吸収と角膜反射が発生していると判定されるので、そのような印刷物を生体ではないと判定することができる。 According to the fourth embodiment, a more accurate live body determination can be performed by alternately switching between frames that strongly illuminate the light source 13C and frames that weakly illuminate the light source 13C. For example, even if a print that reproduces pupil absorption and corneal reflex can be prepared by applying a special paint to the print or processing (drilling holes) specific locations on the print, it will be determined that pupil absorption and corneal reflex occur even in frames that are weakly illuminated, so that such a print can be determined not to be a live body.

<<変形例>>
本発明は、前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前述した各実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
<<Modifications>>
The present invention is not limited to the above-described embodiments, and includes various modified examples. For example, the above-described embodiments have been described in detail to clearly explain the present invention, and are not necessarily limited to those having all of the configurations described. In addition, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. In addition, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.

なお、本発明は以下の構成を採ることもできる。 The present invention can also be configured as follows:

[1]
赤外光を発生する光源と、
前記光源と異なる光軸で被写体を撮像するカメラと、
前記光源と前記カメラとを制御するコントローラと、
を用いた生体判定方法であって、
前記コントローラによって、
前記カメラで撮像された画像から被写体の眼を検出し、
前記被写体の眼の瞳孔に光が吸収されているか否かを判定し、
前記被写体の眼の瞳孔に光が吸収されていると判定した場合に生体と判定する、
生体判定方法。
[1]
A light source that generates infrared light;
a camera that captures an image of a subject with an optical axis different from that of the light source;
A controller for controlling the light source and the camera;
A liveness determination method using
The controller
Detecting the eyes of a subject from an image captured by the camera;
determining whether light is being absorbed by the pupil of the subject's eye;
determining that the subject is a living body when it is determined that light is absorbed by the pupil of the subject's eye;
Biometric determination method.

[2]
[1]に記載の生体判定方法であって、
前記コントロ―ラによって、
前記被写体の眼の角膜が光を反射しているか否かを判定し、
前記被写体の眼の瞳孔に光が吸収されていると判定し、且つ、前記被写体の眼の角膜が光を反射していると判定した場合に生体と判定する、
生体判定方法。
[2]
The method for determining a live body according to [1],
By the controller,
determining whether a cornea of the subject's eye is reflecting light;
determining that the subject is a living body when it is determined that light is absorbed by the pupil of the subject's eye and that the cornea of the subject's eye is reflecting light;
Biometric determination method.

1,1A,1B,1C…生体判定装置、2,2B…周辺機器、3…外部機器、11…コントローラ、12…カメラ、13,13C…光源、111H…CPU、112H…ROM、113H…RAM、114H…カメラ制御部、115H…光源制御部、116H…出力部、101,101C…撮影制御部、102,102A,102B…目検出部、103…瞳孔吸収判定部、104,104A,104C…生体判定部、105…通信部、106,106B…外部インターフェース、107…角膜反射判定部、108…顔判定部 1, 1A, 1B, 1C... biometric determination device, 2, 2B... peripheral device, 3... external device, 11... controller, 12... camera, 13, 13C... light source, 111H... CPU, 112H... ROM, 113H... RAM, 114H... camera control unit, 115H... light source control unit, 116H... output unit, 101, 101C... photography control unit, 102, 102A, 102B... eye detection unit, 103... pupil absorption determination unit, 104, 104A, 104C... biometric determination unit, 105... communication unit, 106, 106B... external interface, 107... corneal reflex determination unit, 108... face determination unit

Claims (13)

赤外光を発生する光源と、
前記光源と異なる光軸で被写体を撮像するカメラと、
前記光源と前記カメラとを制御するコントローラと、
を備える生体判定装置であって、
前記コントローラは、
前記カメラで撮像された画像から前記被写体の眼を検出し、
前記被写体の眼の瞳孔に光が吸収されているか否かを判定し、
前記被写体の眼の瞳孔に光が吸収されていると判定した場合に生体と判定する、
ように構成された、
生体判定装置。
A light source that generates infrared light;
a camera that captures an image of a subject with an optical axis different from that of the light source;
A controller for controlling the light source and the camera;
A biometric determination device comprising:
The controller:
Detecting the eyes of the subject from an image captured by the camera;
determining whether light is being absorbed by the pupil of the subject's eye;
determining that the subject is a living body when it is determined that light is absorbed by the pupil of the subject's eye;
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
前記コントローラは、
前記被写体の眼の角膜が光を反射しているか否かを判定し、
前記被写体の眼の瞳孔に光が吸収されていると判定し、且つ、前記被写体の眼の角膜が光を反射していると判定した場合に生体と判定する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
The controller:
determining whether a cornea of the subject's eye is reflecting light;
determining that the subject is a living body when it is determined that light is absorbed by the pupil of the subject's eye and that the cornea of the subject's eye is reflecting light;
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
前記コントローラは、
前記赤外光を第一の強さ及び前記第一の強さより弱い第二の強さの何れかで照射するように前記光源を制御可能に構成され、
前記コントローラは、
前記光源が前記第一の強さで前記赤外光を照射している状態で、前記カメラで撮像した第一の画像と、前記光源が前記第一の強さより弱い前記第二の強さで前記赤外光を照射している状態で、前記カメラで撮像した第二の画像とから、
前記第一の画像の前記被写体の眼の瞳孔が光を吸収しているか否かを判定し、
前記第一の画像の前記被写体の眼の角膜が光を反射しているか否かを判定し、
前記第二の画像の前記被写体の眼の瞳孔が光を吸収しているか否かを判定し、
前記第二の画像の前記被写体の眼の角膜が光を反射しているか否かを判定し、
前記第一の画像の前記被写体の眼の瞳孔が光を吸収していると判定し、且つ、前記第一の画像の前記被写体の眼の角膜が光を反射していると判定し、且つ、前記第二の画像の前記被写体の眼の瞳孔が光を吸収していないと判定し、且つ、前記第二の画像の前記被写体の眼の角膜が光を反射していないと判定した場合に生体と判定する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
The controller:
The light source is configured to be controllable so as to irradiate the infrared light with either a first intensity or a second intensity that is weaker than the first intensity;
The controller:
from a first image captured by the camera in a state in which the light source irradiates the infrared light at the first intensity and a second image captured by the camera in a state in which the light source irradiates the infrared light at the second intensity that is weaker than the first intensity;
determining whether a pupil of the subject's eye in the first image is absorbing light;
determining whether a cornea of the subject's eye in the first image is reflecting light;
determining whether a pupil of the subject's eye in the second image is absorbing light;
determining whether a cornea of the subject's eye in the second image is reflecting light;
determining that the subject is a living subject when it is determined that the pupil of the subject's eye in the first image is absorbing light, and the cornea of the subject's eye in the first image is reflecting light, and the pupil of the subject's eye in the second image is not absorbing light, and the cornea of the subject's eye in the second image is not reflecting light;
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
前記コントローラは、
前記赤外光を所定の強さで照射する第1状態及び前記赤外光を照射しない第2状態の何れかになるように前記光源を制御可能に構成され、
前記コントローラは、
前記光源が前記第1状態のときに前記カメラで撮像した第一の画像と、前記光源が前記第2状態のときに前記カメラで撮像した第二の画像とから、
前記第一の画像の前記被写体の眼の瞳孔が光を吸収しているか否かを判定し、
前記第一の画像の前記被写体の眼の角膜が光を反射しているか否かを判定し、
前記第二の画像の前記被写体の眼の瞳孔が光を吸収しているか否かを判定し、
前記第二の画像の前記被写体の眼の角膜が光を反射しているか否かを判定し、
前記第一の画像の前記被写体の眼の瞳孔が光を吸収していると判定し、且つ、前記第一の画像の前記被写体の眼の角膜が光を反射していると判定し、且つ、前記第二の画像の前記被写体の眼の瞳孔が光を吸収していないと判定し、且つ、前記第二の画像の前記被写体の眼の角膜が光を反射していないと判定した場合に生体と判定する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
The controller:
The light source is configured to be controllable so as to be in either a first state in which the infrared light is irradiated at a predetermined intensity or a second state in which the infrared light is not irradiated,
The controller:
from a first image captured by the camera when the light source is in the first state and a second image captured by the camera when the light source is in the second state,
determining whether a pupil of the subject's eye in the first image is absorbing light;
determining whether a cornea of the subject's eye in the first image is reflecting light;
determining whether a pupil of the subject's eye in the second image is absorbing light;
determining whether a cornea of the subject's eye in the second image is reflecting light;
determining that the subject is a living subject when it is determined that the pupil of the subject's eye in the first image is absorbing light, and the cornea of the subject's eye in the first image is reflecting light, and the pupil of the subject's eye in the second image is not absorbing light, and the cornea of the subject's eye in the second image is not reflecting light;
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
前記コントローラは、
前記カメラで異なる時間に撮像された複数の画像を使用して生体判定を行う、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
The controller:
A liveness determination is performed using a plurality of images captured by the camera at different times.
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
ディスプレイ及びスピーカの少なくとも一つを含む周辺機器を備え、
前記コントローラは、
前記カメラで撮像された画像から前記被写体の顔の大きさを検知し、
前記顔の大きさが一定以下である場合に前記周辺機器によって前記被写体に前記カメラに近づくように指示する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
A peripheral device including at least one of a display and a speaker;
The controller:
Detecting the size of the subject's face from the image captured by the camera;
when the size of the face is equal to or smaller than a certain size, instructing the subject to move closer to the camera by the peripheral device;
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
ディスプレイ及びスピーカの少なくとも一つを含む周辺機器を備え、
前記コントローラは、
前記カメラで撮像された画像から前記被写体の顔の向きを検知し、
前記顔の向きが前記カメラの光軸を基準として一定以上である場合に前記周辺機器によって前記被写体に前記カメラの正面を向くように指示する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
A peripheral device including at least one of a display and a speaker;
The controller:
Detecting the orientation of the subject's face from the image captured by the camera;
instructing the subject to face the front of the camera by the peripheral device when the orientation of the face is equal to or greater than a certain value with respect to the optical axis of the camera;
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
前記コントローラは、
前記被写体の眼の瞳孔に光が吸収されていることを示す暗い画素が存在するかどうかによって瞳孔に光が吸収されているか否かを判定する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
The controller:
determining whether light is being absorbed in the pupil of the subject's eye based on the presence of dark pixels indicative of light being absorbed in the pupil;
It was configured as follows:
Biometrics device.
請求項1に記載の生体判定装置において、
前記コントローラは、
前記被写体の眼のヒストグラムの形状によって瞳孔に光が吸収されているか否かを判定する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 1,
The controller:
determining whether light is being absorbed by the pupil based on the shape of the histogram of the subject's eye;
It was configured as follows:
Biometrics device.
請求項2に記載の生体判定装置において、
前記コントローラは、
前記被写体の眼の角膜が光を反射していることを示す明るい画素が存在するかどうかによって角膜が光を反射しているか否かを判定する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 2,
The controller:
determining whether the cornea of the subject's eye is reflecting light based on whether there is a bright pixel indicating that the cornea is reflecting light;
It was configured as follows:
Biometrics device.
請求項2に記載の生体判定装置において、
前記コントローラは、
前記被写体の眼のヒストグラムの形状によって角膜が光を反射しているか否かを判定する、
ように構成された、
生体判定装置。
The liveness determination device according to claim 2,
The controller:
determining whether the cornea is reflecting light or not based on the shape of the histogram of the subject's eye;
It was configured as follows:
Biometrics device.
赤外光を発生する光源と、
前記光源と異なる光軸で被写体を撮像するカメラと、
前記光源と前記カメラとを制御するコントローラと、
を用いた生体判定方法であって、
前記コントローラによって、
前記カメラで撮像された画像から被写体の眼を検出し、
前記被写体の眼の瞳孔に光が吸収されているか否かを判定し、
前記被写体の眼の瞳孔に光が吸収されていると判定した場合に生体と判定する、
生体判定方法。
A light source that generates infrared light;
a camera that captures an image of a subject with an optical axis different from that of the light source;
A controller for controlling the light source and the camera;
A liveness determination method using
The controller
Detecting the eyes of a subject from an image captured by the camera;
determining whether light is being absorbed by the pupil of the subject's eye;
determining that the subject is a living body when it is determined that light is absorbed by the pupil of the subject's eye;
Biometric determination method.
請求項12に記載の生体判定方法であって、
前記コントローラによって、
前記被写体の眼の角膜が光を反射しているか否かを判定し、
前記被写体の眼の瞳孔に光が吸収されていると判定し、且つ、前記被写体の眼の角膜が光を反射していると判定した場合に生体と判定する、
生体判定方法。
The liveness determination method according to claim 12,
The controller
determining whether a cornea of the subject's eye is reflecting light;
determining that the subject is a living body when it is determined that light is absorbed by the pupil of the subject's eye and that the cornea of the subject's eye is reflecting light;
Biometric determination method.
JP2023067141A 2023-04-17 2023-04-17 Biometric determination device and biometric determination method Pending JP2024153324A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023067141A JP2024153324A (en) 2023-04-17 2023-04-17 Biometric determination device and biometric determination method
PCT/JP2024/003034 WO2024219046A1 (en) 2023-04-17 2024-01-31 Living body determination apparatus and living body determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023067141A JP2024153324A (en) 2023-04-17 2023-04-17 Biometric determination device and biometric determination method

Publications (1)

Publication Number Publication Date
JP2024153324A true JP2024153324A (en) 2024-10-29

Family

ID=93152583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023067141A Pending JP2024153324A (en) 2023-04-17 2023-04-17 Biometric determination device and biometric determination method

Country Status (2)

Country Link
JP (1) JP2024153324A (en)
WO (1) WO2024219046A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100580630B1 (en) * 2003-11-19 2006-05-16 삼성전자주식회사 Person identification device and method using infrared ray
JP2014078052A (en) * 2012-10-09 2014-05-01 Sony Corp Authentication apparatus, authentication method, and program
JP7459959B2 (en) * 2020-10-09 2024-04-02 日本電気株式会社 Living body detection device, control method, and program

Also Published As

Publication number Publication date
WO2024219046A1 (en) 2024-10-24

Similar Documents

Publication Publication Date Title
US7819525B2 (en) Automatic direct gaze detection based on pupil symmetry
US20250366718A1 (en) System and method for eye tracking
CN109446947B (en) Enhanced face recognition in video
CN105431076B (en) sight guide
JP5694161B2 (en) Pupil detection device and pupil detection method
CN109471523A (en) Eye tracking using eye center position
KR101094766B1 (en) Eye position tracking device and method
WO2006088042A1 (en) Biometric discrimination device, authentication device, and biometric discrimination method
JP2019519859A (en) System and method for performing gaze tracking
JP2023026672A (en) Visual inspection apparatus and visual inspection method
JP2023500210A (en) High performance bright pupil eye tracking
CN109657531A (en) A kind of human face in-vivo detection method and detection device based on hot spot on eyeball
WO2018037685A1 (en) Line-of-sight detection device, line-of-sight detection method, and computer program
CN108140244B (en) Line-of-sight detection device and line-of-sight detection method
CN108124144A (en) A kind of method for controlling projection and device
JP2016028669A (en) Pupil detection device and pupil detection method
EP3042341A1 (en) Method and apparatus for eye detection from glints
JP6900994B2 (en) Line-of-sight detection device and line-of-sight detection method
KR102267162B1 (en) Eye tracking system for mild cognitive impairment
CN112784655A (en) Living body detection method and device based on gazing information and detection equipment
JP2024153324A (en) Biometric determination device and biometric determination method
JP2020140637A (en) Pupil detector
CN108156387A (en) Terminate the device and method of camera shooting automatically by detecting eye sight line
CN111144219A (en) Iris recognition device and method based on 3D structured light
JP2025124547A (en) Biometric determination device and biometric determination method