WO2013161077A1 - 生体認証装置、生体認証プログラム及び生体認証方法 - Google Patents
生体認証装置、生体認証プログラム及び生体認証方法 Download PDFInfo
- Publication number
- WO2013161077A1 WO2013161077A1 PCT/JP2012/061438 JP2012061438W WO2013161077A1 WO 2013161077 A1 WO2013161077 A1 WO 2013161077A1 JP 2012061438 W JP2012061438 W JP 2012061438W WO 2013161077 A1 WO2013161077 A1 WO 2013161077A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- biological
- unit
- authentication
- outline
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/63—Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Definitions
- the present invention relates to a biometric authentication device, a biometric authentication program, and a biometric authentication method.
- biometric authentication systems that perform biometric authentication using human body biometric information have been used.
- biometric information used for biometric authentication include veins, fingerprints, and irises.
- Such a biometric authentication system acquires biometric information from a user in advance as registration data, acquires biometric information from the user as authentication data at the time of authentication, and performs authentication by collating the registration data with the authentication data. Do.
- Such a biometric authentication system may prompt the user to input authentication data again when authentication fails.
- FIG. 1 is a diagram illustrating an example of authentication processing by the biometric authentication system according to the reference example.
- the upper part of FIG. 1 shows an example of registration data
- the lower part of FIG. 1 shows an example of authentication data.
- the guide G1 shown in FIG. 1 supports the user's hand U1 and guides the imaging position to the user.
- the biometric authentication system according to the reference example acquires, for example, an authentication image P2 to be authenticated from the captured image P1 of the hand U1 placed on the guide G1, and holds biometric information extracted from the acquired authentication image P2 as registration data. To do. Further, when performing the authentication process, the biometric authentication system according to the reference example extracts biometric information as authentication data from the authentication image P4 out of the captured image P3 of the hand U1 placed on the guide G1. And the biometric authentication system which concerns on a reference example collates registration data and authentication data.
- the user does not always place the hand U1 at the same position of the guide G1 at the time of registration and authentication.
- region of authentication image P2 and authentication image P4 may differ, depending on the position where a user puts hand U1
- the biometric image extracted at the time of registration and at the time of authentication differs, and the biometric according to the reference example
- the authentication rate by the authentication system decreases. For example, when the biometric authentication system according to the reference example re-enters authentication data when authentication fails, if the authentication rate is low, the user is prompted to input authentication data many times, resulting in a decrease in usability. It becomes.
- the disclosed technique has been made in view of the above, and an object thereof is to provide a biometric authentication device, a biometric authentication program, and a biometric authentication method that can improve the authentication rate.
- the biometric authentication device disclosed in the present application is characterized by the first outline information regarding the outline of the living body acquired from the first living body image obtained by imaging the living body, and the characteristics of the living body in the first living body image.
- the first external information extracted from the area to be displayed is stored in the storage unit that stores the first external information and the registered data acquisition unit that acquires the first biological information, and the second external information is acquired from the second biological image.
- an outer shape information acquisition unit an extraction unit that extracts second biological information from the second biological image, and outer shape information related to the same biological part included in both the first outer shape information and the second outer shape information
- a registration unit that aligns the region from which the first biological information is extracted and the region from which the second biological information is extracted, and the registration unit that is aligned by the registration unit. It comprises a collating unit for collating 1 biometric information and the second biological information.
- the biometric authentication device According to one aspect of the biometric authentication device, the biometric authentication program, and the biometric authentication method disclosed in the present application, there is an effect that the authentication rate can be improved.
- FIG. 1 is a diagram illustrating an example of authentication processing by the biometric authentication system according to the reference example.
- FIG. 2 is a diagram illustrating a configuration example of the biometric authentication system according to the first embodiment.
- FIG. 3 is a diagram schematically illustrating a cross section of the imaging apparatus according to the first embodiment.
- FIG. 4 is a diagram schematically showing the A arrow view shown in FIG. 3.
- FIG. 5 is a diagram illustrating a configuration example of the imaging apparatus according to the first embodiment.
- FIG. 6 is a diagram illustrating an example of a biological image generated by the imaging device.
- FIG. 7 is a diagram illustrating a configuration example of the biometric authentication device according to the first embodiment.
- FIG. 8 is a diagram illustrating an example of a registration data storage unit according to the first embodiment.
- FIG. 1 is a diagram illustrating an example of authentication processing by the biometric authentication system according to the reference example.
- FIG. 2 is a diagram illustrating a configuration example of the biometric authentication system according
- FIG. 9 is a flowchart showing an example of registration processing by the biometric authentication apparatus according to the first embodiment.
- FIG. 10 is a flowchart illustrating an example of authentication processing by the biometric authentication device according to the first embodiment.
- FIG. 11 is a flowchart illustrating an example of a gap determination process performed by the gap determination unit according to the first embodiment.
- FIG. 12 is a flowchart illustrating an example of an outline information acquisition process performed by the outline information acquisition unit according to the first embodiment.
- FIG. 13 is a diagram for explaining the outer shape information acquisition process by the outer shape information acquisition unit according to the first embodiment.
- FIG. 14 is a diagram for explaining the correspondence determination processing by the outer shape information acquisition unit according to the first embodiment.
- FIG. 15 is a flowchart illustrating an example of non-common area specifying processing by the non-common area specifying unit according to the first embodiment.
- FIG. 16 is a diagram for explaining the non-common area specifying process by the non-common area specifying unit according to the first embodiment.
- FIG. 17 is a flowchart illustrating an example of a collation process by the collation unit according to the first embodiment.
- FIG. 18 is a flowchart illustrating an example of authentication processing by the biometric authentication apparatus according to the second embodiment.
- FIG. 19 is a diagram illustrating an example of a computer that executes a biometric authentication program.
- biometric authentication device a biometric authentication program
- the biometric authentication device the biometric authentication program, and the biometric authentication method disclosed in the present application are not limited by this embodiment.
- symbol is attached
- vein authentication using biometric information “palm vein pattern” will be described as an example.
- 1 to 1 authentication” will be mainly described as an example.
- FIG. 2 is a diagram illustrating a configuration example of the biometric authentication system according to the first embodiment.
- the information processing device 10 the authentication server 20, the embedded device 31, and the door 32 are connected via a network 40.
- the information processing apparatus 10 is, for example, a PC (Personal Computer) or the like, and is connected to the imaging apparatus 50 and the reader / writer 61.
- the imaging device 50 generates a biological image by imaging a user's hand.
- the information processing apparatus 10 extracts a palm vein pattern from the biological image generated by the imaging apparatus 50.
- the reader / writer 61 reads information from an IC card (Integrated Circuit card) 62.
- the IC card 62 stores a user's vein pattern and the like as registration data.
- the information processing apparatus 10 collates the vein pattern obtained from the biological image generated by the imaging device 50 with the vein pattern stored as registration data in the IC card 62. Then, the information processing apparatus 10 permits the user to log on when the authentication is successful.
- the authentication server 20 stores the user's vein pattern as registration data. Further, when the authentication server 20 receives the authentication request, the authentication server 20 performs an authentication process using the registration data, and returns an authentication result to the transmission source of the authentication request.
- the built-in device 31 is incorporated into, for example, an entrance / exit device or the like and connected to the imaging device 70. Similar to the imaging device 50, the imaging device 70 captures a user's hand and generates a biological image.
- the door 32 is installed in the vicinity of the built-in device 31 and is unlocked by the built-in device 31.
- the embedded device 31 transmits an authentication request including the user ID and the biometric image generated by the imaging device 70 to the authentication server 20.
- the authentication server 20 collates the vein pattern corresponding to the user ID received from the embedded device 31 with the vein pattern obtained from the biometric image received from the embedded device 31, and responds to the embedded device 31 with authentication success or failure. To do.
- the built-in device 31 unlocks the door 32 when the authentication server 20 receives a successful authentication response, and does not unlock the door 32 when the authentication server 20 receives an authentication failure.
- the authentication form by the biometric authentication system 1 is not limited to the above example.
- the information processing apparatus 10 may cause the authentication server 20 to perform authentication processing by transmitting an authentication request to the authentication server 20 without performing authentication processing.
- the information processing apparatus 10 may cause the authentication server 20 to perform not only the authentication process but also the process of extracting the vein pattern by transmitting an authentication request including a biometric image to the authentication server 20.
- the embedded device 31 may perform an authentication process in the embedded device 31 that is its own device without transmitting an authentication request to the authentication server 20.
- the authentication server 20 may be a physical device or a cloud server in which calculation resources are provided by one or more physical devices.
- the built-in device 31 may be a device built into an ATM (Automatic Teller Machine) or the like.
- FIG. 3 is a diagram schematically illustrating a cross section of the imaging apparatus 50 according to the first embodiment.
- FIG. 4 is a diagram schematically showing the A arrow view shown in FIG. 3.
- the guide G1 is formed by a bottom wall G11 and a side wall G12 extending in a substantially vertical direction from the peripheral edge of the bottom wall G11.
- the side wall G12 forms an opening in which a position facing the bottom wall G11 is opened.
- Such a guide G1 guides the hand U1 to the imaging position of the imaging device 50 by supporting the user's hand U1 by the edge of the side wall G12.
- the imaging device 50 is provided on the bottom wall G11 and images the opening.
- FIG. 5 is a diagram illustrating a configuration example of the imaging device 50 according to the first embodiment.
- the imaging device 50 includes an imaging unit 51, a communication unit 52, a storage unit 53, and a control unit 54.
- the imaging unit 51 is realized by, for example, the illumination 51a, the lens 51b, and the camera 51c.
- the illumination 51a emits near-infrared rays to the hand U1 that is an imaging target located in the opening.
- the lens 51b forms an image of near infrared light reflected by the hand U1.
- the camera 51c has an image sensor that receives near-infrared light imaged by the lens 51b, and generates a biological image from the image received by the image sensor.
- the communication unit 52 is realized by, for example, the communication port 52a.
- the communication port 52a communicates with other devices.
- the communication port 52 a transmits the biological image generated by the imaging unit 51 to the information processing apparatus 10.
- the storage unit 53 is realized by, for example, the storage device 53a.
- the storage device 53a stores various information such as biological images.
- the storage device 53a is, for example, a RAM (Random Access Memory) or a flash memory.
- the control unit 54 is realized by, for example, the control device 54a.
- the control device 54a controls the illumination 51a, the camera 51c, the communication port 52a, and the storage device 53a.
- the control device 54a is, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit).
- FIG. 6 shows an example of a biological image generated by the imaging device 50.
- the imaging device 50 generates a biological image P10 in which a vein pattern image P11 of the hand U1 is depicted by irradiating the hand U1 with near infrared rays.
- the hatched area drawn on the peripheral edge of the biological image P10 corresponds to the side wall G12 of the guide G1.
- the above-described imaging device 50 is used both when the user performs an operation for starting registration of biometric information (here, a vein pattern) and when an operation for starting authentication is performed. Then, a biological image as illustrated in FIG. 6 is generated.
- biometric image generated during the registration operation may be referred to as “registration image”
- authentication image the biometric image generated during the authentication operation
- FIG. 7 is a diagram illustrating a configuration example of the biometric authentication device according to the first embodiment.
- the biometric authentication device 100 illustrated in FIG. 7 may be any of the information processing device 10, the authentication server 20, and the embedded device 31 illustrated in FIG. In the first embodiment, the biometric authentication device 100 will be described as the information processing device 10.
- the biometric authentication device 100 operates in a “registration mode” for performing vein pattern registration processing and an “authentication mode” for performing authentication processing using a vein pattern.
- the biometric authentication device 100 includes an image processing unit 111, a gap determination unit 112, an outline information acquisition unit 113, a biometric information extraction unit 114, a registration data storage unit 120, and an alignment unit. 131 and a collation unit 132.
- the image processing unit 111, the gap determination unit 112, the outer shape information acquisition unit 113, and the biometric information extraction unit 114 perform various processes described below in both the registration mode and the authentication mode.
- the alignment unit 131 and the collation unit 132 perform various processes described below in the authentication mode.
- the image processing unit 111 performs image processing on the biological image generated by the imaging device 50. For example, the image processing unit 111 extracts position information of a hand region in which a hand is drawn and position information of a palm region in which a hand is drawn from a biological image.
- the gap determination unit 112 uses the position information of the hand region acquired by the image processing unit 111 to provide a gap of a predetermined value or more between the outer edge of the opening of the guide G1 depicted in the biological image and the hand region. It is determined whether or not exists.
- the outer shape information acquisition unit 113 acquires outer shape information related to the outer shape of the living body from the biological image using the position information of the hand region and the palm region acquired by the image processing unit 111. Specifically, the outer shape information acquisition unit 113 acquires outer shape information of each living body part for each of the living body parts “palm”, “finger”, and “wrist” that form the living body “hand”. Then, when the biometric authentication device 100 is operating in the registration mode, the outline information acquisition unit 113 stores various outline information acquired from the registration image in the registration data storage unit 120.
- the biometric information extraction unit 114 extracts biometric information from a region indicating the characteristics of the biopsy in the biometric image generated by the imaging device 50.
- the biometric information extraction unit 114 according to the first embodiment extracts, as a vein pattern, a vein segment group obtained by converting a vein image drawn in the palm region into a line figure from the palm region of the biometric image.
- the biometric information extraction unit 114 extracts a straight or curved vein segment group as a vein pattern as in the example illustrated in FIG.
- the registration data storage unit 120 stores biometric external shape information and biometric information as registration data.
- FIG. 8 shows an example of the registration data storage unit 120 according to the first embodiment. In the example illustrated in FIG. 8, the registration data storage unit 120 stores “outer shape information” and “biological information” in association with each “user ID”.
- “User ID” is identification information for identifying a user.
- the user ID is stored in the IC card 62 shown in FIG.
- Outer shape information is information stored by the outer shape information acquisition unit 113, and is classified into a biological part “palm”, “finger N (N is 1 to 5)”, and “wrist”. Then, “contour” and “circumscribed rectangle” are stored in “palm”, “contour”, “circumscribed rectangle”, and “connection point” are stored in “finger N”, and similarly, “wrist” Stores “contour”, “circumscribed rectangle”, and “connection point”.
- the “connection point” of “finger N” indicates the position information of the connection point connecting the palm and the finger, and the “connection point” of “wrist” is the position information of the connection point connecting the palm and the wrist. Indicates.
- Various types of external shape information stored in the registered data storage unit 120 will be described later.
- Biometric information stores the vein pattern extracted by the biometric information extraction unit 114.
- Such “biological information” may store digitized vein pattern information, or may store a biological image of a palm region in which a vein pattern is depicted. In FIG. 8, in order to simplify the notation, the vein pattern is indicated by a symbol such as “F10” or “F20”.
- the alignment unit 131 uses the external shape related to the same living body part included in both the external shape information stored in the registered data storage unit 120 and the external shape information acquired by the external shape information acquisition unit 113 during authentication.
- a predetermined alignment method is selected in accordance with the combination of information, and the palm region in the registration image and the palm region in the authentication image are aligned according to the selected method. Further, the alignment unit 131 identifies a non-common area that is a difference area between the palm area in the registration image and the palm area in the authentication image.
- registration outline information the outline information stored in the registration data storage unit 120
- authentication outline information the outline information acquired by the outline information acquisition unit 113 at the time of authentication. May be written.
- the collation unit 132 collates both biometric information extracted from the registration image and the authentication image aligned by the alignment unit 131. At this time, the collation unit 132 reduces the weight of the non-common area specified by the alignment unit 131 and is extracted by the vein pattern stored in the registered data storage unit 120 and the biometric information extraction unit 114 at the time of authentication. Match the vein pattern.
- the vein pattern stored in the registration data storage unit 120 is referred to as “registration vein pattern”
- the vein pattern extracted by the biometric information extraction unit 114 at the time of authentication is referred to as “authentication vein pattern”. May be written.
- FIG. 7 shows an example in which the biometric authentication device 100 includes the registration data storage unit 120, but the registration data storage unit 120 may be held by a storage device other than the biometric authentication device 100. .
- the image processing unit 111, the gap determination unit 112, the external shape information acquisition unit 113, the biometric information extraction unit 114, the alignment unit 131, and the collation unit 132 illustrated in FIG. 7 are, for example, an ASIC (Application Specific Integrated Circuit) or FPGA. Realized by integrated circuits such as (Field Programmable Gate Array). Further, the registration data storage unit 120 shown in FIG. 7 is realized by a hard disk, an optical disk, or a semiconductor memory element such as a RAM or a flash memory.
- FIG. 9 is a flowchart illustrating an example of a registration process performed by the biometric authentication device 100 according to the first embodiment.
- the biometric authentication device 100 determines whether or not to start biometric information registration processing (step S101). For example, the biometric authentication device 100 determines whether an operation for registering biometric information has been performed by the user.
- the biometric authentication device 100 accepts a user ID via an input unit (for example, a keyboard) (not shown) (Step S102). In addition, the biometric authentication device 100 receives a registration image from the imaging device 50 (step S103).
- the image processing unit 111 of the biometric authentication device 100 extracts the position information of the hand region and the palm region from the registration image received in step S103 (step S104).
- the image processing unit 111 extracts a hand region in which a hand is depicted and a palm region in which a palm is depicted from the registration image. For example, the image processing unit 111 extracts a hand region and a palm region by performing edge detection, pattern matching, and the like on the registration image. Then, the image processing unit 111 acquires the position information of the hand region and the position information of the palm region.
- the position information of the hand region is formed by a set of position information of each pixel depicting the hand in the biological image.
- the position information of the palm region is formed by a set of position information of each pixel depicting the palm in the biological image.
- the image processing unit 111 acquires, as position information, information representing each pixel in XY coordinates with a predetermined position in the biological image (for example, one of the four corners of the biological image) as the origin, for example.
- the gap determination unit 112 performs a gap determination process (step S105). Such gap determination processing will be described later with reference to FIG.
- the outline information acquisition unit 113 performs outline information acquisition processing (step S106).
- the outer shape information acquisition unit 113 stores the outer shape information in the registered data storage unit 120.
- the outline information acquisition process will be described later with reference to FIG.
- the biometric information extraction unit 114 extracts a vein pattern from the palm region of the registration image, and stores the extracted vein pattern in the registration data storage unit 120 (step S107). At this time, the biometric information extraction unit 114 stores the vein pattern in the registration data storage unit 120 in association with the user ID received in step S102.
- FIG. 10 is a flowchart illustrating an example of authentication processing performed by the biometric authentication device 100 according to the first embodiment.
- the biometric authentication device 100 determines whether or not to start the authentication process (step S201). For example, the biometric authentication device 100 determines whether an operation for performing authentication is performed by the user.
- the biometric authentication device 100 accepts a user ID from an input unit (not shown) or the like (Step S202) and receives an authentication image from the imaging device 50 (Step S201). S203). Subsequently, the image processing unit 111 extracts position information of the hand region and the palm region from the authentication image received in step S203 (step S204).
- the gap determination unit 112 performs a gap determination process (step S205).
- the outer shape information acquisition unit 113 performs outer shape information acquisition processing (step S206).
- the biometric information extraction unit 114 extracts a vein pattern from the authentication image (step S207).
- step S208 the alignment unit 131 performs non-common area specifying processing. This non-common area specifying process will be described later with reference to FIG.
- the collation unit 132 performs collation processing (step S209). Such collation processing will be described later with reference to FIG.
- FIG. 11 is a flowchart illustrating an example of a gap determination process by the gap determination unit 112 according to the first embodiment.
- the gap determination unit 112 uses the position information of the hand region acquired by the image processing unit 111 to open the opening of the guide G1 depicted in the biometric image (registration image or authentication image).
- a hand region ratio that is a ratio of the area of the hand region to the area in the part is calculated (step S301).
- the gap determination unit 112 calculates the hand region ratio by dividing the area of the hand region by the area of the opening.
- the gap determination unit 112 uses the area of the biological image P10 excluding the hatched area as the area of the opening, and determines the area of the area where the hand is drawn. The area of the region.
- the gap determination unit 112 calculates the hand region ratio using the fixed area.
- the image processing unit 111 may calculate the area of the opening by performing edge detection or the like on the biological image. In such a case, the gap determination unit 112 calculates the hand area ratio using the area of the opening calculated by the image processing unit 111.
- the gap determination unit 112 determines whether or not the hand area ratio is smaller than a predetermined threshold (step S302). Then, when the hand area ratio is smaller than the predetermined threshold (Yes at Step S302), the gap determination unit 112 determines that there is a gap of a predetermined value or more between the outer edge of the opening and the hand area. The determination process ends.
- the gap determination unit 112 determines that there is no gap of a predetermined value or more between the outer edge of the opening and the hand area. Error processing is performed (step S303). For example, the gap determination unit 112 ends the registration process when the biometric authentication device 100 operates in the registration mode, and ends the authentication process when the biometric authentication device 100 operates in the authentication mode. Let At this time, the biometric authentication device 100 may display guidance so that the user holds his hand over the imaging device 50.
- the biometric authentication device 100 performs an authentication process using various types of outline information acquired by the outline information acquisition unit 113.
- the gap determination unit 112 performs the above-described gap determination process in order to determine whether or not the outline information can be acquired by the outline information acquisition unit 113.
- the biometric authentication device 100 can end the registration process and the authentication process before performing the outline information acquisition process. The authentication process can be speeded up and the processing load can be reduced.
- predetermined threshold value used in the gap determination process described above is experimentally obtained from the viewpoint of, for example, whether or not the external shape information can be acquired.
- the gap determination unit 112 may determine whether the difference between the area of the opening and the area of the hand region is greater than a predetermined threshold.
- the gap determination unit 112 may determine whether the difference between the area of the opening and the area of the hand region is greater than a predetermined threshold.
- the “predetermined threshold value” may be varied.
- the gap determination unit 112 changes the predetermined threshold to a smaller value as the distance from the imaging device 50 to the opening is longer, and sets the predetermined threshold as the distance from the imaging device 50 to the opening is shorter. Change to a larger value.
- FIG. 12 is a flowchart illustrating an example of the outer shape information acquisition process performed by the outer shape information acquisition unit 113 according to the first embodiment.
- the external shape information acquisition unit 113 uses the position information of the hand region and the position information of the palm region acquired by the image processing unit 111 to use the palm from the hand region of the biological image received from the imaging device 50. By removing the area, the position information of the finger area and the position information of the wrist area are acquired (step S401).
- the outline information acquisition unit 113 sets a region located above the palm region as a finger region and a region located below the palm region among the regions obtained by removing the palm region from the hand region as the wrist region. Further, for example, the outline information acquisition unit 113 uses, as a finger region, a region having a short boundary line with the palm region, and a region having a long boundary line with the palm region as a wrist region among the regions obtained by removing the palm region from the hand region. Also good.
- the position information of the finger area acquired by the outer shape information acquisition unit 113 is formed by a set of position information of each pixel depicting the finger in the biological image.
- the position information of the wrist region is formed by a set of position information of each pixel depicting the wrist in the biological image.
- the process of acquiring the finger area and the wrist area may be performed by the image processing unit 111.
- the image processing unit 111 may specify the finger region and the wrist region from the biological image by performing pattern matching or the like instead of removing the palm region from the hand region.
- the outline information acquisition unit 113 determines whether or not at least one finger region exists in the biological image (step S402).
- the outline information acquisition unit 113 performs error processing similar to the processing at Step S303 illustrated in FIG. 11 (Step S403). Note that the “finger region” whose presence or absence is determined by the outer shape information acquisition unit 113 requires two lines extending from the palm, but does not need to be drawn to the fingertip.
- the reason for performing the presence / absence determination of the finger area will be described.
- the alignment unit 131 described later performs alignment between the palm region in the registration image and the palm region in the authentication image, using the registration outer shape information and the authentication outer shape information.
- the outer shape information acquisition unit 113 determines the presence / absence of a finger region in order to determine whether the palm region is a biometric image that can be aligned.
- the biometric authentication device 100 can end the registration process and the authentication process before performing the non-common area specifying process when the biometric image is incomplete. The processing load can be reduced.
- the outline information acquisition unit 113 acquires the outline information of the palm from the palm area (Step S404). Further, the outline information acquisition unit 113 acquires the outline information of the finger from the finger area acquired in step S401 (step S405). Further, the outer shape information acquisition unit 113 acquires the outer shape information of the wrist from the wrist region acquired in step S401 (step S406). Subsequently, the outer shape information acquisition unit 113 acquires connection points between biological parts such as “palm”, “finger”, and “wrist” that form the hand (step S407).
- a region R11 surrounded by a solid line indicates a hand region acquired by the image processing unit 111.
- a region R12 surrounded by a solid line indicates a palm region acquired by the image processing unit 111.
- the outer shape information acquisition unit 113 acquires the finger region R13 illustrated in FIG. 13C and the wrist region R14 illustrated in FIG. 13D by excluding the palm region R12 from the hand region R11.
- the determination process in step S402 is performed.
- five finger regions R13 each have two lines extending from the palm. Therefore, the outline information acquisition unit 113 determines that there is one or more finger areas, and proceeds to the outline information acquisition process after step S404.
- the outer shape information acquisition unit 113 acquires “the palm outline” and “the palm circumscribed rectangle” as the palm outer shape information from the palm region R12 illustrated in FIG. Specifically, the outer shape information acquisition unit 113 acquires the position information group of each continuous pixel in the outermost part (solid line shown in FIG. 13B) in the palm region R12 as “palm outline”. Further, the outer shape information acquisition unit 113 acquires position information of a rectangle obtained by connecting points having a curvature equal to or greater than a predetermined value in the palm outline as a “circumference rectangle of the palm”.
- the outline information acquisition unit 113 acquires “finger outline” and “finger circumscribed rectangle” as the outline information of the finger from the finger region R13 illustrated in FIG.
- the outer shape information acquisition unit 113 acquires outer shape information for each finger region R13 when a plurality of finger regions R13 exist as in the example illustrated in FIG.
- the outer shape information acquiring unit 113 acquires “wrist outline” and “wrist circumscribed rectangle” as wrist outer shape information from the wrist region R14 shown in FIG.
- the outer shape information acquisition unit 113 acquires the position information of the pixel connecting the “palm contour” and the “finger contour” for each finger region R13 as “the palm-finger connection point”.
- the outer shape information acquisition unit 113 includes position information of palm and thumb connection points C11 and C12, position information of palm and index finger connection points C13 and C14, and palm and middle finger information.
- Position information of connection points C15 and C16, position information of palm and ring finger connection points C17 and C18, and position information of palm and little finger connection points C19 and C20 are acquired.
- the outer shape information acquisition unit 113 acquires a maximum of two “connection points between palms and fingers” for one finger.
- the outer shape information acquisition unit 113 acquires the position information of the pixel connecting the “palm contour” and the “wrist contour” as “the connection point between the palm and the wrist”. In the example shown in FIG. 13A, the outer shape information acquisition unit 113 acquires position information of the connection points C21 and C22 between the palm and the wrist. In this way, the outer shape information acquisition unit 113 acquires a maximum of two “wrist-finger connection points”.
- FIG. 13 shows an example in which the outer shape information acquisition unit 113 acquires various types of outer shape information.
- the outer shape information acquisition unit 113 acquires all the above-described outer shape information. It is not always possible.
- the hand is placed with the little finger and the wrist removed from the opening of the guide G1.
- the outline information acquisition unit 113 cannot acquire the outline information of the little finger, the connection point between the palm and the little finger, the outline information of the wrist, the connection point between the palm and the wrist, and the like. Even in such a case, the outer shape information acquisition unit 113 acquires the outer shape information that can be acquired.
- the outline information acquisition unit 113 associates with the user ID received at the start of the registration process. Then, the various outline information acquired in steps S404 to S407 is stored in the registered data storage unit 120 (step S409).
- the outline information acquisition unit 113 stores the “palm outline” acquired in step S404 in the “contour” of the “palm” in the registration data storage unit 120 illustrated in FIG. 8, and the “circumference rectangle of the palm” is stored.
- the data is stored in the “circumscribed rectangle” of the “palm” in the registered data storage unit 120.
- the outer shape information acquisition unit 113 stores “finger outline” and “finger circumscribed rectangle” corresponding to each finger acquired in step S 405 in “finger N” in the registration data storage unit 120.
- the outline information acquisition unit 113 stores the outline information in “finger 1” of the registration data storage unit 120 and acquires the outline information of five fingers.
- the external information of each finger is stored in “finger 1” to “finger 5” of the registration data storage unit 120.
- the outer shape information acquisition unit 113 stores the “wrist outline” and the “wrist circumscribed rectangle” acquired in step S406 in the “wrist” of the registration data storage unit 120. Further, the outer shape information acquisition unit 113 stores the “palm-finger connection point” acquired in step S407 in the “connection point” of “finger N” in the registration data storage unit 120, and the “wrist-finger connection point”. Is stored in the “connection point” of the “wrist” in the registered data storage unit 120.
- the position information group of each pixel is represented by a single code.
- “L11” is stored in the palm contour corresponding to the user ID “AAA”, but this contour “L11” is actually the position information group of each pixel depicting the palm contour. Indicates. This is the same for the circumscribed rectangle (“M11”, etc.).
- the outer shape information acquisition unit 113 acquires a maximum of two connection points between the living body parts.
- FIG. 8 shows an example in which two connection points are separated by “,” and stored in each connection point of the registration data storage unit 120.
- the connection point is “finger 1” corresponding to the user ID “AAA” in FIG. “C11, C12” is stored.
- the connection point is acquired as the connection point “C33, ⁇ ” of “finger 2” corresponding to the user ID “BBB” in FIG. “ ⁇ ” Is stored for connection points that did not exist.
- “C11”, “C33”, and the like stored in the connection point of the registered data storage unit 120 actually indicate the position information (coordinates) of the connection point.
- the outline information acquisition unit 113 can take the correspondence between the outline information for registration and the outline information for authentication. It is determined whether or not (step S410).
- the outer shape information acquisition unit 113 acquires the outer shape information for registration corresponding to the user ID received at the start of the authentication process from the registration data storage unit 120.
- the outer shape information acquisition unit 113 compares the outer shape information for registration with the outer shape information for authentication acquired in steps S404 to S407 in the authentication mode, and includes two or more pieces of predetermined outer shape information regarding the same living body part. It is determined whether or not.
- the outline information acquisition unit 113 according to the first embodiment determines whether or not both outline information includes at least two connection points in the outline information of the same finger.
- the outer shape information acquisition unit 113 calculates, for example, the position of the finger relative to the palm and the angle of the finger relative to the palm using the outer shape information for registration, and the outer shape information for registration based on the calculated position and angle.
- the type of finger included in the is identified.
- the outer shape information acquisition unit 113 identifies the type of finger included in the outer shape information for authentication.
- the outline information acquisition unit 113 can determine whether or not the outline information for the same finger is included in both the outline information for registration and the outline information for authentication.
- the outline information acquisition unit 113 is not limited to this example, and the outline information acquisition unit 113 associates the outline information for registration with the outline information for authentication by using a matching method such as shape context matching, so that both outline information are related to the same finger. It can be determined whether or not outline information is included.
- the outline information acquisition unit 113 performs error processing such as terminating the authentication process (Step S410). S403).
- the outline information acquisition unit 113 ends the outline information acquisition process.
- both the registration outline information and the authentication outline information do not include two connection points of the same finger.
- the registration outline information includes two connection points “C41, C42” that connect the palm and the index finger, but the authentication outline information connects the palm and the index finger. Only one connection point “C43” is included.
- the outline information acquisition unit 113 determines “no correspondence”. .
- the external shape information for registration includes two connection points “C51, C52” for connecting the palm and the index finger
- the external shape information for authentication includes 2 for connecting the palm and the index finger.
- the connection points “C53, C54” are included.
- the outline information acquisition unit 113 determines that “there is correspondence”.
- the alignment unit 131 described later aligns the palm region using the registration outline information and the authentication outline information.
- the outer shape information acquisition unit 113 determines the presence / absence of a finger region in order to determine whether the palm region is a biometric image that can be aligned.
- the biometric authentication device 100 can end the registration process and the authentication process before performing the non-common area specifying process when the biometric image is incomplete. The processing load can be reduced.
- FIG. 15 is a flowchart illustrating an example of the non-common area specifying process by the alignment unit 131 according to the first embodiment.
- the alignment unit 131 compares the registration outline information stored in the registration data storage unit 120 with the outline information for authentication, thereby including the same outline information included in both of the outline information.
- Outline information about the living body part is acquired (step S501).
- the alignment unit 131 calculates the position and angle of the finger with respect to the palm, or uses a matching method such as shape context matching, similar to the outline information acquisition unit 113 described above, thereby registering outline information and authentication.
- the same finger included in the external shape information can be specified.
- the outline information for registration includes outline information regarding “palm”, “thumb”, “index finger”, and “wrist”, and the outline information for authentication includes “palm”. ”,“ Index finger ”,“ middle finger ”,“ ring finger ”, and“ little finger ”. Therefore, in the case of this example, the alignment unit 131 acquires the outer shape information about “palm” and the outer shape information about “index finger” from both the outer shape information for registration and the outer shape information for authentication.
- the outer shape information for authentication includes a part of the outer shape information related to “thumb”. However, since there is only one connection point and the information is incomplete, the alignment unit 131 uses the outer shape information related to “thumb”. Do not get information.
- the alignment unit 131 extracts position information of the same side surface included in both circumscribed rectangles from the circumscribed rectangle of “palm” included in the outer shape information for registration and the outer shape information for authentication (step S502). .
- the alignment unit 131 extracts “a side surface between the index finger and the thumb”, “a side surface between the thumb and the wrist”, and “a side surface between the little finger and the wrist”.
- the area between the connection point C13 and the connection point C12 corresponds to the “side surface between the index finger and the thumb”, and the area between the connection point C11 and the connection point C21. It corresponds to “a side surface between the thumb and the wrist”, and between the connection point C20 and the connection point C22 corresponds to “a side surface between the little finger and the wrist”.
- the alignment unit 131 extracts the position information of the same side from both circumscribed rectangles.
- the alignment unit 131 extracts the “side surface between the index finger and the thumb” from the circumscribed rectangle for registration, and similarly, from the circumscribed rectangle for authentication, the position between the index finger and the thumb. Extract side.
- the alignment unit 131 determines the alignment method according to the combination of the external shape information of the living body part acquired in steps S501 and S502 (step S503). Specifically, as described below, the alignment unit 131 uses “angle parameter” and “scaling parameter” as parameters for aligning the palm region in the registration image and the palm region in the authentication image. And “translation parameter” are calculated.
- the “angle parameter” is a parameter for matching the angles of both palm regions.
- the “scaling parameter” is a parameter for matching the sizes of both palm regions.
- the “translation parameter” is a parameter for matching the positions of both palm regions.
- FIG. 15 as an example of the alignment method, only “one finger outline information” is acquired in steps S501 and S502, and “one finger outline information” and “one finger outline information” The case where the “side surface” is acquired will be described.
- the alignment unit 131 acquires two points included in the registration finger outline information.
- the angle between the line segment connecting the connection points (referred to as “line segment X1”) and the two connection points included in the outline information of the finger for authentication (referred to as “line segment X2”) is referred to as “angle parameter”. "(Step S504).
- the alignment unit 131 calculates the angle formed by the line segment X1 and the line segment X2 as an “angle parameter”.
- the alignment unit 131 calculates a scale where the lengths of the line segment X1 and the line segment X2 are substantially the same as the “scaling parameter” (step S505). Further, the alignment unit 131 calculates a movement vector for matching the positions of the registration connection point and the authentication connection point as a “parallel movement parameter” (step S506).
- steps S504 to S506 an example in which each parameter is calculated individually has been shown, but the alignment unit 131 can also calculate each parameter in a lump by using affine transformation.
- step S503 when the alignment unit 131 acquires “one finger outline information” and “one side face” (step S503: one finger outline information + 1 side face), a line In addition to the inclination of the segment X1 and the line segment X2, the side surface (referred to as “side surface Y1”) acquired from the external shape information for registration and the side surface acquired from external information for authentication (referred to as “side surface Y2”). ) And the “angle parameter” is calculated (step S507). For example, the alignment unit 131 calculates an average of the inclination of the line segment X1 and the line segment X2 and the inclination of the side surface Y1 and the side surface Y2 as an “angle parameter”.
- the alignment unit 131 calculates, as a “scaling parameter”, a scale in which the lengths of the line segment X1 and the line segment X2 are approximately the same, and the lengths of the side surface Y1 and the side surface Y2 are approximately the same (Ste S508).
- the alignment unit 131 calculates, as the “parallel movement parameter”, a movement vector that matches the positions of both the connection points and further matches the positions of the side surface Y1 and the side surface Y2 (step S509).
- the alignment unit 131 aligns the palm region in the registration image and the palm region in the authentication image (step S510). ).
- the alignment unit 131 can specify the palm region in the registration image based on the position information stored in the “contour” of the “palm” in the registration data storage unit 120.
- the alignment unit 131 identifies a difference area between the palm area in the registration image and the palm area in the authentication image as a non-common area (step S511).
- FIG. 16 shows a palm region R21 for registration and a palm region R22 for authentication.
- the alignment unit 131 aligns the palm region R21 and the palm region R22 as shown in the lower part of FIG.
- the alignment unit 131 identifies a non-common area R32 that exists only in the palm area R21.
- the alignment unit 131 identifies a non-common region R33 that exists only in the palm region R22.
- the alignment unit 131 may further specify a common region R31 that overlaps both the palm region R21 and the region R22.
- the alignment method in the case where only “one finger outline information” is acquired, “one finger outline information”, and “one side face”.
- the registration method in the case where “ However, the alignment unit 131 selects an alignment method other than the above example according to the combination of the outline information acquired in steps S501 and S502.
- alignment methods other than the above example will be described.
- the alignment unit 131 has acquired “five-finger contour information” from the contour information for registration and authentication in step S501. In such a case, for example, the alignment unit 131 calculates various parameters such that the connection points (total 10 points) of each finger match.
- the alignment unit 131 has acquired “five finger outline information” and “one side” in steps S501 and S502.
- the alignment unit 131 extracts, for example, “one finger outline information” from “five finger outline information”, and includes two points included in the extracted registration finger outline information.
- the angle between the line segment connecting the connection points (referred to as “line segment X3”) and the two connection points included in the outer shape information of the finger for authentication (referred to as “line segment X4”) to “angle” Calculated as “parameter”.
- the alignment unit 131 calculates the inclination between the side surface Y1 and the side surface Y2 as an “angle parameter”.
- the alignment unit 131 sets either one as the “angle parameter” used for alignment, or sets both of the “angle parameters”.
- the average value is an “angle parameter” used for alignment.
- the alignment unit 131 obtains another “one finger outline information” from the “five finger outline information”. Extract and perform the same process as in the above example.
- the alignment unit 131 has acquired a contour or a circumscribed rectangle in which the upper and lower ends and the left and right ends of the palm are not missing in step S501.
- the alignment unit 131 has acquired a palm outline or circumscribed rectangle such that the entire palm is located within the opening of the guide G1.
- the alignment unit 131 calculates various parameters such that the upper and lower ends and the left and right ends of the palm match.
- the alignment unit 131 selects an alignment method that uses as much as possible each piece of external shape information acquired in steps S501 and S502.
- the registration unit 131 matches the palm region for registration and the authentication so that points (for example, connection points) and lines (for example, side surfaces, contours, circumscribed rectangles), which are each outline information that can be acquired, coincide with each other. Align with the palm area.
- the alignment part 131 can improve the alignment precision of a palm area, so that many types and the number of the same external shape information are acquired.
- FIG. 17 is a flowchart illustrating an example of a collation process performed by the collation unit 132 according to the first embodiment.
- the collation unit 132 acquires a registration vein pattern corresponding to the user ID received at the start of the authentication process from the registration data storage unit 120 (step S601). .
- the collation unit 132 applies the registration vein pattern acquired in step S601 and the authentication vein pattern extracted by the biometric information extraction unit 114 to the non-common area specified by the alignment unit 131.
- the matching processing weight is lowered for the vein segment located (step S602). Specifically, the collation unit 132 lowers the weight of the collation processing in the vein segments located in the non-common area rather than the vein segments located in the common area.
- the collation unit 132 collates the registration vein pattern with the authentication vein pattern in consideration of the weight (step S603). Specifically, when the verification unit 132 determines authentication success / failure, the collation unit 132 places more importance on the matching degree of the vein pattern in the common area than the matching degree of the vein pattern in the non-common area. For example, when the verification unit 132 determines whether or not the authentication has succeeded by determining whether or not the matching degree of the vein pattern is equal to or higher than a predetermined verification threshold value, the verification unit 132 corresponds to the non-common area rather than the verification threshold value corresponding to the common area. Reduce the matching threshold.
- the collation unit 132 displays the authentication result on a display unit (for example, a display) (not shown), transmits the authentication result to the imaging device 50, or records the authentication result in a log.
- a display unit for example, a display
- the collation unit 132 reduces the weight of the collation processing in the vein segment located in the non-common area.
- the present invention is not limited to this example.
- the collation unit 132 may reduce the weight of the entire vein segment including the portion located in the common area for the vein segment straddling the common area and the non-common area only partly in the non-common area. Good.
- the collation unit 132 may set a stepwise value for the weight of the non-common area. For example, the collation unit 132 may set a larger weight for a vein segment located in a region close to the common region among non-common regions, and set a smaller weight for a vein segment located in a region far from the common region. That is, even if the collation unit 132 reduces the weight of the non-common area, the non-common area close to the common area may be more important than the non-common area far from the common area. Good. By doing so, the collation unit 132 improves the authentication accuracy even when the common region exists in the non-common region due to an error in the palm region alignment accuracy by the alignment unit 131 or the like. Can do.
- the collation unit 132 may change the weight set for the non-common region in accordance with the area ratio between the common region and the non-common region. Specifically, if the weight of the non-common area is too low, the authentication result depends on the common area having a small area. For this reason, when the area ratio of the non-common area to the common area is large, even if it should be an authentication failure, the authentication succeeds if the vein pattern coincides in the common area with a small area. On the other hand, when the area ratio of the non-common area to the common area is small, it is expected that a highly accurate authentication result can be obtained by using only the vein pattern in the common area having a large area. For this reason, the matching unit 132 may set a larger value for the weight of the non-common region when the area ratio of the non-common region is large than when the area ratio of the non-common region is small. Good.
- the registration unit 131 extracts biometric information for registration using the external shape information for registration and the external shape information for authentication.
- a non-common area that is a difference between the area and the area from which the biometric information for authentication is extracted is specified.
- the collation unit 132 collates the biometric information for registration with the biometric information for authentication by lowering the weight of the non-common region specified by the alignment unit 131 to be lower than that of the common region.
- the biometric authentication device 100 reduces the weight of the non-common area even when the entire palm is not placed in the opening of the guide G1 at the time of registration or authentication.
- the authentication rate can be improved by performing. For example, even if the biometric authentication device 100 is a system that re-inputs biometric information when authentication fails, the authentication rate can be improved, and thus the user can be prevented from inputting biometric information authentication data many times. As a result, usability can be improved.
- the biometric authentication device 100 collates the biometric information for registration by reducing the weight of the non-common area, so that it is not necessary for the user to register the biometric information with high accuracy, thereby improving usability. Can do.
- the outer shape information acquisition unit 113 acquires outer shape information about the outer shape of the living body part for each living body part forming the living body, and the outer shape information for registration and the authentication are used. It is determined whether or not two or more pieces of predetermined external shape information regarding the same living body part are included in both external shape information.
- the alignment unit 131 uses the predetermined outer shape information to extract a palm region from which biometric information for registration is extracted. The non-common area is specified after aligning the palm area from which the biometric information for authentication is extracted.
- the collation unit 132 performs collation processing when a non-common area is specified by the alignment unit 131.
- the biometric authentication device 100 can determine whether or not the palm image is a biometric image in which the palm region can be aligned. Registration processing and authentication processing can be terminated before the non-common area specifying processing is performed by the unit 131. As a result, the registration processing and authentication processing can be speeded up and the processing load can be reduced.
- the alignment unit 131 is configured according to a combination of outer shape information related to the same biological part included in both the outer shape information for registration and the outer shape information for authentication. Change the alignment process.
- the biometric authentication device 100 can select an optimal alignment method.
- the biometric authentication device 100 performs the alignment process even when only the minimum external shape information (two connection points connecting the palm and the finger) can be acquired as the external information related to the same biological part. be able to.
- the biometric authentication device 100 selects a registration method that uses as much external information about the same biological part as possible, and the more the external information about the same biological part is acquired, the higher the registration accuracy of the palm region. As a result, the authentication accuracy can be improved.
- the gap determination unit 112 determines whether or not the biometric area included in the biometric image is smaller than a predetermined threshold.
- the outline information acquisition unit 113 acquires outline information when the gap determination unit 112 determines that the living body area is smaller than a predetermined threshold.
- the biometric information extraction unit 114 extracts biometric information when the gap determination unit 112 determines that the biometric area is smaller than a predetermined threshold.
- the biometric authentication apparatus 100 can determine whether or not the external shape information can be acquired by the external shape information acquisition unit 113, the biometric image is incomplete.
- the registration process and the authentication process can be terminated before the outline information acquisition unit 113 performs the outline information acquisition process.
- the registration process and the authentication process can be speeded up and the processing load can be reduced. it can.
- the biometric authentication device 100 described above may be implemented in various different forms other than the first embodiment. In the second embodiment, another embodiment of the biometric authentication device 100 will be described.
- the biometric authentication apparatus 100 performs the vein authentication using the “palm vein pattern” as the biometric information.
- the biometric authentication device 100 is not limited to vein authentication, and biometric information includes “palm print”, “vein on the back of the hand”, “print on the back of the hand”, “outside of the hand”, “outside of the finger”, “ Biometric authentication using “foot veins”, “foot prints”, “wrist veins”, “wrist prints”, “wrist outlines”, “finger joint wrinkles (knuckle authentication)”, etc.
- the present invention can also be applied to multi-biometric authentication combining biometric information.
- the biometric authentication device 100 performs one-to-one authentication.
- the biometric authentication device 100 is not limited to one-to-one authentication, and can be applied to one-to-N authentication that does not require input of a user ID.
- the biometric authentication device 100 does not perform the process in step S102 illustrated in FIG. 9 or the process in step S202 illustrated in FIG. 10 when performing one-to-N authentication.
- the biometric authentication apparatus 100 may perform the authentication process illustrated in FIG. 10 as temporary authentication when performing two-step authentication of temporary authentication and main authentication.
- FIG. 18 is a flowchart illustrating an example of authentication processing by the biometric authentication device 100 according to the second embodiment.
- the biometric authentication device 100 performs, for example, the authentication process illustrated in FIG. 10 with a high success rate as temporary authentication (step S701), and when the temporary authentication is successful, the weight of the non-common area
- the main authentication may be performed in which the verification process is performed without lowering (step S702).
- the biometric authentication device 100 performs a process with a high processing load in the main authentication, for example, performing a strict alignment in consideration of a palm bulge or the like. By performing temporary authentication with a high success rate, the biometric authentication device 100 can narrow down the users who are the targets of the main authentication with a high processing load, and can reduce the load on the authentication processing.
- the external shape information acquisition part 113 which concerns on the said 1st Embodiment may detect the positional information regarding foreign materials, such as a ring and a bandage, as external shape information.
- the outer shape information acquisition unit 113 detects a foreign object such as a ring by performing edge detection or the like. Accordingly, the alignment unit 131 performs the alignment process by excluding the foreign substance region, and the collation unit 132 performs the verification process by excluding the foreign substance region.
- the outline information acquisition unit 113 does not have to acquire all the outline information shown in FIG.
- the outline information acquisition unit 113 may not acquire “finger outline”, “finger circumscribed rectangle”, “wrist outline”, “wrist circumscribed rectangle”, and the like.
- the biometrics apparatus 100 showed the example which performs a registration process (FIG. 9) and an authentication process (FIG. 10).
- the biometric authentication device 100 may perform only the authentication process.
- the biometric authentication device 100 may perform only authentication processing.
- each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated.
- the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions.
- the image processing unit 111, the gap determination unit 112, the external shape information acquisition unit 113, the biological information extraction unit 114, the alignment unit 131, or the collation unit 132 have different devices, respectively, and are connected via a network to cooperate.
- the functions of the biometric authentication device 100 may be realized.
- 100 may include a registration data acquisition unit that acquires external information and biometric information from the registration data storage unit 120 at the start of registration processing or authentication processing.
- Biometric authentication program it is possible to create a program in which processing executed by the biometric authentication device 100 described in the above embodiment is described in a language that can be executed by a computer.
- a biometric authentication program in which processing executed by the biometric authentication device 100 is described in a language that can be executed by a computer can be created.
- the computer executes the biometric authentication program, the same effect as that of the above embodiment can be obtained.
- the biometric authentication program is recorded on a computer-readable recording medium, and the biometric authentication program recorded on the recording medium is read by the computer and executed, thereby realizing the same processing as in the above embodiment. Also good.
- an example of a computer that executes a biometric authentication program that realizes the same function as the biometric authentication device 100 illustrated in FIG. 7 will be described.
- FIG. 19 is a diagram illustrating an example of a computer that executes a biometric authentication program.
- the computer 1000 includes an operation unit 1100, a display 1200, and a communication unit 1300.
- the computer 1000 further includes a CPU 1500, a ROM 1600, an HDD 1700, and a RAM 1800. These units are connected via a bus 1400.
- the HDD 1700 includes the image processing unit 111, the gap determination unit 112, the external shape information acquisition unit 113, the biometric information extraction unit 114, the alignment unit 131, and the collation unit 132 described in the first embodiment.
- a biometric authentication program 1700a that exhibits the same function as is stored in advance.
- the CPU 1500 reads the biometric authentication program 1700a from the HDD 1700 and expands it in the RAM 1800. Accordingly, as shown in FIG. 19, the biometric authentication program 1700a functions as a biometric authentication process 1800a.
- the biometric authentication process 1800a expands various data read from the HDD 1700 in the area allocated to itself on the RAM 1800 as appropriate, and executes various processes based on the expanded various data.
- the biometric authentication program 1700a is not necessarily stored in the HDD 1700 or the ROM 1600 from the beginning.
- each program is stored in a portable physical medium such as a flexible disk inserted into the computer 1000, so-called FD, CD-ROM, DVD disk, magneto-optical disk, and IC card. Then, the computer 1000 may acquire and execute each program from these portable physical media.
- Each program is stored in another computer or server device connected to the computer 1000 via a public line, the Internet, a LAN, a WAN, etc., and the computer 1000 acquires and executes each program from these. It may be.
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、生体認証装置、生体認証プログラム及び生体認証方法に関する。
従来、人体の生体情報を用いて生体認証を行う生体認証システムが利用されている。生体認証に用いられる生体情報の例としては、静脈、指紋、虹彩等が挙げられる。このような生体認証システムは、登録データとして利用者から生体情報を予め取得しておき、認証時に認証データとして利用者から生体情報を取得し、登録データと認証データとを照合することにより認証を行う。かかる生体認証システムは、認証に失敗した際に、認証データを再度入力するよう利用者に促す場合がある。
近年では、認証データの再入力を減らすための技術が知られている。例えば、指紋認証の分野において、認証失敗を示す認証結果が得られた場合に、入力指紋画像と登録指紋画像とが最も重複するときの重複面積と、最も重複するときの入力指紋画像および登録指紋画像の一致度合いを示した類似度とを用いて、入力指紋画像の再入力を要求すべきか否かを判定する技術が知られている。
しかしながら、上記の従来技術では、認証率が高いとは限らなかった。この点について、図1を用いて説明する。図1は、参考例に係る生体認証システムによる認証処理の一例を示す図である。図1の上段では登録データの一例を示し、図1の下段では認証データの一例を示す。
図1に示したガイドG1は、利用者の手U1を支持するとともに、利用者に撮像位置を誘導する。参考例に係る生体認証システムは、例えば、ガイドG1に置かれた手U1の撮像画像P1から認証対象となる認証画像P2を取得し、取得した認証画像P2から抽出した生体情報を登録データとして保持する。また、参考例に係る生体認証システムは、認証処理を行う場合に、ガイドG1に置かれた手U1の撮像画像P3のうち認証画像P4から生体情報を認証データとして抽出する。そして、参考例に係る生体認証システムは、登録データと認証データとを照合する。
ここで、図1に示すように、利用者は、登録時及び認証時においてガイドG1の同一位置に手U1を置くとは限らない。このため、認証画像P2と認証画像P4との領域は異なる場合があるので、利用者が手U1を置く位置によっては、登録時及び認証時において抽出される生体画像が異なり、参考例に係る生体認証システムによる認証率が低下する。例えば、参考例に係る生体認証システムが認証失敗時に認証データを再入力させる場合には、認証率が低いと利用者に認証データを何度も入力させる結果、ユーザビリティ(usability)の低下を招くこととなる。
開示の技術は、上記に鑑みてなされたものであって、認証率を向上させることができる生体認証装置、生体認証プログラム及び生体認証方法を提供することを目的とする。
本願の開示する生体認証装置は、一つの態様において、生体が撮像された第1生体画像から取得された当該生体の外形に関する第1外形情報と、前記第1生体画像のうち当該生体の特徴を示す領域から抽出された第1生体情報とを記憶する記憶部から、前記第1外形情報及び前記第1生体情報を取得する登録データ取得部と、第2生体画像から第2外形情報を取得する外形情報取得部と、前記第2生体画像から第2生体情報を抽出する抽出部と、前記第1外形情報及び前記第2外形情報の双方に含まれる同一の生体部位に関する外形情報の組合せに応じて選択した所定の方式で、前記第1生体情報が抽出された領域と前記第2生体情報が抽出された領域とを位置合わせする位置合わせ部と、前記位置合わせ部によって位置合わせされた前記第1生体情報と前記第2生体情報とを照合する照合部と、を備える。
本願の開示する生体認証装置、生体認証プログラム及び生体認証方法の一つの態様によれば、認証率を向上させることができるという効果を奏する。
以下に、本願の開示する生体認証装置、生体認証プログラム及び生体認証方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願の開示する生体認証装置、生体認証プログラム及び生体認証方法が限定されるものではない。また、実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略される。また、以下の実施形態では、生体認証として、生体情報「手のひらの静脈パターン」を用いた静脈認証を例に挙げて説明する。また、以下の実施形態では、主に「1対1認証」を例に挙げて説明する。
(第1の実施形態)
[生体認証システムの構成]
図2は、第1の実施形態に係る生体認証システムの構成例を示す図である。図2に例示した生体認証システム1では、情報処理装置10と、認証サーバ20と、組込装置31と、ドア32とが、ネットワーク40を介して接続される。
[生体認証システムの構成]
図2は、第1の実施形態に係る生体認証システムの構成例を示す図である。図2に例示した生体認証システム1では、情報処理装置10と、認証サーバ20と、組込装置31と、ドア32とが、ネットワーク40を介して接続される。
情報処理装置10は、例えば、PC(Personal Computer)等であり、撮像装置50及びリーダライタ61と接続される。撮像装置50は、利用者の手を撮像することで生体画像を生成する。情報処理装置10は、撮像装置50によって生成された生体画像から手のひらの静脈パターンを抽出する。リーダライタ61は、ICカード(Integrated Circuit card)62から情報を読み取る。かかるICカード62は、利用者の静脈パターン等を登録データとして記憶する。
例えば、利用者は、情報処理装置10にログオンする場合に、撮像装置50に手をかざすとともに、リーダライタ61にICカード62を挿入する。かかる場合に、情報処理装置10は、撮像装置50によって生成された生体画像から得られる静脈パターンと、ICカード62に登録データとして記憶されている静脈パターンとを照合する。そして、情報処理装置10は、認証に成功した場合に、利用者のログオンを許可する。
認証サーバ20は、利用者の静脈パターンを登録データとして記憶する。また、認証サーバ20は、認証要求を受信した場合に、登録データを用いて認証処理を行い、認証結果を認証要求の送信元に応答する。
組込装置31は、例えば、入退室装置等に組み込まれ、撮像装置70と接続される。撮像装置70は、撮像装置50と同様に、利用者の手を撮像して生体画像を生成する。ドア32は、組込装置31の近傍に設置され、かかる組込装置31によって開錠される。
例えば、利用者は、ドア32を開錠する場合に、利用者を識別するための利用者IDを撮像装置70に入力するとともに、撮像装置70に手をかざす。かかる場合に、組込装置31は、利用者IDと撮像装置70によって生成された生体画像とを含む認証要求を認証サーバ20に送信する。認証サーバ20は、組込装置31から受信した利用者IDに対応する静脈パターンと、組込装置31から受信した生体画像から得られる静脈パターンとを照合し、認証成否を組込装置31に応答する。そして、組込装置31は、認証サーバ20から認証成功が応答された場合には、ドア32を開錠し、認証サーバ20から認証失敗が応答された場合には、ドア32を開錠しない。
なお、生体認証システム1による認証形態は、上記例に限られない。例えば、情報処理装置10は、認証処理を行わずに、認証要求を認証サーバ20に送信することで、認証サーバ20に認証処理を行わせてもよい。さらに、情報処理装置10は、生体画像を含む認証要求を認証サーバ20に送信することで、認証処理だけでなく、静脈パターンを抽出する処理についても認証サーバ20に行わせてもよい。また、組込装置31は、認証サーバ20に認証要求を送信せずに、自装置である組込装置31内で認証処理を行ってもよい。
また、認証サーバ20は、物理装置であってもよいし、1以上の物理装置によって計算資源が提供されるクラウドサーバであってもよい。また、組込装置31は、ATM(Automatic Teller Machine)等に組み込まれる装置であってもよい。
[撮像装置の構成]
次に、図2に示した撮像装置50及び70について説明する。なお、撮像装置50及び70は、同様の構成を有するので、以下では撮像装置50について説明する。図3は、第1の実施形態に係る撮像装置50の横断面を模式的に示す図である。図4は、図3に示したA矢視を模式的に示す図である。
次に、図2に示した撮像装置50及び70について説明する。なお、撮像装置50及び70は、同様の構成を有するので、以下では撮像装置50について説明する。図3は、第1の実施形態に係る撮像装置50の横断面を模式的に示す図である。図4は、図3に示したA矢視を模式的に示す図である。
図3及び図4に示した例では、ガイドG1は、底壁G11と、底壁G11の周縁部から略垂直方向に延伸した側壁G12とにより形成される。側壁G12は、底壁G11と対向する位置が開放された開口部を形成する。このようなガイドG1は、側壁G12の縁により利用者の手U1を支持することで、撮像装置50の撮像位置に手U1を誘導する。撮像装置50は、底壁G11に設けられ、開口部を撮像する。
図5は、第1の実施形態に係る撮像装置50の構成例を示す図である。図5に示すように、撮像装置50は、撮像部51と、通信部52と、記憶部53と、制御部54とを有する。
撮像部51は、例えば、照明51a、レンズ51b及びカメラ51cによって実現される。照明51aは、開口部に位置する撮像対象物である手U1に対して、近赤外線を発光する。レンズ51bは、手U1により反射された近赤外線を結像する。カメラ51cは、レンズ51bにより結像される近赤外線を受光するイメージセンサを有し、かかるイメージセンサにより受光された結像から生体画像を生成する。
通信部52は、例えば、通信ポート52aによって実現される。通信ポート52aは、他の装置との間で通信を行う。例えば、通信ポート52aは、撮像部51によって生成された生体画像を情報処理装置10に送信する。
記憶部53は、例えば、記憶装置53aによって実現される。記憶装置53aは、生体画像等の各種情報を記憶する。かかる記憶装置53aは、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)である。
制御部54は、例えば、制御装置54aによって実現される。制御装置54aは、照明51a、カメラ51c、通信ポート52a、記憶装置53aを制御する。かかる制御装置54aは、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)である。
ここで、図6に、撮像装置50によって生成される生体画像の一例を示す。図6に示すように、撮像装置50は、近赤外線を手U1に照射することで、手U1の静脈パターン像P11が描出された生体画像P10を生成する。なお、生体画像P10の周縁部に描出されている斜線を付した領域は、ガイドG1の側壁G12に該当する。
上述した撮像装置50は、利用者によって生体情報(ここでは、静脈パターン)の登録を開始する旨の操作が行われた場合と、認証を開始する旨の操作が行われた場合との双方において、図6に例示したような生体画像を生成する。以下では、登録操作時に生成される生体画像を「登録用画像」と表記し、認証操作時に生成される生体画像を「認証用画像」と表記する場合がある。
[生体認証装置の構成]
次に、第1の実施形態に係る生体認証装置について説明する。図7は、第1の実施形態に係る生体認証装置の構成例を示す図である。図7に示した生体認証装置100は、図2に示した情報処理装置10、認証サーバ20、組込装置31のいずれであってもよい。第1の実施形態では、生体認証装置100が、情報処理装置10であるものとして説明する。
次に、第1の実施形態に係る生体認証装置について説明する。図7は、第1の実施形態に係る生体認証装置の構成例を示す図である。図7に示した生体認証装置100は、図2に示した情報処理装置10、認証サーバ20、組込装置31のいずれであってもよい。第1の実施形態では、生体認証装置100が、情報処理装置10であるものとして説明する。
生体認証装置100は、静脈パターンの登録処理を行う「登録モード」と、静脈パターンを用いた認証処理を行う「認証モード」とにより動作する。かかる生体認証装置100は、図7に示すように、画像処理部111と、隙間判定部112と、外形情報取得部113と、生体情報抽出部114と、登録データ記憶部120と、位置合わせ部131と、照合部132とを有する。
画像処理部111、隙間判定部112、外形情報取得部113及び生体情報抽出部114は、登録モード及び認証モードの双方において、以下に説明する各種処理を行う。また、位置合わせ部131及び照合部132は、認証モードにおいて、以下に説明する各種処理を行う。
画像処理部111は、撮像装置50によって生成された生体画像に対して画像処理を施す。例えば、画像処理部111は、生体画像から、手が描出されている手領域の位置情報と、手のひらが描出されている手のひら領域の位置情報とを抽出する。
隙間判定部112は、画像処理部111によって取得された手領域の位置情報を用いて、生体画像に描出されているガイドG1の開口部における外縁と、手領域との間に所定値以上の隙間が存在するか否かを判定する。
外形情報取得部113は、画像処理部111によって取得された手領域及び手のひら領域の位置情報を用いて、生体画像から生体の外形に関する外形情報を取得する。具体的には、外形情報取得部113は、生体「手」を形成する生体部位「手のひら」、「指」、「手首」毎に、各生体部位の外形情報を取得する。そして、外形情報取得部113は、生体認証装置100が登録モードにより動作している場合には、登録用画像から取得した各種外形情報を登録データ記憶部120に格納する。
生体情報抽出部114は、撮像装置50によって生成された生体画像のうち生体の特徴を示す領域から生体情報を抽出する。第1の実施形態に係る生体情報抽出部114は、生体画像の手のひら領域から、かかる手のひら領域に描出されている静脈像を線図形化した静脈セグメント群を静脈パターンとして抽出する。例えば、生体情報抽出部114は、図6に示した例のように、直線や曲線の静脈セグメント群を静脈パターンとして抽出する。
登録データ記憶部120は、生体の外形情報及び生体情報を登録データとして記憶する。図8に、第1の実施形態に係る登録データ記憶部120の一例を示す。図8に示した例では、登録データ記憶部120は、「利用者ID」毎に、「外形情報」と「生体情報」とを対応付けて記憶する。
「利用者ID」は、利用者を識別するための識別情報である。例えば、利用者IDは、図2に示したICカード62等に記憶される。
「外形情報」は、外形情報取得部113によって格納される情報であり、生体部位「手のひら」、「指N(Nは、1~5)」、「手首」に区分けされる。そして、「手のひら」には「輪郭」と「外接矩形」とが記憶され、「指N」には「輪郭」と「外接矩形」と「接続点」とが記憶され、同様に、「手首」には「輪郭」と「外接矩形」と「接続点」とが記憶される。なお、「指N」の「接続点」は、手のひらと指とを接続する接続点の位置情報を示し、「手首」の「接続点」は、手のひらと手首とを接続する接続点の位置情報を示す。なお、登録データ記憶部120に記憶される各種外形情報については後述する。
「生体情報」は、生体情報抽出部114によって抽出された静脈パターンを記憶する。かかる「生体情報」には、数値化された静脈パターンの情報が記憶されてもよいし、静脈パターンが描出された手のひら領域の生体画像が記憶されてもよい。なお、図8では、表記を簡略化するために、静脈パターンを「F10」や「F20」等の符号により表記している。
図7に戻り、位置合わせ部131は、登録データ記憶部120に記憶されている外形情報と、認証時に外形情報取得部113によって取得された外形情報との双方に含まれる同一の生体部位に関する外形情報の組合せに応じて所定の位置合わせ方式を選択し、選択した方式より、登録用画像における手のひら領域と認証用画像における手のひら領域との位置合わせを行う。さらに、位置合わせ部131は、登録用画像における手のひら領域と認証用画像における手のひら領域との差異の領域である非共通領域を特定する。なお、以下では、登録データ記憶部120に記憶されている外形情報を「登録用の外形情報」と表記し、認証時に外形情報取得部113によって取得される外形情報を「認証用の外形情報」と表記する場合がある。
照合部132は、位置合わせ部131によって位置合わせされた登録用画像及び認証用画像から抽出された双方の生体情報を照合する。このとき、照合部132は、位置合わせ部131によって特定された非共通領域の重みを下げて、登録データ記憶部120に記憶されている静脈パターンと、認証時に生体情報抽出部114により抽出された静脈パターンとを照合する。なお、以下では、登録データ記憶部120に記憶されている静脈パターンを「登録用の静脈パターン」と表記し、認証時に生体情報抽出部114により抽出される静脈パターンを「認証用の静脈パターン」と表記する場合がある。
ここで、図7では、生体認証装置100が登録データ記憶部120を有する例を示しているが、登録データ記憶部120は、生体認証装置100以外の他のストレージ装置等によって保持されてもよい。
なお、図7に示した画像処理部111、隙間判定部112、外形情報取得部113、生体情報抽出部114、位置合わせ部131及び照合部132は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。また、図7に示した登録データ記憶部120は、ハードディスク、光ディスク、又は、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子によって実現される。
[登録処理手順]
次に、第1の実施形態に係る生体認証装置100による各処理手順について説明する。まず、生体認証装置100による生体情報の登録処理について説明する。図9は、第1の実施形態に係る生体認証装置100による登録処理の一例を示すフロー図である。
次に、第1の実施形態に係る生体認証装置100による各処理手順について説明する。まず、生体認証装置100による生体情報の登録処理について説明する。図9は、第1の実施形態に係る生体認証装置100による登録処理の一例を示すフロー図である。
図9に示すように、生体認証装置100は、生体情報の登録処理を開始するか否かを判定する(ステップS101)。例えば、生体認証装置100は、利用者によって生体情報を登録する旨の操作が行われたか否かを判定する。
そして、生体認証装置100は、登録処理を開始する場合には(ステップS101肯定)、図示しない入力部(例えば、キーボード)等を介して利用者IDを受け付ける(ステップS102)。また、生体認証装置100は、撮像装置50から登録用画像を受信する(ステップS103)。
続いて、生体認証装置100の画像処理部111は、ステップS103において受信された登録用画像から、手領域及び手のひら領域の位置情報を抽出する(ステップS104)。
具体的には、画像処理部111は、登録用画像から、手が描出されている手領域と、手のひらが描出されている手のひら領域とを抽出する。例えば、画像処理部111は、登録用画像に対してエッジ検出やパターンマッチング等を行うことにより、手領域と手のひら領域とを抽出する。そして、画像処理部111は、手領域の位置情報と、手のひら領域の位置情報とを取得する。かかる手領域の位置情報は、生体画像において手を描出している各画素の位置情報の集合により形成される。また、手のひら領域の位置情報は、生体画像において手のひらを描出している各画素の位置情報の集合により形成される。なお、画像処理部111は、例えば、生体画像内の所定位置(例えば、生体画像の四隅のいずれか)を原点として各画素をXY座標で表した情報を位置情報として取得する。
続いて、隙間判定部112は、隙間判定処理を行う(ステップS105)。かかる隙間判定処理については図11を用いて後述する。
続いて、外形情報取得部113は、外形情報取得処理を行う(ステップS106)。この外形情報取得処理において、外形情報取得部113は、外形情報を登録データ記憶部120に格納する。かかる外形情報取得処理については図12を用いて後述する。
続いて、生体情報抽出部114は、登録用画像の手のひら領域から静脈パターンを抽出し、抽出した静脈パターンを登録データ記憶部120に格納する(ステップS107)。このとき、生体情報抽出部114は、ステップS102において受け付けた利用者IDに対応付けて、静脈パターンを登録データ記憶部120に格納する。
[認証処理手順]
次に、生体認証装置100による認証処理について説明する。図10は、第1の実施形態に係る生体認証装置100による認証処理の一例を示すフロー図である。
次に、生体認証装置100による認証処理について説明する。図10は、第1の実施形態に係る生体認証装置100による認証処理の一例を示すフロー図である。
図10に示すように、生体認証装置100は、認証処理を開始するか否かを判定する(ステップS201)。例えば、生体認証装置100は、利用者によって認証を行う旨の操作が行われたか否かを判定する。
そして、生体認証装置100は、認証処理を開始する場合には(ステップS201肯定)、図示しない入力部等から利用者IDを受け付け(ステップS202)、撮像装置50から認証用画像を受信する(ステップS203)。続いて、画像処理部111は、ステップS203において受信した認証用画像から手領域及び手のひら領域の位置情報を抽出する(ステップS204)。
続いて、隙間判定部112は、隙間判定処理を行う(ステップS205)。続いて、外形情報取得部113は、外形情報取得処理を行う(ステップS206)。続いて、生体情報抽出部114は、認証用画像から静脈パターンを抽出する(ステップS207)。
続いて、位置合わせ部131は、非共通領域特定処理を行う(ステップS208)。かかる非共通領域特定処理については図15を用いて後述する。続いて、照合部132は、照合処理を行う(ステップS209)。かかる照合処理については図17を用いて後述する。
[隙間判定処理手順]
次に、図9及び図10に示した隙間判定処理について説明する。図11は、第1の実施形態に係る隙間判定部112による隙間判定処理の一例を示すフロー図である。
次に、図9及び図10に示した隙間判定処理について説明する。図11は、第1の実施形態に係る隙間判定部112による隙間判定処理の一例を示すフロー図である。
図11に示すように、隙間判定部112は、画像処理部111によって取得された手領域の位置情報を用いて、生体画像(登録用画像又は認証用画像)に描出されているガイドG1の開口部における面積に対する手領域の面積の割合である手領域割合を算出する(ステップS301)。例えば、隙間判定部112は、手領域の面積を開口部の面積により除算することで手領域割合を算出する。例えば、図6に示した例の場合、隙間判定部112は、生体画像P10から斜線を付した領域を除いた領域の面積を開口部の面積とし、手が描出されている領域の面積を手領域の面積とする。
なお、隙間判定部112は、生体画像に描出される開口部の面積が固定である場合には、かかる固定の面積を用いて手領域割合を算出する。また、開口部の面積が固定でない場合には、画像処理部111が、生体画像に対してエッジ検出等を行うことにより、開口部の面積を算出してもよい。かかる場合に、隙間判定部112は、画像処理部111により算出された開口部の面積を用いて手領域割合を算出する。
続いて、隙間判定部112は、手領域割合が所定の閾値よりも小さいか否かを判定する(ステップS302)。そして、隙間判定部112は、手領域割合が所定の閾値よりも小さい場合には(ステップS302肯定)、開口部の外縁と手領域との間に所定値以上の隙間が存在すると判定し、隙間判定処理を終了する。
一方、隙間判定部112は、手領域割合が所定の閾値以上である場合には(ステップS302否定)、開口部の外縁と手領域との間に所定値以上の隙間が存在しないと判定し、エラー処理を行う(ステップS303)。例えば、隙間判定部112は、生体認証装置100が登録モードにより動作している場合には、登録処理を終了させ、生体認証装置100が認証モードにより動作している場合には、認証処理を終了させる。このとき、生体認証装置100は、利用者に対して、撮像装置50に手をかざすように案内表示をしてもよい。
このような隙間判定処理を行う理由について説明する。第1の実施形態に係る生体認証装置100は、後述するように、外形情報取得部113により取得された各種外形情報を用いて認証処理を行う。ここで、ガイドG1の開口部全面を覆うように手が置かれた場合等には、生体画像全体に手が描出されることとなり、外形情報取得部113は、生体画像から外形情報を取得することが困難となる。そこで、隙間判定部112は、外形情報取得部113によって外形情報が取得可能な生体画像であるか否かを判定するために、上述した隙間判定処理を行う。これにより、生体認証装置100は、外形情報の取得が困難な生体画像が生成された場合には、外形情報取得処理を行う前に登録処理や認証処理を終了することができるので、登録処理や認証処理の高速化や処理負荷の低減を図ることができる。
なお、上述した隙間判定処理に用いられる「所定の閾値」は、例えば、外形情報が取得可能な生体画像であるか否かという観点から実験的に求められる。
また、図11では、隙間判定部112が手領域割合と所定の閾値とを比較する例を示したが、この例に限られない。例えば、隙間判定部112は、開口部の面積と手領域の面積との差分が所定の閾値よりも大きいか否かを判定してもよい。なお、ガイドG1の側壁G12の高さが可変である場合、側壁G12が高くなるほど生体画像は小さくなり、側壁G12が低くなるほど生体画像は大きくなる。そして、開口部と手領域の面積差分は、画像の大きさにより変動する。したがって、隙間判定部112は、側壁G12の高さが可変であり、かつ、面積差分を用いて隙間判定処理を行う場合には、撮像装置50から開口部までの測距情報に応じて、上述した「所定の閾値」を変動させてもよい。例えば、隙間判定部112は、撮像装置50から開口部までの測距が長いほど、所定の閾値を小さい値に変動させ、撮像装置50から開口部までの測距が短いほど、所定の閾値を大きい値に変動させる。
[外形情報取得処理手順]
次に、図9及び図10に示した外形情報取得処理について説明する。図12は、第1の実施形態に係る外形情報取得部113による外形情報取得処理の一例を示すフロー図である。
次に、図9及び図10に示した外形情報取得処理について説明する。図12は、第1の実施形態に係る外形情報取得部113による外形情報取得処理の一例を示すフロー図である。
図12に示すように、外形情報取得部113は、画像処理部111によって取得された手領域の位置情報及び手のひら領域の位置情報を用いて、撮像装置50から受信した生体画像の手領域から手のひら領域を除くことにより、指領域の位置情報と手首領域の位置情報とを取得する(ステップS401)。
例えば、外形情報取得部113は、手領域から手のひら領域を除いた領域のうち、手のひら領域よりも上方に位置する領域を指領域とし、手のひら領域よりも下方に位置する領域を手首領域とする。また、例えば、外形情報取得部113は、手領域から手のひら領域を除いた領域のうち、手のひら領域との境界線が短い領域を指領域とし、手のひら領域との境界線が長い領域を手首領域としてもよい。
外形情報取得部113によって取得される指領域の位置情報は、生体画像において指を描出している各画素の位置情報の集合により形成される。また、手首領域の位置情報は、生体画像において手首を描出している各画素の位置情報の集合により形成される。
なお、指領域や手首領域を取得する処理は、画像処理部111によって行われてもよい。このとき、画像処理部111は、手領域から手のひら領域を除くのではなく、パターンマッチング等を行うことにより、生体画像から指領域と手首領域とを特定してもよい。
続いて、外形情報取得部113は、生体画像に指領域が少なくとも1個以上存在するか否かを判定する(ステップS402)。そして、外形情報取得部113は、指領域が存在しない場合には(ステップS402否定)、図11に示したステップS303における処理と同様のエラー処理を行う(ステップS403)。なお、外形情報取得部113によって有無判定される「指領域」は、手のひらから延伸した2本の線を要するが、指先まで描出されることを要しない。
このような指領域の有無判定を行う理由について説明する。後述する位置合わせ部131は、登録用の外形情報と認証用の外形情報とを用いて、登録用画像における手のひら領域と、認証用画像における手のひら領域との位置合わせを行う。ここで、登録用画像又は認証用画像に指領域が1個も存在しない場合、位置合わせ部131は、手のひら領域の位置合わせを行うことが困難となる。そこで、外形情報取得部113は、手のひら領域の位置合わせが可能な生体画像であるか否かを判定するために、指領域の存在有無を判定する。これにより、生体認証装置100は、生体画像に不備がある場合には、非共通領域特定処理を行う前に登録処理や認証処理を終了することができるので、登録処理や認証処理の高速化や処理負荷の低減を図ることができる。
続いて、外形情報取得部113は、指領域が存在する場合には(ステップS402肯定)、手のひら領域から、手のひらの外形情報を取得する(ステップS404)。また、外形情報取得部113は、ステップS401において取得した指領域から、指の外形情報を取得する(ステップS405)。また、外形情報取得部113は、ステップS401において取得した手首領域から、手首の外形情報を取得する(ステップS406)。続いて、外形情報取得部113は、手を形成する「手のひら」、「指」、「手首」などの生体部位間の接続点を取得する(ステップS407)。
ここで、図13に示す例を用いて、外形情報取得処理について説明する。図13(A)において実線で囲まれた領域R11は、画像処理部111によって取得された手領域を示す。また、図13(B)において実線で囲まれた領域R12は、画像処理部111によって取得された手のひら領域を示す。
外形情報取得部113は、手領域R11から手のひら領域R12を除外することで、図13(C)に例示する指領域R13と、図13(D)に例示する手首領域R14とを取得し、上記ステップS402における判定処理を行う。図13(C)に示した例では、5個の指領域R13がそれぞれ手のひらから延伸した2本の線を有する。したがって、外形情報取得部113は、1個以上の指領域が存在すると判定し、ステップS404以降の外形情報取得処理に進む。
例えば、外形情報取得部113は、図13(B)に示した手のひら領域R12から、手のひらの外形情報として「手のひらの輪郭」及び「手のひらの外接矩形」を取得する。具体的には、外形情報取得部113は、手のひら領域R12における最外(図13(B)に示した実線)の連続した各画素の位置情報群を「手のひらの輪郭」として取得する。また、外形情報取得部113は、手のひらの輪郭のうち曲率が所定値以上である点を線分で結んで得られる矩形の位置情報を「手のひらの外接矩形」として取得する。
また、外形情報取得部113は、図13(C)に示した指領域R13から、指の外形情報として「指の輪郭」及び「指の外接矩形」を取得する。このとき、外形情報取得部113は、図13(C)に示した例のように、複数の指領域R13が存在する場合には、指領域R13毎に外形情報を取得する。また、外形情報取得部113は、図13(D)に示した手首領域R14から、手首の外形情報として「手首の輪郭」及び「手首の外接矩形」を取得する。
さらに、外形情報取得部113は、指領域R13毎に、「手のひらの輪郭」と「指の輪郭」とを接続する画素の位置情報を「手のひらと指の接続点」として取得する。図13(A)に示した例では、外形情報取得部113は、手のひらと親指の接続点C11及びC12の位置情報と、手のひらと人差し指の接続点C13及びC14の位置情報と、手のひらと中指の接続点C15及びC16の位置情報と、手のひらと薬指の接続点C17及びC18の位置情報と、手のひらと小指の接続点C19及びC20の位置情報とを取得する。このように、外形情報取得部113は、1個の指に対して、「手のひらと指の接続点」を最大で2個取得する。
また、外形情報取得部113は、「手のひらの輪郭」と「手首の輪郭」とを接続する画素の位置情報を「手のひらと手首の接続点」として取得する。図13(A)に示した例では、外形情報取得部113は、手のひらと手首の接続点C21及びC22の位置情報を取得する。このように、外形情報取得部113は、「手首と指の接続点」を最大で2個取得する。
なお、図13では、外形情報取得部113が各種外形情報を取得する例を示したが、ガイドG1に置かれた手の位置によっては、外形情報取得部113が上述した全ての外形情報を取得できるとは限らない。例えば、図1の上段に示した例では、小指及び手首がガイドG1の開口部内から外れた状態で手が置かれている。この例の場合、外形情報取得部113は、小指の外形情報、手のひらと小指の接続点、手首の外形情報、手のひらと手首の接続点などを取得できない。このような場合であっても、外形情報取得部113は、取得可能な外形情報を取得する。
図12に戻り、外形情報取得部113は、生体認証装置100が認証モードではなく登録モードにより動作している場合には(ステップS408否定)、登録処理の開始時に受け付けた利用者IDに対応付けて、ステップS404~S407において取得した各種外形情報を登録データ記憶部120に格納する(ステップS409)。
例えば、外形情報取得部113は、ステップS404において取得した「手のひらの輪郭」を、図8に示した登録データ記憶部120における「手のひら」の「輪郭」に格納し、「手のひらの外接矩形」を登録データ記憶部120における「手のひら」の「外接矩形」に格納する。
また、例えば、外形情報取得部113は、ステップS405において取得した各指に対応する「指の輪郭」及び「指の外接矩形」を登録データ記憶部120における「指N」に格納する。なお、外形情報取得部113は、1本の指の外形情報のみを取得した場合には、登録データ記憶部120の「指1」に外形情報を格納し、5本の指の外形情報を取得した場合には、登録データ記憶部120の「指1」~「指5」にそれぞれの指の外形情報を格納する。
また、外形情報取得部113は、ステップS406において取得した「手首の輪郭」及び「手首の外接矩形」を登録データ記憶部120の「手首」に格納する。また、外形情報取得部113は、ステップS407において取得した「手のひらと指の接続点」を登録データ記憶部120における「指N」の「接続点」に格納し、「手首と指の接続点」を登録データ記憶部120における「手首」の「接続点」に格納する。
なお、図8では、表記を簡略化するために、各画素の位置情報群を単一の符号により表記している。例えば、利用者ID「AAA」に対応する手のひらの輪郭に「L11」が記憶されているが、かかる輪郭「L11」は、実際には、手のひらの輪郭を描出している各画素の位置情報群を示す。このような表記は、外接矩形(「M11」など)についても同様である。
また、上記の通り、外形情報取得部113は、各生体部位間の接続点を最大で2個取得する。図8では、登録データ記憶部120の各接続点に、2個の接続点が「,」により区切られて記憶される例を示している。例えば、図13に示した例のように、手のひらと指の接続点C11及びC12が取得された場合には、図8の利用者ID「AAA」に対応する「指1」のように接続点「C11,C12」が記憶される。また、2個の接続点のうち1個のみが取得された場合には、図8の利用者ID「BBB」に対応する「指2」の接続点「C33,-」のように、取得されなかった接続点については「-」が記憶される。なお、登録データ記憶部120の接続点に記憶される「C11」や「C33」等は、実際には、接続点の位置情報(座標)を示す。
図12に戻り、外形情報取得部113は、生体認証装置100が認証モードにより動作している場合には(ステップS408肯定)、登録用の外形情報と認証用の外形情報との対応性が取れているか否かを判定する(ステップS410)。
具体的には、外形情報取得部113は、認証処理の開始時に受け付けた利用者IDに対応する登録用の外形情報を登録データ記憶部120から取得する。そして、外形情報取得部113は、登録用の外形情報と、認証モード時にステップS404~S407において取得した認証用の外形情報とを比較し、同一の生体部位に関する所定の外形情報が2個以上含まれるか否かを判定する。第1の実施形態に係る外形情報取得部113は、双方の外形情報に、少なくとも同一指の外形情報における2個の接続点が含まれるか否かを判定する。
なお、外形情報取得部113は、例えば、登録用の外形情報を用いて、手のひらに対する指の位置や、手のひらに対する指の角度を算出し、算出した位置や角度に基づいて、登録用の外形情報に含まれる指の種類を特定する。同様にして、外形情報取得部113は、認証用の外形情報に含まれる指の種類を特定する。これにより、外形情報取得部113は、登録用の外形情報及び認証用の外形情報の双方に、同一指に関する外形情報が含まれるか否かを判定できる。また、この例に限られず、外形情報取得部113は、登録用の外形情報と認証用の外形情報とをシェイプコンテキストマッチング等のマッチング手法を用いて対応付けることにより、双方の外形情報に同一指に関する外形情報が含まれるか否かを判定できる。
そして、外形情報取得部113は、登録用の外形情報と認証用の外形情報との対応性が取れていない場合には(ステップS410否定)、認証処理を終了させる等のエラー処理を行う(ステップS403)。一方、外形情報取得部113は、登録用の外形情報と認証用の外形情報との対応性が取れている場合には(ステップS410肯定)、外形情報取得処理を終了する。
ここで、図14を用いて、第1の実施形態に係る外形情報取得部113による対応性判定処理について説明する。図14上段の例の場合、登録用の外形情報と認証用の外形情報との双方に、同一指の2個の接続点が含まれていない。具体的には、登録用の外形情報には、手のひらと人差し指とを接続する2個の接続点「C41,C42」が含まれるが、認証用の外形情報には、手のひらと人差し指とを接続する1個の接続点「C43」のみが含まれる。この例の場合、登録用の外形情報と認証用の外形情報との双方に、同一指の2個の接続点が含まれないので、外形情報取得部113は、「対応性なし」と判定する。
一方、図14下段の例の場合、登録用の外形情報と認証用の外形情報との双方に、同一指の2個の接続点が含まれる。具体的には、登録用の外形情報には、手のひらと人差し指とを接続する2個の接続点「C51,C52」が含まれ、認証用の外形情報には、手のひらと人差し指とを接続する2個の接続点「C53,C54」が含まれる。この例の場合、登録用の外形情報と認証用の外形情報との双方に、同一指の2個の接続点が含まれるので、外形情報取得部113は、「対応性あり」と判定する。
このような対応性判定を行う理由について説明する。上記の通り、後述する位置合わせ部131は、登録用の外形情報と認証用の外形情報とを用いて、手のひら領域の位置合わせを行う。ここで、双方の外形情報に、同一指の外形情報が共通して含まれない場合、位置合わせ部131は、位置合わせを行うことが困難となる。そこで、外形情報取得部113は、手のひら領域の位置合わせが可能な生体画像であるか否かを判定するために、指領域の存在有無を判定する。これにより、生体認証装置100は、生体画像に不備がある場合には、非共通領域特定処理を行う前に登録処理や認証処理を終了することができるので、登録処理や認証処理の高速化や処理負荷の低減を図ることができる。
[非共通領域特定処理手順]
次に、図10に示した非共通領域特定処理について説明する。図15は、第1の実施形態に係る位置合わせ部131による非共通領域特定処理の一例を示すフロー図である。
次に、図10に示した非共通領域特定処理について説明する。図15は、第1の実施形態に係る位置合わせ部131による非共通領域特定処理の一例を示すフロー図である。
図15に示すように、位置合わせ部131は、登録データ記憶部120に記憶されている登録用の外形情報と、認証用の外形情報とを比較することにより、双方の外形情報に含まれる同一の生体部位(手のひら、指、手首)に関する外形情報を取得する(ステップS501)。なお、位置合わせ部131は、上述した外形情報取得部113と同様に、手のひらに対する指の位置や角度を算出したり、シェイプコンテキストマッチング等のマッチング手法を用いることにより、登録用の外形情報及び認証用の外形情報に含まれる同一指を特定できる。
例えば、図14下段の例の場合、登録用の外形情報には、「手のひら」、「親指」、「人差し指」、「手首」に関する外形情報が含まれ、認証用の外形情報には、「手のひら」、「人差し指」、「中指」、「薬指」、「小指」に関する外形情報が含まれる。したがって、この例の場合、位置合わせ部131は、登録用の外形情報と認証用の外形情報との双方から、「手のひら」に関する外形情報と、「人差し指」に関する外形情報とを取得する。なお、認証用の外形情報には「親指」に関する外形情報の一部が含まれるが、接続点が1点のみであり不完全な情報であるので、位置合わせ部131は、「親指」に関する外形情報を取得しない。
続いて、位置合わせ部131は、登録用の外形情報及び認証用の外形情報に含まれる「手のひら」の外接矩形から、双方の外接矩形に含まれる同一側面の位置情報を抽出する(ステップS502)。
具体的には、位置合わせ部131は、「人差し指と親指との間における側面」、「親指と手首との間における側面」、「小指と手首との間における側面」を抽出する。例えば、図13(A)に示した例の場合、接続点C13と接続点C12との間が「人差し指と親指との間における側面」に該当し、接続点C11と接続点C21との間が「親指と手首との間における側面」に該当し、接続点C20と接続点C22との間が「小指と手首との間における側面」に該当する。位置合わせ部131は、登録用及び認証用の「手のひら」の外接矩形に同一側面が含まれる場合には、かかる同一側面の位置情報を双方の外接矩形から抽出する。
例えば、図14下段の例の場合、登録用の外形情報と認証用の外形情報との双方に、「人差し指と親指との間における側面」が含まれる。したがって、この例の場合、位置合わせ部131は、登録用の外接矩形から「人差し指と親指との間における側面」を抽出し、同様に、認証用の外接矩形から「人差し指と親指との間における側面」を抽出する。
続いて、位置合わせ部131は、ステップS501及びS502において取得された生体部位の外形情報の組合せに応じて、位置合わせ方式を判定する(ステップS503)。具体的には、位置合わせ部131は、以下に説明するように、登録用画像における手のひら領域と、認証用画像における手のひら領域とを位置合わせするためのパラメータとして、「角度パラメータ」、「スケーリングパラメータ」及び「平行移動パラメータ」を算出する。「角度パラメータ」は、双方の手のひら領域の角度を一致させるためのパラメータである。「スケーリングパラメータ」は、双方の手のひら領域のサイズを一致させるためのパラメータである。「平行移動パラメータ」は、双方の手のひら領域の位置を一致させるためのパラメータである。なお、図15では、位置合わせ方式の一例として、ステップS501及びS502において、「1個の指の外形情報」のみが取得された場合と、「1個の指の外形情報」及び「1個の側面」が取得された場合とについて説明する。
例えば、位置合わせ部131は、「1個の指の外形情報」のみを取得した場合には(ステップS503:1個の指の外形情報)、登録用の指の外形情報に含まれる2点の接続点を結ぶ線分(「線分X1」とする)と、認証用の指の外形情報に含まれる2点の接続点を結ぶ(「線分X2」とする)との傾きを「角度パラメータ」として算出する(ステップS504)。言い換えれば、位置合わせ部131は、線分X1と線分X2とのなす角度を「角度パラメータ」として算出する。
また、位置合わせ部131は、線分X1と線分X2の長さが略同一となる縮尺を「スケーリングパラメータ」として算出する(ステップS505)。また、位置合わせ部131は、登録用の接続点と認証用の接続点との位置を一致させるための移動ベクトルを「平行移動パラメータ」として算出する(ステップS506)。
なお、ステップS504~S506では、各パラメータを個別に算出する例を示したが、位置合わせ部131は、アフィン変換を用いることにより、各パラメータを一括で算出することもできる。
また、例えば、位置合わせ部131は、「1個の指の外形情報」及び「1個の側面」を取得した場合には(ステップS503:1個の指の外形情報+1個の側面)、線分X1と線分X2との傾きだけでなく、登録用の外形情報から取得された側面(「側面Y1」とする)と、認証用の外形情報から取得された側面(「側面Y2」とする)との傾きを考慮して「角度パラメータ」を算出する(ステップS507)。例えば、位置合わせ部131は、線分X1と線分X2との傾きと、側面Y1と側面Y2との傾きとの平均を「角度パラメータ」として算出する。
また、位置合わせ部131は、線分X1と線分X2の長さが略同一となり、さらに、側面Y1と側面Y2の長さが略同一となるような縮尺を「スケーリングパラメータ」として算出する(ステップS508)。また、位置合わせ部131は、双方の接続点の位置を一致させ、さらに、側面Y1と側面Y2との位置を一致させるような移動ベクトルを「平行移動パラメータ」として算出する(ステップS509)。
そして、位置合わせ部131は、ステップS504~S506、又は、ステップS507~S509において算出した各種パラメータを用いて、登録用画像における手のひら領域と、認証用画像における手のひら領域とを位置合わせする(ステップS510)。なお、位置合わせ部131は、登録データ記憶部120における「手のひら」の「輪郭」に記憶されている位置情報により、登録用画像における手のひら領域を特定できる。
そして、位置合わせ部131は、位置合わせの結果、登録用画像における手のひら領域と、認証用画像における手のひら領域との間で差異の領域を非共通領域として特定する(ステップS511)。
ここで、図16を用いて、第1の実施形態に係る位置合わせ部131による非共通領域特定処理について説明する。図16には、登録用の手のひら領域R21と、認証用の手のひら領域R22とを示す。位置合わせ部131は、図16下段に示すように、手のひら領域R21と手のひら領域R22とを位置合わせする。図16下段の例では、位置合わせ部131は、手のひら領域R21のみに存在する非共通領域R32を特定する。また、位置合わせ部131は、手のひら領域R22のみに存在する非共通領域R33を特定する。また、位置合わせ部131は、手のひら領域R21及び領域R22の双方で重なり合う共通領域R31をさらに特定してもよい。
ところで、図15では、説明を簡単にするために、「1個の指の外形情報」のみが取得された場合における位置合わせ方式と、「1個の指の外形情報」及び「1個の側面」が取得された場合における位置合わせ方式について説明した。しかし、位置合わせ部131は、ステップS501及びS502において取得された外形情報の組合せに応じて、上記例以外の位置合わせ方式を選択する。以下に、上記例以外の位置合わせ方式について説明する。
例えば、位置合わせ部131は、上記ステップS501において、登録用及び認証用の外形情報から、「5個の指の外形情報」を取得したものとする。かかる場合に、位置合わせ部131は、例えば、各指の接続点(計10点)が一致するような各種パラメータを算出する。
また、例えば、位置合わせ部131は、上記ステップS501及びS502において、「5個の指の外形情報」及び「1個の側面」を取得したものとする。かかる場合には、位置合わせ部131は、例えば、「5個の指の外形情報」から「1個の指の外形情報」を抽出し、抽出した登録用の指の外形情報に含まれる2点の接続点を結ぶ線分(「線分X3」とする)と、認証用の指の外形情報に含まれる2点の接続点を結ぶ(「線分X4」とする)との傾きを「角度パラメータ」として算出する。さらに、位置合わせ部131は、側面Y1と側面Y2との傾きを「角度パラメータ」として算出する。そして、位置合わせ部131は、算出した双方の「角度パラメータ」との差が所定値以下であれば、いずれか一方を位置合わせに用いる「角度パラメータ」とするか、双方の「角度パラメータ」の平均値を位置合わせに用いる「角度パラメータ」とする。また、位置合わせ部131は、双方の「角度パラメータ」との差が所定値よりも大きい場合には、「5個の指の外形情報」から、他の「1個の指の外形情報」を抽出して、上記例と同様の処理を行う。
また、例えば、位置合わせ部131は、上記ステップS501において、手のひらの上下端や左右端が欠けていない輪郭又は外接矩形を取得できたものとする。言い換えれば、位置合わせ部131は、手のひら全体がガイドG1の開口部内に位置するような手のひらの輪郭又は外接矩形を取得できたものとする。かかる場合に、位置合わせ部131は、手のひらの上下端や左右端が一致するような各種パラメータを算出する。
このように、位置合わせ部131は、上記ステップS501及びS502において取得できた各外形情報を極力用いるような位置合わせ方式を選択する。すなわち、位置合わせ部131は、取得できた各外形情報である点(例えば、接続点)や線(例えば、側面、輪郭、外接矩形)が一致するように、登録用の手のひら領域と認証用の手のひら領域とを位置合わせする。これにより、位置合わせ部131は、同一の外形情報の種類、数を多く取得するほど、手のひら領域の位置合わせ精度を向上させることができる。
[照合処理手順]
次に、図10に示した照合処理について説明する。図17は、第1の実施形態に係る照合部132による照合処理の一例を示すフロー図である。
次に、図10に示した照合処理について説明する。図17は、第1の実施形態に係る照合部132による照合処理の一例を示すフロー図である。
図17に示すように、照合部132は、認証処理を行う場合に、認証処理の開始時に受け付けた利用者IDに対応する登録用の静脈パターンを登録データ記憶部120から取得する(ステップS601)。
続いて、照合部132は、ステップS601において取得した登録用の静脈パターン、及び、生体情報抽出部114によって抽出された認証用の静脈パターンのうち、位置合わせ部131によって特定された非共通領域に位置する静脈セグメントについて照合処理の重みを下げる(ステップS602)。具体的には、照合部132は、共通領域に位置する静脈セグメントよりも、非共通領域に位置する静脈セグメントにおける照合処理の重みを下げる。
続いて、照合部132は、重みを考慮した上で、登録用の静脈パターンと認証用の静脈パターンとを照合する(ステップS603)。具体的には、照合部132は、認証成否を決定する際に、非共通領域における静脈パターンの一致度よりも、共通領域における静脈パターンの一致度を重要視する。例えば、照合部132は、静脈パターンの一致度が所定の照合閾値以上であるか否かを判定することで認証成否を決定する場合、共通領域に対応する照合閾値よりも、非共通領域に対応する照合閾値を小さくする。
そして、照合部132は、照合後に、例えば、図示しない表示部(例えば、ディスプレイ)に認証結果を表示したり、撮像装置50に認証結果を送信したり、ログに認証結果を記録したりする。
なお、上記では、照合部132が非共通領域に位置する静脈セグメントにおける照合処理の重みを下げる例を示したが、この例に限られない。例えば、照合部132は、一部分のみが非共通領域に位置し、共通領域及び非共通領域に跨っている静脈セグメントについては、共通領域に位置する部分も含めて静脈セグメント全体の重みを下げてもよい。
また、照合部132は、非共通領域の重みについては段階的な値を設定してもよい。例えば、照合部132は、非共通領域のうち、共通領域に近い領域に位置する静脈セグメントほど大きい重みを設定し、共通領域から遠い領域に位置する静脈セグメントほど小さい重みを設定してもよい。すなわち、照合部132は、非共通領域の重みを下げる場合であっても、共通領域に近い非共通領域については、共通領域から遠い非共通領域よりも静脈パターンの一致度を重要視してもよい。こうすることで、照合部132は、位置合わせ部131による手のひら領域の位置合わせ精度に誤差がある等の理由により非共通領域に共通領域が存在する場合であっても、認証精度を向上させることができる。
また、照合部132は、共通領域と非共通領域との面積比に応じて、非共通領域に設定する重みを可変にしてもよい。具体的には、非共通領域の重みを下げすぎると、認証結果は、面積の小さい共通領域に依存することとなる。このため、共通領域に対する非共通領域の面積比が大きい場合、本来であれば認証失敗とすべきところであっても、面積の小さい共通領域においては静脈パターンが偶然一致すると認証成功となる。一方、共通領域に対する非共通領域の面積比が小さい場合には、面積の大きい共通領域における静脈パターンだけを用いれば、高精度な認証結果を得ることが期待できる。このようなことから、照合部132は、非共通領域の面積比が大きい場合には、非共通領域の面積比が小さい場合と比較して、非共通領域の重みに大きい値を設定してもよい。
[第1の実施形態の効果]
上述してきたように、第1の実施形態に係る生体認証装置100において、位置合わせ部131は、登録用の外形情報と認証用の外形情報とを用いて、登録用の生体情報が抽出された領域と、認証用の生体情報が抽出された領域との差異である非共通領域を特定する。また、照合部132は、位置合わせ部131によって特定された非共通領域の重みを共通領域よりも下げて、登録用の生体情報と認証用の生体情報とを照合する。
上述してきたように、第1の実施形態に係る生体認証装置100において、位置合わせ部131は、登録用の外形情報と認証用の外形情報とを用いて、登録用の生体情報が抽出された領域と、認証用の生体情報が抽出された領域との差異である非共通領域を特定する。また、照合部132は、位置合わせ部131によって特定された非共通領域の重みを共通領域よりも下げて、登録用の生体情報と認証用の生体情報とを照合する。
これにより、第1の実施形態に係る生体認証装置100は、登録時又は認証時においてガイドG1の開口部に手のひら全体が置かれなかった場合であっても、非共通領域の重みを下げて照合を行うことにより認証率を向上させることができる。例えば、生体認証装置100が、認証失敗時に生体情報を再入力させるシステムであっても、認証率を向上させることができるので、利用者に生体情報認証データを何度も入力させることを防止でき、この結果、ユーザビリティを向上させることができる。また、生体認証装置100は、登録用の生体情報についても非共通領域の重みを下げて照合を行うので、利用者に高精度な生体情報を登録させなくてもよい結果、ユーザビリティを向上させることができる。
また、第1の実施形態に係る生体認証装置100において、外形情報取得部113は、生体を形成する生体部位毎に生体部位の外形に関する外形情報を取得し、登録用の外形情報及び認証用の外形情報の双方に同一の生体部位に関する所定の外形情報が2以上含まれるか否かを判定する。また、位置合わせ部131は、外形情報取得部113によって所定の外形情報が2以上含まれると判定された場合に、所定の外形情報を用いて、登録用の生体情報が抽出された手のひら領域と、認証用の生体情報が抽出された手のひら領域とを位置合わせした上で非共通領域を特定する。また、照合部132は、位置合わせ部131によって非共通領域が特定された場合に、照合処理を行う。
これにより、第1の実施形態に係る生体認証装置100は、手のひら領域の位置合わせが可能な生体画像であるか否かを判定することができるので、生体画像に不備がある場合に、位置合わせ部131によって非共通領域特定処理が行われる前に登録処理や認証処理を終了することができ、この結果、登録処理や認証処理の高速化や処理負荷の低減を図ることができる。
また、第1の実施形態に係る生体認証装置100において、位置合わせ部131は、登録用の外形情報及び認証用の外形情報の双方に含まれる同一の生体部位に関する外形情報の組合せに応じて、位置合わせの処理を変える。
これにより、第1の実施形態に係る生体認証装置100は、最適な位置合わせ方式を選択することができる。例えば、生体認証装置100は、同一の生体部位に関する外形情報として、最低限の外形情報(手のひらと指とを接続する2個の接続点)しか取得できない場合であっても、位置合わせ処理を行うことができる。また、例えば、生体認証装置100は、同一の生体部位に関する外形情報を極力多く用いた位置合わせ方式を選択することにより、同一の生体部位に関する外形情報を多く取得するほど、手のひら領域の位置合わせ精度を向上させることができ、この結果、認証精度を向上させることができる。
また、第1の実施形態に係る生体認証装置100において、隙間判定部112は、生体画像に含まれる生体領域が所定の閾値よりも小さいか否かを判定する。また、外形情報取得部113は、隙間判定部112によって生体領域が所定の閾値よりも小さいと判定された場合に、外形情報を取得する。また、生体情報抽出部114は、隙間判定部112によって生体領域が所定の閾値よりも小さいと判定された場合に、生体情報を抽出する。
これにより、第1の実施形態に係る生体認証装置100は、外形情報取得部113によって外形情報が取得可能な生体画像であるか否かを判定することができるので、生体画像に不備がある場合には、外形情報取得部113によって外形情報取得処理が行われる前に登録処理や認証処理を終了することができ、この結果、登録処理や認証処理の高速化や処理負荷の低減を図ることができる。
(第2の実施形態)
上述した生体認証装置100は、上記第1の実施形態以外にも種々の異なる形態にて実施されてよい。第2の実施形態では、生体認証装置100の他の実施形態について説明する。
上述した生体認証装置100は、上記第1の実施形態以外にも種々の異なる形態にて実施されてよい。第2の実施形態では、生体認証装置100の他の実施形態について説明する。
[生体情報]
上記第1の実施形態では、生体認証装置100が生体情報として「手のひらの静脈パターン」を用いた静脈認証を行う例を示した。しかし、生体認証装置100は、静脈認証に限られず、生体情報として「掌紋(palm print)」、「手の甲の静脈」、「手の甲の紋」、「手の外形」、「指の外形」、「足のひらの静脈」、「足紋」、「手首の静脈」、「手首の紋」、「手首の外形」、「指の関節のしわ(ナックル認証)」などを用いた生体認証や、これらの生体情報を組み合わせたマルチ生体認証にも適用することができる。
上記第1の実施形態では、生体認証装置100が生体情報として「手のひらの静脈パターン」を用いた静脈認証を行う例を示した。しかし、生体認証装置100は、静脈認証に限られず、生体情報として「掌紋(palm print)」、「手の甲の静脈」、「手の甲の紋」、「手の外形」、「指の外形」、「足のひらの静脈」、「足紋」、「手首の静脈」、「手首の紋」、「手首の外形」、「指の関節のしわ(ナックル認証)」などを用いた生体認証や、これらの生体情報を組み合わせたマルチ生体認証にも適用することができる。
[1対N認証]
また、上記第1の実施形態では、生体認証装置100が1対1認証を行う例を示した。しかし、生体認証装置100は、1対1認証に限られず、利用者IDの入力を要しない1対N認証にも適用することができる。なお、生体認証装置100は、1対N認証を行う場合には、図9に示したステップS102における処理や、図10に示したステップS202における処理を行わない。
また、上記第1の実施形態では、生体認証装置100が1対1認証を行う例を示した。しかし、生体認証装置100は、1対1認証に限られず、利用者IDの入力を要しない1対N認証にも適用することができる。なお、生体認証装置100は、1対N認証を行う場合には、図9に示したステップS102における処理や、図10に示したステップS202における処理を行わない。
[仮認証]
また、上記第1の実施形態に係る生体認証装置100は、仮認証と本認証との二段階認証を行う場合に、図10に示した認証処理を仮認証として行ってもよい。この点について図18を用いて説明する。図18は、第2の実施形態に係る生体認証装置100による認証処理の一例を示すフロー図である。図18に示すように、生体認証装置100は、例えば、成功率が高い図10に示した認証処理を仮認証として行い(ステップS701)、かかる仮認証に成功した場合に、非共通領域の重みを下げずに照合処理を行う本認証を行ってもよい(ステップS702)。なお、生体認証装置100は、かかる本認証において、例えば、手のひらの膨らみ等を考慮した厳密な位置合わせを行う等、処理負荷の高い処理を行う。生体認証装置100は、成功率が高い仮認証を行うことで、処理負荷の高い本認証の対象となる利用者の絞込みを行うことができ、認証処理にかかる負荷を低減することができる。
また、上記第1の実施形態に係る生体認証装置100は、仮認証と本認証との二段階認証を行う場合に、図10に示した認証処理を仮認証として行ってもよい。この点について図18を用いて説明する。図18は、第2の実施形態に係る生体認証装置100による認証処理の一例を示すフロー図である。図18に示すように、生体認証装置100は、例えば、成功率が高い図10に示した認証処理を仮認証として行い(ステップS701)、かかる仮認証に成功した場合に、非共通領域の重みを下げずに照合処理を行う本認証を行ってもよい(ステップS702)。なお、生体認証装置100は、かかる本認証において、例えば、手のひらの膨らみ等を考慮した厳密な位置合わせを行う等、処理負荷の高い処理を行う。生体認証装置100は、成功率が高い仮認証を行うことで、処理負荷の高い本認証の対象となる利用者の絞込みを行うことができ、認証処理にかかる負荷を低減することができる。
[外形情報]
また、上記第1の実施形態に係る外形情報取得部113は、外形情報として、指輪や絆創膏等の異物に関する位置情報を検出してもよい。例えば、外形情報取得部113は、エッジ検出等を行うことにより、指輪等の異物を検出する。これにより、位置合わせ部131は、異物領域を除外して位置合わせ処理を行い、照合部132は、異物領域を除外して照合処理を行う。
また、上記第1の実施形態に係る外形情報取得部113は、外形情報として、指輪や絆創膏等の異物に関する位置情報を検出してもよい。例えば、外形情報取得部113は、エッジ検出等を行うことにより、指輪等の異物を検出する。これにより、位置合わせ部131は、異物領域を除外して位置合わせ処理を行い、照合部132は、異物領域を除外して照合処理を行う。
また、外形情報取得部113は、図8に示した全ての外形情報を取得しなくてもよい。例えば、外形情報取得部113は、「指の輪郭」、「指の外接矩形」、「手首の輪郭」、「手首の外接矩形」等は取得しなくてもよい。
[登録処理]
また、上記第1の実施形態では、生体認証装置100が登録処理(図9)及び認証処理(図10)を行う例を示した。しかし、生体認証装置100は、認証処理のみを行ってもよい。例えば、生体認証装置100以外の装置や人手によって登録データ記憶部120に各種情報が格納される場合には、生体認証装置100は、認証処理のみを行ってもよい。
また、上記第1の実施形態では、生体認証装置100が登録処理(図9)及び認証処理(図10)を行う例を示した。しかし、生体認証装置100は、認証処理のみを行ってもよい。例えば、生体認証装置100以外の装置や人手によって登録データ記憶部120に各種情報が格納される場合には、生体認証装置100は、認証処理のみを行ってもよい。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、画像処理部111、隙間判定部112、外形情報取得部113、生体情報抽出部114、位置合わせ部131又は照合部132を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の生体認証装置100の機能を実現するようにしてもよい。また、上記第1の実施形態では、外形情報取得部113、位置合わせ部131及び照合部132が、登録データ記憶部120から外形情報や生体情報を適宜取得する例を示したが、生体認証装置100は、登録処理又は認証処理の開始時等において、登録データ記憶部120から外形情報及び生体情報を取得する登録データ取得部を有してもよい。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、画像処理部111、隙間判定部112、外形情報取得部113、生体情報抽出部114、位置合わせ部131又は照合部132を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の生体認証装置100の機能を実現するようにしてもよい。また、上記第1の実施形態では、外形情報取得部113、位置合わせ部131及び照合部132が、登録データ記憶部120から外形情報や生体情報を適宜取得する例を示したが、生体認証装置100は、登録処理又は認証処理の開始時等において、登録データ記憶部120から外形情報及び生体情報を取得する登録データ取得部を有してもよい。
[生体認証プログラム]
また、上記実施形態において説明した生体認証装置100が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、生体認証装置100が実行する処理をコンピュータが実行可能な言語で記述した生体認証プログラムを作成することもできる。この場合、コンピュータが生体認証プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる生体認証プログラムをコンピュータが読み取り可能な記録媒体に記録して、この記録媒体に記録された生体認証プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、一例として、図7に示した生体認証装置100と同様の機能を実現する生体認証プログラムを実行するコンピュータの一例を説明する。
また、上記実施形態において説明した生体認証装置100が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、生体認証装置100が実行する処理をコンピュータが実行可能な言語で記述した生体認証プログラムを作成することもできる。この場合、コンピュータが生体認証プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる生体認証プログラムをコンピュータが読み取り可能な記録媒体に記録して、この記録媒体に記録された生体認証プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、一例として、図7に示した生体認証装置100と同様の機能を実現する生体認証プログラムを実行するコンピュータの一例を説明する。
図19は、生体認証プログラムを実行するコンピュータの一例を示す図である。図19に示すように、コンピュータ1000は、操作部1100と、ディスプレイ1200と、通信部1300とを有する。さらに、このコンピュータ1000は、CPU1500と、ROM1600と、HDD1700と、RAM1800と有する。これらの各部はバス1400を介して接続される。
HDD1700には、図19に示すように、上記第1の実施形態で示した画像処理部111、隙間判定部112、外形情報取得部113、生体情報抽出部114、位置合わせ部131及び照合部132と同様の機能を発揮する生体認証プログラム1700aが予め記憶される。この生体認証プログラム1700aについては、図7に示した各々の画像処理部111、隙間判定部112、外形情報取得部113、生体情報抽出部114、位置合わせ部131及び照合部132の各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD1700に格納される各データは、常に全てのデータがHDD1700に格納される必要はなく、処理に必要なデータのみがHDD1700に格納されればよい。
そして、CPU1500が、生体認証プログラム1700aをHDD1700から読み出してRAM1800に展開する。これによって、図19に示すように、生体認証プログラム1700aは、生体認証プロセス1800aとして機能する。この生体認証プロセス1800aは、HDD1700から読み出した各種データを適宜RAM1800上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。
なお、上記の生体認証プログラム1700aについては、必ずしも最初からHDD1700やROM1600に記憶させておく必要はない。例えば、コンピュータ1000に挿入されるフレキシブルディスク、いわゆるFD、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの可搬用の物理媒体に各プログラムを記憶させる。そして、コンピュータ1000がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ1000に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ1000がこれらから各プログラムを取得して実行するようにしてもよい。
なお、上記実施形態の各処理の中で、途中で処理を終了する場合、プログラム(登録処理や認証処理など)を終了させずに、別の処理を行ってもよい。別の処理としては、例えば、撮影された生体データについて従来通りの登録処理や認証処理を行うことが挙げられる。
1 生体認証システム
20 認証サーバ
50 撮像装置
100 生体認証装置
111 画像処理部
112 隙間判定部
113 外形情報取得部
114 生体情報抽出部
120 登録データ記憶部
131 位置合わせ部
132 照合部
20 認証サーバ
50 撮像装置
100 生体認証装置
111 画像処理部
112 隙間判定部
113 外形情報取得部
114 生体情報抽出部
120 登録データ記憶部
131 位置合わせ部
132 照合部
Claims (7)
- 生体が撮像された第1生体画像から取得された当該生体の外形に関する第1外形情報と、前記第1生体画像のうち当該生体の特徴を示す領域から抽出された第1生体情報とを記憶する記憶部から、前記第1外形情報及び前記第1生体情報を取得する登録データ取得部と、
第2生体画像から第2外形情報を取得する外形情報取得部と、
前記第2生体画像から第2生体情報を抽出する抽出部と、
前記第1外形情報及び前記第2外形情報の双方に含まれる同一の生体部位に関する外形情報の組合せに応じて選択した所定の方式で、前記第1生体情報が抽出された領域と前記第2生体情報が抽出された領域とを位置合わせする位置合わせ部と、
前記位置合わせ部によって位置合わせされた前記第1生体情報と前記第2生体情報とを照合する照合部と、
を備えたことを特徴とする生体認証装置。 - 前記外形情報取得部は、
前記第2外形情報として、生体を形成する生体部位毎に当該生体部位の外形に関する外形情報を取得し、前記第1外形情報及び前記第2外形情報の双方に同一の生体部位に関する所定の外形情報が2以上含まれるか否かを判定し、
前記位置合わせ部は、
前記外形情報取得部によって前記所定の外形情報が2以上含まれると判定された場合に、当該所定の外形情報の組合せに応じて位置合わせの所定の方式を選択し、選択した所定の方式により前記第1生体情報が抽出された領域と前記第2生体情報が抽出された領域とを位置合わせし、
前記照合部は、
前記外形情報取得部によって前記所定の外形情報が2以上含まれると判定された場合に、前記第1生体情報と前記第2生体情報とを照合する、
ことを特徴とする請求項1に記載の生体認証装置。 - 前記第2生体画像に含まれる生体領域が所定の閾値よりも小さいか否かを判定する判定部をさらに備え、
前記外形情報取得部は、
前記判定部によって前記生体領域が所定の閾値よりも小さいと判定された場合に、前記第2外形情報を取得し、
前記抽出部は、
前記判定部によって前記生体領域が所定の閾値よりも小さいと判定された場合に、前記第2生体情報を抽出する、
ことを特徴とする請求項1に記載の生体認証装置。 - 前記位置合わせ部は、
前記第1外形情報と前記第2外形情報とを用いて、前記第1生体情報が抽出された領域と前記第2生体情報が抽出された領域との差異である非共通領域を特定し、
前記照合部は、
前記位置合わせ部によって特定された非共通領域の重みを共通領域よりも下げて、前記第1生体情報と前記第2生体情報とを照合する、
ことを特徴とする請求項1に記載の生体認証装置。 - 前記外形情報取得部は、
前記第2外形情報として、前記生体である手を形成する手のひらと指と手首のうち、前記手のひらと前記指との接続点、前記手のひらと前記手首との接続点、前記手のひらの輪郭、前記手のひらの外接矩形、前記指の輪郭、前記指の外接矩形、前記手首の輪郭、前記手首の外接矩形の少なくともいずれか一つを取得し、前記手のひらと同一の指とを接続する2点が前記第1外形情報及び前記第2外形情報の双方に含まれるか否かを判定する、
ことを特徴とする請求項1に記載の生体認証装置。 - 生体が撮像された第1生体画像から取得された当該生体の外形に関する第1外形情報と、前記第1生体画像のうち当該生体の特徴を示す領域から抽出された第1生体情報とを記憶する記憶部から、前記第1外形情報及び前記第1生体情報を取得する登録データ取得手順と、
第2生体画像から第2外形情報を取得する外形情報取得手順と、
前記第2生体画像から第2生体情報を抽出する抽出手順と、
前記第1外形情報及び前記第2外形情報の双方に含まれる同一の生体部位に関する外形情報の組合せに応じて選択した所定の方式で、前記第1生体情報が抽出された領域と前記第2生体情報が抽出された領域とを位置合わせする位置合わせ手順と、
前記位置合わせ手順によって位置合わせされた前記第1生体情報と前記第2生体情報とを照合する照合手順と、
をコンピュータに実行させることを特徴とする生体認証プログラム。 - 生体認証装置が実行する生体認証方法であって、
生体が撮像された第1生体画像から取得された当該生体の外形に関する第1外形情報と、前記第1生体画像のうち当該生体の特徴を示す領域から抽出された第1生体情報とを記憶する記憶部から、前記第1外形情報及び前記第1生体情報を取得する登録データ取得工程と、
第2生体画像から第2外形情報を取得する外形情報取得工程と、
前記第2生体画像から第2生体情報を抽出する抽出工程と、
前記第1外形情報及び前記第2外形情報の双方に含まれる同一の生体部位に関する外形情報の組合せに応じて選択した所定の方式で、前記第1生体情報が抽出された領域と前記第2生体情報が抽出された領域とを位置合わせする位置合わせ工程と、
前記位置合わせ工程によって位置合わせされた前記第1生体情報と前記第2生体情報とを照合する照合工程と、
を含むことを特徴とする生体認証方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2012/061438 WO2013161077A1 (ja) | 2012-04-27 | 2012-04-27 | 生体認証装置、生体認証プログラム及び生体認証方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2012/061438 WO2013161077A1 (ja) | 2012-04-27 | 2012-04-27 | 生体認証装置、生体認証プログラム及び生体認証方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2013161077A1 true WO2013161077A1 (ja) | 2013-10-31 |
Family
ID=49482443
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2012/061438 Ceased WO2013161077A1 (ja) | 2012-04-27 | 2012-04-27 | 生体認証装置、生体認証プログラム及び生体認証方法 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2013161077A1 (ja) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3193277A1 (en) * | 2016-01-13 | 2017-07-19 | Fujitsu Limited | Biometric authentication device, biometric authentication method and biometric authentication program |
| US10719765B2 (en) | 2015-06-25 | 2020-07-21 | Biocatch Ltd. | Conditional behavioral biometrics |
| US10834090B2 (en) | 2015-07-09 | 2020-11-10 | Biocatch Ltd. | System, device, and method for detection of proxy server |
| US10949514B2 (en) | 2010-11-29 | 2021-03-16 | Biocatch Ltd. | Device, system, and method of differentiating among users based on detection of hardware components |
| US11055395B2 (en) | 2016-07-08 | 2021-07-06 | Biocatch Ltd. | Step-up authentication |
| US11210674B2 (en) | 2010-11-29 | 2021-12-28 | Biocatch Ltd. | Method, device, and system of detecting mule accounts and accounts used for money laundering |
| US11223619B2 (en) | 2010-11-29 | 2022-01-11 | Biocatch Ltd. | Device, system, and method of user authentication based on user-specific characteristics of task performance |
| US11250435B2 (en) | 2010-11-29 | 2022-02-15 | Biocatch Ltd. | Contextual mapping of web-pages, and generation of fraud-relatedness score-values |
| US11314849B2 (en) | 2010-11-29 | 2022-04-26 | Biocatch Ltd. | Method, device, and system of detecting a lie of a user who inputs data |
| US11330012B2 (en) | 2010-11-29 | 2022-05-10 | Biocatch Ltd. | System, method, and device of authenticating a user based on selfie image or selfie video |
| US11425563B2 (en) | 2010-11-29 | 2022-08-23 | Biocatch Ltd. | Method, device, and system of differentiating between a cyber-attacker and a legitimate user |
| US11606353B2 (en) | 2021-07-22 | 2023-03-14 | Biocatch Ltd. | System, device, and method of generating and utilizing one-time passwords |
| US11838118B2 (en) | 2010-11-29 | 2023-12-05 | Biocatch Ltd. | Device, system, and method of detecting vishing attacks |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006500662A (ja) * | 2002-09-25 | 2006-01-05 | ザ・ホンコン・ポリテクニック・ユニバーシティ | 掌紋認証方法及び装置 |
| JP2008040619A (ja) * | 2006-08-02 | 2008-02-21 | Tekusupiaa:Kk | 手の甲認証システム及び手の甲認証方法 |
| JP2009230692A (ja) * | 2008-03-25 | 2009-10-08 | Fujitsu Ltd | 生体認証装置、生体情報登録装置および生体認証方法 |
| JP2010152706A (ja) * | 2008-12-25 | 2010-07-08 | Fujitsu Ltd | 生体認証装置 |
| WO2010146675A1 (ja) * | 2009-06-17 | 2010-12-23 | 富士通株式会社 | 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム |
-
2012
- 2012-04-27 WO PCT/JP2012/061438 patent/WO2013161077A1/ja not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006500662A (ja) * | 2002-09-25 | 2006-01-05 | ザ・ホンコン・ポリテクニック・ユニバーシティ | 掌紋認証方法及び装置 |
| JP2008040619A (ja) * | 2006-08-02 | 2008-02-21 | Tekusupiaa:Kk | 手の甲認証システム及び手の甲認証方法 |
| JP2009230692A (ja) * | 2008-03-25 | 2009-10-08 | Fujitsu Ltd | 生体認証装置、生体情報登録装置および生体認証方法 |
| JP2010152706A (ja) * | 2008-12-25 | 2010-07-08 | Fujitsu Ltd | 生体認証装置 |
| WO2010146675A1 (ja) * | 2009-06-17 | 2010-12-23 | 富士通株式会社 | 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11314849B2 (en) | 2010-11-29 | 2022-04-26 | Biocatch Ltd. | Method, device, and system of detecting a lie of a user who inputs data |
| US11838118B2 (en) | 2010-11-29 | 2023-12-05 | Biocatch Ltd. | Device, system, and method of detecting vishing attacks |
| US11580553B2 (en) | 2010-11-29 | 2023-02-14 | Biocatch Ltd. | Method, device, and system of detecting mule accounts and accounts used for money laundering |
| US11425563B2 (en) | 2010-11-29 | 2022-08-23 | Biocatch Ltd. | Method, device, and system of differentiating between a cyber-attacker and a legitimate user |
| US10949514B2 (en) | 2010-11-29 | 2021-03-16 | Biocatch Ltd. | Device, system, and method of differentiating among users based on detection of hardware components |
| US11330012B2 (en) | 2010-11-29 | 2022-05-10 | Biocatch Ltd. | System, method, and device of authenticating a user based on selfie image or selfie video |
| US11210674B2 (en) | 2010-11-29 | 2021-12-28 | Biocatch Ltd. | Method, device, and system of detecting mule accounts and accounts used for money laundering |
| US11223619B2 (en) | 2010-11-29 | 2022-01-11 | Biocatch Ltd. | Device, system, and method of user authentication based on user-specific characteristics of task performance |
| US11250435B2 (en) | 2010-11-29 | 2022-02-15 | Biocatch Ltd. | Contextual mapping of web-pages, and generation of fraud-relatedness score-values |
| US10719765B2 (en) | 2015-06-25 | 2020-07-21 | Biocatch Ltd. | Conditional behavioral biometrics |
| US11238349B2 (en) | 2015-06-25 | 2022-02-01 | Biocatch Ltd. | Conditional behavioural biometrics |
| US10834090B2 (en) | 2015-07-09 | 2020-11-10 | Biocatch Ltd. | System, device, and method for detection of proxy server |
| US11323451B2 (en) | 2015-07-09 | 2022-05-03 | Biocatch Ltd. | System, device, and method for detection of proxy server |
| EP3193277A1 (en) * | 2016-01-13 | 2017-07-19 | Fujitsu Limited | Biometric authentication device, biometric authentication method and biometric authentication program |
| US10102416B2 (en) | 2016-01-13 | 2018-10-16 | Fujitsu Limited | Biometric authentication device, biometric authentication method and computer-readable non-transitory medium |
| JP2017126168A (ja) * | 2016-01-13 | 2017-07-20 | 富士通株式会社 | 生体認証装置、生体認証方法、および生体認証プログラム |
| US11055395B2 (en) | 2016-07-08 | 2021-07-06 | Biocatch Ltd. | Step-up authentication |
| US11606353B2 (en) | 2021-07-22 | 2023-03-14 | Biocatch Ltd. | System, device, and method of generating and utilizing one-time passwords |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2013161077A1 (ja) | 生体認証装置、生体認証プログラム及び生体認証方法 | |
| JP5747642B2 (ja) | 生体認証装置、生体認証システム、生体認証サーバ、生体認証クライアント及び生体認証装置制御方法 | |
| KR101706290B1 (ko) | 생체 측정 인증 디바이스 및 방법 | |
| JP5445584B2 (ja) | 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム | |
| JP5831018B2 (ja) | 生体認証装置及び生体認証装置における利用者の手の位置の調整方法 | |
| US9251396B2 (en) | Touchless fingerprinting acquisition and processing application for mobile devices | |
| JP5930023B2 (ja) | 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム | |
| JP6589309B2 (ja) | 端末装置、生体認証プログラム及び生体認証方法 | |
| US7747043B2 (en) | Registration method for biometrics authentication system, biometrics authentication system, and program for same | |
| JP5812109B2 (ja) | 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム | |
| JP6467852B2 (ja) | 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム | |
| US20140241593A1 (en) | Authentication apparatus, authentication method, and non-transitory computer readable medium | |
| JP2007206991A (ja) | 生体情報処理装置及び生体情報処理プログラム | |
| WO2014112081A1 (ja) | 生体認証装置、生体認証システム、及び生体認証方法 | |
| JP6160148B2 (ja) | 生体情報入力装置、生体情報入力プログラム、生体情報入力方法 | |
| JP5888390B2 (ja) | 生体認証装置 | |
| JP6187262B2 (ja) | 生体情報処理装置、生体情報処理方法及び生体情報処理用コンピュータプログラム | |
| JP4945505B2 (ja) | 生体情報処理装置 | |
| JP6364828B2 (ja) | 生体認証装置および携帯型電子装置 | |
| JP2012073905A (ja) | 生体認証装置 | |
| JP2010165132A (ja) | 個人識別装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12875107 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 12875107 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |