[go: up one dir, main page]

JP7044504B2 - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP7044504B2
JP7044504B2 JP2017176497A JP2017176497A JP7044504B2 JP 7044504 B2 JP7044504 B2 JP 7044504B2 JP 2017176497 A JP2017176497 A JP 2017176497A JP 2017176497 A JP2017176497 A JP 2017176497A JP 7044504 B2 JP7044504 B2 JP 7044504B2
Authority
JP
Japan
Prior art keywords
image
sampling
iris
gradient
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017176497A
Other languages
Japanese (ja)
Other versions
JP2018088236A (en
Inventor
征也 畠山
尚武 佐久本
一薫 永井
勇氣 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to US15/817,121 priority Critical patent/US10521659B2/en
Priority to DE102017220752.3A priority patent/DE102017220752B8/en
Publication of JP2018088236A publication Critical patent/JP2018088236A/en
Application granted granted Critical
Publication of JP7044504B2 publication Critical patent/JP7044504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関し、特に、人の顔などを撮影した画像に基づき目の特徴である視線などを推定するために利用可能な技術に関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly to a technique that can be used to estimate a line of sight, which is a feature of an eye, based on an image obtained by capturing a human face or the like.

従来より、人物の顔をカメラで撮影して得た画像のデータを処理して目の特徴を特定する画像処理装置が知られている(例えば特許文献1)。特許文献1の技術は、正確に瞳の領域を検出することを目的としている。 Conventionally, there has been known an image processing device that processes image data obtained by photographing a person's face with a camera to specify eye features (for example, Patent Document 1). The technique of Patent Document 1 aims to accurately detect the region of the pupil.

また、特許文献1に示された画像処理装置においては、顔画像の目がある目領域を、少なくとも目における縦方向に微分して輝度勾配を求める第2微分部41と、目領域について、輝度勾配を2値化しエッジ点を抽出する2値化部42と、目頭点および目尻点を両端点とし、該両端点と制御点とによって表現される曲線であって、かつ、上記エッジ点に適合する曲線を、上瞼または下瞼の輪郭を表す曲線として特定する瞼輪郭特定部44とを備えている。 Further, in the image processing apparatus shown in Patent Document 1, the second differential unit 41 for obtaining the brightness gradient by differentiating at least the eye region of the face image in the vertical direction in the vertical direction and the eye region have brightness. It is a curve expressed by the binarization unit 42 that binarizes the gradient and extracts the edge points, the inner and outer corner points of the eyes as both end points, and the both end points and the control points, and is compatible with the above edge points. It is provided with an eyelid contour specifying portion 44 for specifying the curve to be formed as a curve representing the contour of the upper eyelid or the lower eyelid.

特開2012-190351号公報Japanese Unexamined Patent Publication No. 2012-190351

人の顔を撮影した動画から、画像処理によりその人の視線を推定するような装置においては、画像中から黒目、すなわち虹彩の領域または瞳孔の領域の中心座標を高精度に検出できることが望ましい。 In a device that estimates the person's line of sight by image processing from a moving image of a person's face, it is desirable to be able to detect the center coordinates of the black eye, that is, the iris area or the pupil area from the image with high accuracy.

例えば、特許文献1に示された画像処理における黒目検出手法では、画像中のエッジを検出特徴として用いている。具体的にはソーベル(Sobel)フィルタに代表される微分フィルタを利用し、このフィルタ処理の結果の絶対値を特徴量として用いている。 For example, in the black eye detection method in image processing shown in Patent Document 1, an edge in an image is used as a detection feature. Specifically, a differential filter typified by a Sobel filter is used, and the absolute value of the result of this filter processing is used as a feature quantity.

しかし、このような手法では、瞼や眉、眼球に映りこんだ光の反射など、検出対象以外のオブジェクトに対しても一様にエッジを生成するため、検出精度の低下や、誤検出を引き起こす場合がある。そして、黒目の検出位置がずれると、視線を推定する際に誤差が発生する。 However, with such a method, edges are uniformly generated even for objects other than the detection target, such as the eyelids, eyebrows, and reflection of light reflected on the eyeballs, which causes a decrease in detection accuracy and false detection. In some cases. Then, if the detection position of the black eye shifts, an error occurs when estimating the line of sight.

また、特許文献1の技術ではハフ変換を用いているので、高精度化する際には処理量増加が避けられず、コンピュータのハードウェアに高い処理能力が要求される。また、画像に対して2値化や3値化の処理を行う場合には、閾値が問題となり、撮影時の環境光の影響を受けやすい。また、楕円検出のアルゴリズムを用いる場合には、例えば目が横を向き、二次元画像上での黒目の形状が大きくつぶれた状態になると、検出自体が困難になる。 Further, since the Hough transform is used in the technique of Patent Document 1, an increase in the processing amount is unavoidable when improving the accuracy, and the hardware of the computer is required to have a high processing capacity. Further, when the image is binarized or binarized, the threshold value becomes a problem and is easily affected by the ambient light at the time of shooting. Further, when the ellipse detection algorithm is used, for example, when the eyes are turned sideways and the shape of the black eyes on the two-dimensional image is greatly crushed, the detection itself becomes difficult.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、瞳孔または虹彩を高精度に検出することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing device, an image processing method, and an image processing program capable of detecting a pupil or an iris with high accuracy. ..

前述した目的を達成するために、本発明に係る画像処理装置は、下記(1)~()を特徴としている。
(1) 顔を含むように撮影された顔画像に対してデータ処理を行うデータ処理部を備える画像処理装置であって、
前記データ処理部は、
一つの走査方向にてエッジを検出するフィルタ処理を前記顔画像に施して、勾配の大きさ及び正負が情報として保持されたエッジ画像を生成し、
3次元モデルの表面に仮想的に位置するサンプリング曲線が、前記エッジ画像に投影された状態において、前記サンプリング曲線を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさ及び正負をサンプリング値として抽出し、
前記サンプリング曲線を構成する複数点のうちの前記走査方向の前方側に位置する第1の点群においては、前記勾配が正であるものを尤度評価の対象とし、前記サンプリング曲線を構成する複数点のうちの前記走査方向の後方側に位置する第2の点群においては、前記勾配が負であるものを尤度評価の対象として、前記サンプリング曲線に対する尤度を算出し、
複数の前記サンプリング曲線のうち、尤度が最大となる前記サンプリング曲線を瞳孔または虹彩として検出する。

前記サンプリング曲線が、下向きに膨らんだ半円形状の円弧曲線からなる、
上記(1)に記載の画像処理装置。
) 前記データ処理部が前記フィルタ処理によってエッジを検出する前記走査方向は、前記顔画像における目が並ぶ方向である、上記(1)又は(2)に記載の画像処理装置。
) 前記サンプリング曲線は円弧形状であって、最も膨らんだ円弧の底が前記3次元モデルにおける下方を向いた状態で前記エッジ画像に投影される、上記()に記載の画像処理装置。
) 前記データ処理部は、前記第1の点群においては前記勾配が正である点の前記勾配の大きさを加算し、前記第2の点群においては前記勾配が負である点の前記勾配の大きさを加算することにより、前記サンプリング曲線に対する尤度を算出する、上記(1)に記載の画像処理装置。
In order to achieve the above-mentioned object, the image processing apparatus according to the present invention is characterized by the following (1) to ( 5 ).
(1) An image processing device including a data processing unit that processes data on a face image taken so as to include a face.
The data processing unit
A filter process for detecting an edge in one scanning direction is applied to the face image to generate an edge image in which the magnitude of the gradient and the positive / negative are retained as information.
In a state where a sampling curve virtually located on the surface of the three-dimensional model is projected on the edge image, the magnitude of the gradient is large for each position in the edge image corresponding to each of the plurality of points constituting the sampling curve. Extract the positive and negative as the sampling value,
In the first point group located on the front side in the scanning direction among the plurality of points constituting the sampling curve, those having a positive gradient are targeted for likelihood evaluation, and the plurality of points constituting the sampling curve. In the second point group located on the rear side of the scanning direction among the points, the likelihood with respect to the sampling curve is calculated by using the point having a negative gradient as the target of the likelihood evaluation.
Of the plurality of sampling curves, the sampling curve having the maximum likelihood is detected as a pupil or an iris.
( 2 )
The sampling curve consists of a semicircular arc curve that bulges downward.
The image processing apparatus according to (1) above.
( 3 ) The image processing apparatus according to (1) or (2) above, wherein the scanning direction in which the data processing unit detects an edge by the filter processing is the direction in which the eyes are lined up in the face image.
( 4 ) The image processing apparatus according to ( 3 ) above, wherein the sampling curve has an arc shape, and the bottom of the most bulging arc is projected onto the edge image in a state of facing downward in the three-dimensional model.
( 5 ) The data processing unit adds the magnitude of the gradient at the point where the gradient is positive in the first point group, and the point where the gradient is negative in the second point group. The image processing apparatus according to (1) above, which calculates the likelihood with respect to the sampling curve by adding the magnitude of the gradient.

上記(1)、(2)の構成の画像処理装置によれば、外乱の多い環境下であっても、少ない計算量で、ノイズとなる不要な特徴の悪影響を回避し、瞳孔または虹彩を高精度に検出することが可能になる。画像認識においてエッジ情報を利用する場合には、絶対値を用いて符号を取り除くことが一般的である。しかし、検出対象が瞳孔または虹彩である場合に限定すれば、周辺のノイズ(光の映り込み等)と検出対象の瞳孔または虹彩とを分離するために、画像中の各エッジにおける勾配の大きさだけでなく正負の違いを利用することで検出精度を上げることができる。例えば、眼球の画像領域を左から右に向かって順次に走査する場合に、白目と虹彩との境界における虹彩の右側輪郭位置、または虹彩と瞳孔との境界における瞳孔の右側輪郭位置では、前記第1の点群において前記勾配が正である点が多くなり、虹彩の左側輪郭位置、または瞳孔の左側輪郭位置では、前記第2の点群において前記勾配が負である点が多くなる。したがって、前記サンプリング曲線の位置が瞳孔または虹彩の輪郭位置と一致する状態で、尤度が最大になる。こうして、瞳孔または虹彩を高精度に検出することが可能になる。
上記()の構成の画像処理装置によれば、虹彩の位置を高精度で認識するために必要な情報を効率よく取得できる。エッジを検出する前記走査方向を目の上下方向にする場合を想定すると、虹彩の輪郭と隣接する境界が上まぶた、又は下まぶたになる場合がある。また、まぶたは環境光や化粧の影響を受けて変化しやすいので、虹彩との境界をエッジ画像上で検出することが困難になる。しかし、エッジを検出する前記走査方向を前記顔画像における目が並ぶ方向、例えば水平方向に定めることで、上まぶた、下まぶたの影響はほとんどなくなる。このため、虹彩の検出精度が向上する。
上記()の構成の画像処理装置によれば、虹彩の位置を高精度で認識するために必要な情報を効率よく取得できる。一般的な顔画像では、目の領域において、虹彩の上端部が上まぶたと隣接していたり、上まぶたで虹彩の一部分が覆われているような場合が多いため、虹彩の上端側の輪郭は検出しにくい。一方、虹彩の左右側方および下端部については、白目との境界が明確に現れる場合が多いので、虹彩の輪郭を検出しやすい。したがって、最も膨らんだ円弧の底が下方を向いた状態の円弧形状を採用することにより、虹彩の輪郭部位の検出が容易になる。
上記()の構成の画像処理装置によれば、走査方向において虹彩から白目に切り替わる境界または瞳孔から虹彩に切り替わる境界のエッジの特徴を前記勾配が正である点の前記勾配の大きさとして検出し、走査方向において白目から虹彩に切り替わる境界または虹彩から瞳孔に切り替わる境界のエッジの特徴を前記勾配が負である点の前記勾配の大きさとして検出し、これらの特徴に基づき尤度を算出できる。
According to the image processing apparatus having the above configurations (1) and (2) , even in an environment with a lot of disturbance, it is possible to avoid the adverse effects of unnecessary features that cause noise with a small amount of calculation, and to increase the pupil or iris. It becomes possible to detect with accuracy. When edge information is used in image recognition, it is common to remove the sign using an absolute value. However, if the detection target is only the pupil or iris, the magnitude of the gradient at each edge in the image is to separate the peripheral noise (light reflection, etc.) from the detection target pupil or iris. Not only that, the detection accuracy can be improved by using the difference between positive and negative. For example, when scanning the image area of the eyeball sequentially from left to right, the right contour position of the iris at the boundary between the white eye and the iris, or the right contour position of the pupil at the boundary between the iris and the pupil is the above-mentioned first. In the point group of 1, there are many points where the gradient is positive, and in the left contour position of the iris or the left contour position of the pupil, there are many points where the gradient is negative in the second point group. Therefore, the likelihood is maximized when the position of the sampling curve coincides with the contour position of the pupil or the iris. In this way, it becomes possible to detect the pupil or the iris with high accuracy.
According to the image processing apparatus having the above configuration ( 3 ), the information necessary for recognizing the position of the iris with high accuracy can be efficiently acquired. Assuming that the scanning direction for detecting an edge is the vertical direction of the eye, the boundary adjacent to the contour of the iris may be the upper eyelid or the lower eyelid. In addition, since the eyelids are easily changed by the influence of ambient light and makeup, it becomes difficult to detect the boundary with the iris on the edge image. However, by setting the scanning direction for detecting the edge to the direction in which the eyes are lined up in the face image, for example, the horizontal direction, the influence of the upper eyelid and the lower eyelid is almost eliminated. Therefore, the detection accuracy of the iris is improved.
According to the image processing apparatus having the above configuration ( 4 ), the information necessary for recognizing the position of the iris with high accuracy can be efficiently acquired. In a typical facial image, the contour of the upper edge of the iris is often the area of the eye where the upper edge of the iris is adjacent to the upper eyelid or the upper eyelid covers part of the iris. Hard to detect. On the other hand, on the left and right sides and the lower end of the iris, the boundary with the white of the eye often appears clearly, so that the outline of the iris can be easily detected. Therefore, by adopting an arc shape in which the bottom of the most bulging arc faces downward, it becomes easy to detect the contour portion of the iris.
According to the image processing apparatus having the above configuration ( 5 ), the feature of the edge of the boundary where the iris is switched to the white eye or the boundary where the pupil is switched to the iris in the scanning direction is detected as the magnitude of the gradient at the point where the gradient is positive. Then, the characteristics of the edge of the boundary where the white of the eye switches to the iris or the boundary where the iris switches to the pupil in the scanning direction can be detected as the magnitude of the gradient at the point where the gradient is negative, and the likelihood can be calculated based on these characteristics. ..

前述した目的を達成するために、本発明に係る画像処理方法は、下記()を特徴としている。
) 顔を含むように撮影された顔画像に対してデータ処理を行うデータ処理部を備える画像処理方法であって、
前記顔画像に対して一つの走査方向にてエッジを検出するフィルタによって、勾配の大きさ及び正負が情報として保持されたエッジ画像を生成するステップと、
3次元モデルの表面に仮想的に位置するサンプリング曲線が、前記エッジ画像に投影された状態において、前記サンプリング曲線を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさ及び正負をサンプリング値として抽出するステップと、
前記サンプリング曲線を構成する複数点のうちの前記走査方向の前方側に位置する第1の点群においては、前記勾配が正であるものを尤度評価の対象とし、前記サンプリング曲線を構成する複数点のうちの前記走査方向の後方側に位置する第2の点群においては、前記勾配が負であることを尤度評価の対象として、前記サンプリング曲線に対する尤度を算出するステップと、
複数の前記サンプリング曲線のうち、尤度が最大となる前記サンプリング曲線を瞳孔または虹彩として検出するステップと、
を有する。
In order to achieve the above-mentioned object, the image processing method according to the present invention is characterized by the following ( 6 ).
( 6 ) An image processing method including a data processing unit that performs data processing on a face image taken so as to include a face.
A step of generating an edge image in which the magnitude of the gradient and positive / negative are retained as information by a filter that detects an edge in one scanning direction with respect to the face image.
In a state where a sampling curve virtually located on the surface of the three-dimensional model is projected on the edge image, the magnitude of the gradient is large for each position in the edge image corresponding to each of the plurality of points constituting the sampling curve. Steps to extract positive and negative as sampling values,
In the first point group located on the front side in the scanning direction among the plurality of points constituting the sampling curve, those having a positive gradient are targeted for likelihood evaluation, and the plurality of points constituting the sampling curve. In the second point group located on the rear side of the scanning direction among the points, the step of calculating the likelihood with respect to the sampling curve with the negative gradient as the target of the likelihood evaluation.
A step of detecting the sampling curve having the maximum likelihood among the plurality of sampling curves as a pupil or an iris, and a step of detecting the sampling curve.
Have.

上記()の構成の画像処理方法によれば、上記(1)の画像処理装置の場合と同様に、外乱の多い環境下であっても、少ない計算量で、ノイズとなる不要な特徴の悪影響を回避し、瞳孔または虹彩を高精度に検出することが可能になる。 According to the image processing method having the configuration of ( 6 ) above, as in the case of the image processing apparatus of (1) above, even in an environment with a lot of disturbance, an unnecessary feature of noise is generated with a small amount of calculation. It is possible to avoid adverse effects and detect the pupil or iris with high accuracy.

前述した目的を達成するために、本発明に係る画像プログラムは、下記()を特徴としている。
) コンピュータに、上記()に記載の画像処理方法の各ステップを実行させるための画像処理プログラム。
In order to achieve the above-mentioned object, the image program according to the present invention is characterized by the following ( 7 ).
( 7 ) An image processing program for causing a computer to execute each step of the image processing method described in ( 6 ) above.

上記()の構成の画像処理プログラムによれば、この画像処理プログラムを所定のコンピュータで実行することにより、上記(1)の画像処理装置の場合と同様に、外乱の多い環境下であっても、少ない計算量で、ノイズとなる不要な特徴の悪影響を回避し、瞳孔または虹彩を高精度に検出することが可能になる。 According to the image processing program having the configuration of ( 7 ) above, by executing this image processing program on a predetermined computer, the environment is subject to a lot of disturbance, as in the case of the image processing apparatus of (1) above. However, with a small amount of calculation, it is possible to avoid the adverse effects of unnecessary features that become noise and detect the pupil or iris with high accuracy.

本発明の画像処理装置、画像処理方法および画像処理プログラムによれば、瞳孔または虹彩を高精度に検出することが可能になる。本発明は、検出誤差の原因になる外乱の多い環境下であっても、少ない計算量で、ノイズとなる不要な特徴の悪影響を回避することができるため、有用である。 According to the image processing apparatus, the image processing method and the image processing program of the present invention, it becomes possible to detect the pupil or the iris with high accuracy. The present invention is useful because it is possible to avoid the adverse effects of unnecessary features that cause noise with a small amount of calculation even in an environment with many disturbances that cause detection errors.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。 The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through the embodiments described below (hereinafter referred to as "embodiments") with reference to the accompanying drawings. ..

図1は、車両に搭載した画像処理装置の配置状態の具体例を示す斜視図である。FIG. 1 is a perspective view showing a specific example of an arrangement state of an image processing device mounted on a vehicle. 図2は、本発明に係る実施形態の画像処理装置が実施する視線検出アルゴリズムの概要を示すフローチャートである。FIG. 2 is a flowchart showing an outline of a line-of-sight detection algorithm implemented by the image processing apparatus according to the embodiment of the present invention. 図3は、眼球の三次元モデルおよび二次元画像の関係を示す模式図である。FIG. 3 is a schematic diagram showing the relationship between a three-dimensional model of an eyeball and a two-dimensional image. 図4は従来の視線検出アルゴリズムにおける、画像から虹彩を探索する処理の流れおよびデータの具体例である。FIG. 4 is a specific example of the process flow and data for searching an iris from an image in a conventional line-of-sight detection algorithm. 図5は、図2に示したステップS18の詳細を示すフローチャートである。FIG. 5 is a flowchart showing the details of step S18 shown in FIG. 図6は、図5に示した処理を実行する場合の処理データの具体例を示す模式図である。FIG. 6 is a schematic diagram showing a specific example of processing data when the processing shown in FIG. 5 is executed. 図7は、従来の視線検出アルゴリズムによって虹彩の検出位置ずれが発生する過程を説明する図である。FIG. 7 is a diagram illustrating a process in which the detection position shift of the iris is generated by the conventional line-of-sight detection algorithm. 図8(a)は、画像のエッジを検出するソーベルフィルタの走査方向と、処理前後の各データの状態の例を示す図であり、図8(b)は、処理後のエッジ画像のデータの例を示す図である。FIG. 8A is a diagram showing an example of the scanning direction of the sobel filter for detecting the edge of the image and the state of each data before and after the processing, and FIG. 8B is the data of the edge image after the processing. It is a figure which shows the example of. 図9は、図5に示したステップS18dに関する詳細な内容を示すフローチャートである。FIG. 9 is a flowchart showing detailed contents regarding step S18d shown in FIG. 図10は、虹彩を検出するために用いるパーティクルフィルタのパターン形状の具体例を示す模式図である。FIG. 10 is a schematic diagram showing a specific example of the pattern shape of the particle filter used for detecting the iris. 図11(a)、(b)は、図9に示した処理を実行する場合の処理データの具体例を示す模式図である。11 (a) and 11 (b) are schematic views showing specific examples of processing data when the processing shown in FIG. 9 is executed. 図12は、第2実施形態におけるパーティクルフィルタのパターン形状を示す模式図である。FIG. 12 is a schematic diagram showing the pattern shape of the particle filter in the second embodiment. 図13(a)、(b)は、図12のパーティクルフィルタのパターン形状を適用した場合の処理データの具体例を示す模式図である。13 (a) and 13 (b) are schematic views showing specific examples of processing data when the pattern shape of the particle filter of FIG. 12 is applied. 図14は、本発明の適用の有無と検出誤差との関係の例を表すグラフである。FIG. 14 is a graph showing an example of the relationship between the presence or absence of application of the present invention and the detection error. 図15は、第3実施形態におけるパーティクルフィルタのパターン形状を示す模式図である。FIG. 15 is a schematic diagram showing the pattern shape of the particle filter in the third embodiment. 図16(a)、(b)は、図15のパーティクルフィルタのパターン形状を適用した場合の処理データの具体例を示す模式図である。16 (a) and 16 (b) are schematic views showing specific examples of processing data when the pattern shape of the particle filter of FIG. 15 is applied.

本発明の画像処理装置、画像処理方法および画像処理プログラムに関する具体的な実施の形態について、各図を参照しながら以下に説明する。 Specific embodiments of the image processing apparatus, image processing method, and image processing program of the present invention will be described below with reference to each figure.

<本発明が適用される環境の具体例>
車両に搭載した画像処理装置の配置状態の具体例を図1に示す。
図1に示した例では、車両の車室内10にカメラ12および処理部13が設置されている。具体的には、運転席に着座している人物11、すなわち運転者の目の領域11aを含む顔などをカメラ12で撮影できるように、運転席前方のメータユニット内、あるいはコラムカバーの箇所にカメラ12が設置されている。
<Specific example of environment to which the present invention is applied>
FIG. 1 shows a specific example of the arrangement state of the image processing device mounted on the vehicle.
In the example shown in FIG. 1, the camera 12 and the processing unit 13 are installed in the vehicle interior 10 of the vehicle. Specifically, in the meter unit in front of the driver's seat or at the column cover so that the person 11 sitting in the driver's seat, that is, the face including the driver's eye area 11a can be photographed by the camera 12. A camera 12 is installed.

処理部13は、カメラ12が人物11の顔を撮影した得られる二次元画像データを処理して、目の領域11aのデータから視線11bの方向を示す情報を推定する。処理部13が推定した視線11bの情報は、代表例として、車両を運転する運転者が安全確認のための視線移動をしているかどうかを車載装置が認識するために利用できる。勿論、このような視線の情報は様々な用途に利用可能である。したがって、本発明の画像処理装置は、例えば図1中の処理部13、あるいはその一部として構成することが想定される。 The processing unit 13 processes the two-dimensional image data obtained by photographing the face of the person 11 by the camera 12, and estimates the information indicating the direction of the line of sight 11b from the data in the eye region 11a. The information of the line of sight 11b estimated by the processing unit 13 can be used, as a typical example, for the in-vehicle device to recognize whether or not the driver who drives the vehicle is moving the line of sight for safety confirmation. Of course, such line-of-sight information can be used for various purposes. Therefore, it is assumed that the image processing apparatus of the present invention is configured as, for example, the processing unit 13 in FIG. 1 or a part thereof.

<視線検出アルゴリズムの概要>
本発明に係る実施形態の画像処理装置が実施する視線検出アルゴリズムの概要を説明する。図2は、本発明に係る実施形態の画像処理装置が実施する視線検出アルゴリズムの概要を示すフローチャートである。画像処理装置のコンピュータが所定のプログラムを実行することにより、図2に示した視線検出アルゴリズムに従った動作が順次に行われる。
<Overview of line-of-sight detection algorithm>
The outline of the line-of-sight detection algorithm implemented by the image processing apparatus according to the embodiment of the present invention will be described. FIG. 2 is a flowchart showing an outline of a line-of-sight detection algorithm implemented by the image processing apparatus according to the embodiment of the present invention. When the computer of the image processing apparatus executes a predetermined program, the operations according to the line-of-sight detection algorithm shown in FIG. 2 are sequentially performed.

カメラ12は、人物11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。画像処理装置のコンピュータは、ステップS12でカメラ12から映像の信号を1フレーム分取り込む。 The camera 12 constantly captures an image of a region including the face of the person 11 at a fixed cycle, and outputs an image signal. The computer of the image processing device captures one frame of the video signal from the camera 12 in step S12.

そして次のステップS13で、グレースケール化を含む、画像のデータ形式の変換、すなわち「下処理」を行う。例えば、1フレーム内の各画素位置毎に、輝度を「0~255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向及び横方向に並べた二次元(2D)配列の画像データを生成する。 Then, in the next step S13, conversion of the data format of the image including grayscale conversion, that is, "preparation" is performed. For example, for each pixel position in one frame, 8-bit data representing the brightness in gradations in the range of "0 to 255" are arranged vertically and horizontally according to the scanning direction in the frame at the time of shooting. Generate image data of a dimensional (2D) array.

次のステップS14では、例えば「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の領域として抽出する。すなわち、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔の領域を抽出する。「Viola-Jones法」の技術は、例えば以下の文献に示されている。
「P.viola and M.J.Jones,"Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE CVPR(2001).」
In the next step S14, face detection is performed using, for example, the "Viola-Jones method", and a region including a face is extracted as a rectangular region from the two-dimensional image data of one frame. That is, the area of the face is extracted using the detector created by learning using "Boosting", which is characterized by the difference in the shading of the face. The technique of "Viola-Jones method" is shown in the following literature, for example.
"P. viola and MJ Jones," Rapid Object Detection Using a Boosted Cascade of Simple Features, "IEEE CVPR (2001)."

次のステップS15では、S14で抽出した顔の矩形領域のデータの中から、例えば「Viola-Jones法」を用いて目の領域を検出する。 In the next step S15, the eye region is detected from the data of the rectangular region of the face extracted in S14 by using, for example, the "Viola-Jones method".

また、本実施形態では後述する眼球3Dモデルを用いるモデルベース手法によって視線を検出する場合を想定しているので、眼球中心を特定する必要がある。この眼球中心をステップS16で推定する。ここでは、ステップS15で検出した目の矩形領域の中心座標を眼球中心と仮定する。なお、例えば目尻、目頭位置に基づき眼球中心を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することも想定される。 Further, in the present embodiment, since it is assumed that the line of sight is detected by a model-based method using an eyeball 3D model described later, it is necessary to specify the center of the eyeball. The center of the eyeball is estimated in step S16. Here, it is assumed that the center coordinates of the rectangular region of the eye detected in step S15 are the center of the eyeball. It is also conceivable to use, for example, a method of determining the center of the eyeball based on the positions of the outer and inner corners of the eye, or a method of estimating the skeleton from the feature points of the face and simultaneously calculating the center of the eyeball.

ステップS17では、S15で検出した目の矩形領域のデータについて、テンプレートマッチングの手法を適用して、瞳孔または虹彩の粗探索を行う。具体的には、目周辺を切り出した目画像を二値化した画像に対して、テンプレートとして黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の画像中心(黒丸の中心)の座標を目画像中の瞳孔または虹彩の中心位置とし、最も尤度の大きかった黒丸画像の半径を目画像中の瞳孔または虹彩の半径とする。なお、ステップS17の処理は、目画像中の瞳孔または虹彩の中心位置及び半径に関しておおよその目処をつけるために行うものである。 In step S17, a template matching method is applied to the data in the rectangular region of the eye detected in S15 to perform a rough search for the pupil or iris. Specifically, the coordinates of the image center (center of the black circle) of the black circle image with the highest likelihood are matched by matching the black circle image as a template to the binarized image of the eye image cut out around the eye. The center position of the pupil or iris in the image, and the radius of the black circle image with the highest likelihood is the radius of the pupil or iris in the eye image. The process of step S17 is performed in order to obtain an approximate target for the center position and radius of the pupil or iris in the eye image.

ステップS18では、S17で探索した瞳孔または虹彩の中心位置及び半径を利用し、パーティクルフィルタの手法を適用して、より精度の高い瞳孔または虹彩の中心位置及び半径を検出する。ステップS18には本発明の特徴的な処理が含まれているので、この内容については後で詳細に説明する。 In step S18, the center position and radius of the pupil or iris searched in S17 are used, and the technique of the particle filter is applied to detect the center position and radius of the pupil or iris with higher accuracy. Since step S18 includes a characteristic process of the present invention, the contents thereof will be described in detail later.

ステップS13~S18の処理により、1フレームの画像について、眼球中心座標や瞳孔または虹彩の中心位置の座標のデータが得られるので、その数値データをステップS19で出力する。眼球中心座標および瞳孔または虹彩の中心位置の座標により視線の方向を特定できる。また、カメラ12が出力する映像が途切れるまで、ステップS11~S20のループ状の処理を繰り返すことで、リアルタイムでの視線検出を実現する。 By the processing of steps S13 to S18, data of the coordinates of the center of the eyeball and the coordinates of the center position of the pupil or the iris can be obtained for the image of one frame, and the numerical data is output in step S19. The direction of the line of sight can be specified by the coordinates of the center of the eyeball and the coordinates of the center position of the pupil or iris. Further, by repeating the loop-shaped processing of steps S11 to S20 until the image output by the camera 12 is interrupted, the line-of-sight detection in real time is realized.

<眼球3Dモデルの説明>
眼球の3D(三次元)モデルおよび2D(二次元)画像の関係を図3に示す。
図3に示した眼球3Dモデル30において、この眼球は眼球中心31と、半径Rとで表される球体である。また、この眼球の表面に円形形状の虹彩32があり、虹彩32の中央に円形形状の瞳孔33がある。
<Explanation of 3D eyeball model>
The relationship between the 3D (three-dimensional) model of the eyeball and the 2D (two-dimensional) image is shown in FIG.
In the eyeball 3D model 30 shown in FIG. 3, this eyeball is a sphere represented by an eyeball center 31 and a radius R. Further, there is a circular iris 32 on the surface of the eyeball, and a circular pupil 33 in the center of the iris 32.

したがって、視線の方向は、眼球中心31から虹彩32または瞳孔33の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw) 、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、虹彩32または瞳孔33の中心座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。 Therefore, the direction of the line of sight can be specified as the direction from the center of the eyeball 31 toward the center of the iris 32 or the pupil 33, and the rotation angle yaw with respect to the reference direction in the horizontal plane and the rotation angle pitch with respect to the reference direction in the vertical direction (pitch). ) Can be expressed. Further, the center coordinates of the iris 32 or the pupil 33 can be represented by the eyeball radius R, yaw, and pitch when the eyeball center 31 is used as a reference.

一方、カメラ12が撮影する映像は特定の2次元平面を表している。したがって、カメラ12の撮影で得た二次元画像34を眼球3Dモデル30に適用する場合には、二次元/三次元の相互変換を行う必要がある。そこで、例えば次の計算式を用いて変換する。 On the other hand, the image captured by the camera 12 represents a specific two-dimensional plane. Therefore, when the two-dimensional image 34 obtained by the image taken by the camera 12 is applied to the eyeball 3D model 30, it is necessary to perform two-dimensional / three-dimensional mutual conversion. Therefore, for example, the conversion is performed using the following formula.

X=-R×cos(pitch)×sin(yaw) ・・・(1)
Y=R×sin(pitch) ・・・(2)
X:二次元画像平面上での眼球中心31からのx方向の距離
Y:二次元画像平面上での眼球中心31からのy方向の距離
X = -R x cos (pitch) x sin (yaw) ... (1)
Y = R × sin (pitch) ・ ・ ・ (2)
X: Distance in the x direction from the center of the eyeball 31 on the two-dimensional image plane Y: Distance in the y direction from the center of the eyeball 31 on the two-dimensional image plane

<画像から虹彩を探索する処理の具体例>
以降では、まず、画像から虹彩を探索する処理の具体例を説明する。
<Specific example of the process of searching for an iris from an image>
Hereinafter, first, a specific example of the process of searching for an iris from an image will be described.

<従来の視線検出アルゴリズムの処理の説明>
<処理の流れ>
本発明に係る実施形態の画像処理装置が実施する視線検出アルゴリズムの詳細を説明するに先立ち、従来の視線検出アルゴリズムの詳細についてまず説明する。図4は、従来の視線検出アルゴリズムにおける、画像から虹彩を探索する処理の流れおよびデータの具体例である。
図4のステップS41では、図2中のステップS15の結果を利用して、1フレーム全体の二次元画像データの中から目およびその周辺の矩形領域を切り出して、データD41を取得する。
<Explanation of processing of the conventional line-of-sight detection algorithm>
<Processing flow>
Prior to explaining the details of the line-of-sight detection algorithm implemented by the image processing apparatus according to the present invention, the details of the conventional line-of-sight detection algorithm will be described first. FIG. 4 is a specific example of the flow of processing and data for searching an iris from an image in a conventional line-of-sight detection algorithm.
In step S41 of FIG. 4, the result of step S15 in FIG. 2 is used to cut out a rectangular area of the eye and its periphery from the two-dimensional image data of the entire frame, and acquire the data D41.

図4のステップS42では、S41で取得したデータD41を画素毎の階調が黒/白の二値のみになるように二値化したデータD42を生成した後で、このデータD42に対して図2のステップS17のテンプレートマッチングを実施する。すなわち、虹彩の形状に似た黒丸形状の画像D4tをテンプレートとして利用し、このテンプレートをデータD42の画像上で走査しながら、特徴が尤も似ているおおよその虹彩の位置P41を探索し、その位置および虹彩の半径または直径を特定する。 In step S42 of FIG. 4, after generating data D42 obtained by binarizing the data D41 acquired in S41 so that the gradation of each pixel is only a binary value of black / white, the figure is shown with respect to this data D42. The template matching in step S17 of 2 is performed. That is, an image D4t having a black circle shape similar to the shape of the iris is used as a template, and while scanning this template on the image of the data D42, an approximate position P41 of the iris having similar features is searched for, and the position is searched for. And identify the radius or diameter of the iris.

また、図4のステップS43では、S41で取得した目のデータD41に対してソーベルフィルタの処理を施す。具体的には、目のデータD41を左から右に向かって水平方向に順次に走査し、輝度変化のない部分では黒(階調値:0)を出力し、輝度変化の勾配が大きいほど白(階調値:255)に近づくようにして、エッジを検出する。これにより、エッジを抽出した目画像のデータD43が得られる。 Further, in step S43 of FIG. 4, the sobel filter process is applied to the eye data D41 acquired in S41. Specifically, the eye data D41 is scanned sequentially in the horizontal direction from left to right, black (gradation value: 0) is output in the portion where the luminance does not change, and the larger the gradient of the luminance change, the whiter. The edge is detected by approaching (gradient value: 255). As a result, the data D43 of the eye image from which the edges are extracted can be obtained.

図4のステップS44では、S42の結果得られたおおよその虹彩の位置を起点として、S43の結果得られた目画像のデータD43に対してパーティクルフィルタの処理を実行する。 In step S44 of FIG. 4, a particle filter process is executed on the data D43 of the eye image obtained as a result of S43, starting from the approximate position of the iris obtained as a result of S42.

<パーティクルフィルタによる虹彩検出の処理>
図4に示したステップS44の詳細を図5に示す。すなわち、パーティクルフィルタを用いて虹彩位置を検出するための処理が図5に示されている。また、図5に示した処理を実行する場合の処理データの具体例を図6に示す。
<Processing of iris detection by particle filter>
The details of step S44 shown in FIG. 4 are shown in FIG. That is, the process for detecting the iris position using the particle filter is shown in FIG. Further, FIG. 6 shows a specific example of the processing data when the processing shown in FIG. 5 is executed.

図6中の二値化したデータD91に対してステップS42の粗探索を実行することにより、円形の虹彩の領域91が検出される。図5のステップS18aでは、ステップS17またはS42の粗探索で得られた虹彩の中心位置を、第(1)式および第(2)式に基づき眼球3Dモデル30の座標系(R、Pp、Py)に変換し、虹彩の中心位置を表す眼球回転角(Pp、Py)を得る。
R:眼球半径
Pp:回転角pitchを表す変数
Py:回転角yaw表す変数
By executing the rough search of step S42 on the binarized data D91 in FIG. 6, the region 91 of the circular iris is detected. In step S18a of FIG. 5, the center position of the iris obtained by the rough search in step S17 or S42 is determined by the coordinate system (R, Pp, Py) of the eyeball 3D model 30 based on the equations (1) and (2). ), And the angle of rotation (Pp, Py) representing the center position of the iris is obtained.
R: Eye radius Pp: Variable representing the angle of rotation punch Py: Variable representing the angle of rotation yaw

したがって、粗探索で得た円形の虹彩の領域92の位置を、図6に示すように眼球3Dモデル30A上の眼球表面位置に反映することができる。 Therefore, the position of the circular iris region 92 obtained by the rough search can be reflected in the eyeball surface position on the eyeball 3D model 30A as shown in FIG.

図5のステップS18bでは、実際の虹彩位置の候補を見つけるために必要な複数のパーティクルを粗探索で得た虹彩の中心位置(Pp、Py)の近傍に散布する。具体的には、乱数を用いて、例えば100セットのサンプリング円93を作成する。これらのサンプリング円93は、図6に示すように眼球3Dモデル30B上の眼球表面位置に反映することができる。各々のサンプリング円93は、虹彩の中心位置(Pp、Py)に、それぞれ異なる乱数成分(Ppd、Pyd)を加算した位置を中心とする円形の領域である。
Ppd:回転角pitchに加算される乱数成分
Pyd:回転角yawに加算される乱数成分
In step S18b of FIG. 5, a plurality of particles necessary for finding a candidate for an actual iris position are scattered in the vicinity of the center position (Pp, Py) of the iris obtained by the rough search. Specifically, for example, 100 sets of sampling circles 93 are created using random numbers. These sampling circles 93 can be reflected in the eyeball surface position on the eyeball 3D model 30B as shown in FIG. Each sampling circle 93 is a circular region centered on a position obtained by adding different random number components (Ppd, Pyd) to the center position (Pp, Py) of the iris.
Ppd: Random number component added to the rotation angle punch Pyd: Random number component added to the rotation angle yaw

100セットのサンプリング円93を作成する際には、正規分布に従ってランダムノイズを加えるように各乱数成分(Ppd、Pyd)を生成する。したがって、図6に示した眼球3Dモデル30Bのように、虹彩の領域92の近傍の様々な位置に、サンプリング円93がランダムに形成される。 When creating 100 sets of sampling circles 93, each random number component (Ppd, Pyd) is generated so as to add random noise according to a normal distribution. Therefore, as in the eyeball 3D model 30B shown in FIG. 6, sampling circles 93 are randomly formed at various positions in the vicinity of the iris region 92.

図5のステップS18cでは、100セットのサンプリング円93のそれぞれを、図6に示したエッジ画像D92(図4中のデータD43に相当)の平面に投影する。なお、虹彩の領域92や各サンプリング円93の形状は円形であるが、各円の位置がカメラ12の正面を向いている状態でない限り、眼球3Dモデル30上の各円を二次元画像の平面に投影すると、傾斜した状態で投影されるため、二次元平面上では楕円形になる。そのため、便宜上、二次元平面上に投影されたサンプリング円93をサンプリング楕円94と称する。サンプリング楕円94は、弧上の各位置に均等に割り当てられた複数点によって構成されている。 In step S18c of FIG. 5, each of 100 sets of sampling circles 93 is projected onto the plane of the edge image D92 (corresponding to the data D43 in FIG. 4) shown in FIG. The shape of the iris region 92 and each sampling circle 93 is circular, but unless the position of each circle faces the front of the camera 12, each circle on the eyeball 3D model 30 is a plane of a two-dimensional image. When projected onto, it becomes an elliptical shape on a two-dimensional plane because it is projected in an inclined state. Therefore, for convenience, the sampling circle 93 projected on the two-dimensional plane is referred to as a sampling ellipse 94. The sampling ellipse 94 is composed of a plurality of points evenly assigned to each position on the arc.

図5のステップS18dでは、次に説明する「サンプリング処理」を実施する。すなわち、サンプリング楕円94毎に、楕円を構成する各点(この例では総数が120点)のエッジ画像のエッジ強度(勾配の大きさ)を足し合わせ、その結果を一つのサンプリング楕円94の尤度とする。 In step S18d of FIG. 5, the “sampling process” described below is performed. That is, for each sampling ellipse 94, the edge intensities (gradient magnitude) of the edge images of each point (the total number is 120 points in this example) constituting the ellipse are added, and the result is the likelihood of one sampling ellipse 94. And.

100セットの全てのサンプリング楕円94についてステップS18c、S18dの処理を繰り返し、全ての処理が終了すると、ステップS18eからS18fに進む。ステップS18fでは、100セットのサンプリング楕円94の中で、ステップS18dで検出した尤度が最大の1つのサンプリング楕円94を特定し、その位置および形状を実際の虹彩の位置および形状として検出する。以上が、従来の視線検出アルゴリズムにおけるパーティクルフィルタによる虹彩検出の処理である。 The processing of steps S18c and S18d is repeated for all the sampling ellipses 94 of 100 sets, and when all the processing is completed, the process proceeds from steps S18e to S18f. In step S18f, one sampling ellipse 94 having the highest likelihood detected in step S18d is specified from among 100 sets of sampling ellipses 94, and its position and shape are detected as the actual position and shape of the iris. The above is the process of iris detection by the particle filter in the conventional line-of-sight detection algorithm.

<従来の視線検出アルゴリズムによる検出位置ずれの説明>
図7は、従来の視線検出アルゴリズムによって虹彩の検出位置ずれが発生する過程を説明する図である。上述のような処理を実施する画像処理装置を例えば屋外環境で使用する場合を想定すると、環境光の影響により検出精度が低下する。
<Explanation of detection position shift by conventional line-of-sight detection algorithm>
FIG. 7 is a diagram illustrating a process in which the detection position shift of the iris is generated by the conventional line-of-sight detection algorithm. Assuming that an image processing device that performs the above-mentioned processing is used, for example, in an outdoor environment, the detection accuracy is lowered due to the influence of ambient light.

例えば、図7に示した目画像のデータD51に基づき生成される二値化したデータD52に対して、二値化探索S51(S17、S42に相当)を実行すると、虹彩の位置P51が誤った位置に検出される場合が起こり得る。その結果、前述のパーティクルフィルタの処理S52をエッジ画像D53に対して適用する際に、パーティクルの散布基点がずれることになり、尤度評価の際に、虹彩以外のエッジ情報を拾いやすくなり、最終的に検出精度を低下させることとなる。 For example, when the binarization search S51 (corresponding to S17 and S42) is executed for the binarized data D52 generated based on the data D51 of the eye image shown in FIG. 7, the position P51 of the iris is incorrect. It may be detected at the position. As a result, when the above-mentioned particle filter processing S52 is applied to the edge image D53, the scattering base points of the particles are shifted, and it becomes easy to pick up edge information other than the iris at the time of likelihood evaluation, and finally. The detection accuracy will be lowered.

これは、太陽光によって上まぶたが照らされた結果として、二値化した画像において上まぶたに黒色部分が生じるためである。この画像に対して二値化テンプレートマッチングを実施すると、目画像中の虹彩が上まぶたの箇所に位置すると判定されてしまう。そして、その位置をベースとして各サンプリング円が作成されるため、100セットのサンプリング円が全体として上まぶた側に寄った位置に形成される。そして、パーティクルフィルタの処理の結果にも大きな位置ずれが発生する。 This is because the upper eyelid is illuminated by sunlight, resulting in a black portion on the upper eyelid in the binarized image. When binarization template matching is performed on this image, it is determined that the iris in the eye image is located at the upper eyelid. Then, since each sampling circle is created based on that position, 100 sets of sampling circles are formed at positions closer to the upper eyelid side as a whole. Then, a large displacement occurs in the result of the processing of the particle filter.

図7に示した画像データD54においては、実際の虹彩の位置がP53であるが、この位置から大きくずれた位置P52がパーティクルフィルタの処理S52の結果として検出される。こうして、従来の視線検出アルゴリズムによって虹彩検出をした場合には、上述したように虹彩の検出位置がずれてしまう場合があった。 In the image data D54 shown in FIG. 7, the actual position of the iris is P53, but the position P52 greatly deviated from this position is detected as a result of the particle filter processing S52. In this way, when the iris is detected by the conventional line-of-sight detection algorithm, the iris detection position may shift as described above.

<第1実施形態の処理>
図7に示したような虹彩の検出位置ずれを抑制するために、本実施形態の画像処理装置においては、以下の<構成A>および<構成B>を備えている。
<Processing of the first embodiment>
In order to suppress the detection position shift of the iris as shown in FIG. 7, the image processing apparatus of the present embodiment includes the following <configuration A> and <configuration B>.

<構成A>ある走査方向にてエッジを検出するフィルタ処理を顔画像に施して、勾配の大きさ及び正負の符号が情報として保持されたエッジ画像を生成する。例えば、図4に示したステップS43でエッジを抽出し、データD43を生成する際に、勾配の大きさ及び正負の符号が情報として保持された特別なエッジ画像を生成する。 <Structure A> A filter process for detecting an edge in a certain scanning direction is applied to a face image to generate an edge image in which the magnitude of the gradient and the positive and negative signs are retained as information. For example, when the edge is extracted in step S43 shown in FIG. 4 and the data D43 is generated, a special edge image in which the magnitude of the gradient and the positive / negative sign are retained as information is generated.

<構成B>サンプリング曲線を構成する複数点のうちの前記走査方向の前方側に位置する第1の点群においては、前記勾配が正であるものを尤度評価の対象とし、前記サンプリング曲線を構成する複数点のうちの前記走査方向の後方側に位置する第2の点群においては、前記勾配が負であるものを尤度評価の対象として、前記サンプリング曲線に対する尤度を算出する。 <Structure B> In the first point group located on the front side in the scanning direction among the plurality of points constituting the sampling curve, the one having a positive gradient is targeted for the likelihood evaluation, and the sampling curve is used. In the second point group located on the rear side in the scanning direction among the plurality of constituent points, the one having a negative gradient is set as the target of the likelihood evaluation, and the likelihood with respect to the sampling curve is calculated.

<「構成A」の具体例>
画像のエッジを検出するソーベルフィルタの走査方向と、処理前後の各データの状態の例を図8(a)に、処理後のエッジ画像のデータの例を図8(b)に示す。図8に示した例では、目の領域の左右方向の境界の特徴を正確に検出することを目的として、画像の左から右に向かう水平方向、あるいは両眼の並ぶ方向に向かって、ソーベルフィルタの位置を画像上で走査する場合を想定している。
<Specific example of "Structure A">
FIG. 8A shows an example of the scanning direction of the sobel filter for detecting the edge of the image and the state of each data before and after the processing, and FIG. 8B shows an example of the data of the edge image after the processing. In the example shown in FIG. 8, the sobel is directed from the left to the right of the image in the horizontal direction or in the direction in which the eyes are lined up for the purpose of accurately detecting the characteristics of the left-right boundary of the eye region. It is assumed that the position of the filter is scanned on the image.

図8に示した処理前のデータD71においては、横方向の境界D71aと境界D71bとの間の輝度が虹彩のように黒レベルであり、それ以外の領域の輝度が白目のように白レベルである場合を想定している。 In the data D71 before processing shown in FIG. 8, the luminance between the horizontal boundary D71a and the boundary D71b is at the black level like an iris, and the luminance in the other regions is at the white level like white eyes. I assume a certain case.

したがって、図8に示した処理前のデータD71をソーベルフィルタで処理すると、各境界D71a、D71bの位置で輝度変化のエッジが検出され、このエッジ情報を含む処理後のデータD72が得られる。但し、通常のソーベルフィルタを適用した場合と異なり、この処理後のデータD72は、勾配の大きさ(エッジ強度)の他に、勾配の正負の符号の情報も保持している。 Therefore, when the unprocessed data D71 shown in FIG. 8 is processed by the sobel filter, the edge of the luminance change is detected at the positions of the boundaries D71a and D71b, and the processed data D72 including this edge information is obtained. However, unlike the case where a normal Sobel filter is applied, the data D72 after this processing holds information on the positive and negative signs of the gradient in addition to the magnitude of the gradient (edge strength).

すなわち、処理後のデータD72において、エッジD72aの箇所では「-255~-1」の範囲内の黒の値が保持され、エッジD72bの箇所では「1~255」の範囲内の白の値が保持され、それ以外の領域ではグレーを表す「0」の値が保持される。 That is, in the processed data D72, the black value in the range of "-255 to -1" is retained at the edge D72a, and the white value within the range of "1 to 255" is held at the edge D72b. It is retained, and the value of "0" representing gray is retained in other areas.

つまり、処理前のデータD71の境界D71a、D71bのように、輝度(階調)が白から黒に変化する虹彩の始まり位置の境界と、輝度が黒から白に変化する虹彩の終端位置の境界とをそれぞれ区別できる形で、処理後のデータD72に正負の符号が保持される。こうして、図8(b)に示すエッジ画像D73のデータを得ることができる。このエッジ画像D73のデータは、走査方向(図8の場合は横方向)について虹彩と白目との境界の特徴を検出するのに適したものである。 That is, the boundary between the start position of the iris whose brightness (gradation) changes from white to black and the boundary of the end position of the iris whose brightness changes from black to white, such as the boundaries D71a and D71b of the data D71 before processing. The positive and negative codes are held in the processed data D72 in a form that can be distinguished from each other. In this way, the data of the edge image D73 shown in FIG. 8B can be obtained. The data of the edge image D73 is suitable for detecting the feature of the boundary between the iris and the white of the eye in the scanning direction (horizontal direction in the case of FIG. 8).

<「構成B」の具体例>
図5に示したステップS18dの「サンプリング処理」について、特徴的な内容を含む詳細な手順を図9に示す。また、虹彩を検出するために用いるパーティクルフィルタのパターン形状の具体例を図10に示す。また、図9に示した処理を実行する場合の処理データの具体例を示す模式図を図11(a)、(b)に示す。
<Specific example of "configuration B">
FIG. 9 shows a detailed procedure including characteristic contents for the “sampling process” of step S18d shown in FIG. Further, FIG. 10 shows a specific example of the pattern shape of the particle filter used for detecting the iris. Further, FIGS. 11A and 11B show schematic diagrams showing specific examples of processing data when the processing shown in FIG. 9 is executed.

図10に示したパターン形状は、図11(a)、(b)に示したサンプリング円93A、およびサンプリング楕円94Aに対応し、図9に示した「サンプリング処理」において、各サンプリング楕円94Aの位置で適切な尤度を算出するために利用される。尚、図11(a)は、エッジ画像D92がエッジ画像D73である点を除き図6と同様であるため、ここでの詳細な説明を省略する。また、図11(b)は、エッジ画像D53がエッジ画像D73である点を除き図7と同様であるため、ここでの詳細な説明を省略する。 The pattern shape shown in FIG. 10 corresponds to the sampling circle 93A and the sampling ellipse 94A shown in FIGS. 11A and 11B, and the position of each sampling ellipse 94A in the “sampling process” shown in FIG. It is used to calculate the appropriate likelihood in. Note that FIG. 11A is the same as FIG. 6 except that the edge image D92 is the edge image D73, and therefore detailed description thereof will be omitted here. Further, since FIG. 11B is the same as FIG. 7 except that the edge image D53 is the edge image D73, detailed description thereof will be omitted here.

図10に示したフィルタパターンFP0は、全体として円形(又は楕円形)の環状に形成されており、その円周上に均等な間隔で並べて配置された多数のサンプリング点101を備えている。フィルタパターンFP0上のサンプリング点101の総数は例えば120点とする。 The filter pattern FP0 shown in FIG. 10 is formed in a circular (or elliptical) ring as a whole, and includes a large number of sampling points 101 arranged side by side at equal intervals on the circumference thereof. The total number of sampling points 101 on the filter pattern FP0 is, for example, 120 points.

また、フィルタパターンFP0は円形の中央で左右に区分してあり、左側の半円に相当するパターン左側領域FPLと、右側の半円に相当するパターン右側領域FPRとを有している。そして、パターン左側領域FPL内にあるサンプリング点101は、左側グループの点PGLとし、パターン右側領域FPR内にあるサンプリング点101は、右側グループの点PGRとしてそれぞれ区分してある。 Further, the filter pattern FP0 is divided into left and right at the center of the circle, and has a pattern left region FPL corresponding to the left semicircle and a pattern right region FPR corresponding to the right semicircle. The sampling points 101 in the left side region FPL of the pattern are designated as point PGLs in the left side group, and the sampling points 101 in the right side region FPR of the pattern are classified as point PGRs in the right side group.

図9に示した「サンプリング処理」において、ステップS101~S108の間では、選択された1つのサンプリング楕円94Aを構成する「i」個のサンプリング点101のそれぞれについて順番に以下に説明する処理を実行する。 In the "sampling process" shown in FIG. 9, in steps S101 to S108, the processes described below are sequentially executed for each of the "i" sampling points 101 constituting one selected sampling ellipse 94A. do.

ステップS102では、該当するサンプリング点101が楕円の中心座標よりも左側か否か、つまりサンプリング点101が左側グループの点PGLか否かを識別する。サンプリング点101が左側グループの点PGLである場合はステップS103に進み、右側グループの点PGRである場合はステップS105に進む。 In step S102, it is determined whether or not the corresponding sampling point 101 is on the left side of the center coordinate of the ellipse, that is, whether or not the sampling point 101 is the point PGL of the left side group. If the sampling point 101 is the point PGL of the left group, the process proceeds to step S103, and if the sampling point 101 is the point PGR of the right group, the process proceeds to step S105.

ステップS103では、現在選択している1つのサンプリング点101の位置で、図11(b)に示すエッジ画像D73上の1つの画素の値を取得(サンプリング)し、サンプリングした値の符号の正負を識別する。そして、サンプリング値の符号が「負」であればステップS103からS104に進み、「正」であればS107に進む。 In step S103, the value of one pixel on the edge image D73 shown in FIG. 11B is acquired (sampled) at the position of one sampling point 101 currently selected, and the sign of the sampled value is positive or negative. Identify. Then, if the sign of the sampling value is "negative", the process proceeds from step S103 to S104, and if it is "positive", the process proceeds to S107.

ステップS104では、S103で得た今回のサンプリング値に、「-1」を掛けた結果を変数Xの値に足し合わせる。つまり、この場合はサンプリング点101が左側グループの点PGLであって、前記第2の点群に属しているので、前記勾配が負である当該画素のサンプリング値を尤度評価の対象とする。また、計算時のサンプリング値の符号を「正」に揃えるためにS104で「-1」を掛ける。 In step S104, the result of multiplying the current sampling value obtained in S103 by "-1" is added to the value of the variable X. That is, in this case, since the sampling point 101 is the point PGL in the left group and belongs to the second point group, the sampling value of the pixel having a negative gradient is the target of the likelihood evaluation. Further, in order to align the sign of the sampling value at the time of calculation to "positive", multiply by "-1" in S104.

ステップS105では、現在選択している1つのサンプリング点101の位置で、図11(b)に示すエッジ画像D73上の1つの画素の値を取得(サンプリング)し、サンプリングした値の符号の正負を識別する。そして、サンプリング値の符号が「正」であればステップS105からS106に進み、「負」であればS107に進む。 In step S105, the value of one pixel on the edge image D73 shown in FIG. 11B is acquired (sampled) at the position of one sampling point 101 currently selected, and the sign of the sampled value is positive or negative. Identify. Then, if the sign of the sampling value is "positive", the process proceeds from step S105 to S106, and if it is "negative", the process proceeds to S107.

ステップS106では、S105で得た今回のサンプリング値を、そのまま変数Xの値に足し合わせる。つまり、この場合はサンプリング点101が右側グループの点PGRであって、前記第1の点群に属しているので、前記勾配が正である当該画素のサンプリング値を尤度評価の対象とする。 In step S106, the current sampling value obtained in S105 is added to the value of the variable X as it is. That is, in this case, since the sampling point 101 is the point PGR of the right side group and belongs to the first point cloud, the sampling value of the pixel whose gradient is positive is the target of the likelihood evaluation.

ステップS107では、楕円円周上の今回処理対象のサンプリング点101の選択位置を表す変数(i)の値を次の位置に更新する。 In step S107, the value of the variable (i) representing the selected position of the sampling point 101 to be processed this time on the circumference of the ellipse is updated to the next position.

図9に示したステップS101~S108で全てのサンプリング点101に対する処理が完了した時には、変数Xには、各サンプリング点101で得た尤度評価値の総和が保持される。つまり、変数Xの値は、現在選択している1つのサンプリング楕円94A(図11(b)参照。)に対する尤度を表す。 When the processing for all the sampling points 101 is completed in steps S101 to S108 shown in FIG. 9, the variable X holds the sum of the likelihood evaluation values obtained at each sampling point 101. That is, the value of the variable X represents the likelihood of one currently selected sampling ellipse 94A (see FIG. 11B).

図9に示した「サンプリング処理」を「構成A」で生成したエッジ画像D73のデータに対して実行することにより、虹彩の両側の境界においてエッジ強度が正負反転する箇所の特徴を精度よく検出することができる。つまり、楕円の中央よりも右側のエッジ強度が正、左側のエッジ強度が負となるサンプリング楕円程、尤度が高く算出される。 By executing the "sampling process" shown in FIG. 9 on the data of the edge image D73 generated in "configuration A", the characteristics of the points where the edge intensities are positively or negatively inverted at the boundaries on both sides of the iris are accurately detected. be able to. That is, the sampling ellipse in which the edge strength on the right side of the center of the ellipse is positive and the edge strength on the left side is negative is calculated with higher likelihood.

こうして、ステップS101からステップS108までの処理を、全てのサンプリング円93Aに対して行い、尤度が最大となるサンプリング円93Aが虹彩として検出される。以上、本発明の実施形態の画像処理装置によれば、白目と虹彩との境界における虹彩の右側輪郭位置では、エッジ強度が正である点が多くなり、虹彩の左側輪郭位置では、エッジ強度が負である点が多くなるため、虹彩の輪郭位置に近い箇所に散布されたサンプリング円93Aが際だって尤度が高くなる。この結果、外乱の多い環境下において、二値化テンプレートマッチングを実施して目画像中の虹彩が上まぶたの箇所に位置すると誤って判定されても、その位置をベースとして散布された各サンプリング円の尤度は極めて低いため、上まぶた側に寄った位置に配置されたサンプリング円は虹彩の候補から除外される。こうして、少ない計算量で、ノイズとなる不要な特徴の悪影響を回避し、虹彩を高精度に検出することが可能になる。 In this way, the processes from step S101 to step S108 are performed on all the sampling circles 93A, and the sampling circle 93A having the maximum likelihood is detected as an iris. As described above, according to the image processing apparatus of the embodiment of the present invention, there are many points where the edge strength is positive at the right contour position of the iris at the boundary between the white eye and the iris, and the edge strength is high at the left contour position of the iris. Since there are many negative points, the likelihood of the sampling circle 93A scattered near the contour position of the iris is remarkably high. As a result, even if it is erroneously determined that the iris in the eye image is located at the upper eyelid by performing binarization template matching in an environment with a lot of disturbance, each sampling circle scattered based on that position. Since the likelihood of is extremely low, sampling circles placed closer to the upper eyelid side are excluded from the iris candidates. In this way, it becomes possible to detect the iris with high accuracy by avoiding the adverse effect of unnecessary features that become noise with a small amount of calculation.

なお、上述のように、二値化テンプレートマッチングを実施して目画像中の虹彩が上まぶたの箇所に位置すると誤って判定されたとしても上まぶた側に寄った位置に配置されたサンプリング円を虹彩の候補から除外するには次の点に留意する必要が有る。すなわち、サンプリング円93Aを散布するにあたって、各サンプリング円93Aの中心を定めるための乱数成分(Ppd、Pyd)には、乱数成分として取り得る乱数の数値範囲にある程度の幅が求められる。この幅が小さければ、局所的にサンプリング円93Aが散布されることになるが、誤った位置に局所的に多数のサンプリング円93Aが散布されたとしても虹彩の検出精度を向上することは難しい。よって、目画像中の虹彩が上まぶたの箇所に位置すると誤って判定されたとしても、その誤った位置を中心にサンプリング円93Aを散布したときに、虹彩が位置する正しい箇所にサンプリング円93Aが散布されている程度に、乱数成分及びサンプリング円の総数を調整することが望ましい。乱数成分及びサンプリング円の総数を適正に調整することにより、図2に示すステップS17の処理は必須のものではなくなる。 As described above, even if it is erroneously determined that the iris in the eye image is located at the upper eyelid by performing binarization template matching, the sampling circle arranged at the position closer to the upper eyelid is used. The following points should be noted in order to exclude from the candidates for iris. That is, when spraying the sampling circle 93A, the random number components (Ppd, Pyd) for defining the center of each sampling circle 93A are required to have a certain range in the numerical range of the random number that can be taken as the random number component. If this width is small, the sampling circle 93A will be locally scattered, but it is difficult to improve the detection accuracy of the iris even if a large number of sampling circles 93A are locally scattered at the wrong position. Therefore, even if it is erroneously determined that the iris in the eye image is located at the upper eyelid, when the sampling circle 93A is sprayed around the incorrect position, the sampling circle 93A is located at the correct location where the iris is located. It is desirable to adjust the total number of random components and sampling circles to the extent that they are scattered. By appropriately adjusting the total number of random number components and sampling circles, the process of step S17 shown in FIG. 2 becomes indispensable.

また、図9に示した「サンプリング処理」では、図8(a)に示したように左から右に向かって走査しながら生成したエッジ画像のデータ(D72)を処理する場合を想定している。エッジ画像を生成する場合の走査方向が違う場合には、エッジ強度が正負反転する箇所の位置および正/負が変化するので、走査方向の違いに合わせて、図9のステップS102~S106の内容を変更する必要がある。 Further, in the "sampling process" shown in FIG. 9, it is assumed that the edge image data (D72) generated while scanning from left to right as shown in FIG. 8A is processed. .. When the scanning direction when generating the edge image is different, the position and the positive / negative of the portion where the edge strength is inverted positive and negative change. Therefore, the contents of steps S102 to S106 in FIG. 9 are adjusted according to the difference in the scanning direction. Need to be changed.

エッジ画像を生成する場合のフィルタの走査方向については、両眼の並び方向や水平方向に限らず、例えば斜め方向に変更することも考えられる。しかしながら、エッジを検出するフィルタ処理を施す方向は水平方向または両眼の並び方向にする方が、例えば垂直方向に走査する場合に比べて、白目と虹彩との境界のエッジを検出し易く、検出精度が向上し易いため好適である。 The scanning direction of the filter when generating an edge image is not limited to the alignment direction and the horizontal direction of both eyes, but it is also conceivable to change the scanning direction to, for example, an oblique direction. However, it is easier to detect the edge of the boundary between the white eye and the iris when the filtering process for detecting the edge is performed in the horizontal direction or the alignment direction of both eyes, as compared with the case of scanning in the vertical direction, for example. It is suitable because the accuracy is easily improved.

ところで、ここまでの虹彩の検出は1画像(1フレーム目)に対して実施されるものであったが、2フレーム目の画像に対して同様の検出を行う場合、図2に示すステップS17の処理をキャンセルすることができる。これは、1フレーム目で検出された虹彩の位置座標が既に定まっているので、2フレーム目における虹彩の位置座標を算出するにあたってこの1フレーム目の位置座標をベースとすればよいためである。つまり、2フレーム目の虹彩の検出を行う際には、1フレーム目で得られた虹彩の中心位置(Pp、Py)の近傍にサンプリング円93Aを散布すればよい。同様に、3フレーム目以降においても、前フレームで検出された虹彩の中心位置の近傍にサンプリング円93Aを散布すればよい。こうして、虹彩の検出に伴うデータ処理を軽減することも可能である。 By the way, the detection of the iris up to this point has been carried out for the first image (first frame), but when the same detection is performed for the second frame image, step S17 shown in FIG. You can cancel the process. This is because the position coordinates of the iris detected in the first frame have already been determined, so that the position coordinates of the first frame may be used as a base for calculating the position coordinates of the iris in the second frame. That is, when detecting the iris in the second frame, the sampling circle 93A may be sprayed in the vicinity of the center position (Pp, Py) of the iris obtained in the first frame. Similarly, in the third and subsequent frames as well, the sampling circle 93A may be sprayed in the vicinity of the center position of the iris detected in the previous frame. In this way, it is possible to reduce the data processing associated with the detection of the iris.

<第2実施形態の処理>
第2実施形態におけるパーティクルフィルタのパターン形状の例を図12に示す。また、図12のパーティクルフィルタのパターン形状を適用した場合の処理データの具体例を示す模式図を図13(a)、(b)に示す。
<Processing of the second embodiment>
FIG. 12 shows an example of the pattern shape of the particle filter in the second embodiment. Further, FIGS. 13A and 13B show schematic diagrams showing specific examples of processing data when the pattern shape of the particle filter of FIG. 12 is applied.

第2実施形態では、図12に示した半円形状のフィルタパターンFPを用いて図13(a)、(b)に示した「サンプリング処理」を実施する。つまり、フィルタパターンの形状が異なる以外は第1実施形態と同様の処理を実施する。図13(a)は、エッジ画像D92がエッジ画像D73である点を除き図6と同様であるため、ここでの詳細な説明を省略する。また、図13(b)は、エッジ画像D53がエッジ画像D73である点を除き図7と同様であるため、ここでの詳細な説明を省略する。 In the second embodiment, the “sampling process” shown in FIGS. 13 (a) and 13 (b) is carried out using the semicircular filter pattern FP shown in FIG. That is, the same processing as in the first embodiment is performed except that the shape of the filter pattern is different. FIG. 13A is the same as FIG. 6 except that the edge image D92 is the edge image D73, and therefore detailed description thereof will be omitted here. Further, since FIG. 13B is the same as FIG. 7 except that the edge image D53 is the edge image D73, detailed description thereof will be omitted here.

図12に示したフィルタパターンFPは、下向きに膨らんだ半円形状の円弧のパターンであって、例えば図13(b)に示したように二次元平面上のエッジ画像D73に投影される。 The filter pattern FP shown in FIG. 12 is a pattern of a semicircular arc that swells downward, and is projected onto an edge image D73 on a two-dimensional plane, for example, as shown in FIG. 13 (b).

このフィルタパターンFPは、図10に示したフィルタパターンFP0と同様に、円周上に均等な間隔で配置された多数のサンプリング点101を有している。これらのサンプリング点101は、フィルタパターンFPの中心FPaを境界として、左側領域FPb、および右側領域FPcに区分されている。つまり、左側領域FPbに属するサンプリング点101は図10に示した左側グループの点PGLと同様に扱われ、右側領域FPcに属するサンプリング点101は右側グループの点PGRと同様に扱われる。 Similar to the filter pattern FP0 shown in FIG. 10, this filter pattern FP has a large number of sampling points 101 arranged at equal intervals on the circumference. These sampling points 101 are divided into a left region FPb and a right region FPc with the center FPa of the filter pattern FP as a boundary. That is, the sampling point 101 belonging to the left region FPb is treated in the same manner as the point PGL in the left group shown in FIG. 10, and the sampling point 101 belonging to the right region FPc is treated in the same manner as the point PGR in the right group.

複数のパーティクルを粗探索で得た虹彩位置の近傍に散布するにあたっては、虹彩の領域92の中心位置(Pp、Py)に対してそれぞれ異なる乱数成分(Ppd、Pyd)を加算した位置が半円形状の中心となるよう、各々のサンプリング円93Bを配置する。また、このとき、フィルタパターン形状において最も膨らんだ円弧の底が眼球3Dモデル30における下方を向いた状態となるように配置する。 When spraying a plurality of particles in the vicinity of the iris position obtained by the rough search, the position where different random number components (Ppd, Pyd) are added to the center position (Pp, Py) of the iris region 92 is a semicircle. Each sampling circle 93B is arranged so as to be the center of the shape. Further, at this time, the bottom of the most bulging arc in the filter pattern shape is arranged so as to face downward in the eyeball 3D model 30.

この半径形状のフィルタパターンFPは、図13(b)に示したように二次元平面上のエッジ画像D73にサンプリング楕円94Bとして投影されるので、虹彩の下側半分の領域の輪郭箇所について、この形状の特徴を効率的に評価することができる。 Since the filter pattern FP having this radial shape is projected as the sampling ellipse 94B on the edge image D73 on the two-dimensional plane as shown in FIG. 13 (b), the contour portion of the lower half region of the iris is this. The characteristics of the shape can be evaluated efficiently.

一般的に、虹彩と白目との境界は、虹彩の右側、左側、および下側に現れる傾向にあり、虹彩の上側は上まぶたとの境界になり易い。したがって、図12に示した半円形状のフィルタパターンFPを採用することにより、虹彩の境界を精度よく検出可能な虹彩の右側、左側、および下側のそれぞれの箇所に対してサンプリング曲線とのマッチングを試みることができる。逆に言えば、虹彩の境界の検出精度を下げる虹彩の上側をマッチング対象から除外することができる。そのため、精度よく虹彩を検出できる。 In general, the boundary between the iris and the white of the eye tends to appear on the right, left, and lower sides of the iris, and the upper side of the iris tends to be the boundary with the upper eyelid. Therefore, by adopting the semicircular filter pattern FP shown in FIG. 12, matching with the sampling curve is performed for each of the right, left, and lower parts of the iris where the boundary of the iris can be detected accurately. Can be tried. Conversely, the upper side of the iris, which reduces the detection accuracy of the iris boundary, can be excluded from the matching target. Therefore, the iris can be detected with high accuracy.

なお、フィルタパターンFPの形状は半円に限らず、各種の円弧を適用することができる。また、円環の一部が欠損したC字形状であってもよい。このとき、フィルタパターン形状において最も膨らんだ円弧の底が眼球3Dモデル30における下方を向いた状態となることが好ましい。 The shape of the filter pattern FP is not limited to a semicircle, and various arcs can be applied. Further, it may have a C-shape in which a part of the annulus is missing. At this time, it is preferable that the bottom of the most bulging arc in the filter pattern shape faces downward in the eyeball 3D model 30.

<画像から瞳孔を探索する処理の具体例>
続いて、画像から瞳孔を探索する処理について説明する。上述した<画像から虹彩を探索する処理の具体例>では、図4のステップS42において、虹彩の形状に似た黒丸形状の画像D4tをテンプレートとして利用し、このテンプレートをデータD42の画像上で走査しながら、特徴が尤も似ているおおよその虹彩の位置P41を探索し、その位置および虹彩の半径または直径を特定する、とした。画像から瞳孔を探索する処理にあたっては、基本的には、上述した<画像から虹彩を探索する処理の具体例>で説明した処理と同等の処理によって瞳孔を探索する。すなわち、瞳孔の形状に似た黒丸形状の画像(瞳孔の形状に似た黒丸は、虹彩の形状に似た黒丸よりも小さい。)をテンプレートとして利用し、このテンプレートをデータD42の画像上で走査しながら、特徴が尤も似ているおおよその瞳孔の位置を探索し、その位置および瞳孔の半径または直径を特定する。このように、テンプレートとして用いる画像に描かれた黒丸の形状を変えることによって、探索する対象を虹彩または瞳孔から選択することができる。
<Specific example of the process of searching the pupil from the image>
Subsequently, the process of searching the pupil from the image will be described. In the above-mentioned <Specific example of the process of searching for an iris from an image>, in step S42 of FIG. 4, an image D4t having a black circle shape similar to the shape of the iris is used as a template, and this template is scanned on the image of the data D42. At the same time, it was decided to search for an approximate iris position P41 having similar characteristics and to specify the position and the radius or diameter of the iris. In the process of searching the pupil from the image, the pupil is basically searched by the same process as the process described in <Specific example of the process of searching the iris from the image> described above. That is, an image having a black circle shape similar to the shape of the pupil (a black circle similar to the shape of the pupil is smaller than a black circle similar to the shape of the iris) is used as a template, and this template is scanned on the image of data D42. While searching for the approximate location of the pupil with similar features, the location and the radius or diameter of the pupil are determined. In this way, by changing the shape of the black circle drawn on the image used as the template, the target to be searched can be selected from the iris or the pupil.

<第3実施形態の処理>
第3実施形態におけるパーティクルフィルタのパターン形状の例を図15に示す。また、図15のパーティクルフィルタのパターン形状を適用した場合の処理データの具体例を示す模式図を図16(a)、(b)に示す。
<Processing of the third embodiment>
FIG. 15 shows an example of the pattern shape of the particle filter in the third embodiment. Further, FIGS. 16A and 16B show schematic diagrams showing specific examples of processing data when the pattern shape of the particle filter of FIG. 15 is applied.

第3実施形態では、図15に示した半円形状のフィルタパターンFP2を用いて図16(a)、(b)に示した「サンプリング処理」を実施する。つまり、フィルタパターンの形状が異なる以外は第1実施形態と同様の処理を実施する。図16(a)は、エッジ画像D92がエッジ画像D73である点を除き図6と同様であるため、ここでの詳細な説明を省略する。また、図16(b)は、エッジ画像D53がエッジ画像D73である点を除き図7と同様であるため、ここでの詳細な説明を省略する。 In the third embodiment, the "sampling process" shown in FIGS. 16A and 16B is performed using the semicircular filter pattern FP2 shown in FIG. That is, the same processing as in the first embodiment is performed except that the shape of the filter pattern is different. FIG. 16A is the same as FIG. 6 except that the edge image D92 is the edge image D73, and therefore detailed description thereof will be omitted here. Further, FIG. 16B is the same as FIG. 7 except that the edge image D53 is the edge image D73, and therefore detailed description thereof will be omitted here.

図15に示したフィルタパターンFP2は、半径の異なる3つの円C1、C2、C3が同一の位置を中心点とする円形のパターンであって、例えば図16(b)に示したように二次元平面上のエッジ画像D73に投影される。 The filter pattern FP2 shown in FIG. 15 is a circular pattern having three circles C1, C2, and C3 having different radii as the center points, and is, for example, two-dimensional as shown in FIG. 16 (b). It is projected onto the edge image D73 on a plane.

このフィルタパターンFP2は、各円C1、C2、C3毎に、円周上に均等な間隔で配置された多数のサンプリング点201、202、203を有している。また、各円C1、C2、C3毎のサンプリング点201、202、203は、同数のサンプリング点が設定されており、径方向に並ぶよう放射状に配置されている。 This filter pattern FP2 has a large number of sampling points 201, 202, and 203 arranged at equal intervals on the circumference of each circle C1, C2, and C3. Further, the sampling points 201, 202, and 203 for each of the circles C1, C2, and C3 are set with the same number of sampling points, and are arranged radially so as to be arranged in the radial direction.

粗探索で得た虹彩位置の近傍に複数のパーティクルを散布するにあたっては、虹彩の領域92の中心位置(Pp、Py)に対してそれぞれ異なる乱数成分(Ppd、Pyd)を加算した位置が3つの円に共通する中心点となるよう、各々のサンプリング円93Cを配置する。 When spraying a plurality of particles in the vicinity of the iris position obtained by the rough search, there are three positions in which different random number components (Ppd, Pyd) are added to the center position (Pp, Py) of the iris region 92. Each sampling circle 93C is arranged so as to be a center point common to the circles.

この3つの円から構成されるフィルタパターンFP2は、図16(b)に示したように二次元平面上のエッジ画像D73にサンプリング楕円94Cとして投影される。 The filter pattern FP2 composed of these three circles is projected as a sampling ellipse 94C on the edge image D73 on the two-dimensional plane as shown in FIG. 16B.

虹彩または瞳孔を撮影した画像を生成した場合、一般的に、その画像における虹彩または瞳孔の寸法(縦横の画素数)は、撮影対象として同一の虹彩または瞳孔を撮影していたしても変化する。光量に応じて瞳孔径が変化することにより、撮影された画像における虹彩または瞳孔の寸法が変化することは言うに及ばず、頭部がカメラに対して近づく方向または遠ざかる方向に移動することによっても、たとえ虹彩径または瞳孔径が変化しなくても撮影された画像における虹彩または瞳孔の寸法は変化する。このように、虹彩径または瞳孔径の変化に対応しつつ、虹彩または瞳孔を探索することも重要である。 When an image in which an iris or a pupil is photographed is generated, the size of the iris or the pupil (the number of pixels in the vertical and horizontal directions) in the image generally changes even if the same iris or the pupil is photographed as an image target. By changing the pupil diameter according to the amount of light, not to mention the change in the size of the iris or pupil in the captured image, but also by moving the head toward or away from the camera. , Even if the iris or pupil diameter does not change, the size of the iris or pupil in the captured image will change. Thus, it is also important to search for the iris or pupil while responding to changes in the iris or pupil diameter.

その点、第3実施形態のフィルタパターンFP2では、3重に形成された各円によって、虹彩径または瞳孔径の変化に対応することができる。すなわち、ある時点t1の画像フレームにおいて撮影された虹彩または瞳孔が、次の時点t2の画像フレームにおいて虹彩径または瞳孔径が変化したとしても、時点t1で虹彩または瞳孔を捉えていた円C1、C2、C3よりも大きいまたは小さい円C1、C2、C3が時点t2における虹彩または瞳孔を捉えることができる。このように、本発明の第3実施形態によれば、虹彩径または瞳孔径の変化に対応しつつ、虹彩または瞳孔を精度よく探索することができる。 In that respect, in the filter pattern FP2 of the third embodiment, it is possible to cope with the change in the iris diameter or the pupil diameter by each of the triplely formed circles. That is, even if the iris or pupil taken in the image frame at a certain time point t1 changes the iris diameter or the pupil diameter in the image frame at the next time point t2, the circles C1 and C2 that capture the iris or the pupil at the time point t1. , C1, C2, C3, circles larger or smaller than C3, can capture the iris or pupil at time point t2. As described above, according to the third embodiment of the present invention, the iris or the pupil can be searched accurately while responding to the change in the iris diameter or the pupil diameter.

尚、本発明の第3実施形態は、第1実施形態または第2実施形態で説明したフィルタパターンに適用することができるとともに、図6を参照して説明したフィルタパターンにも適用することができる。 The third embodiment of the present invention can be applied to the filter pattern described in the first embodiment or the second embodiment, and can also be applied to the filter pattern described with reference to FIG. ..

本発明の第3実施形態に係る画像処理装置を端的に表現すると次のようになる。
顔を含むように撮影された顔画像に対してデータ処理を行うデータ処理部を備える画像処理装置であって、
前記データ処理部は、
ある走査方向にてエッジを検出するフィルタ処理を前記顔画像に施して、勾配の大きさが情報として保持されたエッジ画像を生成し、
3次元モデルの表面に仮想的に位置する、半径の異なる複数の円を同一の位置を中心点として配したサンプリング曲線が、前記エッジ画像に投影された状態において、前記サンプリング曲線を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさをサンプリング値として抽出して尤度評価の対象とし、
複数の前記サンプリング曲線のうち、尤度が最大となる前記サンプリング曲線を瞳孔または虹彩として検出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to the third embodiment of the present invention can be simply expressed as follows.
An image processing device including a data processing unit that processes data on a face image taken so as to include a face.
The data processing unit
A filter process for detecting an edge in a certain scanning direction is applied to the face image to generate an edge image in which the magnitude of the gradient is retained as information.
A sampling curve in which a plurality of circles having different radii, which are virtually located on the surface of a three-dimensional model, are arranged with the same position as a center point, is projected onto the edge image, and a plurality of points constituting the sampling curve. For each position in the edge image corresponding to each, the magnitude of the gradient is extracted as a sampling value and used as a target for likelihood evaluation.
Of the plurality of sampling curves, the sampling curve having the maximum likelihood is detected as a pupil or an iris.
An image processing device characterized by this.

<画像処理装置の技術の応用>
なお、本発明の画像処理装置の技術については、目を検出する以外にも様々な応用が考えられる。具体例としては、頭部運動追従、瞼の検出、口の検出等が想定される。実際の適用を考えた場合、頭部運動の追従に関しては、パーティクルフィルタの散布形状サイズを画像内の頭部サイズへ調整することで対応できる。また、瞼や口の検出においては、ソーベルフィルタを垂直方向にかけ、サンプリング特徴の符号分割を縦方向にすることで対応できる。
<Application of image processing equipment technology>
It should be noted that the technique of the image processing apparatus of the present invention can be applied to various applications other than detecting the eyes. Specific examples include head movement tracking, eyelid detection, mouth detection, and the like. When considering the actual application, the tracking of the head movement can be dealt with by adjusting the spray shape size of the particle filter to the head size in the image. In addition, the detection of eyelids and mouth can be handled by applying a sobel filter in the vertical direction and setting the code division of the sampling feature in the vertical direction.

なお、図2、図4、図5、図9等に示した各動作については、専用の論理回路等のハードウェアで実現することもできるし、制御用の様々なコンピュータが読み込んで実行可能なプログラムやデータで構成されるソフトウェアとして実現することもできる。 It should be noted that each operation shown in FIGS. 2, 4, 5, 9, etc. can be realized by hardware such as a dedicated logic circuit, or can be read and executed by various control computers. It can also be realized as software composed of programs and data.

<精度の向上>
本発明の適用の有無と検出誤差との関係の例を図14に示す。すなわち、環境光の影響により精度が低下する条件において、本発明を適用した手法と、従来手法との検出誤差の違いが図14に示されている。
<Improved accuracy>
FIG. 14 shows an example of the relationship between the presence or absence of application of the present invention and the detection error. That is, FIG. 14 shows the difference in detection error between the method to which the present invention is applied and the conventional method under the condition that the accuracy is lowered due to the influence of ambient light.

図14において、「改善後」が本発明を適用した手法の検出結果に相当し、「改善前」が本発明を適用しない場合の検出結果に相当する。図14を参照すると、従来手法では真値との誤差平均が1.6pixelであったのに対し、本発明の手法では、0.5pixelへ改善されていることが分かる。 In FIG. 14, "after improvement" corresponds to the detection result of the method to which the present invention is applied, and "before improvement" corresponds to the detection result when the present invention is not applied. With reference to FIG. 14, it can be seen that the error average from the true value was 1.6 pixels in the conventional method, but it is improved to 0.5 pixels in the method of the present invention.

ここで、上述した本発明に係る画像処理装置、画像処理方法および画像処理プログラムの実施形態の特徴をそれぞれ以下[1]~[6]に簡潔に纏めて列記する。
[1] 顔を含むように撮影された顔画像に対してデータ処理を行うデータ処理部(処理部13)を備える画像処理装置であって、
前記データ処理部は、
ある走査方向にてエッジを検出するフィルタ処理を前記顔画像に施して、勾配の大きさ及び正負が情報として保持されたエッジ画像(D73)を生成し、
3次元モデル(眼球3Dモデル30)の表面に仮想的に位置する、円弧状の曲線を含むサンプリング曲線(サンプリング円93A、93B)が、前記エッジ画像に投影された状態(サンプリング楕円94A、94B)において、前記サンプリング曲線を構成する複数点(サンプリング点101)それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさ及び正負をサンプリング値として抽出し(S103,S105)、
前記サンプリング曲線を構成する複数点のうちの前記走査方向の前方側に位置する第1の点群(右側グループの点PGR)においては、前記勾配が正であるものを尤度評価の対象とし(S105,S106)、前記サンプリング曲線を構成する複数点のうちの前記走査方向の後方側に位置する第2の点群(左側グループの点PGL)においては、前記勾配が負であるものを尤度評価の対象として、前記サンプリング曲線に対する尤度を算出し(S103,S104)、
複数の前記サンプリング曲線のうち、尤度が最大となる前記サンプリング曲線を瞳孔または虹彩として検出する(S18f)、
画像処理装置。
Here, the features of the image processing apparatus, the image processing method, and the embodiment of the image processing program according to the present invention described above are briefly summarized and listed below in [1] to [6], respectively.
[1] An image processing apparatus including a data processing unit (processing unit 13) that processes data on a face image taken so as to include a face.
The data processing unit
A filter process for detecting an edge in a certain scanning direction is applied to the face image to generate an edge image (D73) in which the magnitude of the gradient and the positive / negative are retained as information.
A state in which a sampling curve (sampling circles 93A, 93B) including an arc-shaped curve virtually located on the surface of a three-dimensional model (eyeball 3D model 30) is projected onto the edge image (sampling ellipses 94A, 94B). In, the magnitude and positive / negative of the gradient are extracted as sampling values for each position in the edge image corresponding to each of the plurality of points (sampling points 101) constituting the sampling curve (S103, S105).
In the first point group (point PGR in the right group) located on the front side in the scanning direction among the plurality of points constituting the sampling curve, those having a positive gradient are targeted for likelihood evaluation ( S105, S106), in the second point group (point PGL in the left group) located on the rear side in the scanning direction among the plurality of points constituting the sampling curve, the one having a negative gradient is the likelihood. As an object of evaluation, the likelihood with respect to the sampling curve was calculated (S103, S104), and
Of the plurality of sampling curves, the sampling curve having the maximum likelihood is detected as a pupil or an iris (S18f).
Image processing device.

[2] 前記データ処理部が前記フィルタ処理によってエッジを検出する前記走査方向は、前記顔画像における目が並ぶ方向である(図8参照)、
上記[1]に記載の画像処理装置。
[2] The scanning direction in which the data processing unit detects an edge by the filtering process is the direction in which the eyes are lined up in the face image (see FIG. 8).
The image processing apparatus according to the above [1].

[3] 前記サンプリング曲線(フィルタパターンFP)は円弧形状であって、最も膨らんだ円弧の底が前記3次元モデルにおける下方を向いた状態で前記エッジ画像に投影される(図12参照)、
上記[2]に記載の画像処理装置。
[3] The sampling curve (filter pattern FP) has an arc shape, and is projected onto the edge image with the bottom of the most bulging arc facing downward in the three-dimensional model (see FIG. 12).
The image processing apparatus according to the above [2].

[4] 前記データ処理部は、前記第1の点群においては前記勾配が正である点の前記勾配の大きさを加算し(S105,S106)、前記第2の点群においては前記勾配が負である点の前記勾配の大きさを加算する(S103,S104)ことにより、前記サンプリング曲線に対する尤度を算出する、
上記[1]に記載の画像処理装置。
[4] The data processing unit adds the magnitude of the gradient at the point where the gradient is positive in the first point cloud (S105, S106), and the gradient is in the second point cloud. The likelihood with respect to the sampling curve is calculated by adding the magnitudes of the gradients of the negative points (S103, S104).
The image processing apparatus according to the above [1].

[5] 顔を含むように撮影された顔画像に対してデータ処理を行うデータ処理部を備える画像処理方法であって、
前記顔画像に対してある走査方向にてエッジを検出するフィルタによって、勾配の大きさ及び正負が情報として保持されたエッジ画像(D73)を生成するステップ(S43)と、
3次元モデルの表面に仮想的に位置する、円弧状の曲線を含むサンプリング曲線(サンプリング円93A、93B)が、前記エッジ画像に投影された状態(サンプリング楕円94A、94B)において、前記サンプリング曲線を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさ及び正負をサンプリング値として抽出するステップ(S103,S105)と、
前記サンプリング曲線を構成する複数点のうちの前記走査方向の前方側に位置する第1の点群においては、前記勾配が正であるものを尤度評価の対象とし(S105)、前記サンプリング曲線を構成する複数点のうちの前記走査方向の後方側に位置する第2の点群においては、前記勾配が負であることを尤度評価の対象として(S103)、前記サンプリング曲線に対する尤度を算出するステップ(S104,S106)と、
複数の前記サンプリング曲線のうち、尤度が最大となる前記サンプリング曲線を瞳孔または虹彩として検出するステップ(S18f)と、
を有する画像処理方法。
[5] An image processing method including a data processing unit that performs data processing on a face image taken so as to include a face.
A step (S43) of generating an edge image (D73) in which the magnitude of the gradient and positive / negative are retained as information by a filter that detects an edge in a certain scanning direction with respect to the face image.
In a state where a sampling curve (sampling circles 93A, 93B) including an arc-shaped curve virtually located on the surface of the three-dimensional model is projected on the edge image (sampling ellipse 94A, 94B), the sampling curve is used. A step (S103, S105) of extracting the magnitude and positive / negative of the gradient as a sampling value for each position in the edge image corresponding to each of the plurality of constituent points.
In the first point group located on the front side in the scanning direction among the plurality of points constituting the sampling curve, those having a positive gradient are targeted for likelihood evaluation (S105), and the sampling curve is used. In the second point group located on the rear side of the scanning direction among the plurality of constituent points, the likelihood of the sampling curve is calculated with the negative gradient as the target of the likelihood evaluation (S103). Steps to be performed (S104, S106) and
A step (S18f) of detecting the sampling curve having the maximum likelihood among the plurality of sampling curves as a pupil or an iris.
Image processing method having.

[6] コンピュータに、上記[5]に記載の画像処理方法の各ステップを実行させるための画像処理プログラム。 [6] An image processing program for causing a computer to execute each step of the image processing method according to the above [5].

10 車両の車室内
11 人物
11a 目の領域
11b 視線
12 カメラ
13 処理部
30 眼球3Dモデル
31 眼球中心
32 瞳孔または虹彩
33 瞳孔
34 二次元画像
91,92 粗探索で得た瞳孔または虹彩の領域
93 サンプリング円
94 サンプリング楕円
101 サンプリング点
FP,FP0 フィルタパターン
FPL パターン左側領域
FPR パターン右側領域
PGL 左側グループの点
PGR 右側グループの点
10 Vehicle interior 11 People 11a Eye area 11b Eyes 12 Camera 13 Processing unit 30 Eyeball 3D model 31 Eyeball center 32 Pupil or iris 33 Pupil 34 Two-dimensional image 91, 92 Area of pupil or iris obtained by rough search 93 Sampling Circle 94 Sampling ellipse 101 Sampling points FP, FP0 Filter pattern FPL pattern Left side area FPR pattern Right side area PGL Left side group point PGR Right side group point

Claims (7)

顔を含むように撮影された顔画像に対してデータ処理を行うデータ処理部を備える画像処理装置であって、
前記データ処理部は、
一つの走査方向にてエッジを検出するフィルタ処理を前記顔画像に施して、勾配の大きさ及び正負が情報として保持されたエッジ画像を生成し、
3次元モデルの表面に仮想的に位置するサンプリング曲線が、前記エッジ画像に投影された状態において、前記サンプリング曲線を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさ及び正負をサンプリング値として抽出し、
前記サンプリング曲線を構成する複数点のうちの前記走査方向の前方側に位置する第1の点群においては、前記勾配が正であるものを尤度評価の対象とし、前記サンプリング曲線を構成する複数点のうちの前記走査方向の後方側に位置する第2の点群においては、前記勾配が負であるものを尤度評価の対象として、前記サンプリング曲線に対する尤度を算出し、
複数の前記サンプリング曲線のうち、尤度が最大となる前記サンプリング曲線を瞳孔または虹彩として検出する、
画像処理装置。
An image processing device including a data processing unit that processes data on a face image taken so as to include a face.
The data processing unit
A filter process for detecting an edge in one scanning direction is applied to the face image to generate an edge image in which the magnitude of the gradient and the positive / negative are retained as information.
In a state where a sampling curve virtually located on the surface of the three-dimensional model is projected on the edge image, the magnitude of the gradient is large for each position in the edge image corresponding to each of the plurality of points constituting the sampling curve. Extract the positive and negative as the sampling value,
In the first point group located on the front side in the scanning direction among the plurality of points constituting the sampling curve, those having a positive gradient are targeted for likelihood evaluation, and the plurality of points constituting the sampling curve. In the second point group located on the rear side of the scanning direction among the points, the likelihood with respect to the sampling curve is calculated by using the point having a negative gradient as the target of the likelihood evaluation.
Of the plurality of sampling curves, the sampling curve having the maximum likelihood is detected as a pupil or an iris.
Image processing device.
前記サンプリング曲線が、下向きに膨らんだ半円形状の円弧曲線からなる、The sampling curve consists of a semicircular arc curve that bulges downward.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1.
前記データ処理部が前記フィルタ処理によってエッジを検出する前記走査方向は、前記顔画像における目が並ぶ方向である、
請求項1又は2に記載の画像処理装置。
The scanning direction in which the data processing unit detects an edge by the filtering process is the direction in which the eyes are lined up in the face image.
The image processing apparatus according to claim 1 or 2 .
前記サンプリング曲線は円弧形状であって、最も膨らんだ円弧の底が前記3次元モデルにおける下方を向いた状態で前記エッジ画像に投影される、
請求項に記載の画像処理装置。
The sampling curve has an arc shape, and the bottom of the most bulging arc is projected onto the edge image with the bottom facing downward in the three-dimensional model.
The image processing apparatus according to claim 3 .
前記データ処理部は、前記第1の点群においては前記勾配が正である点の前記勾配の大きさを加算し、前記第2の点群においては前記勾配が負である点の前記勾配の大きさを加算することにより、前記サンプリング曲線に対する尤度を算出する、
請求項1に記載の画像処理装置。
The data processing unit adds the magnitude of the gradient at the point where the gradient is positive in the first point cloud, and the gradient of the point where the gradient is negative in the second point cloud. By adding the magnitudes, the likelihood with respect to the sampling curve is calculated.
The image processing apparatus according to claim 1.
顔を含むように撮影された顔画像に対してデータ処理を行うデータ処理部を備える画像処理方法であって、
前記顔画像に対して一つの走査方向にてエッジを検出するフィルタによって、勾配の大きさ及び正負が情報として保持されたエッジ画像を生成するステップと、
3次元モデルの表面に仮想的に位置するサンプリング曲線が、前記エッジ画像に投影された状態において、前記サンプリング曲線を構成する複数点それぞれに対応する前記エッジ画像中の位置ごとに、前記勾配の大きさ及び正負をサンプリング値として抽出するステップと、
前記サンプリング曲線を構成する複数点のうちの前記走査方向の前方側に位置する第1の点群においては、前記勾配が正であるものを尤度評価の対象とし、前記サンプリング曲線を構成する複数点のうちの前記走査方向の後方側に位置する第2の点群においては、前記勾配が負であることを尤度評価の対象として、前記サンプリング曲線に対する尤度を算出するステップと、
複数の前記サンプリング曲線のうち、尤度が最大となる前記サンプリング曲線を瞳孔または虹彩として検出するステップと、
を有する画像処理方法。
It is an image processing method including a data processing unit that performs data processing on a face image taken so as to include a face.
A step of generating an edge image in which the magnitude of the gradient and positive / negative are retained as information by a filter that detects an edge in one scanning direction with respect to the face image.
In a state where a sampling curve virtually located on the surface of the three-dimensional model is projected on the edge image, the magnitude of the gradient is large for each position in the edge image corresponding to each of the plurality of points constituting the sampling curve. Steps to extract positive and negative as sampling values,
In the first point group located on the front side in the scanning direction among the plurality of points constituting the sampling curve, those having a positive gradient are targeted for likelihood evaluation, and the plurality of points constituting the sampling curve. In the second point group located on the rear side of the scanning direction among the points, the step of calculating the likelihood with respect to the sampling curve with the negative gradient as the target of the likelihood evaluation.
A step of detecting the sampling curve having the maximum likelihood among the plurality of sampling curves as a pupil or an iris, and a step of detecting the sampling curve.
Image processing method having.
コンピュータに、請求項に記載の画像処理方法の各ステップを実行させるための画像処理プログラム。 An image processing program for causing a computer to execute each step of the image processing method according to claim 6 .
JP2017176497A 2016-11-21 2017-09-14 Image processing device, image processing method and image processing program Active JP7044504B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/817,121 US10521659B2 (en) 2016-11-21 2017-11-17 Image processing device, image processing method, and image processing program
DE102017220752.3A DE102017220752B8 (en) 2016-11-21 2017-11-21 image processing device, image processing method and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016225728 2016-11-21
JP2016225728 2016-11-21

Publications (2)

Publication Number Publication Date
JP2018088236A JP2018088236A (en) 2018-06-07
JP7044504B2 true JP7044504B2 (en) 2022-03-30

Family

ID=62494578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017176497A Active JP7044504B2 (en) 2016-11-21 2017-09-14 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP7044504B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6717477B1 (en) 2019-09-13 2020-07-01 株式会社スワローインキュベート Image processing method, image processing apparatus, and image processing program
JP6757949B1 (en) * 2020-05-28 2020-09-23 株式会社スワローインキュベート Image processing method, image processing device, and image processing program
JP6994704B1 (en) * 2020-12-22 2022-01-14 株式会社スワローインキュベート Iris detection method, iris detection device, and iris detection program
CN119223819B (en) * 2024-12-03 2025-02-18 山东新凌志检测技术有限公司 Performance analysis and detection method for lithium battery carbon cathode material of new energy automobile

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detection method and eye position detection device
JP2010033305A (en) 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP2010507164A (en) 2006-10-19 2010-03-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for classifying persons
JP2011152218A (en) 2010-01-26 2011-08-11 Toyota Motor Corp Eye opening degree determining device and eye opening degree determining method
JP2016012311A (en) 2014-06-30 2016-01-21 日本信号株式会社 Object detection device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08327887A (en) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd Eye gaze detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056394A (en) 2000-08-09 2002-02-20 Matsushita Electric Ind Co Ltd Eye position detection method and eye position detection device
JP2010507164A (en) 2006-10-19 2010-03-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for classifying persons
JP2010033305A (en) 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP2011152218A (en) 2010-01-26 2011-08-11 Toyota Motor Corp Eye opening degree determining device and eye opening degree determining method
JP2016012311A (en) 2014-06-30 2016-01-21 日本信号株式会社 Object detection device

Also Published As

Publication number Publication date
JP2018088236A (en) 2018-06-07

Similar Documents

Publication Publication Date Title
TWI706272B (en) Biometric system and computer-implemented method for biometrics
JP6599421B2 (en) Feature extraction and matching and template update for biometric authentication
JP5715833B2 (en) Posture state estimation apparatus and posture state estimation method
US10521659B2 (en) Image processing device, image processing method, and image processing program
CN108416291B (en) Face detection and recognition method, device and system
EP2339507B1 (en) Head detection and localisation method
JP7044504B2 (en) Image processing device, image processing method and image processing program
WO2005038715A1 (en) Face image candidate area search method, face image candidate area search system, and face image candidate area search program
KR101582467B1 (en) Pupil acquisition method using binary of adjacent sum and control device for extracting pupil using the same
Dey et al. Feature detectors and descriptors generations with numerous images and video applications: a recap
KR101151435B1 (en) Apparatus and method of recognizing a face
Poulopoulos et al. A new high precision eye center localization technique
Prakash et al. A rotation and scale invariant technique for ear detection in 3D
CN111144413A (en) Iris positioning method and computer readable storage medium
CN112926516B (en) Robust finger vein image region-of-interest extraction method
CN111914585A (en) Method and system for iris recognition
JP7078386B2 (en) Image processing equipment
Poursaberi et al. Modified multiscale vesselness filter for facial feature detection
Boughnim et al. Hand posture classification by means of a new contour signature
WO2015056210A2 (en) Method of authenticating a person
Hanafi et al. Eye and mouth localization for various imaging conditions images
HK40016785B (en) Biometric system and computer-implemented method based on image
KR20030061018A (en) Iris Segmentation Method based on Multiresolution Active Contour Model
Diane Teng Automated Students Attendance System
Bodade et al. Iris Segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220317

R150 Certificate of patent or registration of utility model

Ref document number: 7044504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250