[go: up one dir, main page]

JP2000301962A - Eye condition detection device, drowsy driving alarm device - Google Patents

Eye condition detection device, drowsy driving alarm device

Info

Publication number
JP2000301962A
JP2000301962A JP11113939A JP11393999A JP2000301962A JP 2000301962 A JP2000301962 A JP 2000301962A JP 11113939 A JP11113939 A JP 11113939A JP 11393999 A JP11393999 A JP 11393999A JP 2000301962 A JP2000301962 A JP 2000301962A
Authority
JP
Japan
Prior art keywords
eye
alarm
value
predetermined time
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11113939A
Other languages
Japanese (ja)
Inventor
Hiroyuki Kawamura
弘之 河村
Takeshi Fukuda
岳 福田
Masayuki Kaneda
雅之 金田
Masaji Owada
正次 大和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Niles Parts Co Ltd
Nissan Motor Co Ltd
Original Assignee
Niles Parts Co Ltd
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Niles Parts Co Ltd, Nissan Motor Co Ltd filed Critical Niles Parts Co Ltd
Priority to JP11113939A priority Critical patent/JP2000301962A/en
Publication of JP2000301962A publication Critical patent/JP2000301962A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Medical Informatics (AREA)
  • Educational Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 【課題】 適正に眼の誤認を判定し、又、追跡ミスによ
る誤警報を防止する。 【解決手段】 顔画像を入力する画像入力手段CL1
と、該画像入力手段CL1により入力された顔の画像デ
ータから眼の開度を検出する眼の開度検出手段CL7
と、該眼の開度検出手段CL7で検出された眼の開度値
が所定時間T1変化しないときに眼の位置を誤認識して
いると判断することを特徴とする。
(57) [Summary] [Problem] To appropriately judge erroneous recognition of an eye and prevent erroneous alarm due to tracking error. SOLUTION: Image input means CL1 for inputting a face image
And an eye opening detecting means CL7 for detecting an eye opening from image data of the face input by the image input means CL1.
When the eye opening value detected by the eye opening detecting means CL7 does not change for a predetermined time T1, it is determined that the eye position is erroneously recognized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両の運転手、船
舶の操船者、プラント等のオペレータ等の居眠り状態を
検出し警報することなどに供する眼の状態検出装置およ
び居眠り運転警報装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye condition detecting device and a dozing operation warning device for detecting and alerting a dozing condition of a driver of a vehicle, a boat operator, an operator of a plant or the like.

【0002】[0002]

【従来の技術】従来の画像処理によるこの種の装置に
は、例えば特開平10−143669号公報に開示され
たものがある。これは濃淡画像を対象として眼の位置を
検出し、眼の開度値による開閉眼判定を行いながら眼を
追跡する構成としている。
2. Description of the Related Art An apparatus of this type using conventional image processing is disclosed, for example, in Japanese Patent Application Laid-Open No. 10-143669. In this configuration, the position of the eye is detected with respect to the grayscale image, and the eye is tracked while performing the open / closed eye determination based on the eye opening value.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、前記従
来の装置では、眼の位置検出が誤っているか否かは、眼
の開度値データとしての最大値と最小値を検出して保持
し、この範囲外の値が出力されるか否かで判断してい
た。従って、眼以外で開度値がほぼ一定のものを眼と認
識した場合には、眼の位置検出が誤認であることを判断
できない。又、影等の影響で開度値データ以外の値が出
力されると眼の誤認であると判断してしまう。
However, in the conventional apparatus, it is determined whether the eye position is erroneously detected by detecting and holding the maximum value and the minimum value as the eye opening value data. Judgment was made based on whether an out-of-range value was output. Therefore, if an eye whose opening degree value is substantially constant other than the eye is recognized as an eye, it cannot be determined that the eye position detection is erroneous recognition. If a value other than the opening value data is output due to the influence of a shadow or the like, it is determined that the eye is erroneously recognized.

【0004】また、単に追跡領域内における画像の濃度
変化のみによって検出対象である眼を特定していたた
め、顔を大きく速く動かした場合や、眼鏡を掛けていて
眼の回りにノイズになるものが多くある場合等に、検出
対象が眼から眉毛や眼鏡のフレームに入れ替わった時
に、眉毛が薄かったり、眼鏡のフレームが細かったりす
ると開度値が小さくなり誤警報するという問題があっ
た。
Further, since the eye to be detected is specified only by a change in the density of the image in the tracking area, noises around the eyes when the face is moved greatly and fast or when glasses are worn may occur. In many cases, when the detection target is switched from an eye to an eyebrow or eyeglasses frame, if the eyebrows are thin or the eyeglasses frame is thin, the opening value becomes small and a false alarm is generated.

【0005】そこで、本発明は、適正に眼の誤認を判断
できる眼の状態検出装置および居眠り運転警報装置の提
供を課題とする。又、本発明は、眼の位置の移動状態を
判定して警報出力に制限を加えることで追跡ミス等によ
る誤警報を低減する居眠り運転警報装置の提供を課題と
する。
Accordingly, an object of the present invention is to provide an eye condition detection device and a drowsy driving alarm device that can appropriately judge eye misidentification. It is another object of the present invention to provide a drowsy driving alarm device that reduces a false alarm due to a tracking error or the like by determining a movement state of an eye position and limiting an alarm output.

【0006】[0006]

【課題を解決するための手段】請求項1の発明は、顔画
像を入力する画像入力手段と、該画像入力手段により入
力された顔の画像データから眼の開度を検出する眼の開
度検出手段と、該眼の開度検出手段で検出された眼の開
度値が所定時間T1変化しないときに眼の位置を誤認識
していると判断する判断手段とを有することを特徴とす
る。
According to a first aspect of the present invention, there is provided an image input means for inputting a face image, and an eye opening for detecting an eye open degree from face image data input by the image input means. Detecting means for erroneously recognizing the position of the eye when the eye opening value detected by the eye opening detecting means does not change for a predetermined time T1. .

【0007】請求項2の発明は、請求項1記載の眼の状
態検出装置であって、前記眼の開度検出手段より出力さ
れる眼の開度値の変化より眼の開閉状態を判定し、この
開閉状態の変化から覚醒度を判定する覚醒度判定手段を
備えたことを特徴とする。
According to a second aspect of the present invention, there is provided the eye state detecting apparatus according to the first aspect, wherein the open / closed state of the eye is determined based on a change in the eye opening value output from the eye opening detecting means. And a wakefulness determining means for determining the wakefulness from the change of the open / closed state.

【0008】請求項3の発明は、請求項1又は請求項2
記載の眼の状態検出装置であって、前記画像入力手段に
より入力された顔の画像データから眼の位置座標を検出
する眼の位置検出手段と、該眼の位置座標が所定値以上
移動した場合には、前記所定時間T1を短くすることを
特徴とする。
[0008] The invention of claim 3 is claim 1 or claim 2.
An eye position detecting device for detecting eye position coordinates from face image data input by the image input device, wherein the eye position coordinates move by a predetermined value or more. Is characterized in that the predetermined time T1 is shortened.

【0009】請求項4の発明は、請求項2記載の眼の状
態検出装置であって、前記画像入力手段により入力され
た顔の画像データから眼の位置座標を検出する眼の位置
検出手段と、前記覚醒度判定手段により覚醒度が低下し
ていると判定されたときに警報を発する警報手段と、前
記眼の位置座標が所定値以上移動した場合には、所定時
間T2の間、居眠り警報出力を禁止する警報出力禁止手
段とを備えたことを特徴とする。
According to a fourth aspect of the present invention, there is provided the eye condition detecting apparatus according to the second aspect, wherein the eye position detecting means for detecting the position coordinates of the eye from the face image data inputted by the image input means; A warning means for issuing a warning when the arousal level is determined to be low by the arousal level determination means; and a drowsiness warning for a predetermined time T2 when the position coordinates of the eyes move by a predetermined value or more. Alarm output inhibiting means for inhibiting output.

【0010】請求項5の発明は、請求項3記載の眼の状
態検出装置であって、前記覚醒度判定手段により覚醒度
が低下していると判定されたときに警報を発する警報手
段と、前記眼の位置座標が所定値以上移動した場合に
は、所定時間T2の間、居眠り警報出力を禁止する警報
出力禁止手段とを備えたことを特徴とする。
According to a fifth aspect of the present invention, there is provided the eye condition detecting apparatus according to the third aspect, wherein an alarm is issued when the arousal level determination means determines that the arousal level is decreasing. An alarm output prohibiting unit that prohibits a drowsiness alarm output for a predetermined time T2 when the eye position coordinates move by a predetermined value or more is provided.

【0011】請求項6の発明は、請求項4又は請求項5
記載の居眠り運転警報装置であって、居眠り警報出力を
禁止する所定時間T2は、眼の誤認識を判別する前記所
定時間T1より長いことを特徴とする。
The invention of claim 6 is the invention of claim 4 or claim 5.
The drowsiness driving warning device according to the above, wherein the predetermined time T2 for prohibiting the output of the drowsiness warning is longer than the predetermined time T1 for determining erroneous recognition of eyes.

【0012】請求項7の発明は、請求項4〜請求項6記
載の居眠り運転警報装置であって、前記警報出力禁止手
段は、前記眼の位置座標が所定値以上移動した後、所定
時間T2以内に該移動する前の位置を基準にした許容領
域内に眼が検出された場合には、居眠り警報出力の禁止
を解除することを特徴とする。
A seventh aspect of the present invention is the drowsy driving alarm device according to any one of the fourth to sixth aspects, wherein the alarm output prohibiting means sets the predetermined time T2 after the position coordinate of the eye moves by a predetermined value or more. If an eye is detected within an allowable area based on the position before the movement within the period, the prohibition of the drowsiness alarm output is released.

【0013】請求項8の発明は、請求項3〜請求項7の
いずれかに記載の居眠り運転警報装置であって、前記眼
の位置検出手段により眼の位置座標が検出された場合に
は、前記警報出力禁止手段による居眠り警報出力を所定
時間T3の間だけ禁止することを特徴とする。
According to an eighth aspect of the present invention, there is provided the drowsy driving warning device according to any one of the third to seventh aspects, wherein when the eye position detecting means detects the position coordinates of the eye, The drowsiness alarm output by the alarm output inhibition means is inhibited only for a predetermined time T3.

【0014】[0014]

【発明の効果】請求項1の発明では、検出対象となって
いるデータが眼であれば所定時間T1内に眼の開度値の
変化があるが、眼でなければ所定時間T1内に眼の開度
値の変化がないため、適正に眼の誤認を判断でき、眼の
位置の誤検出を防止できる。
According to the first aspect of the present invention, if the data to be detected is an eye, there is a change in the eye opening value within a predetermined time T1. Since there is no change in the opening value of the eye, it is possible to appropriately judge the erroneous recognition of the eye and prevent erroneous detection of the eye position.

【0015】請求項2の発明では、請求項1の発明の効
果に加え、検出対象である眼で覚醒度を判定できる。
According to the second aspect of the invention, in addition to the effect of the first aspect, the degree of arousal can be determined by the eyes to be detected.

【0016】請求項3の発明では、請求項1又は請求項
2の発明の効果に加え、眼の位置座標が所定値以上移動
した場合には検出対象が眼から眼以外のものに入れ替わ
っている可能性があり、眼の開度変化がない状態を確認
する時間T1を、短く設定することにより誤った対象を
追跡し続ける時間を短縮できる。
According to a third aspect of the present invention, in addition to the effects of the first or second aspect of the present invention, when the position coordinate of the eye moves by a predetermined value or more, the detection target is switched from the eye to something other than the eye. There is a possibility that the time T1 for checking a state in which there is no change in the degree of opening of the eyes can be shortened by setting a short time T1 to keep tracking the wrong target.

【0017】請求項4の発明では、請求項2の発明の効
果に加え、眼の位置座標が所定値以上移動し、検出対象
が眼から眼以外のものに入れ替わり、この入れ替わった
眼以外のものが閉眼相当の縦幅しかない場合には、所定
時間T2の間に亘って居眠り警報出力が禁止されるた
め、この時間が適正な判断をする猶予時間となり、眼を
閉じたと認識して生じる誤警報を防止できる。
According to a fourth aspect of the present invention, in addition to the effect of the second aspect, the position coordinates of the eye move by a predetermined value or more, and the detection target is switched from the eye to something other than the eye. If there is only a vertical width equivalent to the closed eyes, the drowsiness alarm output is prohibited during the predetermined time T2, and this time is a grace period for making an appropriate determination, and an error caused by recognizing that the eyes are closed is generated. Alarms can be prevented.

【0018】請求項5の発明では、請求項3の発明の効
果に加え、眼の位置座標が所定値以上移動し、検出対象
が眼から眼以外のものに入れ替わり、この入れ替わった
眼以外のものが閉眼相当の縦幅しかない場合には、所定
時間T2の間に亘って居眠り警報出力が禁止されるた
め、この時間が適正な判断をする猶予時間となり、眼を
閉じたと認識して生じる誤警報を低減できる。
According to a fifth aspect of the present invention, in addition to the effect of the third aspect, the position coordinates of the eye move by a predetermined value or more, and the detection target is switched from the eye to something other than the eye. If there is only a vertical width equivalent to the closed eyes, the drowsiness alarm output is prohibited during the predetermined time T2, and this time is a grace period for making an appropriate determination, and an error caused by recognizing that the eyes are closed is generated. Warnings can be reduced.

【0019】請求項6の発明では、請求項4又は請求項
5の発明の効果に加え、眼の位置座標が所定値以上移動
し、検出対象が眼から眼以外のものに入れ替わり、この
入れ替わった眼以外のものが閉眼相当の縦幅しかない場
合には、眼の誤認識を判別する所定時間T1より長い所
定時間T2の間に亘って居眠り警報出力が禁止されるた
め、眼を閉じたと誤認識して生じる誤警報を確実に防止
できる。
According to the invention of claim 6, in addition to the effect of the invention of claim 4 or 5, the position coordinates of the eye move by a predetermined value or more, and the detection target is switched from the eye to something other than the eye. If an object other than the eye has only a vertical width equivalent to the closed eye, the drowsy alarm output is prohibited for a predetermined time T2 longer than the predetermined time T1 for determining erroneous recognition of the eye. False alarms caused by recognition can be reliably prevented.

【0020】請求項7の発明では、請求項4〜請求項6
の発明の効果に加え、トラックのように顔が激しく上下
動するような状況が発生する車両では、眼を正確に追跡
していても眼の位置座標が所定値を越えて移動すること
があるが、このような場合に検出対象が許容領域に戻っ
たことを所定時間T2以内に検出することで確実な警報
を行なうことができる。
According to the seventh aspect of the present invention, the fourth to sixth aspects are provided.
In addition to the effects of the invention, in a vehicle in which a face moves up and down violently like a truck, the position coordinates of the eye may move beyond a predetermined value even if the eye is accurately tracked. However, in such a case, by detecting that the detection target has returned to the allowable region within the predetermined time T2, a reliable alarm can be issued.

【0021】請求項8の発明では、請求項3〜請求項7
の発明の効果に加え、眼の位置検出手段が眼を誤検出
し、且つ、この誤検出の対象が閉眼相当の縦幅しかない
場合に出る誤警報を低減できる。
According to the invention of claim 8, claims 3 to 7 are provided.
In addition to the effects of the present invention, it is possible to reduce false alarms that occur when the eye position detecting means erroneously detects an eye and the target of the erroneous detection is only a vertical width equivalent to closing the eye.

【0022】[0022]

【発明の実施の形態】本装置は、自動車の他に鉄道車
両、船舶、プラントのオペレータ等の居眠り運転警報と
して用いることができるが、本実施形態では自動車に適
用した場合で説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present apparatus can be used as a drowsy driving alarm for operators of railway vehicles, ships, plants and the like in addition to automobiles, but this embodiment will be described as applied to automobiles.

【0023】図1は本発明の一実施形態を適用した眼の
状態検出装置及び居眠り運転警報装置の機能ブロック図
にかかり、該装置は、画像入力手段CL1と、濃度検出
手段CL2と、画像内ポイント抽出手段CL3と、連続
データ抽出手段CL4と、眼の位置検出手段CL5と、
領域内ポイント抽出手段CL6と、眼の開度検出手段C
L7と、バックアップ手段CL8と、覚醒度判定手段C
L9と、警報出力禁止手段CL10と、警報手段CL1
1とを備えている。
FIG. 1 is a functional block diagram of an eye condition detecting device and a drowsy driving alarm device to which one embodiment of the present invention is applied. The device includes an image input means CL1, a density detecting means CL2, Point extracting means CL3, continuous data extracting means CL4, eye position detecting means CL5,
Intra-region point extraction means CL6 and eye opening detection means C
L7, backup means CL8, and alertness determination means C
L9, alarm output prohibiting means CL10, and alarm means CL1
1 is provided.

【0024】前記画像入力手段CL1は、顔画像を入力
する。前記濃度検出手段CL2は、前記画像入力手段C
L1により入力された顔の画像データの縦方向の画素列
における濃度の局所的な高まりを検出する。前記画像内
ポイント抽出手段CL3は、本実施形態においてポイン
ト抽出手段を構成し、前記濃度検出手段CL2で検出さ
れた濃度の高まりとその変化状態より画素を定めて抽出
点とする。前記連続データ抽出手段CL4は、前記画像
内ポイント抽出手段CL3で抽出された抽出点が、隣接
する画素列で近接することにより顔の横方向に伸びる連
続データを抽出する。
The image input means CL1 inputs a face image. The density detecting means CL2 is provided with the image input means C.
L1 detects a local increase in density in a vertical pixel row of the input face image data. The intra-image point extracting means CL3 constitutes a point extracting means in the present embodiment, and determines a pixel as an extraction point based on the increase in the density detected by the density detecting means CL2 and its change state. The continuous data extracting means CL4 extracts continuous data extending in the horizontal direction of the face when the extraction points extracted by the intra-image point extracting means CL3 approach each other in adjacent pixel columns.

【0025】前記眼の位置検出手段CL5は、前記連続
データ抽出手段で抽出された連続データの中から眼を選
択(検出)する。前記領域内ポイント抽出手段CL6
は、前記眼の位置検出手段CL5により検出された眼の
位置に基づき眼を含む所定領域を特定し、この領域を追
跡領域として設定し、この追跡領域内で縦方向への濃度
の高まりとその変化状態より画素を定めて抽出点とす
る。前記眼の開度検出手段CL7は、前記領域内ポイン
ト抽出手段CL6で抽出された抽出点が、隣接する画素
列で近接することにより顔の横方向に伸びる連続データ
を抽出することにより眼の詳細な位置を検出して濃度値
を読み出す範囲を特定し、その範囲内での濃度変化状態
から眼の開度を検出する。又、前記眼の開度検出手段C
L7は、所定領域内に出現する連続データの詳細位置を
基に次に取り込む画像での処理領域を設定することによ
って追跡領域外を含めて眼の位置変化に対応でき、これ
により眼の位置座標を検出できるよう構成されている。
従って、前記領域内ポイント抽出手段CL6、及び、前
記眼の開度検出手段CL7は、本実施形態において眼の
開度検出手段を構成している。
The eye position detecting means CL5 selects (detects) an eye from the continuous data extracted by the continuous data extracting means. The area point extracting means CL6
Specifies a predetermined area including the eye based on the position of the eye detected by the eye position detection means CL5, sets this area as a tracking area, and increases the density in the vertical direction in the tracking area and A pixel is determined from the change state and is set as an extraction point. The eye opening detection means CL7 extracts the continuous data extending in the horizontal direction of the face when the extraction points extracted by the intra-area point extraction means CL6 approach each other in adjacent pixel rows, thereby obtaining details of the eyes. Then, a range in which the density value is read out is determined by detecting a proper position, and the opening degree of the eye is detected from a density change state within the range. The eye opening detecting means C
L7 can cope with a change in the position of the eye including the outside of the tracking region by setting a processing region in the image to be captured next based on the detailed position of the continuous data appearing in the predetermined region. Is configured to be detected.
Therefore, the intra-region point extracting means CL6 and the eye opening detecting means CL7 constitute an eye opening detecting means in the present embodiment.

【0026】尚、領域内ポイント抽出手段CL6で検出
する連続データは、前記画像内ポイント抽出手段CL3
で検出する連続データよりも微細であり、正確な検出を
行うようになっているが、後者を前者と同等の粗さで検
出することにより、処理を早める構成にすることができ
る。
The continuous data detected by the in-region point extracting means CL6 is based on the in-image point extracting means CL3.
Although it is finer and more accurate than the continuous data detected by (1) and (2), the latter can be detected with the same roughness as the former, so that the processing can be accelerated.

【0027】前記バックアップ手段CL8は、前記眼の
開度検出手段CL7から出力される眼の開度値の変化を
チェックし、この眼の開度値の時系列の変化が所定時間
T1を越えた場合においてもなかったとき、再び前記眼
の位置検出手段CL5による眼の位置検出処理に戻す。
つまり、眼の位置検出をやり直しさせる。
The backup means CL8 checks the change of the eye opening value output from the eye opening detecting means CL7, and the time series change of the eye opening value exceeds the predetermined time T1. If this is not the case, the process returns to the eye position detection processing by the eye position detection means CL5 again.
That is, the eye position detection is performed again.

【0028】前記覚醒度判定手段CL9は、前記眼の開
度検出手段CL7による眼の開閉状態の変化から覚醒度
を判定する。前記警報出力禁止手段CL10は、眼の移
動状態を判定することにより警報出力を所定時間T2だ
け制限する。前記警報手段CL11は前記前記覚醒度判
定手段CL9により覚醒度が低下していると判定された
時に、ブザーなどの警報を発する。
The wakefulness determination means CL9 determines the wakefulness from the change in the open / closed state of the eyes by the eye openness detection means CL7. The alarm output prohibiting unit CL10 limits the alarm output for a predetermined time T2 by determining the moving state of the eye. The alarm means CL11 issues an alarm such as a buzzer when the alertness determination means CL9 determines that the alertness is decreasing.

【0029】図2は本発明の一実施形態にかかる構成ブ
ロック図である。図2において、前記画像入力手段CL
1としてのTVカメラ21は、自動車のインストルメン
トに設置され、運転者の顔部分を正面から撮影する。こ
のTVカメラ21の入力画像は、本実施形態では、後述
する図6のように横方向(X)512画素、縦方向
(Y)480画素からなる。
FIG. 2 is a configuration block diagram according to an embodiment of the present invention. In FIG. 2, the image input means CL
The TV camera 21 as 1 is installed in the instrument of the automobile, and photographs the driver's face from the front. In the present embodiment, the input image of the TV camera 21 is composed of 512 pixels in the horizontal direction (X) and 480 pixels in the vertical direction (Y) as shown in FIG.

【0030】前記TVカメラ21で撮影された入力画像
は、A−D変換器22を介してデジタル量の画像データ
として画像メモリ23に格納される。画像メモリ23の
出力は画像データ演算回路24に入力される。
The input image taken by the TV camera 21 is stored in the image memory 23 as digital image data via the A / D converter 22. The output of the image memory 23 is input to the image data operation circuit 24.

【0031】この画像データ演算回路24は、入力画像
データに基づいて顔の縦方向の画素列の濃度を検出し、
この検出された画素列の濃度の高まりとその変化状態よ
り画素を定めて抽出点とし、この抽出された抽出点につ
いて、隣接する画素列の画素列方向に近接した抽出点を
連続させることにより顔の横方向に伸びる連続データを
抽出する。即ち、この画像データ演算回路24は、前記
濃度検出手段CL2、前記画像内ポイント抽出手段CL
3、及び、連続データ抽出手段CL4を構成している。
画像データ演算回路24の出力は、眼の位置検出回路2
5に入力される。
The image data calculation circuit 24 detects the density of the vertical pixel row of the face based on the input image data.
A pixel is defined as an extraction point based on the detected increase in the density of the pixel row and its change state, and the extracted points adjacent to each other in the pixel row direction of the adjacent pixel row are successively extracted. Extract continuous data extending horizontally. That is, the image data calculation circuit 24 includes the density detecting means CL2 and the in-image point extracting means CL.
3 and the continuous data extracting means CL4.
The output of the image data calculation circuit 24 is the eye position detection circuit 2
5 is input.

【0032】該眼の位置検出回路25は、前記連続デー
タから眼の選択を行うことで眼の位置を検出し、本実施
形態において前記眼の位置検出手段CL5を構成してい
る。眼の位置検出回路25の出力は、開閉眼検出回路2
6に入力される。
The eye position detecting circuit 25 detects an eye position by selecting an eye from the continuous data, and constitutes the eye position detecting means CL5 in the present embodiment. The output of the eye position detection circuit 25 is the open / closed eye detection circuit 2
6 is input.

【0033】該開閉眼検出回路26は、前記眼の位置検
出回路25により検出された眼の位置に基づき眼を含む
所定領域を特定し、この領域を追跡領域として設定し、
この追跡領域内で縦方向への濃度の高まりとその変化状
態より画素を定めて抽出点とし、この抽出された抽出点
について、隣接する画素列の画素列方向に近接した抽出
点を連続させることにより顔の横方向に伸びる連続デー
タを抽出することで眼の詳細な位置を検出して濃度値を
読み出す範囲を特定し、その範囲内での濃度変化状態か
ら眼の開度を検出する。又、前記開閉眼検出回路26
は、所定領域内に出現する連続データの詳細位置を基に
次に取り込む画像での処理領域を設定することによって
追跡領域外を含めて眼の位置変化に対応でき、これによ
り眼の位置座標を検出できるよう構成されている。即
ち、開閉眼検出回路26は、本実施形態において前記領
域内ポイント抽出手段CL6、及び、前記眼の開度検出
手段CL7を構成している。開閉眼検出回路26の出力
はバックアップ回路27に入力される。
The open / closed eye detection circuit 26 specifies a predetermined area including the eye based on the position of the eye detected by the eye position detection circuit 25, and sets this area as a tracking area.
A pixel is determined as an extraction point from the increase in the density in the vertical direction and its change state in the tracking area, and the extraction points adjacent to each other in the pixel row direction of the adjacent pixel row are consecutively connected. By extracting continuous data extending in the lateral direction of the face, a detailed position of the eyes is detected, a range from which a density value is read out is specified, and an opening degree of the eye is detected from a density change state within the range. Also, the open / closed eye detection circuit 26
Can respond to changes in the eye position, including outside the tracking area, by setting the processing area in the next captured image based on the detailed position of the continuous data appearing in the predetermined area. It is configured to be able to detect. That is, the open / closed eye detection circuit 26 constitutes the intra-region point extraction means CL6 and the eye opening degree detection means CL7 in the present embodiment. The output of the open / closed eye detection circuit 26 is input to the backup circuit 27.

【0034】該バックアップ回路27は、前記開閉眼検
出回路26から出力される眼の開度値の変化をチェック
し、この眼の開度値の時系列の変化が所定時間T1を越
えた場合においてもなかったとき、再び前記眼の位置検
出回路25による眼の位置検出処理に戻し、本実施形態
において前記バックアップ手段CL8を構成している。
The backup circuit 27 checks the change in the eye opening value output from the open / closed eye detection circuit 26, and if the change in the time series of the eye opening value exceeds a predetermined time T1, If there is not, the process returns to the eye position detection processing by the eye position detection circuit 25 again, and the backup means CL8 is configured in the present embodiment.

【0035】覚醒度判定回路28は、前記開閉眼検出回
路26から出力される眼の開閉状態の変化から覚醒度を
判定し、本実施形態において前記覚醒度判定手段CL9
を構成している。
The arousal level determination circuit 28 determines the arousal level from the change in the open / closed state of the eye output from the open / closed eye detection circuit 26, and in the present embodiment, the arousal level determination means CL9
Is composed.

【0036】警報出力制限回路29は、眼の移動状態を
判定することにより警報出力を所定時間T2だけ制限
し、本実施形態において前記警報出力禁止手段CL10
を構成している。
The alarm output limiting circuit 29 limits the alarm output for a predetermined time T2 by judging the state of movement of the eyes.
Is composed.

【0037】警報装置30は、前記覚醒度判定回路28
により覚醒度が低下していると判定された時に、運転者
に注意を促す警報を発し、本実施形態では前記警報手段
CL11を構成している。
The alarm device 30 is provided with the wakefulness determination circuit 28
When it is determined that the arousal level is decreasing, a warning to alert the driver is issued, and in the present embodiment, the warning means CL11 is configured.

【0038】次に、上記構成における動作の流れを、図
3と図4のフローチャートに基づいて説明する。まず、
ステップ301において、TVカメラ21(図2に示
す)によって顔部分が撮影され、ステップ302で1フ
レーム分の入力画像がA−D変換器22(図2に示す)
でデジタル信号に変換され、画像メモリ23(図2に示
す)に格納される。
Next, the flow of operation in the above configuration will be described with reference to the flowcharts of FIGS. First,
In step 301, the face portion is photographed by the TV camera 21 (shown in FIG. 2), and in step 302, the input image for one frame is converted into the A / D converter 22 (shown in FIG. 2).
Are converted into digital signals and stored in the image memory 23 (shown in FIG. 2).

【0039】次に、ステップ303において、眼の追跡
領域が設定されているかどうかをチェックする。眼の追
跡領域とは、眼を含む所定領域を示し、この領域内に出
現する連続データの位置を検出することによって眼の詳
細な位置を認定し、この特定された位置の濃度データを
読み出すことにより眼の開度検出を行っている。又、所
定領域内に出現する連続データの詳細位置を基に次に取
り込む画像での処理領域を設定することによって追跡領
域外を含めて眼の位置変化に対応できるようにしてい
る。
Next, in step 303, it is checked whether or not an eye tracking area has been set. The eye tracking area refers to a predetermined area including the eye, and by detecting the position of continuous data appearing in this area, the detailed position of the eye is recognized, and the density data at the specified position is read. To detect the degree of eye opening. Further, by setting a processing area in the next image to be captured based on the detailed position of the continuous data appearing in the predetermined area, it is possible to cope with a change in the eye position including outside the tracking area.

【0040】眼の追跡領域が設定されていない場合は、
ステップ304およびステップ305において、眼の位
置検出を行い、且つ、これに基づいて眼の追跡領域とな
る横方向(X方向)の幅と縦方向(Y方向)の幅を設定
する。眼の位置検出の詳細は図5のフローチャートと、
図6〜図11に示す説明図により後述する。ステップ3
03で眼の追跡領域が設定されていると判断された場
合、ステップ306で眼の開度と詳細な位置検出が行わ
れる。この処理の詳細は、図12のフローチャートと、
図13〜図15に示す説明図により後述する。
If the eye tracking area has not been set,
In steps 304 and 305, the position of the eye is detected, and based on this, the width in the horizontal direction (X direction) and the width in the vertical direction (Y direction) to be the eye tracking areas are set. Details of the eye position detection are shown in the flowchart of FIG.
This will be described later with reference to the explanatory diagrams shown in FIGS. Step 3
If it is determined that the tracking area of the eye is set in 03, the opening degree of the eye and the detailed position detection are performed in step 306. Details of this processing are shown in the flowchart of FIG.
This will be described later with reference to the explanatory diagrams shown in FIGS.

【0041】この後、ステップ307において、前ステ
ップで検出された眼の開度値の変化を前フレームにおけ
る値と比較することによって、眼の開度変化に相当する
状態が発生しているか否かを判定する。プログラムのス
タート直後で初めてステップ307に入ってきている場
合については、前画像フレームでの値がメモリされてい
ないため、変化はないとみなされステップ308に移行
する。ステップ308では、開度値変化のない状態が所
定時間T1以上続いたかどうかを判定しており、所定時
間T1を越えていない場合は、図4のステップ401に
移行する。この所定時間T1は、瞬きが1回は発生する
と考えられるタイミングにより設定される。
Thereafter, in step 307, by comparing the change in the eye opening value detected in the previous step with the value in the previous frame, it is determined whether or not a state corresponding to the change in eye opening has occurred. Is determined. When the process enters step 307 for the first time immediately after the start of the program, since the value in the previous image frame is not stored, it is determined that there is no change, and the process proceeds to step 308. In step 308, it is determined whether or not a state in which the opening degree value has not changed has continued for a predetermined time T1 or more. If the state has not exceeded the predetermined time T1, the process proceeds to step 401 in FIG. The predetermined time T1 is set at a timing at which blinking is considered to occur once.

【0042】ステップ308で所定時間T1以上と判定
された場合は、瞬きによる開度変化がないことから、検
出対象となっているデータが眼ではないと判定し、ステ
ップ309で、眼の追跡領域をクリアし、ステップ30
1に戻し、再度眼の位置検出処理を行う。ここで、検出
対象となっているデータが眼であれば所定時間T1内に
眼の開度値の時系列の変化があるが、検出対象となって
いるデータが眼でなければ所定時間T1内に眼の開度値
の時系列の変化がないため、適正に眼の誤認識を判断で
き、このように眼の位置を誤認識していると判断した場
合には、眼の位置検出手段による眼の位置の検出処理を
やり直すため、眼の位置の誤検出を防止できる。
If it is determined in step 308 that the time is equal to or longer than the predetermined time T1, since there is no change in the opening degree due to blinking, it is determined that the data to be detected is not the eye, and in step 309, the eye tracking area is determined. Clear step 30
The processing returns to 1 and the eye position detection processing is performed again. Here, if the data to be detected is an eye, there is a chronological change in the eye opening value within a predetermined time T1, but if the data to be detected is not an eye, the change is within a predetermined time T1. Because there is no change in the time series of the eye opening value, it is possible to properly determine the erroneous recognition of the eye, and if it is determined that the erroneous recognition of the eye position is performed, Since the eye position detection process is performed again, erroneous detection of the eye position can be prevented.

【0043】ステップ307で眼の開度変化があると判
定された場合や、開度値変化がなくてもステップ308
で所定時間T1を越えていないと判定された場合は、図
4のステップ401に移行する。ステップ401では、
開度値の変化範囲を学習することで設定できる基準値を
用いることにより開閉眼を判定する。ステップ402で
は、図3のステップ306で眼の開度値と共に算出され
る眼の位置座標を用いて追跡(検出)対象の移動量を判
定する。尚、この時、警報を制限するタイマーをコント
ロールするために警報制限フラグがOFFであることも
確認する。ステップ402で追跡対象である眼の位置座
標が所定値以上移動していると判定されない場合は、ス
テップ404に移行する。
If it is determined in step 307 that there is a change in the opening degree of the eye, or if there is no change in the opening degree value, step 308 is executed.
If it is determined that the predetermined time T1 has not been exceeded, the process proceeds to step 401 in FIG. In step 401,
An open / closed eye is determined by using a reference value that can be set by learning a change range of the opening degree value. In step 402, the movement amount of the tracking (detection) target is determined using the eye position coordinates calculated in step 306 of FIG. 3 together with the eye opening value. At this time, it is also confirmed that the alarm restriction flag is OFF in order to control the timer for restricting the alarm. If it is not determined in step 402 that the position coordinates of the eye to be tracked have moved by a predetermined value or more, the process proceeds to step 404.

【0044】また、ステップ402で追跡対象である眼
の位置座標が所定値以上移動していると判定された場合
は、ステップ403に移行し、警報制限タイマーをスタ
ートさせ、警報制限タイマーをONにした後、ステップ
404に移行する。ステップ404では警報制限時間を
コントロールする警報制限タイマーが所定時間T2を越
えたか否かを判定しており、警報制限タイマーが起動状
態で、且つ、所定時間T2を越えた場合に限ってステッ
プ405に移行し、警報制限フラグをOFFにする。こ
の処理の詳細は、図17〜図19に示す説明図により後
述する。
If it is determined in step 402 that the position coordinates of the eye to be tracked have moved by a predetermined value or more, the process proceeds to step 403, where the alarm limit timer is started and the alarm limit timer is turned on. After that, the process proceeds to step 404. In step 404, it is determined whether or not the alarm limit timer for controlling the alarm limit time has exceeded the predetermined time T2. Only when the alarm limit timer is in the activated state and has exceeded the predetermined time T2, the process proceeds to step 405. Then, the alarm restriction flag is turned off. Details of this processing will be described later with reference to the explanatory diagrams shown in FIGS.

【0045】ステップ406では、眼の追跡領域の更新
を行い、更にステップ407で閉眼出力の出現パターン
による覚醒度の判定を行う。ステップ408では、警報
制限フラグのON・OFFを確認し、警報制限フラグが
OFFで、且つ、ステップ401で閉眼と判定される結
果が連続して出力され長い閉眼が発生していると判断さ
れる場合は、運転者に注意を促す警報をステップ409
で発する。この後、図3のステップ301に戻り次の画
像入力を行い同様の処理を続ける。
In step 406, the tracking area of the eye is updated, and in step 407, the arousal level is determined based on the appearance pattern of the closed-eye output. In step 408, the ON / OFF state of the alarm restriction flag is confirmed. The result of the determination that the alarm restriction flag is OFF and the eye closed in step 401 is continuously output, and it is determined that a long eye closed has occurred. In the case, a warning to alert the driver is issued in step 409.
Fire at. Thereafter, the process returns to step 301 in FIG. 3 to input the next image, and the same processing is continued.

【0046】次に、眼の位置検出の詳細を説明する。Next, details of the eye position detection will be described.

【0047】眼の位置検出処理の流れを図5のフローチ
ャートに基づいて説明する。まず、ステップ501で
は、図6に示すようにY軸方向にライン上のデータに対
してポイント抽出の処理を行い1ライン終了後に、一つ
隣りのラインの処理に移行し、所定方向の全ラインでの
ポイント抽出が終了したか否かを判断する。ステップ5
01で全ラインにおいてポイント抽出が行われていない
と判断された場合は、ステップ502に移行する。この
ステップ502では、所定方向の1ラインの濃度値の相
加平均演算を行う。この処理は、画像データ撮影時の濃
度値の変化の小さなばらつきを無くすことを目的として
おり、濃度値の大局的な変化を捉えるためである。図7
(a)に、図6のXaのラインデータの相加平均演算の
処理結果を示す。
The flow of the eye position detecting process will be described with reference to the flowchart of FIG. First, in step 501, point extraction processing is performed on data on a line in the Y-axis direction as shown in FIG. 6, and after one line is completed, processing is shifted to the next adjacent line, and all lines in a predetermined direction are processed. It is determined whether or not point extraction has been completed. Step 5
If it is determined in 01 that point extraction has not been performed on all lines, the process proceeds to step 502. In this step 502, arithmetic mean calculation of density values of one line in a predetermined direction is performed. This processing is intended to eliminate small variations in the change in density value at the time of capturing image data, and to capture a global change in density value. FIG.
FIG. 6A shows a processing result of the arithmetic averaging operation of the line data of Xa in FIG.

【0048】図5のステップ503では、ステップ50
2の演算結果である相加平均値における微分演算を行
う。この処理結果である微分値によるポイント抽出を行
う。そのポイントの抽出方法は、微分値が負から正に変
化するポイント(p1〜p5)、図7(a)でいうと、
グラフが下向きに凸になるポイントを抽出する。次に、
そのポイントに達するまでの濃度値の変化(q1〜q
5)が所定値以下であるか否か、図7(b)のグレーの
部分に入るか否かを判定し、所定値以下の濃度値の変化
を持つポイントを対象としてY座標値(A1〜A3)を
抽出する。
In step 503 of FIG.
The differential operation is performed on the arithmetic average value that is the operation result of Step 2. Point extraction is performed using the differential value that is the result of this processing. The method for extracting the points is as follows: points (p1 to p5) at which the differential value changes from negative to positive;
Extract points where the graph is convex downward. next,
Changes in density value until reaching that point (q1-q
It is determined whether or not 5) is equal to or less than a predetermined value, and whether or not it falls within a gray portion in FIG. 7B. A3) is extracted.

【0049】この処理が1ライン終了後、ステップ50
5で、次のラインの処理に切り換えて行く。この処理を
繰り返す中で、例えば図6に示すXbのようなラインの
場合、図8(a)、(b)からも分かるように抽出ポイ
ントがない場合もある。
After this processing is completed for one line, step 50
At 5, the processing is switched to the processing of the next line. During the repetition of this processing, for example, in the case of a line like Xb shown in FIG. 6, there is a case where there is no extraction point as can be seen from FIGS. 8 (a) and 8 (b).

【0050】ステップ501で全ラインのポイント抽出
が終了したと判断されると、図9に示すようなポイント
が抽出される。つまり、図9のXcライン上では、A
1、A2の二つのポイントが抽出されており、Xdライ
ン上では、A1、A2、A3、A4の四つのポイントが
抽出されていることになる。
When it is determined in step 501 that point extraction for all lines has been completed, points as shown in FIG. 9 are extracted. That is, on the Xc line in FIG.
Two points 1, 1 and A2 are extracted, and four points A1, A2, A3, and A4 are extracted on the Xd line.

【0051】この後、ステップ506へ移行し、隣り合
う各ラインの抽出ポイント(A1、A2、A3…)のY
座標値を比較し、Y座標値が所定値以内の場合、連続デ
ータとして、連続データのグループ番号、連続開始
ライン番号、連続データ数をメモリする。この具体的
な処理内容を図10を用いて説明する。ライン1には、
Y座標値が192と229の二つの抽出ポイントがあ
る。ライン1のY座標値が192のポイントは左隣りの
ラインが存在しないので、この段階での連続データはな
いため、連続データのグループ番号は“1”となる。
また、Y座標値が229のポイントも同様の理由でこの
段階での連続データは存在しないため、連続データの
グループ番号は“2”とする。
Thereafter, the flow shifts to step 506, where Y of the extraction points (A1, A2, A3...) Of each adjacent line is determined.
The coordinate values are compared, and if the Y coordinate value is within a predetermined value, the continuous data group number, continuous start line number, and continuous data number are stored as continuous data. This specific processing will be described with reference to FIG. On line 1,
There are two extraction points whose Y coordinate values are 192 and 229. At the point where the Y coordinate value of line 1 is 192, there is no line on the left side, and there is no continuous data at this stage, so the group number of the continuous data is "1".
In addition, since there is no continuous data at this stage at the point where the Y coordinate value is 229 for the same reason, the group number of the continuous data is set to “2”.

【0052】次に、右隣りのライン2のY座標値191
のポイントは、左隣りのライン1のY座標値192と1
0以内のポイントであるため、連続データのグループ番
号を“1”とする。この時、連続データ数は2とな
る。ライン2のY座標値224のポイントにおいても同
様の判定を行うと、連続データのグループ番号は
“2”となり、連続データ数は2となる。
Next, the Y coordinate value 191 of the line 2 on the right
Are the Y coordinate values 192 and 1 of the line 1 on the left
Since the point is within 0, the group number of the continuous data is set to “1”. At this time, the number of continuous data is two. When the same determination is performed at the point of the Y coordinate value 224 of the line 2, the group number of the continuous data is “2” and the number of continuous data is 2.

【0053】次のライン3のY座標値360のポイント
では、左隣りのライン2に360と10以内になるポイ
ントが存在しないので、連続データのグループ番号は
“3”となり、連続データ数は1となる。
At the point of the Y coordinate value 360 of the next line 3, there is no point within 360 and 10 on the line 2 on the left, so the group number of the continuous data is "3" and the number of continuous data is 1 Becomes

【0054】また、ステップ506での連続開始ライ
ン番号は、連続データ数が1と判断されるポイントを
有するライン番号のことをいう。
The continuous start line number in step 506 is a line number having a point at which the number of continuous data is determined to be one.

【0055】ステップ506では、このようにして各ラ
インのポイントの連続性の判断を全ラインにおいて終了
するまで行い、ステップ507へ移行する。
At step 506, the continuity of the points on each line is determined until the processing is completed for all the lines, and the process proceeds to step 507.

【0056】ステップ507では、同じ連続データのグ
ループ番号を持つポイントのY座標値の平均値を連続
ポイントの平均値にメモリする。この値は、そのグルー
プの代表Y座標値として用いることができる。また、連
続開始ラインとその連続データ数から連続終了ラインを
求め、連続開始ラインと連続終了ラインの平均値をメモ
リする。この値は、そのグループの代表X座標値として
用いることができる。
In step 507, the average value of the Y coordinate values of the points having the same continuous data group number is stored in the average value of the continuous points. This value can be used as a representative Y coordinate value of the group. Further, a continuous end line is obtained from the continuous start line and the number of continuous data, and an average value of the continuous start line and the continuous end line is stored. This value can be used as the representative X coordinate value of the group.

【0057】このようにして得られた各連続グループデ
ータを、ステップ508で、各連続グループの長さ、
(X、Y)座標値により判定することにより、眼の位置
が特定(検出)できる。
At step 508, each continuous group data obtained in this way is used to calculate the length of each continuous group,
By determining based on (X, Y) coordinate values, the position of the eye can be specified (detected).

【0058】ここで、図11を用いて具体的な眼の位置
検出方法について説明する。
Here, a specific method of detecting the position of the eye will be described with reference to FIG.

【0059】まず始めに眼の特徴量を考えると、横に長
く、上に凸型の弓形形状であると定義付けることがで
き、この定義付けに基づいて連続データの絞り込みを行
うと、眼は横に長いという条件から、ポイント連続数が
5ポイント以上続き、また、弓形形状であるという条件
から、連続開始ポイントと連続終了ポイントのY座標値
の差は、小さい連続データに絞り込むことができる。こ
の判定に基づき連続データの絞り込みを行うと、図11
(a)に示すようなグループG1〜G6が抽出される。
First, considering the characteristic amount of the eye, it can be defined as a horizontally long and upwardly convex arcuate shape. Based on this definition, if the continuous data is narrowed down, the eye becomes horizontal. , The difference between the Y coordinate values of the continuous start point and the continuous end point can be narrowed down to small continuous data, based on the condition that the number of continuous points continues for 5 or more points, and the condition of an arc shape. When narrowing down the continuous data based on this determination, FIG.
Groups G1 to G6 as shown in FIG.

【0060】次に、前述した各グループのX、Yの代表
座標値の位置を考えると、図11(b)に示すように、
X座標方向での近接度合いより、ZONE:L、ZON
E:C、ZONE:Rに分類できる。これは、左眼と左
眉でX座標方向に大きく離れることはなく、又、右眼と
右眉でX座標方向に大きく離れることはないからであ
る。また、鼻下の影により連続データとなったものや、
口の連続データは中央部付近に位置する。
Next, considering the positions of the representative coordinate values of X and Y of each group described above, as shown in FIG.
From the proximity in the X coordinate direction, ZONE: L, ZON
It can be classified into E: C and ZONE: R. This is because the left eye and the left eyebrow do not greatly separate in the X coordinate direction, and the right eye and the right eyebrow do not greatly separate in the X coordinate direction. Also, continuous data due to the shadow under the nose,
Mouth continuous data is located near the center.

【0061】このようにX座標方向の接近度合いで、更
にデータを分類し、データを絞り込んで行くことで眼の
位置検出を容易に行うことができる。ZONE:Lに含
まれる連続データは、左眼と左眉であり、ZONE:R
に含まれる連続データは、右眼と右眉であると判別する
と、眼の位置はG3、G4であり、その座標値も特定で
きる。このように眼の位置検出は両眼を対象として行う
ことができるが、居眠り検出を目的とした場合、片方の
眼だけを閉じて眠る運転者はいないと思われることか
ら、これ以降説明する開閉眼検出については、片方(左
眼)に限定している。この運転者の片方の眼(左眼)に
限定した理由には、単に演算処理時間を節約するためだ
けでなく、右ハンドル車の場合、直射光が当ることがあ
る右眼は、光の強さにより眼の形状が捉えにくくなるこ
とがあるからである。
As described above, the data is further classified based on the degree of approach in the X coordinate direction, and the position of the eye can be easily detected by narrowing down the data. The continuous data included in ZONE: L is the left eye and the left eyebrow, and ZONE: R
When the continuous data included in the image data is determined to be the right eye and the right eyebrow, the positions of the eyes are G3 and G4, and the coordinate values thereof can be specified. In this way, eye position detection can be performed for both eyes, but for the purpose of dozing detection, it is assumed that no driver will sleep with only one eye closed. Eye detection is limited to one (left eye). The reason for limiting to one eye (left eye) of this driver is not only to save the calculation processing time, but also in the case of a right-hand drive vehicle, the right eye, which may be exposed to direct light, has strong light. This is because the shape of the eye may be difficult to catch.

【0062】次に、図3のステップ306の眼の開度検
出の詳細を説明する。
Next, the details of the eye opening detection in step 306 in FIG. 3 will be described.

【0063】眼の開度値を検出する方法としては、図1
4に示すように肌の白い部分から眼の黒い部分への濃度
変化が最大となる所のQ点と、眼の黒い部分から肌の白
い部分への濃度変化が最大となる所のR点との間隔を求
めるものと、これから図12のフローチャートを用いて
説明する二値化閾値を設定して眼の黒い部分の縦幅を求
めるものがある。
FIG. 1 shows a method for detecting the eye opening value.
As shown in FIG. 4, the point Q where the density change from the white part of the skin to the black part of the eye is maximum, and the point R where the density change from the black part of the eye to the white part of the skin is maximum. , And a method of setting a binarization threshold, which will be described below with reference to the flowchart of FIG. 12, to obtain the vertical width of the black part of the eye.

【0064】それでは、これより二値化閾値を設定して
眼の開度検出処理の詳細について説明する。
Now, the details of the eye opening detection process by setting the binarization threshold will be described.

【0065】まず始めに開度検出を行う二値化画像へ変
換するための二値化閾値設定方法の流れを、図12のフ
ローチャートに基づいて説明する。まず、ステップ12
01では図13(a)に示すようにY軸方向にライン上
のデータに対してポイント抽出の処理を行い1ライン終
了後に、一つ隣りのラインの処理に移行し、所定方向の
全ラインでのポイント抽出が終了したか否かを判断す
る。ステップ1201で全ラインにおいてポイント抽出
が行われていないと判断された場合は、ステップ120
2に移行する。
First, the flow of a binarization threshold setting method for converting into a binarized image for which the opening is detected will be described with reference to the flowchart of FIG. First, step 12
In FIG. 13A, point extraction processing is performed on the data on the line in the Y-axis direction as shown in FIG. 13A, and after one line is completed, the processing shifts to the processing of the next adjacent line. It is determined whether or not the point extraction has been completed. If it is determined in step 1201 that point extraction has not been performed on all lines, step 120
Move to 2.

【0066】このステップ1202では、所定方向の1
ラインの濃度値の相加平均演算を行う。この処理は、画
像データ撮影時の濃度値の変化の小さなばらつきを無く
すことを目的としており、濃度値の大局的な変化を捉え
るためである。図13(b)に、図13(a)のXaの
ラインデータの相加平均演算の処理結果を示す。図12
のステップ1203では、ステップ1202の演算結果
である相加平均値における微分演算を行う。この処理結
果を図13(c)に示す。図12のステップ1204で
は、ステップ1203の演算結果である微分値によるポ
イント抽出を行う。このポイントの抽出方法は、微分値
が負から正に変化するポイントP、図13(b)でいう
とグラフが左向きに凸になるポイントを抽出する。次
に、そのポイントの前後の濃度値の変化が所定値以下、
以上であるか否か、図13(c)のグレーの部分に入る
か否かを判定し、上記条件を満足する濃度値の変化を持
つポイントPを抽出する。
In this step 1202, 1 in the predetermined direction
The arithmetic operation of the density value of the line is performed. This processing is intended to eliminate small variations in the change in density value at the time of capturing image data, and to capture a global change in density value. FIG. 13B shows the processing result of the arithmetic averaging operation of the line data of Xa in FIG. FIG.
In step 1203, a differential operation is performed on the arithmetic mean value that is the operation result of step 1202. This processing result is shown in FIG. In step 1204 of FIG. 12, point extraction is performed using the differential value that is the result of the operation in step 1203. In this point extraction method, a point P at which the differential value changes from negative to positive, that is, a point at which the graph becomes convex to the left in FIG. 13B is extracted. Next, the change in the density value before and after the point is equal to or less than a predetermined value,
It is determined whether or not this is the case, and whether or not it is within the gray portion in FIG. 13C, and a point P having a change in density value that satisfies the above condition is extracted.

【0067】ステップ1205で図13(a)に示すよ
うにXa列に抽出ポイントPが存在すると判定された場
合は、ステップ1206へ移行し、P点の前後の微分値
の最大、最小値であるQ点とR点のY座標の濃度値をN
al(微分値が最小となるY座標の濃度値)とNah
(微分値が最大となるY座標の濃度値)をメモリしてス
テップ1207に移行する。
If it is determined in step 1205 that the extraction point P exists in the Xa column as shown in FIG. 13A, the process proceeds to step 1206, where the differential values before and after the point P are the maximum and minimum values. The density value of the Y coordinate of the Q point and the R point is N
al (density value of Y coordinate at which differential value becomes minimum) and Nah
The density value of the Y coordinate at which the differential value becomes the maximum is stored, and the process proceeds to step 1207.

【0068】ステップ1207では、次のラインへの処
理に切り換えステップ1201で全ラインの処理の終了
が確認されるまで同一の処理を繰り返す。つまり、図1
4(a)に示すようにXa列後のXb列では、Xb列の
抽出ポイントP点の前後の微分値の最大、最小値である
Q点とR点のY座標の濃度値をNblとNbhとしてメ
モリして行く。
At step 1207, the processing is switched to the processing for the next line, and the same processing is repeated until it is confirmed at step 1201 that the processing for all the lines has been completed. That is, FIG.
As shown in FIG. 4A, in the Xb column after the Xa column, the density values of the Y coordinate of the Q point and the R point which are the maximum and minimum values of the differential value before and after the extraction point P in the Xb column are represented by Nbl and Nbh. Go to memory as.

【0069】各ラインでメモリされる抽出ポイントの前
の濃度変化の最小微分値、N_lは濃度値が明るい部分
から暗い部分へ最も大きく変化する箇所であり、この濃
度値より暗くなる部分、つまり、抽出ポイントP点に向
かっては眼に当る部分の濃度値であるといえる。また、
各ラインでメモリされる抽出ポイントの後の濃度変化の
最大微分値、N_hは濃度値が暗い部分から明るい部分
へ最も大きく変化する箇所であり、抽出ポイントP点か
らこの濃度値まで明るくなる部分が眼に当る濃度値であ
るといえる。よって、N_l、N_hの値は、二値化処
理で眼の部分を黒画素(0)に、眼の回りの肌の部分を
白画素(1)に確実に変換する閾値の設定情報として用
いることができる。
The minimum differential value N_l of the density change before the extraction point stored in each line is a portion where the density value changes most from a bright portion to a dark portion, and a portion darker than this density value, that is, It can be said that it is the density value of the portion that hits the eye toward the extraction point P. Also,
The maximum differential value of the density change after the extraction point stored in each line, N_h, is a portion where the density value changes most from a dark portion to a bright portion, and a portion where the brightness from the extraction point P to this density value becomes brighter. It can be said that the density value hits the eyes. Therefore, the values of N_l and N_h are used as threshold setting information for reliably converting the eye part to a black pixel (0) and the skin part around the eye to a white pixel (1) in the binarization processing. Can be.

【0070】ステップ1201で全ラインの処理の終了
が確認された場合、ステップ1208へ移行し、各ライ
ンの抽出ポイントの濃度値(N_l、N_h)の情報か
ら二値化閾値を設定する。二値化閾値の設定は、下記に
示すような方法が考えられる。
If it is confirmed in step 1201 that the processing of all the lines has been completed, the process proceeds to step 1208, and a binarization threshold is set from the information on the density values (N_l, N_h) of the extraction points of each line. The following method can be considered for setting the binarization threshold.

【0071】第一に、各ラインの最小微分値の濃度N_
lの最小値を更新してその値を基準に設定する。
First, the density N_ of the minimum differential value of each line
The minimum value of 1 is updated and set based on that value.

【0072】第二に、各ラインの最大微分値の濃度N_
hの最大値を更新してその値を基準に設定する。
Second, the density N_ of the maximum differential value of each line
The maximum value of h is updated and set based on that value.

【0073】第三に、各ラインの最小微分値の濃度N_
lの平均値を基準に設定する。
Third, the density N_ of the minimum differential value of each line
Set based on the average value of l.

【0074】第四に、各ラインの最大微分値の濃度N_
hの平均値を基準に設定する。
Fourth, the density N_ of the maximum differential value of each line
h is set based on the average value.

【0075】第五に、各ラインの全N_l、N_hの平
均値を基準に設定する。
Fifth, the average value of all N_l and N_h of each line is set as a reference.

【0076】第六に、眼の連続データと抽出される各ラ
インのP点の最も明るい濃度値を基準にして微分値のレ
ベルを用いて階調アップ量を補正して設定する。(微分
値のレベルが大きい場合はP点の最も明るい濃度値にプ
ラスする階調を大きく設定し、微分値のレベルが小さい
場合はP点の最も明るい濃度値にプラスする階調を小さ
く設定する。)次に、図15を用いて眼の開度の検出方
法を説明する。
Sixth, the gradation up amount is corrected and set using the level of the differential value with reference to the continuous data of the eyes and the brightest density value at point P of each line to be extracted. (If the level of the differential value is large, the tone added to the brightest density value at point P is set large, and if the level of the differential value is small, the tone added to the brightest density value at point P is set small. Next, a method of detecting the eye opening will be described with reference to FIG.

【0077】前述した方法で求めた二値化閾値を用いて
連続データが出現した範囲で更に領域を限定させて二値
化処理を行う。その二値化画像は、検出対象者が正常時
と居眠り状態時で、それぞれ図15に示すようになる。
この時、黒画素に変換される眼の部分の縦方向への最大
連続数をカウントすると、正常時(開眼)ではその値が
大きくなり、居眠り時(閉眼)ではその値が小さくな
る。このようにして眼の開度検出を行う。
Using the binarization threshold value obtained by the above-described method, the binarization process is performed by further limiting the area in the range where continuous data has appeared. The binarized image is as shown in FIG. 15 when the detection target person is normal and when he or she is dozing.
At this time, when the maximum number of consecutive continuations of the eye portion converted into black pixels in the vertical direction is counted, the value increases in a normal state (opened eyes) and decreases in a dozing state (closed eyes). In this way, the eye opening is detected.

【0078】次に、図4のフローチャートのステップ4
06における眼の追跡方法の詳細を図16を用いて説明
する。この処理の初期状態、つまり第1フレームでは、
当然、眼の追跡領域Eは設定されていないため、図3の
ステップ304、305で眼の追跡領域Eが設定され
る。この時、眼の中心座標と眼の追跡領域Eの中心座標
は図16(a)に示すように一致している。一連の処理
の終了後、第2フレームの処理に移り、ステップ303
へ進むと、ここでは既に眼の追跡領域Eが設定されてい
るため、ステップ306に移り、眼の開度と位置検出を
行う。この時、検出される眼の位置は、図16(b)に
示すようになる。図16(b)の眼の追跡領域Eは第1
フレームで設定された位置にあるのに対し、現在の眼の
位置は第2フレーム目に取り込まれた画像データである
ため、顔の動き等により眼の中心点は眼の追跡領域Eの
中心に対しズレてくる。しかし、眼が眼の追跡領域E内
にある限り眼の開度と眼の詳細な位置検出は行うことが
できる。
Next, step 4 in the flowchart of FIG.
Details of the eye tracking method in 06 will be described with reference to FIG. In the initial state of this processing, that is, in the first frame,
Naturally, since the eye tracking area E is not set, the eye tracking area E is set in steps 304 and 305 in FIG. At this time, the center coordinates of the eye and the center coordinates of the tracking area E of the eye match as shown in FIG. After the end of the series of processes, the process proceeds to the process of the second frame, and step 303
When the process proceeds to step 306, since the eye tracking region E has already been set, the process proceeds to step 306, where the eye opening and the position are detected. At this time, the detected positions of the eyes are as shown in FIG. The tracking area E of the eye in FIG.
Since the current eye position is the image data captured in the second frame while the position is set in the frame, the center point of the eye is located at the center of the eye tracking area E due to the movement of the face or the like. The gap is coming. However, as long as the eye is within the eye tracking area E, the eye opening and the detailed eye position detection can be performed.

【0079】ステップ406では、図16(b)の連続
データから算出した眼の中心座標を基準に眼の追跡領域
Eを更新することにより次フレームでの画像の取り込み
領域とする。よって、極端に速い眼の移動でない限り、
その動きに応じて眼の追跡領域Eを追従させることがで
きる。図16(c)、(d)は第3フレーム、第4フレ
ームで取り込まれる顔画像データでの眼の位置と眼の追
跡領域Eの位置関係を示したものである。
At step 406, the tracking area E of the eye is updated based on the center coordinates of the eye calculated from the continuous data of FIG. Therefore, unless the eye moves extremely fast,
The tracking area E of the eye can be made to follow the movement. FIGS. 16C and 16D show the positional relationship between the eye position and the eye tracking area E in the face image data captured in the third and fourth frames.

【0080】次に、眼の位置の移動状態を判定すること
により、警報出力に制限を加え、誤警報を低減する働き
を図4のステップ402〜405を用いて説明する。
Next, the function of limiting the alarm output by determining the movement state of the eye position and reducing false alarms will be described with reference to steps 402 to 405 in FIG.

【0081】眼の追跡座標(位置座標)が所定値以上移
動し、検出対象が眼から眼鏡のフレームに入れ替わって
しまう例を図17を用いて説明する。図17(a)のよ
うに撮影対象者が眼鏡を掛けている場合、図17(b)
に示すように、眼の回りにノイズとなる眼鏡のフレーム
等のデータが多く存在するので、顔が上方に速く動いた
時、の眼の追跡領域E内には、眼である連続データ1
は該追跡領域E外に出てしまい、それに代わって眼鏡の
フレームの連続データ2が入ってくる。この時、眼の追
跡領域Eは、と眼鏡のフレームの連続データ2に引
っ張られてしまい対象とするデータが入れ替わってしま
うことがある。このような状態になると眼鏡のフレーム
は閉眼相当の縦幅しかないため、眼を閉じたと認識し誤
警報を発することになる。
An example in which the tracking coordinates (position coordinates) of the eye move by a predetermined value or more and the detection target is switched from the eye to the frame of glasses will be described with reference to FIG. When the person to be imaged wears glasses as in FIG. 17A, FIG.
As shown in FIG. 7, since there are many data such as eyeglass frames that become noise around the eyes, when the face moves quickly upward, the continuous data 1 of the eyes is included in the eye tracking area E.
Goes out of the tracking area E, and the continuous data 2 of the frame of the glasses enters instead. At this time, the tracking area E of the eye may be pulled by the continuous data 2 of the frame of the eyeglasses and the target data may be switched. In such a state, the frame of the eyeglasses has a vertical width equivalent to that of the closed eyes, so that it is recognized that the eyes are closed and a false alarm is issued.

【0082】これを解決するために、ステップ402で
は眼の追跡座標(位置座標)が所定値以上移動したか否
かを検出し、所定値以上移動した場合にはステップ40
3で警報制限タイマーをスタートさせ、警報制限フラグ
をONにする。そして、ステップ404で警報制限タイ
マーが所定時間T2を越えたか否か判定し、所定時間T
2を越えない間はステップ408で警報を制限する。所
定時間T2を越えた時にはステップ405で警報制限フ
ラグをOFFにして警報可能のモードに戻す。
In order to solve this, in step 402, it is detected whether or not the tracking coordinates (position coordinates) of the eye have moved by a predetermined value or more.
At 3, the alarm limit timer is started and the alarm limit flag is turned on. Then, at step 404, it is determined whether or not the alarm limit timer has exceeded a predetermined time T2.
If the number does not exceed 2, the alarm is limited in step 408. When the time exceeds the predetermined time T2, the alarm restriction flag is turned off at step 405 to return to the alarm enabled mode.

【0083】つまり、眼の位置座標が所定値以上移動
し、検出対象が眼から眼以外のものに入れ替わり、この
入れ替わった眼以外のものが閉眼相当の縦幅しかない場
合には、所定時間T2の間に亘って居眠り警報出力が制
限されるため、この時間が適正な追跡をする猶予時間と
なり、眼の追跡ミスによって眼を閉じたと誤認して生じ
る誤警報を低減できる。また、眼の誤認識を判別する所
定時間T1より警報を制限する所定時間T2を長く設定
すれば、図18に示すように、眼の誤認識を判別する所
定時間T1より長い所定時間T2の間に亘って居眠り警
報出力が制限されるため、眼の追跡ミスによって眼を閉
じたと誤認して生じる誤警報を確実に防止できる。
That is, if the position coordinates of the eye move by a predetermined value or more and the object to be detected is switched from the eye to an object other than the eye, and the object other than the replaced eye has a vertical width equivalent to the closed eye, the predetermined time T2 Since the falling asleep alarm output is limited during this period, this time becomes a grace period for proper tracking, and it is possible to reduce false alarms caused by erroneously recognizing that the eyes are closed due to an eye tracking error. Further, if the predetermined time T2 for restricting the alarm is set longer than the predetermined time T1 for determining the erroneous recognition of the eye, as shown in FIG. 18, the predetermined time T2 is longer than the predetermined time T1 for determining the erroneous recognition of the eye. , The output of the drowsiness alarm is limited, so that it is possible to reliably prevent an erroneous alarm caused by erroneously recognizing that the eyes are closed due to a mistake in tracking the eyes.

【0084】また、開閉眼検出回路26より出力される
眼の位置座標が所定値以上移動した場合には、眼の位置
座標が所定値以上移動しなかった場合に較べて眼の誤認
識を判別する所定時間T1を短かい時間T1´とするよ
う設定すれば、図19に示すように、誤った対象を追跡
し続ける時間を短縮できる。
Further, when the position coordinates of the eye output from the open / closed eye detection circuit 26 move by a predetermined value or more, misrecognition of the eyes is determined as compared with the case where the position coordinates of the eye do not move by a predetermined value or more. If the predetermined time T1 to be set is set to be a short time T1 ', as shown in FIG. 19, it is possible to reduce the time for keeping track of an erroneous target.

【0085】次に、トラックのように顔が激しく上下動
するような状況が頻繁に発生する車両のように、正しく
眼を追跡していても眼の位置座標の移動量が所定値以上
となる場合が発生する。この場合に上記と同様に警報制
限がなされると正しく眼を追跡しているにもかかわらず
居眠り防止の警報が発っせられない事態が生じる。
Next, as in a vehicle in which the face frequently moves up and down like a truck frequently, even if the eyes are tracked correctly, the amount of movement of the eye position coordinates becomes a predetermined value or more. Cases occur. In this case, if the alarm is restricted in the same manner as described above, a situation may occur in which the alarm for preventing falling asleep is not issued even though the eye is correctly tracked.

【0086】これを解決するために、警報出力制限回路
29は、開閉眼検出回路26より出力される眼の位置座
標が所定値以上移動した場合であって、所定値以上の移
動前の位置を基準にした許容領域を設定する。そして、
眼の位置座標が所定値以上移動した場合には、警報制限
フラグをONとし警報制限タイマーをスタートさせる
が、所定時間T2の間に検出対象が許容領域内に戻った
場合には、居眠り警報出力の制限を解除するよう構成す
る。
In order to solve this problem, the alarm output limiting circuit 29 determines whether the position of the eye output from the open / closed eye detection circuit 26 has moved by a predetermined value or more and the position before the movement by the predetermined value or more. Set the reference allowable area. And
If the position coordinates of the eye move by a predetermined value or more, the alarm restriction flag is turned on and the alarm restriction timer is started. However, if the detection target returns to the allowable range during the predetermined time T2, the dozing alarm output Is configured to remove the restriction.

【0087】つまり、図20(a)に示すように、眼の
位置座標が所定値を越えた最初の移動点Aが発生した時
に、移動前のポイントOを基準に眼の移動を認識しない
許容領域E1を設定する。その後、警報制限の所定時間
T2までのカウントアップを行っている時に、この許容
領域E1に追跡対象がCのように入ってきた場合は、直
ちに警報制限フラッグをOFFにする。このようにする
ことで追跡対象が本当に入れ替わってしまった図20
(b)の場合と区別することができる。
That is, as shown in FIG. 20 (a), when the first moving point A in which the eye position coordinate exceeds a predetermined value occurs, the eye movement is not recognized based on the point O before the movement. An area E1 is set. Thereafter, when the tracking target enters the allowable area E1 as indicated by C while counting up to the predetermined time T2 of the alarm restriction, the alarm restriction flag is immediately turned off. FIG. 20 shows that the tracking target has really been replaced by doing so.
It can be distinguished from the case of (b).

【0088】最後に、眼の位置検出を行う際に、眼を誤
検出し、誤検出した画像データの開度値が小さい時に出
る誤警報の防止方法を図21、図22のフローチャート
を用いて説明する。図21、図22のフローチャートに
おいて、図3、図4のフローチャートと同一構成ステッ
プの説明は省略し、異なる構成ステップのみを説明す
る。
Finally, a method for preventing an erroneous alarm from being erroneously detected when the position of the eye is detected and an opening value of the erroneously detected image data is small will be described with reference to the flowcharts of FIGS. 21 and 22. explain. In the flowcharts of FIGS. 21 and 22, description of the same configuration steps as those in the flowcharts of FIGS. 3 and 4 will be omitted, and only different configuration steps will be described.

【0089】即ち、図21のステップ2104で眼の位
置検出後に、ステップ2105で警報制限フラグ2をO
Nし警報制限タイマー2をスタートさせる。ステップ2
107で、警報制限タイマー2が所定時間T3を越えた
か否かを判定し、所定時間T3の間は図22のステップ
2208で警報を発しないようにする。所定時間T3を
越えた場合にステップ2108で警報制限フラグ2をO
FFとして警報可能状態に戻す。つまり、眼の位置検出
後に直ちに警報制限が加えられるため、眼を誤検出し、
誤検出した画像データの開度値が小さい時に出る誤警報
を防止できる。
That is, after the position of the eye is detected in step 2104 of FIG.
N and the alarm limit timer 2 is started. Step 2
At 107, it is determined whether or not the alarm limit timer 2 has exceeded a predetermined time T3. During the predetermined time T3, no alarm is issued in step 2208 of FIG. If the predetermined time T3 has been exceeded, the alarm restriction flag 2 is set to O in step 2108.
Return to the alarm enabled state as FF. In other words, since the alarm restriction is imposed immediately after the detection of the eye position, the eye is erroneously detected,
It is possible to prevent an erroneous alarm that is issued when the opening value of the erroneously detected image data is small.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係る機能ブロック図であ
る。
FIG. 1 is a functional block diagram according to an embodiment of the present invention.

【図2】本発明の実施形態に係る構成ブロック図であ
る。
FIG. 2 is a configuration block diagram according to an embodiment of the present invention.

【図3】全体動作を示すフローチャートである。FIG. 3 is a flowchart showing an overall operation.

【図4】全体動作を示すフローチャートである。FIG. 4 is a flowchart showing an overall operation.

【図5】眼の位置検出の動作を示すフローチャートであ
る。
FIG. 5 is a flowchart illustrating an operation of detecting an eye position.

【図6】眼の位置検出に関する説明図である。FIG. 6 is an explanatory diagram related to eye position detection.

【図7】(a)、(b)はそれぞれ眼の位置検出に関す
る説明図である。
FIGS. 7A and 7B are explanatory diagrams relating to eye position detection, respectively.

【図8】(a)、(b)はそれぞれ眼の位置検出に関す
る説明図である。
FIGS. 8A and 8B are explanatory diagrams relating to eye position detection, respectively.

【図9】眼の位置検出に関する説明図である。FIG. 9 is an explanatory diagram related to eye position detection.

【図10】眼の位置検出に関する説明図である。FIG. 10 is an explanatory diagram relating to eye position detection.

【図11】(a)、(b)はそれぞれ眼の位置検出に関
する説明図である。
FIGS. 11A and 11B are explanatory diagrams relating to eye position detection.

【図12】眼の開度値を求める眼の二値化閾値の算出方
法を示すフローチャートである。
FIG. 12 is a flowchart illustrating a method for calculating an eye binarization threshold value for obtaining an eye opening value.

【図13】(a)、(b)、(c)はそれぞれ二値化閾
値を求める方法に関する説明図である。
FIGS. 13A, 13B, and 13C are explanatory diagrams each showing a method of obtaining a binarization threshold.

【図14】(a)、(b)、(c)はそれぞれ二値化閾
値を求める方法に関する説明図である。
FIGS. 14A, 14B, and 14C are explanatory diagrams each showing a method of obtaining a binarization threshold.

【図15】眼の開度値の出力方法に関する説明図であ
る。
FIG. 15 is a diagram illustrating a method of outputting an eye opening value.

【図16】(a)、(b)、(c)、(d)はそれぞれ
眼の追跡方法に関する説明図である。
FIGS. 16 (a), (b), (c) and (d) are explanatory diagrams relating to an eye tracking method.

【図17】(a)、(b)はそれぞれ眼の追跡ミスによ
り誤警報が発生する例の説明図である。
FIGS. 17A and 17B are explanatory diagrams of an example in which a false alarm is generated due to an eye tracking error. FIG.

【図18】警報制限方法に関する説明図である。FIG. 18 is an explanatory diagram relating to an alarm limiting method.

【図19】警報制限方法に関する説明図である。FIG. 19 is an explanatory diagram relating to an alarm limiting method.

【図20】(a)、(b)はそれぞれ警報制限方法に関
する説明図である。
FIGS. 20 (a) and (b) are explanatory diagrams relating to the alarm limiting method, respectively.

【図21】眼の位置の誤検出による誤警報の防止方法を
示すフローチャートである。
FIG. 21 is a flowchart illustrating a method for preventing a false alarm due to a false detection of an eye position.

【符号の説明】[Explanation of symbols]

CL1 画像入力手段 CL2 濃度検出手段 CL3 画像内ポイント抽出手段(ポイント抽出手段) CL4 連続データ抽出手段 CL5 眼の位置検出手段 CL6 領域内ポイント抽出手段(眼の開度検出手段) CL7 眼の開度検出手段 CL8 バックアップ手段 CL9 覚醒度判定手段 CL10 警報出力禁止手段 CL11 警報手段 21 TVカメラ(画像入力手段) 24 画像データ演算回路(濃度検出手段、ポイント抽
出手段、連続データ抽出手段) 25 眼の位置検出回路(眼の位置検出手段) 26 開閉眼検出回路(眼の開度検出手段) 27 バックアップ回路(バックアップ手段) 28 覚醒度判定回路(覚醒度判定手段) 29 警報出力制限回路(警報出力禁止手段) 30 警報回路(警報手段)
CL1 Image input means CL2 Density detecting means CL3 Point extracting means in image (point extracting means) CL4 Continuous data extracting means CL5 Eye position detecting means CL6 Point extracting means in area (eye opening detecting means) CL7 Eye opening detecting Means CL8 Backup Means CL9 Arousal Determining Means CL10 Warning Output Prohibiting Means CL11 Warning Means 21 TV Camera (Image Input Means) 24 Image Data Calculation Circuit (Density Detection Means, Point Extraction Means, Continuous Data Extraction Means) 25 Eye Position Detection Circuit (Eye position detection means) 26 Open / closed eye detection circuit (Eye opening degree detection means) 27 Backup circuit (Backup means) 28 Arousal level determination circuit (Arousal level determination means) 29 Alarm output restriction circuit (Alarm output inhibition means) 30 Alarm circuit (alarm means)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 G06F 15/62 380 9A001 G08B 21/06 15/70 405 (72)発明者 福田 岳 茨城県北相馬郡利根町大平31 ナイルス部 品株式会社内 (72)発明者 金田 雅之 神奈川県横浜市神奈川区宝町2番地 日産 自動車株式会社内 (72)発明者 大和田 正次 神奈川県横浜市神奈川区宝町2番地 日産 自動車株式会社内 Fターム(参考) 2F065 AA03 AA14 AA56 BB18 CC16 DD04 FF01 JJ03 JJ26 KK02 QQ03 QQ07 QQ13 QQ25 QQ29 QQ36 RR07 SS09 UU05 3D037 FA05 FB09 4C038 PP05 PQ04 PS07 5B057 AA16 BA02 CA08 CA12 CA16 CC03 DA08 DA15 DB02 DB09 DC05 DC14 DC36 5L096 DA03 FA19 FA32 FA69 GA02 GA17 GA34 GA36 HA02 HA05 JA11 9A001 BB02 BB03 BB04 EE02 EE05 GG05 HH24 HH25 JJ46 JJ77 KK37 KK42 KK56 LL03 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 7/20 G06F 15/62 380 9A001 G08B 21/06 15/70 405 (72) Inventor Takeshi Fukuda Ibaraki 31 Ohira, Tone-cho, Kitasoma-gun Niles Department Co., Ltd. (72) Inventor Masayuki Kanada 2 Takara-cho, Kanagawa-ku, Yokohama-shi, Kanagawa Nissan Motor Co., Ltd. Address F-term in Nissan Motor Co., Ltd. (Reference) 2F065 AA03 AA14 AA56 BB18 CC16 DD04 FF01 JJ03 JJ26 KK02 QQ03 QQ07 QQ13 QQ25 QQ29 QQ36 RR07 SS09 UU05 3D037 FA05 FB09 4C038 PP05 PQ04 DB07 DA08 DC14 DC36 5L096 DA03 FA19 FA32 FA69 GA02 GA17 GA34 GA36 HA02 HA05 JA11 9A001 BB02 BB03 BB04 EE02 EE05 GG 05 HH24 HH25 JJ46 JJ77 KK37 KK42 KK56 LL03

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 顔画像を入力する画像入力手段と、 該画像入力手段により入力された顔の画像データから眼
の開度を検出する眼の開度検出手段と、 該眼の開度検出手段で検出された眼の開度値が所定時間
T1変化しないときに眼の位置を誤認識していると判断
する判断手段とを有することを特徴とする眼の状態検出
装置。
1. An image input means for inputting a face image, an eye opening detection means for detecting an eye opening degree from face image data input by the image input means, and an eye opening detection means A determination means for determining that the position of the eye is erroneously recognized when the eye opening value detected in step (a) does not change for a predetermined time T1.
【請求項2】 請求項1記載の眼の状態検出装置であっ
て、 前記眼の開度検出手段より出力される眼の開度値の変化
より眼の開閉状態を判定し、この開閉状態の変化から覚
醒度を判定する覚醒度判定手段を備えたことを特徴とす
る眼の状態検出装置。
2. The eye state detection device according to claim 1, wherein the eye open / closed state is determined from a change in the eye openness value output from the eye openness detection means, and the open / closed state of the eye is determined. An eye state detection device comprising: an arousal level determination unit configured to determine an arousal level from a change.
【請求項3】 請求項1又は請求項2記載の眼の状態検
出装置であって、 前記画像入力手段により入力された顔の画像データから
眼の位置座標を検出する眼の位置検出手段と、 該眼の位置座標が所定値以上移動した場合には、前記所
定時間T1を短くすることを特徴とする眼の状態検出装
置。
3. The eye condition detecting device according to claim 1, wherein the eye position detecting device detects position coordinates of the eye from image data of the face input by the image input device. The eye state detecting device, wherein when the position coordinates of the eye move by a predetermined value or more, the predetermined time T1 is shortened.
【請求項4】 請求項2記載の眼の状態検出装置であっ
て、 前記画像入力手段により入力された顔の画像データから
眼の位置座標を検出する眼の位置検出手段と、 前記覚醒度判定手段により覚醒度が低下していると判定
されたときに警報を発する警報手段と前記眼の位置座標
が所定値以上移動した場合には、所定時間T2の間、居
眠り警報出力を禁止する警報出力禁止手段とを備えたこ
とを特徴とする居眠り運転警報装置。
4. The eye condition detection device according to claim 2, wherein the eye position detection device detects position coordinates of the eye from image data of the face input by the image input device, and the arousal level determination. Alarm means for issuing an alarm when it is determined that the arousal level has decreased, and an alarm output for prohibiting the dozing alarm output for a predetermined time T2 when the position coordinates of the eye have moved by a predetermined value or more. A drowsy driving alarm device comprising a prohibition unit.
【請求項5】 請求項3記載の眼の状態検出装置であっ
て、 前記覚醒度判定手段により覚醒度が低下していると判定
されたときに警報を発する警報手段と、 前記眼の位置座標が所定値以上移動した場合には、所定
時間T2の間、居眠り警報出力を禁止する警報出力禁止
手段とを備えたことを特徴とする居眠り運転警報装置。
5. The eye state detection device according to claim 3, wherein: an alarm unit that issues an alarm when the arousal level is determined to be low by the arousal level determination unit; and the position coordinates of the eye. An alarm output prohibiting means for prohibiting a drowsiness alarm output for a predetermined time T2 when the vehicle moves by a predetermined value or more.
【請求項6】 請求項4又は請求項5記載の居眠り運転
警報装置であって、 居眠り警報出力を禁止する所定時間T2は、眼の誤認識
を判別する前記所定時間T1より長いことを特徴とする
居眠り運転警報装置。
6. The drowsy driving alarm device according to claim 4, wherein the predetermined time T2 for prohibiting the output of the drowsiness warning is longer than the predetermined time T1 for determining erroneous recognition of the eyes. Dozing driving alarm device.
【請求項7】 請求項4〜請求項6記載の居眠り運転警
報装置であって、 前記警報出力禁止手段は、前記眼の位置座標が所定値以
上移動した後、所定時間T2以内に該移動する前の位置
を基準にした許容領域内に眼が検出された場合には、居
眠り警報出力の禁止を解除することを特徴とする居眠り
運転警報装置。
7. The drowsy driving alarm device according to claim 4, wherein the alarm output prohibiting means moves within a predetermined time T2 after the position coordinates of the eye have moved by a predetermined value or more. A drowsiness driving alarm device that releases prohibition of a drowsiness alarm output when an eye is detected within an allowable area based on a previous position.
【請求項8】 請求項4〜請求項7のいずれかに記載の
居眠り運転警報装置であって、 前記眼の位置検出手段により眼の位置座標が検出された
場合には、前記警報出力禁止手段による居眠り警報出力
を所定時間T3の間だけ禁止することを特徴とする居眠
り運転警報装置。
8. The drowsy driving alarm device according to claim 4, wherein the alarm output prohibiting unit is provided when the eye position detecting unit detects the position coordinates of the eye. The drowsiness alarm output is prohibited only for a predetermined time T3.
JP11113939A 1999-04-21 1999-04-21 Eye condition detection device, drowsy driving alarm device Pending JP2000301962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11113939A JP2000301962A (en) 1999-04-21 1999-04-21 Eye condition detection device, drowsy driving alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11113939A JP2000301962A (en) 1999-04-21 1999-04-21 Eye condition detection device, drowsy driving alarm device

Publications (1)

Publication Number Publication Date
JP2000301962A true JP2000301962A (en) 2000-10-31

Family

ID=14624998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11113939A Pending JP2000301962A (en) 1999-04-21 1999-04-21 Eye condition detection device, drowsy driving alarm device

Country Status (1)

Country Link
JP (1) JP2000301962A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005013626A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Arousal detection device
JP2005296349A (en) * 2004-04-12 2005-10-27 Nissan Motor Co Ltd Upper eyelid detection device
KR100566272B1 (en) * 2003-11-11 2006-03-30 삼성전자주식회사 Drowsy driving warning system
US7209574B2 (en) 2003-01-31 2007-04-24 Fujitsu Limited Eye tracking apparatus, eye tracking method, eye state judging apparatus, eye state judging method and computer memory product
JP2008204107A (en) * 2007-02-19 2008-09-04 Toyota Motor Corp Careless warning device, vehicle equipment control method of careless warning device, and vehicle control device program
US7868771B2 (en) 2008-03-18 2011-01-11 Hyundai Motor Company Doze-off warning apparatus for vehicle
JP2017143889A (en) * 2016-02-15 2017-08-24 ルネサスエレクトロニクス株式会社 Eye opening degree detection system, doze detection system, automatic shutter system, eye-opening degree detection method and eye-opening degree detection program
WO2022142332A1 (en) * 2020-12-31 2022-07-07 上海商汤临港智能科技有限公司 Alert threshold adjustment method, apparatus, electronic device, and storage medium
JP2025062425A (en) * 2023-10-02 2025-04-14 矢崎総業株式会社 Occupant monitoring device
JP7810682B2 (en) 2023-10-02 2026-02-03 矢崎総業株式会社 Occupant monitoring device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209574B2 (en) 2003-01-31 2007-04-24 Fujitsu Limited Eye tracking apparatus, eye tracking method, eye state judging apparatus, eye state judging method and computer memory product
JP2005013626A (en) * 2003-06-27 2005-01-20 Nissan Motor Co Ltd Arousal detection device
KR100566272B1 (en) * 2003-11-11 2006-03-30 삼성전자주식회사 Drowsy driving warning system
JP2005296349A (en) * 2004-04-12 2005-10-27 Nissan Motor Co Ltd Upper eyelid detection device
JP2008204107A (en) * 2007-02-19 2008-09-04 Toyota Motor Corp Careless warning device, vehicle equipment control method of careless warning device, and vehicle control device program
US7868771B2 (en) 2008-03-18 2011-01-11 Hyundai Motor Company Doze-off warning apparatus for vehicle
JP2017143889A (en) * 2016-02-15 2017-08-24 ルネサスエレクトロニクス株式会社 Eye opening degree detection system, doze detection system, automatic shutter system, eye-opening degree detection method and eye-opening degree detection program
WO2022142332A1 (en) * 2020-12-31 2022-07-07 上海商汤临港智能科技有限公司 Alert threshold adjustment method, apparatus, electronic device, and storage medium
JP2025062425A (en) * 2023-10-02 2025-04-14 矢崎総業株式会社 Occupant monitoring device
JP7810682B2 (en) 2023-10-02 2026-02-03 矢崎総業株式会社 Occupant monitoring device

Similar Documents

Publication Publication Date Title
EP1732028B1 (en) System and method for detecting an eye
EP1933256B1 (en) Eye closure recognition system and method
US7362885B2 (en) Object tracking and eye state identification method
EP1868138A2 (en) Method of tracking a human eye in a video image
JP2001175876A (en) Moving object detection method and moving object detection device
JP2000198369A (en) Eye condition detection device, drowsy driving alarm device
JP3063504B2 (en) Image data feature detection device
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
JP2000301962A (en) Eye condition detection device, drowsy driving alarm device
JP3531503B2 (en) Eye condition detection device and drowsy driving alarm device
JP2001307076A (en) Eye condition detection device, dozing detection device
JP3312562B2 (en) Dozing state detection device
JP2008226163A (en) Vehicle safety device
JP4742921B2 (en) Awakening level estimation device
JP3444115B2 (en) Dozing state detection device
JP3858570B2 (en) Armpit state detection device
CN113887291B (en) Seat belt detection method and device
JP2000172966A (en) Alarm device
JP2000199703A (en) Eye condition detection device, drowsy driving alarm device
CN119296035A (en) A fire passage illegal occupation system
JPH0793700A (en) Driver status monitoring device
CN113971778B (en) High beam detection and early warning system and method
JPH05282592A (en) Image processing-type vehicle sensor and method for processing traffic information
JPH11161798A (en) Vehicle driver monitoring device
JP3500891B2 (en) Dozing state detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090526