[go: up one dir, main page]

JP2009294753A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2009294753A
JP2009294753A JP2008145629A JP2008145629A JP2009294753A JP 2009294753 A JP2009294753 A JP 2009294753A JP 2008145629 A JP2008145629 A JP 2008145629A JP 2008145629 A JP2008145629 A JP 2008145629A JP 2009294753 A JP2009294753 A JP 2009294753A
Authority
JP
Japan
Prior art keywords
vehicle
angle
driver
threshold
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008145629A
Other languages
Japanese (ja)
Inventor
Kiyoyuki Uchida
清之 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008145629A priority Critical patent/JP2009294753A/en
Publication of JP2009294753A publication Critical patent/JP2009294753A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】運転者の脇見判断の基準となる閾値を車両の走行状態に応じて設定し、より正確な脇見判断をすることができる、画像処理装置および画像処理方法を提供する。
【解決手段】画像処理ECU3は、ドライバーの顔向き角度θを算出し、車両制御システム4に出力する。さらに、画像処理ECU3は、ドライバーの顔向きは正常であるか否かの判断の基準となる閾値の角度Θを上記車両の車両情報とに基づいて変更し、変更後の閾値Θ’を車両制御システム4に出力する。車両制御システム4は、画像処理ECU3から出力された顔向き角度θおよび閾値Θ’に基づいてドライバーの顔向きは正常であるか否かの判断を行う。
【選択図】図7
An image processing apparatus and an image processing method are provided that can set a threshold value as a reference for a driver's looking aside according to the running state of a vehicle and make a more accurate aside look determination.
An image processing ECU calculates a driver's face orientation angle and outputs it to a vehicle control system. Further, the image processing ECU 3 changes the threshold angle Θ, which serves as a reference for determining whether the driver's face orientation is normal, based on the vehicle information of the vehicle, and controls the changed threshold Θ ′. Output to system 4. The vehicle control system 4 determines whether or not the driver's face orientation is normal based on the face orientation angle θ and the threshold value Θ ′ output from the image processing ECU 3.
[Selection] Figure 7

Description

本発明は、画像処理装置および画像処理方法に関し、より特定的には、運転者の顔が撮像された画像から当該運転者の顔向きを算出し、上記運転者の脇見状態を判断する画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method, and more specifically, image processing for calculating the driver's face orientation from an image of the driver's face and determining the driver's look-aside state. The present invention relates to an apparatus and an image processing method.

従来、車両のインスツルメンツパネル上に配置したカメラによって、当該車両の運転者の顔を撮像して、当該撮像された画像から当該運転者の目や口などを検出する装置が知られている。このような装置の一例として、例えば特許文献1に開示された装置がある。上記特許文献1に開示されている装置は、カメラにより運転者の顔を撮像し、当該撮像された画像を処理して当該運転者の目と口とを検出する。また、実車速が10km/h以下のとき、舵角またはヨーレートが所定値以上のときには当該検出処理を禁止するようにしている。
特開平6−293228号公報
2. Description of the Related Art Conventionally, there has been known an apparatus that images a driver's face of a vehicle by a camera arranged on an instrument panel of the vehicle and detects the driver's eyes and mouth from the captured image. As an example of such an apparatus, there is an apparatus disclosed in Patent Document 1, for example. The device disclosed in Patent Document 1 captures a driver's face with a camera and processes the captured image to detect the driver's eyes and mouth. Further, when the actual vehicle speed is 10 km / h or less, the detection processing is prohibited when the steering angle or the yaw rate is a predetermined value or more.
JP-A-6-293228

ところで、車両に設置されたカメラなどで運転者の顔を撮像し、当該撮像された画像から運転者の目や口(さらには、運転者の顔向き角度)などを検出し、当該運転者の状態を判断するような装置は、上記車両が旋回しているときも運転者の状態を判断する必要がある場面がある。一例として、運転者の目や口から当該運転者の顔向きを検出し、当該運転者が脇見をしているか否かの判断は、事故を未然に防ぐ、いわゆる予防安全の見地から上記車両旋回時にも必要であり、車両がカーブを走行している状況の方が運転者の状態判断がより重要となることがある。しかしながら、上記特許文献1に記載されている装置は、実車速が10km/h以下のとき、舵角またはヨーレートが所定値以上のときには、運転者の目や口を検出する処理を禁止するようにしている。このため、上記車両旋回時は、運転者の状態を判断することができない場合がある。   By the way, the driver's face is imaged with a camera or the like installed in the vehicle, and the driver's eyes and mouth (and the driver's face orientation angle) are detected from the captured image. A device that determines the state has a scene where it is necessary to determine the state of the driver even when the vehicle is turning. As an example, the direction of the driver's face is detected from the driver's eyes and mouth, and whether or not the driver is looking aside is determined from the viewpoint of so-called preventive safety in order to prevent accidents. Sometimes it is also necessary, and the driver's condition determination may be more important in situations where the vehicle is traveling on a curve. However, the device described in Patent Document 1 prohibits the process of detecting the driver's eyes and mouth when the actual vehicle speed is 10 km / h or less and the steering angle or yaw rate is a predetermined value or more. ing. For this reason, the driver's state may not be determined when the vehicle turns.

また、車両に設置されたカメラによって、当該車両の運転者の顔を撮像して、当該撮像された画像から当該運転者の脇見状態を判断する装置では、一般的に、運転者に向けられたカメラに対して正面を向いた状態を基準にして、運転者の顔向き角度が当該カメラに対して左右に設定された閾値を超えた場合、脇見と判断している。このように運転者が脇見状態であるか否かを判断すると、例えば上記車両旋回時、運転者は上記車両がこれから走行する方向を見ているのにも関わらず、顔向き角度が閾値を超え、脇見状態と判断してしまう可能性もある。一方、上記車両旋回時に運転者が車両の正面の風景などに気を取られて、車両が走行する方向を見ていない状況であっても、顔向き角度が閾値内となって脇見状態にないと判断してしまう可能性もある。   Further, in an apparatus that images a driver's face of the vehicle by a camera installed in the vehicle and determines the driver's side-view state from the captured image, the device is generally directed to the driver. When the driver's face angle exceeds the threshold set to the left and right with respect to the camera based on the state of facing the front of the camera, it is determined that the driver is looking aside. When it is determined whether or not the driver is looking aside in this way, for example, when the vehicle turns, the face angle exceeds the threshold even though the driver is looking in the direction in which the vehicle will travel. , There is a possibility that it will be determined to be in a state of looking aside. On the other hand, even when the driver is distracted by the scenery in front of the vehicle when turning the vehicle and is not looking at the direction in which the vehicle is traveling, the face angle is within the threshold and the driver is not looking aside. There is a possibility that it will be judged.

本発明は、上記事情に鑑みてなされたものであり、その目的とするところは、運転者の脇見判断の基準となる閾値を車両の走行状態に応じて設定し、より正確な脇見判断をすることができる、画像処理装置および画像処理方法を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to set a threshold value as a reference for a driver's side-arming determination according to the traveling state of the vehicle, and to make a more accurate side-arming determination. An object is to provide an image processing apparatus and an image processing method.

上記のような目的を達成するために、本発明は以下の構成を採用した。すなわち、第1の発明は、車両の運転席に着席した運転者の顔を撮像する撮像手段が撮像した画像を用いて、当該撮像手段の撮像方向を基準とした当該運転者の顔向き角度を算出する顔向き角度算出手段と、上記車両の車両情報を取得する車両情報取得手段と、上記撮像方向に対して、左右の少なくとも一方に閾値角度を設定する閾値角度設定手段と、上記車両情報取得手段が取得した上記車両情報を用いて上記車両の旋回時に上記運転者が注視すると予測される予測注視点方向を算出し、上記閾値角度設定手段が設定する閾値角度の少なくとも1つを当該予測注視点方向が変化する方向に移動させる閾値角度移動手段と、上記運転者の顔向き角度が上記閾値角度から外れたときに上記運転者が脇見状態であると判断する判断手段とを備える、画像処理装置である。なお、本発明の閾値角度設定手段は、撮像手段の撮像方向に対して左右それぞれに2つの閾値角度を設けてもかまわない。この場合、閾値角度移動手段は、2つの閾値角度をそれぞれ予測注視点方向が変化する方向に移動させてもいいし、何れか一方の閾値角度のみを予測注視点方向が変化する方向に移動させてもいい。また、本発明の閾値角度設定手段は、撮像手段の撮像方向に対して左方向のみに1つの閾値角度を設けてもかまわない。この場合、閾値角度移動手段は、左方向に設けられた1つの閾値角度を予測注視点方向が変化する方向に移動させる。また、本発明の閾値角度設定手段は、撮像手段の撮像方向に対して右方向のみに1つの閾値角度を設けてもかまわない。この場合、閾値角度移動手段は、右方向に設けられた1つの閾値角度を予測注視点方向が変化する方向に移動させる。   In order to achieve the above object, the present invention employs the following configuration. In other words, the first invention uses the image captured by the imaging unit that captures the face of the driver seated in the driver's seat of the vehicle, and determines the driver's face orientation angle with respect to the imaging direction of the imaging unit. A face direction angle calculating means for calculating; a vehicle information acquiring means for acquiring vehicle information of the vehicle; a threshold angle setting means for setting a threshold angle on at least one of left and right with respect to the imaging direction; and the vehicle information acquisition. The vehicle information acquired by the means is used to calculate a predicted gazing direction that is predicted to be watched by the driver when the vehicle is turning, and at least one of the threshold angles set by the threshold angle setting means is calculated as the predicted caution. Threshold angle moving means for moving in a direction in which the viewpoint direction changes, and determination means for determining that the driver is in an aside state when the driver's face orientation angle deviates from the threshold angle. An image processing apparatus. Note that the threshold angle setting means of the present invention may provide two threshold angles on the left and right with respect to the imaging direction of the imaging means. In this case, the threshold angle moving means may move the two threshold angles in the direction in which the predicted gazing point direction changes, or move only one of the threshold angles in the direction in which the predicted gazing point direction changes. It ’s okay. Further, the threshold angle setting means of the present invention may provide one threshold angle only in the left direction with respect to the imaging direction of the imaging means. In this case, the threshold angle moving means moves one threshold angle provided in the left direction in a direction in which the predicted gazing direction changes. The threshold angle setting means of the present invention may provide one threshold angle only in the right direction with respect to the imaging direction of the imaging means. In this case, the threshold angle moving means moves one threshold angle provided in the right direction in a direction in which the predicted gazing direction changes.

第2の発明は、上記第1の発明において、上記閾値角度設定手段は、上記撮像方向に対して、左右の両方にそれぞれ上記閾値角度を設定し、上記閾値角度移動手段は、上記閾値角度を上記予測注視点方向が変化する方向にそれぞれ移動させる、画像処理装置である。   In a second aspect based on the first aspect, the threshold angle setting means sets the threshold angle on both the left and right sides with respect to the imaging direction, and the threshold angle moving means sets the threshold angle. An image processing apparatus that moves the predicted gazing point direction in a changing direction.

第3の発明は、上記第1または2の発明において、上記閾値角度移動手段は、上記車両情報と用いて予め定められた時間経過後の上記車両の到達地点を予測し、上記車両から当該到達地点への方向を上記予測注視点方向として算出する、画像処理装置である。   According to a third invention, in the first or second invention, the threshold angle moving means predicts an arrival point of the vehicle after elapse of a predetermined time using the vehicle information, and the arrival from the vehicle. The image processing apparatus calculates a direction to a point as the predicted gaze direction.

第4の発明は、上記第3の発明において、上記閾値角度移動手段は、現時点における上記車両の移動方向を示す速度方向と上記予測注視点方向とがなす第1角度だけ上記閾値角度を移動させる、画像処理装置である。   In a fourth aspect based on the third aspect, the threshold angle moving means moves the threshold angle by a first angle formed by a speed direction indicating the moving direction of the vehicle at the current time and the predicted gaze direction. An image processing apparatus.

第5の発明は、上記第4の発明において、上記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備える。また、上記閾値角度移動手段は、上記車両情報と上記車両諸元とを用いて、上記車両の重心点横滑り角を示すスリップ角を第2角度として算出し、上記第1角度と上記第2角度との角度差だけ上記閾値角度を移動させる、画像処理装置である。   According to a fifth invention, in the fourth invention, vehicle specification storage means for storing the vehicle specifications of the vehicle is further provided. Further, the threshold angle moving means calculates a slip angle indicating a side-slip angle of the center of gravity of the vehicle as a second angle by using the vehicle information and the vehicle specifications, and the first angle and the second angle. Is the image processing apparatus that moves the threshold angle by the angle difference between

第6の発明は、上記第4の発明において、上記閾値角度移動手段は、上記速度方向と上記撮像方向とがなす角を第3角度として算出し、上記第1角度と上記第3角度との角度差だけ上記閾値角度を移動させる、画像処理装置である。   In a sixth aspect based on the fourth aspect, the threshold angle moving means calculates, as a third angle, an angle formed by the speed direction and the imaging direction, and the first angle and the third angle are calculated. The image processing apparatus moves the threshold angle by an angle difference.

第7の発明は、上記第3の発明において、上記車両情報取得手段が取得する車両情報は、前記車両のヨーレートを含む。そして、上記閾値角度移動手段は、上記ヨーレートを用いて上記到達地点を予測する、画像処理装置である。   In a seventh aspect based on the third aspect, the vehicle information acquired by the vehicle information acquisition means includes a yaw rate of the vehicle. The threshold angle moving means is an image processing device that predicts the arrival point using the yaw rate.

第8の発明は、上記第3の発明において、上記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備える。そして、上記車両情報取得手段が取得する車両情報は、上記車両のヨーレートと上記車両の車速とを含み、上記閾値角度移動手段は、上記ヨーレート、上記車速、および上記車両諸元を予め定められた数式に代入することによって上記到達地点への方向を算出する、画像処理装置である。   In an eighth aspect based on the third aspect, further comprising vehicle specification storage means for storing the vehicle specifications of the vehicle. The vehicle information acquired by the vehicle information acquisition means includes the yaw rate of the vehicle and the vehicle speed of the vehicle, and the threshold angle moving means has predetermined the yaw rate, the vehicle speed, and the vehicle specifications. An image processing apparatus that calculates a direction to the arrival point by substituting into a mathematical expression.

第9の発明は、上記第3の発明において、上記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備える。そして、上記車両情報取得手段が取得する車両情報は、上記車両の横加速度と上記車両の車速とを含み、上記閾値角度移動手段は、上記横加速度、上記車速、および上記車両諸元を予め定められた数式に代入することによって上記到達地点への方向を算出する、画像処理装置である。   In a ninth aspect based on the third aspect, the vehicle further includes vehicle specification storage means for storing the vehicle specifications of the vehicle. The vehicle information acquired by the vehicle information acquisition unit includes the lateral acceleration of the vehicle and the vehicle speed of the vehicle, and the threshold angle moving unit determines the lateral acceleration, the vehicle speed, and the vehicle specifications in advance. This is an image processing apparatus that calculates the direction to the arrival point by substituting into the obtained mathematical expression.

第10の発明は、上記第3の発明において、上記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備える。そして、上記車両情報取得手段が取得する車両情報は、上記車両の舵角と上記車両の車速とを含み、上記閾値角度移動手段は、上記舵角、上記車速、および上記車両諸元を予め定められた数式に代入することによって上記到達地点への方向を算出する、画像処理装置である。   In a tenth aspect based on the third aspect, the apparatus further comprises vehicle specification storage means for storing the vehicle specifications of the vehicle. The vehicle information acquired by the vehicle information acquisition means includes the steering angle of the vehicle and the vehicle speed of the vehicle, and the threshold angle moving means determines the steering angle, the vehicle speed, and the vehicle specifications in advance. This is an image processing apparatus that calculates the direction to the arrival point by substituting into the obtained mathematical expression.

第11の発明は、上記第1または第2の発明において、上記顔向き角度算出手段によって算出された上記運転者の顔向きが上記閾値角度から外れたときに、上記車両を制御して上記運転者に報知を行う制御手段を、さらに備える、画像処理装置である。   According to an eleventh aspect of the invention, in the first or second aspect of the invention, when the driver's face orientation calculated by the face orientation angle calculating means deviates from the threshold angle, the vehicle is controlled to perform the driving. It is an image processing apparatus further provided with the control means which alert | reports to a person.

第12の発明は、車両の運転席に着席した運転者の顔を撮像する撮像手段が撮像した画像を用いて、当該撮像手段の撮像方向を基準とした当該運転者の顔向き角度を算出する顔向き角度算出ステップと、上記車両の車両情報を取得する車両情報取得ステップと、上記撮像方向に対して、左右の少なくとも一方に閾値角度を設定する閾値角度設定ステップと、上記車両情報取得ステップで取得した上記車両情報を用いて上記車両の旋回時に上記運転者が注視すると予測される予測注視点方向を算出し、上記閾値角度設定ステップで設定する閾値角度の少なくとも1つを当該予測注視点方向が変化する方向に移動させる閾値角度移動ステップと、上記運転者の顔向き角度が上記閾値角度から外れたときに上記運転者が脇見状態であると判断する判断ステップとを備える、画像処理方法である。   In a twelfth aspect of the present invention, using the image captured by the imaging unit that captures the face of the driver seated in the driver's seat of the vehicle, the driver's face angle is calculated based on the imaging direction of the imaging unit. A face angle calculation step, a vehicle information acquisition step for acquiring vehicle information of the vehicle, a threshold angle setting step for setting a threshold angle on at least one of left and right with respect to the imaging direction, and the vehicle information acquisition step. A predicted gaze direction predicted to be watched by the driver when the vehicle turns is calculated using the acquired vehicle information, and at least one of the threshold angles set in the threshold angle setting step is calculated as the predicted gaze direction. A threshold angle moving step for moving in a direction in which the driver changes, and a determination that the driver is in a look-aside state when the face angle of the driver deviates from the threshold angle. And a step, an image processing method.

上記第1の発明によれば、例えば車両が旋回しているとき、当該車両の運転者は旋回方向を見ているのにも関わらず、「ドライバーは脇見をしている」と判断してしまうこと、あるいは、車両の旋回時に運転者が車両の正面方向を見ている(すなわち、車両が旋回して走行する方向を見ていない)ときに「ドライバーは脇見をしていない」と判断してしまうことを防ぐことができる。つまり、運転者の脇見判断の基準となる閾値を車両の走行状態に応じて設定することによって、より正確な脇見判断をすることができる。   According to the first aspect of the invention, for example, when the vehicle is turning, the driver of the vehicle determines that the driver is looking aside despite looking at the turning direction. Or when the driver is looking at the front of the vehicle when the vehicle is turning (ie, the driver is not looking in the direction the vehicle is turning) Can be prevented. In other words, by setting a threshold value that serves as a reference for a driver's side-by-side determination according to the traveling state of the vehicle, a more accurate side-by-side determination can be made.

上記第2の発明によれば、撮像方向に対して左右にそれぞれ閾値角度が設けられ、当該閾値角度を予測注視点方向が変化する方向にそれぞれ移動させる。例えば、運転者が安全運転のために注視しなければならない方向を見ていなかった場合に脇見状態と判断するだけではなく、注視しなければならない方向を見ているのにも関わらず、脇見状態と判断してしまうことを防ぐことができる。   According to the second aspect, threshold angles are provided on the left and right with respect to the imaging direction, respectively, and the threshold angles are moved in directions in which the predicted gaze direction changes. For example, if the driver is not looking at the direction that must be watched for safe driving, it is not only determined that the driver is looking aside. Can be prevented.

上記第3の発明によれば、予測注視点方向を容易に算出することができる。一般的に、車両を旋回させているとき、安全運転を志す運転者は上記車両が進む方向を注視する。言い換えると、上記運転者は、当該車両がある時間経過後に到達しているだろう地点をある程度予測して、当該地点を注視して安全運転をしている。したがって、運転者が注視する地点となる上記経過時間を予め設定しておけば、当該経過時間を用いて予測注視点方向を容易に算出することができる。   According to the third aspect, the predicted gazing direction can be easily calculated. Generally, when a vehicle is turning, a driver who intends to drive safely watches the direction in which the vehicle travels. In other words, the driver predicts to some extent a point that the vehicle will reach after a certain period of time, and pays attention to the point for safe driving. Therefore, if the elapsed time that is the point at which the driver is gazing is set in advance, the predicted gazing direction can be easily calculated using the elapsed time.

上記第4の発明によれば、車両の速度方向と上記予測注視点方向とがなす角度を算出し、当該角度分だけ閾値角度を移動させる。つまり、上記車両の速度方向と予測注視点方向とがなす角度を考慮して、上記閾値角度を移動させているので、車両の走行状態に応じて変化する運転者が見るべき方向を中心とした脇見判断を行うことができる。   According to the fourth aspect of the invention, the angle formed by the speed direction of the vehicle and the predicted gazing point direction is calculated, and the threshold angle is moved by the angle. In other words, since the threshold angle is moved in consideration of the angle formed by the speed direction of the vehicle and the predicted gazing direction, the direction that the driver who changes depending on the driving state of the vehicle should see is the center. Aside-look judgment can be made.

上記第5の発明によれば、上記車両の速度方向と上記予測注視点方向とがなす角度だけではなく、上記車両のスリップ角も考慮した角度分だけ閾値角度を移動させる。したがって、車両の現時点の挙動に応じて、より正確な閾値角度の設定が可能となる。   According to the fifth aspect of the invention, the threshold angle is moved by an angle that considers not only the angle formed by the speed direction of the vehicle and the predicted gazing point direction but also the slip angle of the vehicle. Therefore, a more accurate threshold angle can be set according to the current behavior of the vehicle.

上記第6の発明によれば、上記車両のスリップ角および撮像手段の撮像方向と車両の正面方向との角度差も考慮した角度分だけ閾値角度を移動させる。したがって、車両の現時点の挙動や撮像手段の撮像方向誤差に応じて、より正確な閾値角度の設定が可能となる。   According to the sixth aspect, the threshold angle is moved by an angle that also takes into account the slip angle of the vehicle and the angle difference between the imaging direction of the imaging means and the front direction of the vehicle. Therefore, a more accurate threshold angle can be set according to the current behavior of the vehicle and the imaging direction error of the imaging means.

上記第7の発明によれば、上記車両に、例えばヨーレートを検出するヨーレートセンサを設けることによって、容易に予測注視点方向を算出することができる。   According to the seventh aspect, by providing, for example, a yaw rate sensor that detects the yaw rate in the vehicle, the predicted gazing direction can be easily calculated.

上記第8の発明によれば、例えば当該車両の車速を検出する車速センサおよびヨーレートセンサを上記車両に設けることによって、容易に予測注視点方向を算出することができる。   According to the eighth aspect of the invention, for example, by providing the vehicle with a vehicle speed sensor and a yaw rate sensor that detect the vehicle speed of the vehicle, the predicted gazing point direction can be easily calculated.

上記第9の発明によれば、上記車両に、例えば当該車両の横加速度を検出する横加速度センサと車速センサとを設けることによって、容易に予測注視点方向を算出することができる。   According to the ninth aspect, the predicted gazing direction can be easily calculated by providing the vehicle with, for example, a lateral acceleration sensor and a vehicle speed sensor that detect the lateral acceleration of the vehicle.

上記第10の発明によれば、上記車両に、例えば当該車両の舵角を検出する舵角センサと車速センサとを設けることによって、容易に予測注視点方向を算出することができる。   According to the tenth aspect of the invention, the predicted gaze direction can be easily calculated by providing the vehicle with a steering angle sensor and a vehicle speed sensor that detect the steering angle of the vehicle, for example.

上記第11の発明によれば、運転者が脇見やよそ見をしているような場合、車両の装備品により運転者に対して音声や表示などによって注意喚起をすることができる。したがって、運転者の脇見やよそ見などが原因となる事故を未然に防ぐことができ、いわゆる予防安全が可能となる。また、判断手段は、閾値角度移動手段によって移動された閾値角度から外れたときに上記運転者が脇見状態判断であると判断するので、例えば、上記運転者が脇見をしている場合、上記運転者に対して注意喚起を行ったり、上記運転者が脇見をしていない場合、上記運転者に対して注意喚起を行わなかったりするようなこともできる。   According to the eleventh aspect of the present invention, when the driver is looking aside or looking away, the driver can be alerted by voice or display using the equipment of the vehicle. Therefore, it is possible to prevent accidents caused by the driver's sideways and looking away, and so-called preventive safety is possible. In addition, since the determination means determines that the driver is looking aside when it deviates from the threshold angle moved by the threshold angle movement means, for example, when the driver is looking aside, If the driver is not alerted, or if the driver is not looking aside, the driver may not be alerted.

本発明の画像処理方法によれば、上述した本発明の画像処理装置と同様の効果を得ることができる。   According to the image processing method of the present invention, the same effects as those of the above-described image processing apparatus of the present invention can be obtained.

(第1の実施形態)
以下、図面を参照して、本発明の第1の実施形態に係る画像処理装置の構成および動作について説明する。なお、本実施形態では、当該画像処理装置が車両(例えば、乗用車、商用車など)に設置された場合を想定して説明する。
(First embodiment)
The configuration and operation of the image processing apparatus according to the first embodiment of the present invention will be described below with reference to the drawings. In the present embodiment, description will be made assuming that the image processing apparatus is installed in a vehicle (for example, a passenger car, a commercial vehicle, etc.).

図1は、本発明の第1の実施形態に係る画像処理装置を含む脇見判断システム構成の一例を示すブロック図である。図1において、上記脇見判断システムは、カメラ1と、車両情報検出部2と、画像処理ECU(Electronic Control Unit)3と、車両制御システム4とを有している。   FIG. 1 is a block diagram illustrating an example of a configuration of a side-by-side determination system that includes an image processing apparatus according to the first embodiment of the present invention. In FIG. 1, the aside look determination system includes a camera 1, a vehicle information detection unit 2, an image processing ECU (Electronic Control Unit) 3, and a vehicle control system 4.

カメラ1は、ドライバーの顔を撮像する、例えばCCDカメラ、赤外線カメラ等である。カメラ1は、運転席に着席したドライバーの顔を正面から撮像できる位置に設置される。図2は、カメラ1の設置位置の一例を示した図である。図2に示すように、カメラ1は、運転席に着席したドライバーの顔を正面から撮像できるように、例えば上記車両のステアリングコラム上に設置される。なお、図2に示すカメラ1の設置位置は一例であり、例えば、上記車両のメータフード内、メータパネル内などにカメラ1を設置してもかまわない。また、カメラ1は、所定時間間隔でドライバーの顔を正面から撮像する。そして、カメラ1は、撮像した画像を画像処理ECU3へ出力する。   The camera 1 is, for example, a CCD camera, an infrared camera, or the like that images a driver's face. The camera 1 is installed at a position where the face of the driver seated in the driver's seat can be imaged from the front. FIG. 2 is a diagram illustrating an example of the installation position of the camera 1. As shown in FIG. 2, the camera 1 is installed on, for example, the steering column of the vehicle so that the face of the driver seated in the driver's seat can be imaged from the front. The installation position of the camera 1 shown in FIG. 2 is an example. For example, the camera 1 may be installed in the meter hood or the meter panel of the vehicle. Further, the camera 1 images the driver's face from the front at predetermined time intervals. Then, the camera 1 outputs the captured image to the image processing ECU 3.

車両情報検出部2は、上記車両の車両情報を検出する。具体的には、車両情報検出部2は、上記車両の速度を検出する速度センサ、上記車両のヨーレートωを検出するヨーレートセンサ、上記車両の重心位置に作用する車幅方向の加速度(以下、横加速度αと称す)を検出する横加速度センサ、上記車両の舵角δを検出する舵角センサなど各種センサである。なお、第1の実施形態に係る画像処理装置を含む脇見判断システムは、車速センサとヨーレートセンサとを備えていればよい。   The vehicle information detection unit 2 detects vehicle information of the vehicle. Specifically, the vehicle information detection unit 2 includes a speed sensor that detects the speed of the vehicle, a yaw rate sensor that detects the yaw rate ω of the vehicle, and an acceleration in the vehicle width direction (hereinafter referred to as a lateral direction) that acts on the position of the center of gravity of the vehicle. Various sensors such as a lateral acceleration sensor for detecting the acceleration α) and a steering angle sensor for detecting the steering angle δ of the vehicle. Note that the armpit determination system including the image processing apparatus according to the first embodiment may include a vehicle speed sensor and a yaw rate sensor.

画像処理ECU3は、顔向き検知マイクロコンピュータ(以下、顔向き検知マイコンと称す)31、顔情報格納部32、車両諸元値格納部33、およびインターフェース回路などを備える情報処理装置である。また、画像処理ECU3にはカメラ1と車両情報検出部2と車両制御システム4とが接続されている。   The image processing ECU 3 is an information processing apparatus including a face orientation detection microcomputer (hereinafter referred to as a face orientation detection microcomputer) 31, a face information storage unit 32, a vehicle specification value storage unit 33, an interface circuit, and the like. Further, the camera 1, the vehicle information detection unit 2, and the vehicle control system 4 are connected to the image processing ECU 3.

顔向き検知マイコン31は、CPU(中央演算装置)およびメモリ等で構成されている。顔向き検知マイコン31は、カメラ1が撮像した画像を用いて、ドライバーの顔向きに関する情報(具体的には、ドライバーの顔向き角度)を生成する。なお、顔向き検知マイコン31は、本発明の顔向き角度算出手段、車両情報取得手段、閾値角度設定手段、および閾値角度移動手段の一例に相当する。   The face orientation detection microcomputer 31 includes a CPU (Central Processing Unit) and a memory. The face orientation detection microcomputer 31 uses the image captured by the camera 1 to generate information related to the driver's face orientation (specifically, the driver's face orientation angle). The face orientation detection microcomputer 31 corresponds to an example of a face orientation angle calculation unit, vehicle information acquisition unit, threshold angle setting unit, and threshold angle movement unit of the present invention.

ここで、図3を参照して、ドライバーの顔向き角度について説明する。図3は、カメラ1が撮像した画像およびドライバーの頭部の上面図である。本実施形態では、説明を簡単にするために、ドライバーの頭部は頭頂部を上面とする円柱形状を成しているものとみなす。また、ドライバーの顔は円柱状の頭部の中心線を中心に回転するものとする。ここで、ドライバーの顔向き角度をθとし、カメラ1に対して正面を向いた状態をθ=0°とする(図3(a)参照)。そして、顔向き検知マイコン31は、カメラ1に対して、ドライバーが右を向くと顔向き角度θRとして算出し、左を向くと顔向き角度θLとして算出する。具体的には、顔向き角度θRおよびθLは、カメラ1の光軸(図2参照)を基準にして設定される。そして、ドライバーが上記車両の運転席に着席した状態で上記車両前方右側を向くほど顔向き角度θRは大きくなり、左側を向くほど顔向き角度θLは大きくなる。図3(b)は、一例として、ドライバーがカメラ1に対して20°右を向いた状態を示した図である。この場合、顔向き検知マイコン31は、顔向き角度はθR=20°として算出する。また、同様に、例えばドライバーがカメラ1に対して20°左を向いた場合、顔向き角度はθL=20°として算出する。なお、上述の顔向き角度を算出する手法は一例であり、顔向き角度を算出する手法は上記の例に限らず、従来知られている手法を用いて構わない。   Here, the face orientation angle of the driver will be described with reference to FIG. FIG. 3 is a top view of the image captured by the camera 1 and the head of the driver. In this embodiment, in order to simplify the description, it is assumed that the head of the driver has a cylindrical shape with the top of the head as the upper surface. The driver's face rotates around the center line of the cylindrical head. Here, it is assumed that the driver's face orientation angle is θ, and the state facing the front with respect to the camera 1 is θ = 0 ° (see FIG. 3A). The face orientation detection microcomputer 31 calculates the face orientation angle θR when the driver turns to the right with respect to the camera 1 and calculates the face orientation angle θL when the driver turns to the left. Specifically, the face orientation angles θR and θL are set with reference to the optical axis of the camera 1 (see FIG. 2). In the state where the driver is seated in the driver's seat of the vehicle, the face-facing angle θR increases as it faces the front right side of the vehicle, and the face-facing angle θL increases as it faces the left side. FIG. 3B is a diagram showing a state where the driver is directed to the right by 20 ° with respect to the camera 1 as an example. In this case, the face orientation detection microcomputer 31 calculates the face orientation angle as θR = 20 °. Similarly, when the driver turns to the left by 20 ° with respect to the camera 1, for example, the face orientation angle is calculated as θL = 20 °. Note that the above-described method for calculating the face direction angle is an example, and the method for calculating the face direction angle is not limited to the above example, and a conventionally known method may be used.

図1の説明に戻って、顔情報格納部32は、読み書き可能な記憶媒体で構成され、様々な人物の顔情報が記憶されている。具体的に、顔情報とは、カメラが撮像した画像から、顔の大きさ、目の位置や大きさ、口の位置や大きさ、鼻の位置や大きさなどを推定する際に必要な各顔部品の位置や大きさを示す情報などである。また、顔情報は、様々な人物の顔部品のテンプレート画像(例えば、口のテンプレート画像)を含んでいる。なお、顔情報格納部32に記憶されている情報は、例えば上記車両のユーザーの書き換え作業によって、適宜情報が更新されてもよい。   Returning to the description of FIG. 1, the face information storage unit 32 includes a readable / writable storage medium, and stores face information of various persons. Specifically, face information refers to each piece of information necessary for estimating the face size, eye position and size, mouth position and size, nose position and size, etc. from the image captured by the camera. This is information indicating the position and size of the facial part. The face information includes template images (for example, mouth template images) of various human face parts. Note that the information stored in the face information storage unit 32 may be updated as appropriate by, for example, the rewriting operation of the user of the vehicle.

車両諸元値格納部33は、上記車両の諸元値が記憶されている記憶媒体である。上記車両の諸元値とは、例えば、上記車両の重量M、上記車両のホイールベースの長さL、上記車両の重心から上記車両の前輪軸までの長さLf、上記車両の重心から上記車両の後輪軸までの長さLrなど、車両の固有の値である。なお、車両諸元値格納部33は、本発明の諸元記憶手段の一例に相当する。   The vehicle specification value storage unit 33 is a storage medium that stores the specification values of the vehicle. The vehicle specification values include, for example, the weight M of the vehicle, the length L of the wheel base of the vehicle, the length Lf from the center of gravity of the vehicle to the front wheel shaft of the vehicle, and the center of gravity of the vehicle to the vehicle. It is a unique value of the vehicle such as the length Lr to the rear wheel axle. The vehicle specification value storage unit 33 corresponds to an example of specification storage means of the present invention.

車両制御システム4は、詳細は後述するが、顔向き検知マイコン31から出力されるドライバーの顔向き角度と脇見判断の基準となる閾値の角度とに基づいて、ドライバーは脇見状態であるか否かを判断する情報処理装置である。また、車両制御システム4は、上記判断を行った結果、「ドライバーは脇見をしている」と判断した場合、上記車両を制御して予防安全を行う。なお、上記予防安全とは、具体的には車両制御システム4が「ドライバーは脇見をしている(脇見状態)」と判断した場合、車両の装備品を制御して、警告や表示等によりドライバーに対して注意喚起を行うことである。さらに予防安全とは、ドライバーが行うブレーキ操作をアシストして障害物との衝突を回避するなどの、いわゆるプリクラッシュ制御も含まれる。なお、車両制御システム4は、本発明の判断手段および制御手段の一例に相当する。   Although details will be described later, the vehicle control system 4 determines whether or not the driver is looking aside based on the driver's face direction angle output from the face direction detection microcomputer 31 and the threshold angle that is a reference for the look-ahead determination. Is an information processing apparatus for determining Further, if the vehicle control system 4 determines that “the driver is looking aside” as a result of the determination, the vehicle control system 4 controls the vehicle to perform preventive safety. Specifically, the preventive safety mentioned above means that if the vehicle control system 4 determines that the driver is looking aside (side-viewing state), the vehicle's equipment is controlled and a warning or display is used to control the driver. Is to call attention. Furthermore, the preventive safety includes so-called pre-crash control such as assisting a brake operation performed by the driver to avoid a collision with an obstacle. The vehicle control system 4 corresponds to an example of a determination unit and a control unit of the present invention.

このように、顔向き検知マイコン31は、カメラ1の位置(具体的にはカメラ光軸)を基準にして、ドライバーの顔向き角度θRおよびθLを算出し、車両制御システム4に当該算出された角度を出力する。また、詳細は後述するが、顔向き検知マイコン31は、上記車両の走行状態に応じて、脇見判断の基準となる閾値の角度を適宜変更し当該算出された角度を車両制御システム4に出力する。   As described above, the face orientation detection microcomputer 31 calculates the driver's face orientation angles θR and θL based on the position of the camera 1 (specifically, the camera optical axis), and the vehicle control system 4 calculates the face orientation angles θR and θL. Outputs the angle. Further, although details will be described later, the face direction detection microcomputer 31 appropriately changes the threshold angle serving as a reference for the look-aside determination according to the traveling state of the vehicle and outputs the calculated angle to the vehicle control system 4. .

一方、車両制御システム4は、顔向き検知マイコン31から出力されるドライバーの顔向き角度θRまたはθLを取得する。さらに車両制御システム4は、顔向き検知マイコン31から出力される脇見判断の基準となる閾値の角度を取得し、上記顔向き角度が上記閾値の角度から外れた場合、「ドライバーは脇見をしている」と判断する。以下、図4を用いて、車両制御システム4がドライバーの脇見判断の基準とする、閾値の角度について具体的に説明する。   On the other hand, the vehicle control system 4 acquires the driver's face orientation angle θR or θL output from the face orientation detection microcomputer 31. Furthermore, the vehicle control system 4 obtains a threshold angle that is a reference for the look-ahead judgment output from the face orientation detection microcomputer 31, and when the face orientation angle deviates from the threshold angle, “the driver is looking aside. It is judged. Hereinafter, the threshold angle that the vehicle control system 4 uses as a reference for the driver's side-look determination will be described in detail with reference to FIG. 4.

図4(a)は、上記車両が直進(以下、直進状態と称す)しているときの図である。以下、図4(a)を用いて、ドライバーの脇見判断の基準と閾値の角度について説明する。図4(a)に示すように、上記閾値の角度は、上記車両の中心線を基準にて、ドライバーが上記車両の運転席に着席した状態で、当該ドライバーから見て右側を閾値の角度ΘR、左側をΘLとする。そして、車両制御システム4は、顔向き検知マイコン31から顔向き角度θRおよびθLと閾値の角度ΘRおよびΘLとを取得し、上記ドライバーの顔向き角度θRおよびθLが上記各閾値の角度から外れた場合、つまりθR>ΘLまたはθL>ΘLである場合「ドライバーは脇見をしている」と判断する。   FIG. 4A is a diagram when the vehicle is traveling straight (hereinafter referred to as a straight traveling state). Hereinafter, with reference to FIG. 4A, the reference for the driver's side-look determination and the threshold angle will be described. As shown in FIG. 4 (a), the threshold angle is the threshold angle ΘR on the right side when viewed from the driver in a state where the driver is seated on the driver's seat with respect to the center line of the vehicle. The left side is ΘL. Then, the vehicle control system 4 acquires the face orientation angles θR and θL and the threshold angles ΘR and ΘL from the face orientation detection microcomputer 31, and the driver's face orientation angles θR and θL deviate from the respective threshold angles. If, in other words, θR> ΘL or θL> ΘL, it is determined that “the driver is looking aside”.

ところで、例えば上記車両がカーブを走行している場合(以下、旋回状態と称する)、上記車両のドライバーは上記車両の正面ではなく、上記車両がこれから進むであろう方向(以下、到達予定方向と称する)に顔を向けて、上記車両の到達予定方向を注視しているのが一般的である。図4(b)は、上記車両の旋回状態の一例を示した図である。図4(b)に示したように、一例として上記車両が右カーブを走行している場合を想定すると、上記ドライバーは上記車両の到達予定方向(具体的には、上記車両前方右側)を注視しているのが普通であるので、閾値の角度ΘRおよびΘLをそのまま適用すると不都合が生じることがある。具体的には、図4(a)では、上記車両は直進しているため、上記ドライバーは(カメラ1に対して)正面である。しかしながら、図4(b)の場合は、ドライバーはカメラ1に対して右側を向いているため、閾値の角度ΘRをそのまま適用して脇見状態であるか否かを判断すると、上記ドライバーは注視しなければならない方向を見ているのにも関わらず、ドライバーの顔向き角度θRは、上記閾値の角度ΘRを超えてしまう場合がある。そこで、顔向き検知マイコン31は、上記車両の走行状態に応じて、閾値の角度ΘRおよびΘLの少なくとも一方を変更し、変更後の閾値の角度Θ’RまたはΘ’Lを算出する。   By the way, for example, when the vehicle is traveling on a curve (hereinafter referred to as a turning state), the driver of the vehicle is not in front of the vehicle, but in the direction that the vehicle will travel from now on (hereinafter, the estimated arrival direction). It is common to look at the planned direction of arrival of the vehicle with the face facing. FIG. 4B is a diagram showing an example of the turning state of the vehicle. As shown in FIG. 4B, assuming that the vehicle is traveling on a right curve as an example, the driver watches the planned arrival direction of the vehicle (specifically, the front right side of the vehicle). Since the threshold angles ΘR and ΘL are applied as they are, inconvenience may occur. Specifically, in FIG. 4A, since the vehicle is traveling straight, the driver is in front (with respect to the camera 1). However, in the case of FIG. 4B, since the driver is facing the right side with respect to the camera 1, when the threshold angle ΘR is applied as it is to determine whether the driver is in the sideways state, the driver watches. The driver's face angle θR may exceed the threshold angle ΘR in spite of looking at the direction that must be present. Therefore, the face orientation detection microcomputer 31 changes at least one of the threshold angles ΘR and ΘL according to the traveling state of the vehicle, and calculates the changed threshold angle Θ′R or Θ′L.

このようにすれば、上記車両のドライバーは到達予定方向(図4(b)では上記車両前方右側)を見ているのにも関わらず、閾値の角度ΘRから外れて、車両制御システム4が「ドライバーは脇見をしている」と判断してしまうことを防ぐことができる。また、車両制御システム4は、閾値ΘRではなく閾値の角度Θ’Rを用いてドライバーの脇見状態を判断すれば、ドライバーが注視しなければならない方向に顔を向けていても、当該判断に基づいて警報等を発するようなことはなくなり、ドライバーは煩わしさを感じることはない。一方、車両制御システム4は、閾値の角度Θ’Lを用いてドライバーの脇見状態を判断すれば、ドライバーが車両前方左側(すなわち、車両が進む方向とは逆側)を注視しているのにも関わらず、車両制御システム4が「ドライバーの顔向きは正常である」と判断するようなことはなくなり、ドライバーが脇見をしているような危険な運転状態のとき警報等により注意喚起をすることができる。なお、図4(b)では上記車両が右カーブを走行して想定して説明したが、左カーブ走行時においても類推適応可能であるので説明は省略する。   In this way, the vehicle control system 4 deviates from the threshold angle ΘR even though the driver of the vehicle is looking at the expected direction of arrival (the vehicle front right side in FIG. 4B). It is possible to prevent the driver from judging that the driver is looking aside. In addition, if the vehicle control system 4 determines the driver's sideways state using the threshold angle Θ′R instead of the threshold ΘR, the vehicle control system 4 is based on the determination even if the driver faces his / her face in the direction that the driver must watch. The driver will not be alarmed and the driver will not feel bothered. On the other hand, if the vehicle control system 4 uses the threshold angle Θ′L to determine the driver's look-aside state, the driver is gazing at the front left side of the vehicle (that is, the side opposite to the direction in which the vehicle travels). Nevertheless, the vehicle control system 4 no longer determines that the driver ’s face is normal, and alerts the driver when the driver is in a dangerous driving state looking aside. be able to. In FIG. 4B, the description has been made assuming that the vehicle travels on the right curve. However, the analogy can be applied even when the vehicle travels on the left curve.

以下、図5〜図9を参照して、本実施形態に係る画像処理ECU3の各部および車両制御システム4が行う動作の一例を説明する。   Hereinafter, with reference to FIGS. 5 to 9, an example of operations performed by each unit of the image processing ECU 3 and the vehicle control system 4 according to the present embodiment will be described.

図5は、本実施形態に係る画像処理ECU3において行われる処理の一例を示したフローチャートである。なお、図5に示したフローチャートに示される処理は、画像処理ECU3内に備わった顔向き検知マイコン31が所定のプログラムを実行することにより行われる。また、図5に示したフローチャートに示す処理は、上記画像処理装置の電源がON(例えば、画像処理ECU3が搭載された車両のイグニッションスイッチがオン)されることによって開始される。また、当該処理は、画像処理ECU3の電源がOFF(例えば、イグニッションスイッチがOFF)されることによって、終了する。なお、イグニッションスイッチは、以下、IGと称す。   FIG. 5 is a flowchart showing an example of processing performed in the image processing ECU 3 according to the present embodiment. The process shown in the flowchart shown in FIG. 5 is performed by the face orientation detection microcomputer 31 provided in the image processing ECU 3 executing a predetermined program. Further, the processing shown in the flowchart shown in FIG. 5 is started when the power of the image processing apparatus is turned on (for example, the ignition switch of the vehicle on which the image processing ECU 3 is mounted is turned on). In addition, the processing ends when the power of the image processing ECU 3 is turned off (for example, the ignition switch is turned off). The ignition switch is hereinafter referred to as IG.

図5のステップS51において、顔向き検知マイコン31は、カメラ1が撮像した画像を取得し、次のステップS52へ処理を進める。   In step S51 of FIG. 5, the face orientation detection microcomputer 31 acquires an image captured by the camera 1, and advances the process to the next step S52.

次にステップS52において、顔向き検知マイコン31は、ドライバーの顔向きを検出する。以下、図6を用いて、顔向き検知マイコン31が行う、ドライバーの顔向きを算出する動作の一例について説明する。なお、図6は、図5のステップS52におけるドライバーの顔向き角度を算出する動作の一例を示したフローチャートである。   In step S52, the face orientation detection microcomputer 31 detects the driver's face orientation. Hereinafter, an example of the operation for calculating the face orientation of the driver performed by the face orientation detection microcomputer 31 will be described with reference to FIG. FIG. 6 is a flowchart showing an example of the operation for calculating the driver's face orientation angle in step S52 of FIG.

図6のステップS61において、顔向き検知マイコン31は、上記ステップS51で取得した画像の所定方向(例えば縦方向)にソーベルフィルタ処理を施す。そして、顔向き検知マイコン31は、処理後画像(ソーベル画像)内における輝度の差を用いて、当該処理後の画像から縦方向のエッジ点を抽出する処理を行い、次のステップS62に処理を進める。   In step S61 of FIG. 6, the face orientation detection microcomputer 31 performs a Sobel filter process in a predetermined direction (for example, the vertical direction) of the image acquired in step S51. Then, the face orientation detection microcomputer 31 uses the difference in luminance in the processed image (Sobel image) to extract a vertical edge point from the processed image, and the process proceeds to the next step S62. Proceed.

ステップS62において、顔向き検知マイコン31は、上記ソーベル画像から抽出した縦方向のエッジ点を用いて、当該ソーベル画像におけるドライバーの顔の幅W(図3参照)を算出する処理を行う。ここで、顔向き検知マイコン31が行う具体的な処理の一例を説明する。顔向き検知マイコン31は、抽出された縦方向のエッジ点に対する縦方向のヒストグラムを生成し、顔の左右両端の輪郭を検出することによってドライバーの顔右端および顔左端を抽出する。そして、顔向き検知マイコン31は、抽出された顔右端の位置から左端の位置を減算した長さをドライバーの顔幅Wとして算出し、次のステップS63に処理を進める。   In step S62, the face orientation detection microcomputer 31 performs a process of calculating the width W (see FIG. 3) of the driver's face in the sobel image using the vertical edge points extracted from the sobel image. Here, an example of specific processing performed by the face orientation detection microcomputer 31 will be described. The face orientation detection microcomputer 31 generates a vertical histogram for the extracted vertical edge points, and extracts the right edge and the left edge of the face by detecting the contours of the left and right ends of the face. Then, the face direction detection microcomputer 31 calculates a length obtained by subtracting the left end position from the extracted face right end position as the face width W of the driver, and proceeds to the next step S63.

ステップS63において、顔向き検知マイコン31は、上記ステップS62でドライバーの顔幅Wが算出できたか否かを判断する。そして、顔向き検知マイコン31は、ドライバーの顔幅Wを算出することができた場合(YES)、次のステップS64に処理を進める。一方、カメラ1が撮像した画像から例えば縦方向のエッジ点が抽出できなかったり、ドライバーの顔右端および顔左端が算出できなかったりした場合、顔向き検知マイコン31は、上記ステップS51に戻って処理を繰り返す。   In step S63, the face orientation detection microcomputer 31 determines whether or not the driver's face width W has been calculated in step S62. If the face orientation detection microcomputer 31 can calculate the face width W of the driver (YES), the process proceeds to the next step S64. On the other hand, if, for example, the vertical edge point cannot be extracted from the image captured by the camera 1 or the driver's face right edge and face left edge cannot be calculated, the face orientation detection microcomputer 31 returns to step S51 and performs processing. repeat.

ステップS64において、顔向き検知マイコン31は、上記ステップS62で算出した顔幅Wを用いて、カメラ1が撮像した画像においてドライバーの目、鼻、口(以下、顔部品と称す)の位置を推定する。例えば、顔向き検知マイコン31は、ステップS62で算出した顔幅Wを示すデータと、顔情報格納部32に格納されている顔情報とを用いて、上記画像内において各顔部品が存在していると予想される範囲を設定する。そして、顔向き検知マイコン31は、設定された範囲内の画像に対してエッジラインを抽出する処理を行い、顔情報格納部32に格納されている各顔部品のテンプレート画像を用いて、上記エッジラインが抽出された画像に対してパターンマッチングを行い、各顔部品の位置を推定して、次のステップS65に処理を進める。   In step S64, the face orientation detection microcomputer 31 uses the face width W calculated in step S62 to estimate the positions of the driver's eyes, nose, and mouth (hereinafter referred to as face parts) in the image captured by the camera 1. To do. For example, the face orientation detection microcomputer 31 uses the data indicating the face width W calculated in step S62 and the face information stored in the face information storage unit 32, so that each face part exists in the image. Set the expected range. Then, the face direction detection microcomputer 31 performs processing for extracting an edge line from the image within the set range, and uses the template image of each face part stored in the face information storage unit 32 to perform the above edge processing. Pattern matching is performed on the image from which the line has been extracted, the position of each face part is estimated, and the process proceeds to the next step S65.

ステップS65において、顔向き検知マイコン31は、各顔部品が推定できたか否かを判断する。顔向き検知マイコン31は、各顔部品の位置を推定できた場合(例えば、口のテンプレート画像との一致度が予め定められた値以上)、ステップS66に処理を進める。一方、顔向き検知マイコン31は、各顔部品の位置を推定できなかった場合、上記ステップS51に戻って処理を繰り返す。   In step S65, the face orientation detection microcomputer 31 determines whether each face part has been estimated. If the face orientation detection microcomputer 31 can estimate the position of each facial part (for example, the degree of coincidence with the mouth template image is equal to or greater than a predetermined value), the process proceeds to step S66. On the other hand, if the face orientation detection microcomputer 31 cannot estimate the position of each face part, the process returns to step S51 and repeats the process.

ステップS66において、顔向き検知マイコン31は、顔の中心線を求める。処理の一例として、顔向き検知マイコン31は、上記ステップS64で推定した目、鼻、口の位置に基づいて、顔画像における顔の中心線を求める。そして、次のステップS67へ処理を進める。   In step S <b> 66, the face orientation detection microcomputer 31 obtains the face center line. As an example of processing, the face orientation detection microcomputer 31 obtains the face centerline in the face image based on the eye, nose, and mouth positions estimated in step S64. Then, the process proceeds to the next step S67.

ステップS67において、顔の中心線を求めることができたか否かを判断する。顔向き検知マイコン31は、顔の中心線を求めることができた場合(YES)、次にステップS68に処理を進め、顔の中心線を求めることができなかった場合(NO)、ステップS51に処理を戻す。   In step S67, it is determined whether or not the center line of the face has been obtained. If the face orientation detection microcomputer 31 can obtain the center line of the face (YES), the process proceeds to step S68, and if the face center line cannot be obtained (NO), the process proceeds to step S51. Return processing.

ステップS68において、顔向き検知マイコン31は、ドライバーの顔向き角度θRまたはθLを算出し、当該算出結果を車両制御システム4へ出力し図6に示すフローチャートの処理を終了する。   In step S68, the face orientation detection microcomputer 31 calculates the driver's face orientation angle θR or θL, outputs the calculation result to the vehicle control system 4, and ends the processing of the flowchart shown in FIG.

図5の説明に戻って、顔向き検知マイコン31は、ステップS53において、閾値の角度Θ’RおよびΘ’Rを算出し、車両制御システム4へ出力する。以下、図7および図8を用いて、顔向き検知マイコン31が行う、閾値の角度Θ’RおよびΘ’Lを算出する動作の一例について説明する。   Returning to the description of FIG. 5, the face direction detection microcomputer 31 calculates threshold angles Θ′R and Θ′R in step S <b> 53 and outputs them to the vehicle control system 4. Hereinafter, an example of an operation for calculating the threshold angles Θ′R and Θ′L performed by the face orientation detection microcomputer 31 will be described with reference to FIGS. 7 and 8.

まず、上記車両が旋回状態である場面、例えば上記車両が右カーブを走行している場面を想定して、図7を用いて説明する。図7は、一例として上記車両が右旋回をしているときの様子を示した図である。図7に示すように、一般的に旋回時における瞬間的な車両の移動方向(以下、速度方向と記載する)は、車両が旋回しているときに当該車両の重心が描く旋回円に対して、現時点の上記車両の重心が位置する当該旋回円の接線方向である。そして、車両の速度方向は、上記車両の車速に応じた大きさを有するベクトルで表すことができる。つまり、速度方向とは、現時点における前記車両の速さと移動方向とを示すものである。また、車両の向きとは当該車両の中心線に沿った車両正面方向である。なお、本実施形態においては、カメラ1は、上記ドライバーに対して正面から撮像するように設置されているため、上記車両上方からみるとカメラ1の光軸と上記車両の向き(中心線)とが平行となるため、上記車両の中心線はカメラ1の光軸(以下、カメラ光軸と称す)と水平方向に対して平行とみなすことができる。   First, a case where the vehicle is in a turning state, for example, a case where the vehicle is traveling on a right curve will be described with reference to FIG. FIG. 7 is a diagram showing a state when the vehicle is making a right turn as an example. As shown in FIG. 7, in general, an instantaneous vehicle movement direction (hereinafter referred to as a speed direction) during turning is relative to a turning circle drawn by the center of gravity of the vehicle when the vehicle is turning. The tangential direction of the turning circle where the center of gravity of the vehicle at the present time is located. And the speed direction of a vehicle can be represented by the vector which has a magnitude | size according to the vehicle speed of the said vehicle. That is, the speed direction indicates the speed and moving direction of the vehicle at the current time. The direction of the vehicle is the vehicle front direction along the center line of the vehicle. In the present embodiment, since the camera 1 is installed so as to capture images from the front with respect to the driver, the optical axis of the camera 1 and the orientation (center line) of the vehicle when viewed from above the vehicle. Therefore, the center line of the vehicle can be considered parallel to the optical axis of the camera 1 (hereinafter referred to as the camera optical axis) and the horizontal direction.

角度βは、車両の重心点横滑り角となる、いわゆるスリップ角である。つまり、角度βは、上記車両の向きと上記速度方向とがなす角度のことである。なお、カメラ1の光軸と上記車両の向き(中心線)とが水平方向に対して平行になるようにカメラ1が設置されていれば、角度βは、カメラ光軸と上記速度方向とが水平面においてなす角度とみなすことができる。   The angle β is a so-called slip angle that is a side slip angle of the center of gravity of the vehicle. That is, the angle β is an angle formed by the direction of the vehicle and the speed direction. If the camera 1 is installed so that the optical axis of the camera 1 and the direction of the vehicle (center line) are parallel to the horizontal direction, the angle β is determined by the camera optical axis and the speed direction. It can be regarded as an angle formed in the horizontal plane.

角度γは、上記到達予定方向と上記速度方向とがなす角度であり、時間Tとヨーレートωの積で求めることができる。ここで、図7に示したように、上記車両が右旋回をしているとき、上記車両のドライバーが安全運転をするためには、上記車両の正面ではなく、上記車両の到達予定方向(具体的には、上記車両前方右側)を注視する。言い換えると、一般的に、車両を旋回させているとき、安全運転を志す運転者は上記車両が進む方向を注視する。つまり、上記運転者は、当該車両がある時間経過後に到達しているだろう地点をある程度予測して、当該地点を注視して安全運転をしている。したがって、運転者が注視する地点となる上記経過時間を予め設定しておけば、ドライバーがアクセルやブレーキ操作などを行って上記車両を旋回させているとき、時間Tとヨーレートωの積で容易に予測注視点を算出することができる。   The angle γ is an angle formed by the planned arrival direction and the speed direction, and can be obtained by a product of time T and yaw rate ω. Here, as shown in FIG. 7, when the vehicle is making a right turn, the driver of the vehicle does not drive the vehicle in front of the vehicle in order to drive safely. Specifically, gaze at the vehicle front right side). In other words, generally, when turning the vehicle, a driver who wants to drive safely watches the direction in which the vehicle travels. In other words, the driver predicts to some extent a point that the vehicle will reach after a certain period of time, and pays attention to the point for safe driving. Therefore, if the elapsed time that is the point at which the driver is gazing is set in advance, when the driver turns the vehicle by performing an accelerator or brake operation, the product of the time T and the yaw rate ω can be easily used. A predicted gaze point can be calculated.

顔向き検知マイコン31は、上述したような角度γ、および角度γと角度βを考慮し、閾値の角度Θ’RおよびΘ’Lを算出し、当該算出結果を車両制御システムに出力する。なお、顔向き検知マイコン31は、閾値の角度Θ’を算出するとき、閾値の角度Θ’RとΘ’Lとのどちらか一方についてのみを算出し、当該算出結果を車両制御システム4に出力する。   The face orientation detection microcomputer 31 calculates the threshold angles Θ′R and Θ′L in consideration of the angle γ and the angles γ and β as described above, and outputs the calculation results to the vehicle control system. When calculating the threshold angle Θ ′, the face direction detection microcomputer 31 calculates only one of the threshold angles Θ′R and Θ′L, and outputs the calculation result to the vehicle control system 4. To do.

そして、車両制御システム4は、顔向き検知マイコン31から出力される閾値の角度を用いてドライバーの脇見判断を行う。   Then, the vehicle control system 4 makes a driver's side-look determination using the threshold angle output from the face orientation detection microcomputer 31.

以下、図8を用いて、顔向き検知マイコン31が行う、閾値の角度Θ’を算出する動作の一例について説明する。図8は、図5のステップS53の閾値の角度Θ’を算出する動作の一例を示したフローチャートである。 Hereinafter, an example of the operation for calculating the threshold angle Θ ′ performed by the face orientation detection microcomputer 31 will be described with reference to FIG. 8. FIG. 8 is a flowchart showing an example of the operation for calculating the threshold angle Θ ′ in step S53 of FIG.

図8のステップS81において、顔向き検知マイコン31は、車両情報検出部2によって検出された上記車両のヨーレートωを取得する。そして次のステップS82へ処理を進める。   In step S <b> 81 of FIG. 8, the face orientation detection microcomputer 31 acquires the yaw rate ω of the vehicle detected by the vehicle information detection unit 2. Then, the process proceeds to the next step S82.

ステップS82において、顔向き検知マイコン31は、上記ステップS81で取得したヨーレートωを用いて、時間Tとヨーレートωと(T×ω)によって、角度γを算出し、次のステップS83へ処理を進める。   In step S82, the face orientation detection microcomputer 31 uses the yaw rate ω acquired in step S81 to calculate the angle γ based on the time T, the yaw rate ω, and (T × ω), and proceeds to the next step S83. .

ステップS83において、顔向き検知マイコン31は、車両情報検出部2によって検出された上記車両の車速Vを取得し、次のステップS84へ処理を進める。   In step S83, the face orientation detection microcomputer 31 acquires the vehicle speed V of the vehicle detected by the vehicle information detection unit 2, and proceeds to the next step S84.

ステップS84において、顔向き検知マイコン31は、角度βを算出する。具体的には、上記ステップS81取得したヨーレートω、上記ステップS83で取得した車速Vおよび上記車両の諸元値に基づいて数式(1)によって算出することができる。   In step S84, the face orientation detection microcomputer 31 calculates the angle β. Specifically, it can be calculated by Equation (1) based on the yaw rate ω acquired in step S81, the vehicle speed V acquired in step S83, and the specification value of the vehicle.

Figure 2009294753
Figure 2009294753

数式(1)において、Mは上記車両の重量、Lは上記車両のホイールベース、Lfは上記車両の前輪軸から上記車両の重心点までの距離、Lrは記車両の後輪軸から上記車両の重心点までの距離、Krは、上記車両後輪のコーナリングパワー、Vは上記車両の車速、ωは上記車両のヨーレートである。なお、M、L、Lf、Lrの上記各値は、車両の仕様によって決まっている値であり車両諸元値格納部33から取得することができる。また、コーナリングパワーKrは、タイヤの特性および当該タイヤにかかる重量によって決まる値であり、車両諸元値格納部33に予め上記車両に装着されているタイヤの特性などの情報を記憶させておけば、両諸元値格納部33から当該情報を参照して算出できる。そして、顔向き検知マイコン31は、次のステップS85へ処理を進める。   In Equation (1), M is the weight of the vehicle, L is the wheel base of the vehicle, Lf is the distance from the front wheel axis of the vehicle to the center of gravity of the vehicle, and Lr is the center of gravity of the vehicle from the rear wheel axis of the vehicle. The distance to the point, Kr is the cornering power of the vehicle rear wheel, V is the vehicle speed of the vehicle, and ω is the yaw rate of the vehicle. Note that the above values of M, L, Lf, and Lr are values determined according to vehicle specifications, and can be acquired from the vehicle specification value storage unit 33. The cornering power Kr is a value determined by the tire characteristics and the weight applied to the tire, and information such as the characteristics of the tires attached to the vehicle may be stored in the vehicle specification value storage unit 33 in advance. It can be calculated with reference to the information from both specification value storage units 33. Then, the face orientation detection microcomputer 31 proceeds to the next step S85.

ステップS85において、顔向き検知マイコン31は、角度ΔΘを算出する。なお、角度ΔΘとは図7に示すように、ΔΘ=│γ│−│β│で求めることができる角度である。そして、顔向き検知マイコン31は、次のステップS86へ処理を進める。   In step S85, the face orientation detection microcomputer 31 calculates an angle ΔΘ. The angle ΔΘ is an angle that can be obtained by ΔΘ = | γ | − | β | as shown in FIG. Then, the face orientation detection microcomputer 31 proceeds to the next step S86.

ステップS86において、顔向き検知マイコン31は、上記ステップS85で算出された角度ΔΘに基づいて、閾値の角度Θ’を算出する。ここで、ステップS86で顔向き検知マイコン31が行う、閾値の角度Θ’を算出する処理の一例を具体的な数値を用い説明する。   In step S86, the face orientation detection microcomputer 31 calculates a threshold angle Θ 'based on the angle ΔΘ calculated in step S85. Here, an example of the process of calculating the threshold angle Θ ′ performed by the face orientation detection microcomputer 31 in step S86 will be described using specific numerical values.

ここで、一例として閾値の角度ΘRおよびΘLがそれぞれΘR=20°、ΘL=20°と設定されていたとする。この場合、顔向き検知マイコン31は、閾値Θを上記車両の旋回方向側に変更する。なお、上記車両の旋回方向は、上記車両の備わったヨーレートセンサで知ることができる。例えば上記ステップS85で算出された角度ΔΘがΔΘ=10°であったとする。図7に示した例では、顔向き検知マイコン31は、ΘR=20°を右方向へ10°加算しΘ’R=30°と算出する。また、顔向き検知マイコン31は、ΘL=20°を右方向に10°減算しΘ’L=10°と算出する。つまり、顔向き検知マイコン31は、上記車両の予測注視点に向けて閾値の角度Θを変更する。   Here, as an example, it is assumed that the threshold angles ΘR and ΘL are set to ΘR = 20 ° and ΘL = 20 °, respectively. In this case, the face orientation detection microcomputer 31 changes the threshold value Θ to the turning direction side of the vehicle. The turning direction of the vehicle can be known by a yaw rate sensor provided in the vehicle. For example, assume that the angle ΔΘ calculated in step S85 is ΔΘ = 10 °. In the example shown in FIG. 7, the face orientation detection microcomputer 31 calculates Θ′R = 30 ° by adding ΘR = 20 ° to the right by 10 °. Further, the face orientation detection microcomputer 31 calculates Θ′L = 10 ° by subtracting ΘL = 20 ° by 10 ° to the right. That is, the face orientation detection microcomputer 31 changes the threshold angle Θ toward the predicted gaze point of the vehicle.

なお、顔向き検知マイコン31は、閾値の角度ΘRおよびΘLの両方について、閾値の角度Θ’RおよびΘ’を算出してもよいし、閾値の角度Θ’RまたはΘ’Lの一方についてのみ(例えば、図7の場合、閾値ΘRについてのみ変更後の閾値Θ’R)を算出してもよい。そして、顔向き検知マイコン31は、閾値の角度Θ’Rおよび閾値の角度Θ’Lの少なくとも一方を車両制御システム4に出力し、図8に示したフローチャートの処理を終了する。   The face orientation detection microcomputer 31 may calculate the threshold angles Θ′R and Θ ′ for both the threshold angles ΘR and ΘL, or only one of the threshold angles Θ′R or Θ′L. (For example, in the case of FIG. 7, the changed threshold value Θ′R may be calculated only for the threshold value ΘR). Then, the face orientation detection microcomputer 31 outputs at least one of the threshold angle Θ′R and the threshold angle Θ′L to the vehicle control system 4 and ends the processing of the flowchart shown in FIG. 8.

なお、上述した例では、角度γを算出した後、角度βを算出したが、別の例では角度βを算出した後、角度γを算出してもよい。つまり、図8に示したフローチャートにおいて、ステップS83およびステップS84を先に行った後、ステップS81およびステップS82を行ってもよい。   In the above-described example, the angle β is calculated after calculating the angle γ, but in another example, the angle γ may be calculated after calculating the angle β. That is, in the flowchart shown in FIG. 8, after step S83 and step S84 are performed first, step S81 and step S82 may be performed.

また、上述した例では、角度γと角度βとを用いて閾値Θを変更するため、車両の現時点の挙動(スリップ角)を考慮した閾値Θの変更が可能となる。しかしながら、このような効果を期待しない場合、角度γのみを用いて閾値Θを変更してもよい。一般的に角度βは、車両が通常走行時をしているときは、角度γと比較して相対的に小さな値となる。したがって、角度βの値を無視して角度γのみを用いて閾値Θを変更しても、本願の目的を達成することができる。   In the above-described example, the threshold Θ is changed using the angle γ and the angle β, so that the threshold Θ can be changed in consideration of the current behavior (slip angle) of the vehicle. However, when such an effect is not expected, the threshold Θ may be changed using only the angle γ. In general, the angle β is a relatively small value compared to the angle γ when the vehicle is running normally. Therefore, even if the value of the angle β is ignored and only the angle γ is used to change the threshold Θ, the object of the present application can be achieved.

さらに、上述した例では、カメラ1は、上記車両が直進状態で上記ドライバーに対して正面になるように設置されているため、上記車両水平方向でみるとカメラ1の光軸と上記車両の中心線とは同じになるため、上記車両の中心線の向きはカメラ1の光軸とみなしたが、上記中心線の向きと上記光軸の向きとが異なる場合が考えられる。その場合は、上記中心線の向きと上記光軸の向きとの角度差を考慮した上で、上記中心線をカメラ1の光軸とみなせばよい。   Furthermore, in the above-described example, the camera 1 is installed so that the vehicle is in front of the driver when the vehicle is traveling straight, so that when viewed in the vehicle horizontal direction, the optical axis of the camera 1 and the center of the vehicle The direction of the center line of the vehicle is regarded as the optical axis of the camera 1 because it is the same as the line, but there may be a case where the direction of the center line and the direction of the optical axis are different. In that case, the center line may be regarded as the optical axis of the camera 1 in consideration of the angle difference between the direction of the center line and the direction of the optical axis.

図5の説明に戻って、ステップS54において、画像処理ECU3は、上記車両のイグニッションスイッチがOFFされたか否かを判断する。そして、画像処理ECU3は、イグニッションスイッチがOFFされた場合、当該フローチャートによる処理を終了する。一方、画像処理ECU3は、イグニッションスイッチがOFFされていない場合、上記ステップS51に戻って処理を繰り返す。   Returning to the description of FIG. 5, in step S54, the image processing ECU 3 determines whether or not the ignition switch of the vehicle is turned off. Then, when the ignition switch is turned off, the image processing ECU 3 ends the process according to the flowchart. On the other hand, when the ignition switch is not turned off, the image processing ECU 3 returns to step S51 and repeats the process.

以上説明したように、画像処理ECU3は、ドライバーの顔向き角度θを算出し、車両制御システム4に出力する。さらに、画像処理ECU3は、ドライバーの顔向きは正常であるか否かの判断の基準となる閾値の角度Θを上記車両のヨーレートと車速とに基づいて変更し、変更後の閾値Θ’を車両制御システム4に出力する。   As described above, the image processing ECU 3 calculates the driver's face orientation angle θ and outputs it to the vehicle control system 4. Further, the image processing ECU 3 changes the threshold angle Θ, which is a criterion for determining whether the driver's face is normal, based on the yaw rate and the vehicle speed of the vehicle, and sets the changed threshold Θ ′ to the vehicle Output to the control system 4.

次に、図9を用いて、車両制御システム4が行う処理(具体的には、画像処理ECU3から出力された顔向き角度θおよび閾値Θ’に基づいてドライバーの顔向きは正常であるか否かを判断する処理)の一例を説明する。図9は、車両制御システム4において行われる処理の一例を示したフローチャートである。   Next, referring to FIG. 9, whether the driver's face orientation is normal based on the processing performed by the vehicle control system 4 (specifically, based on the face orientation angle θ and the threshold value Θ ′ output from the image processing ECU 3). An example of the process for determining whether or not will be described. FIG. 9 is a flowchart showing an example of processing performed in the vehicle control system 4.

図9のステップS91において、車両制御システム4は、顔向き検知マイコン31からドライバーの顔向き角度(具体的にはθRまたはθL)を取得し、次のステップS92へ処理を進める。   In step S91 of FIG. 9, the vehicle control system 4 acquires the driver's face orientation angle (specifically θR or θL) from the face orientation detection microcomputer 31, and advances the processing to the next step S92.

ステップS92において、車両制御システム4は、顔向き検知マイコン31から閾値の角度を取得し、次のステップS93へ処理を進める。   In step S92, the vehicle control system 4 acquires the threshold angle from the face direction detection microcomputer 31, and proceeds to the next step S93.

ステップS93において、車両制御システム4は、顔向き角度および閾値の角度を取得できたか否かを判断する。そして、車両制御システム4は、顔向き角度および閾値の角度を取得できたと判断した場合(YES)、次のステップS94に処理を進め、取得できなかったと判断した場合(NO)、ステップS91に処理を戻す。   In step S93, the vehicle control system 4 determines whether or not the face orientation angle and the threshold angle have been acquired. If the vehicle control system 4 determines that the face orientation angle and the threshold angle have been acquired (YES), the process proceeds to the next step S94. If it is determined that acquisition has failed (NO), the process proceeds to step S91. To return.

ステップS94において、車両制御システム4は、ドライバーの顔向きは正常であるか否かを判断する。具体的には、車両制御システム4は、上記ステップS91で取得した顔向き角度およびステップS92で取得した閾値の角度に基づいて、ドライバーの顔向きは正常か否かを判断する。例えば、顔向き角度θR=25°、閾値の角度がΘ’R=20°として顔向き検知マイコン31から出力されたとき、車両制御システム4は、ドライバーの顔向きは正常ではない、つまりドライバーは脇見状態であると判断する。そして、ステップS95へ処理を進める。一方、ドライバーの顔向きは正常である、脇見状態ではないと判断した場合、ステップS96へ処理を進める。   In step S94, the vehicle control system 4 determines whether or not the driver's face orientation is normal. Specifically, the vehicle control system 4 determines whether or not the driver's face orientation is normal based on the face orientation angle obtained in step S91 and the threshold angle obtained in step S92. For example, when the face orientation angle θR = 25 ° and the threshold angle Θ′R = 20 ° are output from the face orientation detection microcomputer 31, the vehicle control system 4 indicates that the driver's face orientation is not normal. Judged to be in a state of looking aside. Then, the process proceeds to step S95. On the other hand, if it is determined that the driver's face orientation is normal and the driver is not looking aside, the process proceeds to step S96.

ステップS95において、車両制御システム4は、上記車両に装備品を制御して、ドライバーに注意喚起を行う。なお、このとき衝突制御システム4は、必要に応じてプリクラッシュ制御を行ってもよい。   In step S95, the vehicle control system 4 controls the equipment on the vehicle and alerts the driver. At this time, the collision control system 4 may perform pre-crash control as necessary.

ステップS96において、車両制御システム4は、上記車両のイグニッションスイッチがOFFされたか否かを判断する。そして、車両制御システム4は、イグニッションスイッチがOFFされた場合、当該フローチャートによる処理を終了する。一方、車両制御システム4は、イグニッションスイッチがOFFされていない場合、上記ステップS91に戻って処理を繰り返す。   In step S96, the vehicle control system 4 determines whether or not the ignition switch of the vehicle is turned off. And the vehicle control system 4 complete | finishes the process by the said flowchart, when an ignition switch is turned off. On the other hand, if the ignition switch is not turned off, the vehicle control system 4 returns to step S91 and repeats the process.

以上のように、第1の実施形態によれば、車両の走行状態に応じてドライバーの脇見状態の判断基準となる閾値の角度を算出し、当該算出結果に応じて脇見判断を行うので、正確な脇見判断が出来る。さらに、運転者の脇見やよそ見などが原因となる事故を未然に防ぐ、いわゆる予防安全がをより正確に実施することが可能となる。   As described above, according to the first embodiment, the threshold angle that serves as the determination criterion of the driver's side-by-side state is calculated according to the driving state of the vehicle, and the side-by-side determination is performed according to the calculation result. You can judge aside. Furthermore, it is possible to more accurately carry out so-called preventive safety, which prevents accidents caused by a driver's looking aside or looking away.

(第2の実施形態)
次に、本発明の第2の実施形態に係る画像処理装置について説明する。上述した第1の実施形態に係る画像処理装置を含む脇見判断システムでは、上記車両の車速Vおよび上記車両のヨーレートωを用いて上記数式(1)に基づいて角度βを算出した。第2の実施形態に係る画像処理装置では、角度βを車両の横加速度αと車両の車速Vとで算出する。なお、第2の実施形態では、上記車両に車速センサと横加速度センサとが備わっていればよい。また、角度γおよび角度βの求め方(すなわち、図5のステップS53の処理)が異なる以外は、第1の実施形態に係る画像処理処置を含む脇見判断システムの動作および構成と同様であるので、同様の動作および構成についての説明は省略する。したがって、以下の説明においては、画像処理装置ECU3の顔向き検知マイコン31が行う閾値Θ’を算出する処理についてのみ説明する。
(Second Embodiment)
Next, an image processing apparatus according to the second embodiment of the present invention will be described. In the aside look determination system including the image processing apparatus according to the first embodiment described above, the angle β is calculated based on the equation (1) using the vehicle speed V of the vehicle and the yaw rate ω of the vehicle. In the image processing apparatus according to the second embodiment, the angle β is calculated from the lateral acceleration α of the vehicle and the vehicle speed V of the vehicle. In the second embodiment, the vehicle may be provided with a vehicle speed sensor and a lateral acceleration sensor. Further, the operation is similar to the operation and configuration of the armpit determination system including the image processing procedure according to the first embodiment except that the method for obtaining the angle γ and the angle β (that is, the processing in step S53 in FIG. 5) is different. A description of the same operation and configuration will be omitted. Therefore, in the following description, only the process for calculating the threshold value Θ ′ performed by the face orientation detection microcomputer 31 of the image processing apparatus ECU 3 will be described.

図10は、第2の実施形態に係る画像処理装置の顔向き検知マイコン31が行う閾値の角度Θ’を算出する処理の一例を示したフローチャートである。   FIG. 10 is a flowchart illustrating an example of processing for calculating the threshold angle Θ ′ performed by the face orientation detection microcomputer 31 of the image processing apparatus according to the second embodiment.

図10のステップS101において、顔向き検知マイコン31は、車両情報検出部2から上記車両の横加速度αおよび車速Vを取得し、次のステップS102へ処理を進める。   In step S101 of FIG. 10, the face orientation detection microcomputer 31 acquires the vehicle lateral acceleration α and the vehicle speed V from the vehicle information detection unit 2, and advances the processing to the next step S102.

ステップS102において、顔向き検知マイコン31は、角度βを算出し、次のステップS103に処理を進める。角度βは、具体的には、上記ステップS101で取得した上記車両の横加速度α、車速V、および上記車両の諸元値を用いて数式(2)によって算出することができる。   In step S102, the face orientation detection microcomputer 31 calculates the angle β and proceeds to the next step S103. Specifically, the angle β can be calculated by the equation (2) using the lateral acceleration α of the vehicle, the vehicle speed V, and the specification value of the vehicle acquired in step S101.

Figure 2009294753
Figure 2009294753

数式(2)において、Mは上記車両の重量、Lは上記車両のホイールベース、Lfは上記車両の前輪軸から上記車両の重心点までの距離、Lrは記車両の後輪軸から上記車両の重心点までの距離、Krは、上記車両後輪のコーナリングパワー、Vは上記車両の車速、αは上記車両の横加速度である。なお、重量M、ホイールベースL、距離Lf、距離Lrの上記各値は、車両の仕様によって決まっている値であり車両諸元値格納部33から取得することができる。また、コーナリングパワーKrは、タイヤの特性および当該タイヤにかかる重量によって決まる値であり、車両諸元値格納部33に予め上記車両に装着されているタイヤの特性などの情報を記憶させておけば、両諸元値格納部33から当該情報を参照して算出できる。そして、顔向き検知マイコン31は、次のステップS103へ処理を進める。   In Equation (2), M is the weight of the vehicle, L is the wheel base of the vehicle, Lf is the distance from the front wheel axis of the vehicle to the center of gravity of the vehicle, and Lr is the center of gravity of the vehicle from the rear wheel axis of the vehicle. The distance to the point, Kr is the cornering power of the vehicle rear wheel, V is the vehicle speed of the vehicle, and α is the lateral acceleration of the vehicle. Note that the above values of the weight M, the wheel base L, the distance Lf, and the distance Lr are values determined by the specifications of the vehicle and can be acquired from the vehicle specification value storage unit 33. The cornering power Kr is a value determined by the tire characteristics and the weight applied to the tire, and information such as the characteristics of the tires attached to the vehicle may be stored in the vehicle specification value storage unit 33 in advance. It can be calculated with reference to the information from both specification value storage units 33. Then, the face orientation detection microcomputer 31 proceeds to the next step S103.

ステップS103において、顔向き検知マイコン31は、上述した数式(1)を変形し、ヨーレートωの式(具体的にはω=β・V・(略))とすることによって、ヨーレートωを導出する。具体的には、顔向き検知マイコン31は、上記ステップS102で角度βを算出した。したがって、上述した数式(1)を変形したヨーレートωの式において、重量M、ホイールベースL、距離Lf、距離Lr、コーナリングパワーKr、車速V、角度βは既知であるので、ヨーレートωを導出することができる。そして、顔向き検知マイコン31は、次のステップS104へ処理を進める。   In step S <b> 103, the face orientation detection microcomputer 31 derives the yaw rate ω by modifying the equation (1) described above to obtain the equation of yaw rate ω (specifically, ω = β · V · (omitted)). . Specifically, the face orientation detection microcomputer 31 calculates the angle β in step S102. Accordingly, since the weight M, wheel base L, distance Lf, distance Lr, cornering power Kr, vehicle speed V, and angle β are already known in the equation of yaw rate ω obtained by transforming the above formula (1), the yaw rate ω is derived. be able to. Then, the face orientation detection microcomputer 31 proceeds to the next step S104.

ステップS104において、顔向き検知マイコン31は、角度γを算出する。なお、角度γはTとωとの積で求めることができる。つまり、第1の実施形態で説明したように、一般的に、車両を旋回させているとき、安全運転を志す運転者は上記車両が進む方向を注視する。つまり、上記運転者は、当該車両がある時間経過後に到達しているだろう地点をある程度予測して、当該地点を注視して安全運転をしている。したがって、運転者が注視する地点となる上記経過時間を予め設定しておけば、ドライバーがアクセルやブレーキ操作などを行って上記車両を旋回させているとき、時間Tとヨーレートωの積で容易に予測注視点を算出することができる。そして、顔向き検知マイコン31は、次のステップS105へ処理を進める。   In step S104, the face orientation detection microcomputer 31 calculates an angle γ. The angle γ can be obtained by the product of T and ω. That is, as described in the first embodiment, generally, when the vehicle is turning, a driver who wants to drive safely watches the direction in which the vehicle travels. That is, the driver predicts to some extent a point that the vehicle will reach after a certain period of time, and pays attention to the point for safe driving. Therefore, if the elapsed time that is the point at which the driver is gazing is set in advance, when the driver turns the vehicle by performing an accelerator or brake operation, the product of the time T and the yaw rate ω can be easily used. A predicted gaze point can be calculated. Then, the face orientation detection microcomputer 31 proceeds to the next step S105.

ステップS105において、顔向き検知マイコン31は、角度ΔΘを算出し、次のステップS106へ処理を進める。なお、ステップS105において、顔向き検知マイコン31が行う角度ΔΘを算出する方法は、第1の実施形態における図8のステップS85と同様であるので、詳説は省略する。   In step S105, the face orientation detection microcomputer 31 calculates the angle ΔΘ, and proceeds to the next step S106. Note that the method of calculating the angle ΔΘ performed by the face orientation detection microcomputer 31 in step S105 is the same as that in step S85 of FIG. 8 in the first embodiment, and thus detailed description thereof is omitted.

ステップS106において、顔向き検知マイコン31は、閾値の角度Θ’を算出し、図10に示したフローチャートの処理を終了する。なお、ステップS106において、顔向き検知マイコン31が行う閾値Θ’を算出する方法は、第1の実施形態における図8のステップS86と同様であるので、詳説は省略する。   In step S <b> 106, the face orientation detection microcomputer 31 calculates the threshold angle Θ ′ and ends the process of the flowchart shown in FIG. 10. Note that the method for calculating the threshold Θ ′ performed by the face orientation detection microcomputer 31 in step S106 is the same as that in step S86 of FIG. 8 in the first embodiment, and thus detailed description thereof is omitted.

(第3の実施形態)
次に第3の実施形態を説明する。上述した第2の実施形態に係る画像処理装置を含む脇見判断システムでは、上記車両の車速Vおよび上記車両の横加速度αを用い数式(2)に基づいて角度βを算出した。第3の実施形態では、角度βを舵角δと車速Vとから算出する形態を説明する。なお、第3の実施形態では、上記車両に速度センサと舵角センサが備わっていればよい。また、角度γおよび角度βの求め方が異なる以外は、つまり図5に示したフローチャートのステップS53での処理が異なる以外は、第1の実施形態に係る画像処理処置を含む脇見判断システムの動作および構成と同様であるので説明は省略する。したがって、画像処理ECU3の顔向き検知マイコン31が行う閾値の角度Θ’を算出する処理についてのみ説明する。
(Third embodiment)
Next, a third embodiment will be described. In the aside look determination system including the image processing apparatus according to the second embodiment described above, the angle β is calculated based on Equation (2) using the vehicle speed V of the vehicle and the lateral acceleration α of the vehicle. In the third embodiment, a mode in which the angle β is calculated from the steering angle δ and the vehicle speed V will be described. In the third embodiment, the vehicle may be provided with a speed sensor and a steering angle sensor. Also, the operation of the side-by-side determination system including the image processing procedure according to the first embodiment is different except that the method for obtaining the angle γ and the angle β is different, that is, the processing in step S53 of the flowchart shown in FIG. 5 is different. Since it is the same as that of a structure, description is abbreviate | omitted. Therefore, only the process of calculating the threshold angle Θ ′ performed by the face orientation detection microcomputer 31 of the image processing ECU 3 will be described.

図11は第3の実施形態に係る画像処理装置の顔向き検知マイコン31が行う閾値の角度Θ’を算出する処理の一例を示したフローチャートである。   FIG. 11 is a flowchart showing an example of processing for calculating the threshold angle Θ ′ performed by the face orientation detection microcomputer 31 of the image processing apparatus according to the third embodiment.

図11のステップS111において、顔向き検知マイコン31は、車両情報検出部2から上記車両の舵角δおよび車速Vを取得し、次のステップS112へ処理を進める。   In step S111 of FIG. 11, the face direction detection microcomputer 31 acquires the steering angle δ and the vehicle speed V of the vehicle from the vehicle information detection unit 2, and proceeds to the next step S112.

ステップS112において、顔向き検知マイコン31は、角度βを算出する。角度βは、具体的には、上記ステップS111で取得した舵角δ、車速Vおよび上記車両の諸元値を用いて数式(3)によって算出する。

Figure 2009294753
In step S112, the face orientation detection microcomputer 31 calculates the angle β. Specifically, the angle β is calculated by the mathematical formula (3) using the steering angle δ, the vehicle speed V, and the specification values of the vehicle acquired in step S111.
Figure 2009294753

数式(3)において、Mは上記車両の重量、Lは上記車両のホイールベース、Lfは上記車両の前輪軸から上記車両の重心点までの距離、Lrは記車両の後輪軸から上記車両の重心点までの距離、Kfは上記車両前輪のコーナリングパワー、Krは、上記車両後輪のコーナリングパワー、Vは上記車両の車速、δは上記車両の舵角である。なお、重量M、ホイールベースL、距離Lf、距離Lrの上記各値は、車両の仕様によって決まっている値であり車両諸元値格納部33から取得することができる。また、コーナリングパワーKf(Kr)は、タイヤの特性および当該タイヤにかかる重量によって決まる値であり、車両諸元値格納部33に予め上記車両に装着されているタイヤの特性などの情報を記憶させておけば、両諸元値格納部33から当該情報を参照して算出できる。そして、顔向き検知マイコン31は、次のステップS113へ処理を進める。   In Equation (3), M is the weight of the vehicle, L is the wheel base of the vehicle, Lf is the distance from the front wheel axis of the vehicle to the center of gravity of the vehicle, and Lr is the center of gravity of the vehicle from the rear wheel axis of the vehicle. The distance to the point, Kf is the cornering power of the vehicle front wheel, Kr is the cornering power of the vehicle rear wheel, V is the vehicle speed of the vehicle, and δ is the steering angle of the vehicle. Note that the above values of the weight M, the wheel base L, the distance Lf, and the distance Lr are values determined by the specifications of the vehicle and can be acquired from the vehicle specification value storage unit 33. The cornering power Kf (Kr) is a value determined by the tire characteristics and the weight applied to the tire, and the vehicle specification value storage unit 33 stores information such as the characteristics of the tires mounted on the vehicle in advance. In this case, the information can be calculated by referring to the information from both specification value storage units 33. Then, the face orientation detection microcomputer 31 proceeds to the next step S113.

ステップS113において、顔向き検知マイコン31は、上述した数式(1)を変形し、ヨーレートωの式(具体的にはω=β・V・(略))とすることによって、ヨーレートωを導出する。具体的には、顔向き検知マイコン31は、上記ステップS112で角度βを算出した。したがって、上述した数式(1)を変形したヨーレートωの式において、重量M、ホイールベースL、距離Lf、距離Lr、コーナリングパワーKr、車速V、角度βは既知であるので、ヨーレートωを導出することができる。そして、顔向き検知マイコン31は、次のステップS114へ処理を進める。   In step S113, the face orientation detection microcomputer 31 derives the yaw rate ω by modifying the above-described equation (1) to obtain the equation of yaw rate ω (specifically, ω = β · V · (omitted)). . Specifically, the face orientation detection microcomputer 31 calculates the angle β in step S112. Accordingly, since the weight M, wheel base L, distance Lf, distance Lr, cornering power Kr, vehicle speed V, and angle β are already known in the equation of yaw rate ω obtained by transforming the above formula (1), the yaw rate ω is derived. be able to. Then, the face orientation detection microcomputer 31 proceeds to the next step S114.

ステップS114において、顔向き検知マイコン31は、角度γを算出する。なお、角度γはTとωとの積で求めることができる。つまり、第1の実施形態で説明したように、一般的に、車両を旋回させているとき、安全運転を志す運転者は上記車両が進む方向を注視する。つまり、上記運転者は、当該車両がある時間経過後に到達しているだろう地点をある程度予測して、当該地点を注視して安全運転をしている。したがって、運転者が予測注視する地点となる上記経過時間を予め設定しておけば、ドライバーがアクセルやブレーキ操作などを行って上記車両を旋回させているとき、時間Tとヨーレートωの積で容易に注視点を算出することができる。そして、顔向き検知マイコン31は、次のステップS115へ処理を進める。   In step S114, the face orientation detection microcomputer 31 calculates the angle γ. The angle γ can be obtained by the product of T and ω. That is, as described in the first embodiment, generally, when the vehicle is turning, a driver who wants to drive safely watches the direction in which the vehicle travels. In other words, the driver predicts to some extent a point that the vehicle will reach after a certain period of time, and pays attention to the point for safe driving. Therefore, if the elapsed time is set in advance as a point where the driver is expected to watch, when the driver turns the vehicle by performing an accelerator or brake operation, the product of time T and yaw rate ω is easy. A gaze point can be calculated. Then, the face orientation detection microcomputer 31 proceeds to the next step S115.

ステップS115において、顔向き検知マイコン31は、角度ΔΘを算出し、次のステップS116に処理を進める。なお、ステップS115において、顔向き検知マイコン31が行う角度ΔΘを算出する方法は、第1の実施形態における図8のステップS85と同様であるので、詳説は省略する。   In step S115, the face orientation detection microcomputer 31 calculates the angle ΔΘ, and proceeds to the next step S116. Note that the method of calculating the angle ΔΘ performed by the face orientation detection microcomputer 31 in step S115 is the same as that in step S85 of FIG. 8 in the first embodiment, and thus detailed description thereof is omitted.

ステップS116において、顔向き検知マイコン31は、閾値Θ’を算出し、図11に示したフローチャートの処理を終了する。なお、ステップS116において、顔向き検知マイコン31が行う閾値の角度Θ’を算出する方法は、第1の実施形態における図8のステップS86と同様であるので、詳説は省略する。   In step S116, the face orientation detection microcomputer 31 calculates the threshold value Θ 'and ends the process of the flowchart shown in FIG. Note that the method of calculating the threshold angle Θ ′ performed by the face orientation detection microcomputer 31 in step S116 is the same as that in step S86 of FIG. 8 in the first embodiment, and thus detailed description thereof is omitted.

なお、上述した第1の実施形態、第2の実施形態および第3の実施形態では、上記車両が右旋回の場合を例に説明したが、左旋回時においても類推適応可能であるので説明は省略した。   In the first embodiment, the second embodiment, and the third embodiment described above, the case where the vehicle is turning right has been described as an example. Omitted.

また、上述した第1、第2および第3の各実施形態では、画像処理ECU3がドライバーの顔向き角度および閾値の角度を算出し、当該各算出結果に基づいて、車両制御システム4が脇見状態を判断した。別の例では、画像処理ECU3がドライバーの顔向き角度および閾値の角度を算出し、さらに脇見状態の判断をしてもよい。この場合、画像処理ECU3は、脇見状態であるか否かを判断し、当該判断結果を車両制御システム4に送信するようにすればよい。   Further, in each of the first, second, and third embodiments described above, the image processing ECU 3 calculates the driver's face orientation angle and the threshold angle, and the vehicle control system 4 is in an aside state based on the calculation results. Judged. In another example, the image processing ECU 3 may calculate the driver's face orientation angle and the threshold angle, and further determine the look-ahead state. In this case, the image processing ECU 3 may determine whether or not the user is in the side-by-side state and transmit the determination result to the vehicle control system 4.

さらに、各実施形態の顔向き検知マイコン31は、カメラ1の撮像方向に対して左右それぞれに2つの閾値の角度を設けてもかまわない。この場合、顔向き検知マイコン31は、2つの閾値の角度をそれぞれ予測注視点方向が変化する方向に移動させてもいいし、何れか一方の閾値の角度のみを予測注視点方向が変化する方向に移動させてもいい。   Furthermore, the face orientation detection microcomputer 31 of each embodiment may have two threshold angles on the left and right sides with respect to the imaging direction of the camera 1. In this case, the face direction detection microcomputer 31 may move the two threshold angles in the direction in which the predicted gaze direction changes, or only one of the threshold angles in the direction in which the predicted gaze direction changes. You can move it to

また、各実施形態の顔向き検知マイコン31は、カメラ1の撮像方向に対して左方向のみに1つの閾値の角度を設けてもかまわない。この場合、顔向き検知マイコン31は、左方向に設けられた1つの閾値の角度を予測注視点方向が変化する方向に移動させる。また、各実施形態の顔向き検知マイコン31は、カメラ1の撮像方向に対して右方向のみに1つの閾値の角度を設けてもかまわない。この場合、顔向き検知マイコン31は、右方向に設けられた1つの閾値の角度を予測注視点方向が変化する方向に移動させる。   Further, the face orientation detection microcomputer 31 of each embodiment may provide one threshold angle only in the left direction with respect to the imaging direction of the camera 1. In this case, the face orientation detection microcomputer 31 moves one threshold angle provided in the left direction in a direction in which the predicted gazing point direction changes. Further, the face direction detection microcomputer 31 of each embodiment may provide one threshold angle only in the right direction with respect to the imaging direction of the camera 1. In this case, the face orientation detection microcomputer 31 moves one threshold angle provided in the right direction in a direction in which the predicted gazing point direction changes.

上記の実施形態で説明した態様は、単に具体例を示すものであり、本願発明の技術的範囲を何ら限定するものではない。よって本願の効果を奏する範囲において、任意の構成を採用することが可能である。   The aspect described in the above embodiment is merely a specific example, and does not limit the technical scope of the present invention. Therefore, it is possible to employ any configuration within a range where the effects of the present application are achieved.

本発明にかかる画像処理装置および画像処理方法は、運転者の脇見判断の基準となる閾値を車両の走行状態に応じて設定することによって、より正確な脇見判断をすることができ、運転者の顔が撮像された画像から当該運転者の顔向きを算出し、上記運転者の脇見状態を判断する画像処理装置および画像処理方法等として有用である。   The image processing device and the image processing method according to the present invention can make a more accurate look-aside determination by setting a threshold value that is a reference for a look-aside determination of the driver according to the driving state of the vehicle. The present invention is useful as an image processing apparatus, an image processing method, and the like that calculate the driver's face orientation from an image of a face and determine the driver's look-aside state.

第1の実施形態に係る画像処理装置を含む脇見判断システムの構成の一例を示すブロック図1 is a block diagram illustrating an example of a configuration of an aside look determination system including an image processing apparatus according to a first embodiment. カメラ1の設置位置の一例を示す図The figure which shows an example of the installation position of the camera 1 カメラ1が撮像した画像およびドライバーの頭部の上面図Image taken by camera 1 and top view of driver's head 走行している車両の状態の一例を示す図The figure which shows an example of the state of the vehicle which is drive | working 第1の本実施形態に係る画像処置ECU3において行われる処理の一例を示したフローチャートThe flowchart which showed an example of the process performed in image treatment ECU3 which concerns on 1st this embodiment. 図5のステップS52におけるドライバーの顔向き角度を算出する動作の一例を示したフローチャートThe flowchart which showed an example of the operation | movement which calculates the driver's face direction angle in step S52 of FIG. 車両が右旋回をしているときの様子を示した図A diagram showing the situation when the vehicle is turning right 図5のステップS53の閾値Θ’を算出する動作の一例を示したフローチャートThe flowchart which showed an example of the operation | movement which calculates threshold value (theta) 'of FIG.5 S53. 車両制御システム4において行われる処理の一例を示したフローチャートThe flowchart which showed an example of the process performed in the vehicle control system 4 第2の実施形態に係る画像処理装置の顔向き検知マイコン31が行う閾値の角度Θ’を算出する処理の一例を示したフローチャートThe flowchart which showed an example of the process which calculates angle | corner (theta) 'of the threshold value which the face direction detection microcomputer 31 of the image processing apparatus which concerns on 2nd Embodiment performs. 第3の実施形態に係る画像処理装置の顔向き検知マイコン31が行う閾値の角度Θ’を算出する処理の一例を示したフローチャートThe flowchart which showed an example of the process which calculates angle | corner (theta) 'of the threshold value which the face direction detection microcomputer 31 of the image processing apparatus which concerns on 3rd Embodiment performs.

符号の説明Explanation of symbols

1 カメラ
2 車両情報検出部
3 画像処理ECU
31 顔向き検知マイコン
32 顔情報格納部
33 車両諸元値格納部
4 車両制御システム
DESCRIPTION OF SYMBOLS 1 Camera 2 Vehicle information detection part 3 Image processing ECU
31 Face orientation detection microcomputer 32 Face information storage unit 33 Vehicle specification value storage unit 4 Vehicle control system

Claims (12)

車両の運転席に着席した運転者の顔を撮像する撮像手段が撮像した画像を用いて、当該撮像手段の撮像方向を基準とした当該運転者の顔向き角度を算出する顔向き角度算出手段と、
前記車両の車両情報を取得する車両情報取得手段と、
前記撮像方向に対して、左右の少なくとも一方に閾値角度を設定する閾値角度設定手段と、
前記車両情報取得手段が取得した前記車両情報を用いて前記車両の旋回時に前記運転者が注視すると予測される予測注視点方向を算出し、前記閾値角度設定手段が設定する閾値角度の少なくとも1つを当該予測注視点方向が変化する方向に移動させる閾値角度移動手段と、
前記運転者の顔向き角度が前記閾値角度から外れたときに前記運転者が脇見状態であると判断する判断手段とを備える、画像処理装置。
A face direction angle calculating unit that calculates an angle of the driver's face relative to the imaging direction of the imaging unit using an image captured by the imaging unit that captures the face of the driver seated in the driver's seat of the vehicle; ,
Vehicle information acquisition means for acquiring vehicle information of the vehicle;
Threshold angle setting means for setting a threshold angle on at least one of left and right with respect to the imaging direction;
At least one of the threshold angles set by the threshold angle setting unit is calculated by calculating a predicted gaze point direction predicted to be watched by the driver when the vehicle is turning using the vehicle information acquired by the vehicle information acquisition unit. Threshold angle moving means for moving the predicted gazing point direction in the direction in which
An image processing apparatus comprising: determination means for determining that the driver is looking aside when the driver's face orientation angle deviates from the threshold angle.
前記閾値角度設定手段は、前記撮像方向に対して、左右の両方にそれぞれ前記閾値角度を設定し、
前記閾値角度移動手段は、前記閾値角度を前記予測注視点方向が変化する方向にそれぞれ移動させる、請求項1に記載の画像処理装置。
The threshold angle setting means sets the threshold angle on both the left and right sides with respect to the imaging direction,
The image processing apparatus according to claim 1, wherein the threshold angle moving unit moves the threshold angle in a direction in which the predicted gazing point direction changes.
前記閾値角度移動手段は、前記車両情報と用いて予め定められた時間経過後の前記車両の到達地点を予測し、前記車両から当該到達地点への方向を前記予測注視点方向として算出する、請求項1または2に記載の画像処理装置。   The threshold angle moving means predicts the arrival point of the vehicle after elapse of a predetermined time using the vehicle information, and calculates the direction from the vehicle to the arrival point as the predicted gaze direction. Item 3. The image processing apparatus according to Item 1 or 2. 前記閾値角度移動手段は、現時点における前記車両の移動方向を示す速度方向と前記予測注視点方向とがなす第1角度だけ前記閾値角度を移動させる、請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the threshold angle moving unit moves the threshold angle by a first angle formed by a speed direction indicating the moving direction of the vehicle at the current time and the predicted gazing point direction. 前記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備え、
前記閾値角度移動手段は、前記車両情報と前記車両諸元とを用いて、前記車両の重心点横滑り角を示すスリップ角を第2角度として算出し、前記第1角度と前記第2角度との角度差だけ前記閾値角度を移動させる、請求項4に記載の画像処理装置。
Vehicle specification storage means for storing vehicle specifications of the vehicle,
The threshold angle moving means calculates a slip angle indicating a lateral slip angle of the center of gravity of the vehicle as a second angle using the vehicle information and the vehicle specifications, and calculates the first angle and the second angle. The image processing apparatus according to claim 4, wherein the threshold angle is moved by an angle difference.
前記閾値角度移動手段は、前記速度方向と前記撮像方向とがなす角を第3角度として算出し、前記第1角度と前記第3角度との角度差だけ前記閾値角度を移動させる、請求項4に記載の画像処理装置。   The threshold angle moving means calculates an angle formed by the speed direction and the imaging direction as a third angle, and moves the threshold angle by an angle difference between the first angle and the third angle. An image processing apparatus according to 1. 前記車両情報取得手段が取得する車両情報は、前記車両のヨーレートを含み、
前記閾値角度移動手段は、前記ヨーレートを用いて前記到達地点を予測する、請求項3に記載の画像処理装置。
The vehicle information acquired by the vehicle information acquisition means includes the yaw rate of the vehicle,
The image processing apparatus according to claim 3, wherein the threshold angle moving unit predicts the arrival point using the yaw rate.
前記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備え、
前記車両情報取得手段が取得する車両情報は、前記車両のヨーレートと前記車両の車速とを含み、
前記閾値角度移動手段は、前記ヨーレート、前記車速、および前記車両諸元を予め定められた数式に代入することによって前記到達地点への方向を算出する、請求項3に記載の画像処理装置。
Vehicle specification storage means for storing vehicle specifications of the vehicle,
The vehicle information acquired by the vehicle information acquisition means includes the yaw rate of the vehicle and the vehicle speed of the vehicle,
The image processing apparatus according to claim 3, wherein the threshold angle moving unit calculates a direction to the arrival point by substituting the yaw rate, the vehicle speed, and the vehicle specifications into a predetermined mathematical formula.
前記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備え、
前記車両情報取得手段が取得する車両情報は、前記車両の横加速度と前記車両の車速とを含み、
前記閾値角度移動手段は、前記横加速度、前記車速、および前記車両諸元を予め定められた数式に代入することによって前記到達地点への方向を算出する、請求項3に記載の画像処理装置。
Vehicle specification storage means for storing vehicle specifications of the vehicle,
The vehicle information acquired by the vehicle information acquisition means includes a lateral acceleration of the vehicle and a vehicle speed of the vehicle,
The image processing apparatus according to claim 3, wherein the threshold angle moving unit calculates a direction to the arrival point by substituting the lateral acceleration, the vehicle speed, and the vehicle specifications into a predetermined mathematical expression.
前記車両の車両諸元を記憶する車両諸元記憶手段を、さらに備え、
前記車両情報取得手段が取得する車両情報は、前記車両の舵角と前記車両の車速とを含み、
前記閾値角度移動手段は、前記舵角、前記車速、および前記車両諸元を予め定められた数式に代入することによって前記到達地点への方向を算出する、請求項3に記載の画像処理装置。
Vehicle specification storage means for storing vehicle specifications of the vehicle,
The vehicle information acquired by the vehicle information acquisition means includes a steering angle of the vehicle and a vehicle speed of the vehicle,
The image processing apparatus according to claim 3, wherein the threshold angle moving unit calculates a direction to the destination by substituting the steering angle, the vehicle speed, and the vehicle specifications into a predetermined mathematical formula.
前記顔向き角度算出手段によって算出された前記運転者の顔向きが前記閾値角度から外れたときに、前記車両を制御して前記運転者に報知を行う制御手段を、さらに備える、請求項1または2に記載の画像処理装置。   2. The control device according to claim 1, further comprising a control unit configured to control the vehicle and notify the driver when the driver's face direction calculated by the face direction angle calculation unit deviates from the threshold angle. 2. The image processing apparatus according to 2. 車両の運転席に着席した運転者の顔を撮像する撮像手段が撮像した画像を用いて、当該撮像手段の撮像方向を基準とした当該運転者の顔向き角度を算出する顔向き角度算出ステップと、
前記車両の車両情報を取得する車両情報取得ステップと、
前記撮像方向に対して、左右の少なくとも一方に閾値角度を設定する閾値角度設定ステップと、
前記車両情報取得ステップで取得した前記車両情報を用いて前記車両の旋回時に前記運転者が注視すると予測される予測注視点方向を算出し、前記閾値角度設定ステップで設定する閾値角度の少なくとも1つを当該注視点方向が変化する方向に移動させる閾値角度移動ステップと、
前記運転者の顔向き角度が前記閾値角度から外れたときに前記運転者が脇見状態であると判断する判断ステップとを備える、画像処理方法。
A face angle calculation step for calculating a face angle of the driver based on the imaging direction of the imaging unit using an image captured by the imaging unit that captures the face of the driver seated in the driver's seat of the vehicle; ,
Vehicle information acquisition step of acquiring vehicle information of the vehicle;
A threshold angle setting step for setting a threshold angle on at least one of left and right with respect to the imaging direction;
At least one of the threshold angles set in the threshold angle setting step is calculated by using the vehicle information acquired in the vehicle information acquisition step to calculate a predicted gaze point direction predicted to be watched by the driver when the vehicle turns. Threshold angle movement step for moving the direction of the point of interest to change,
An image processing method comprising: a determination step of determining that the driver is looking aside when the driver's face orientation angle deviates from the threshold angle.
JP2008145629A 2008-06-03 2008-06-03 Image processor and image processing method Pending JP2009294753A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008145629A JP2009294753A (en) 2008-06-03 2008-06-03 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008145629A JP2009294753A (en) 2008-06-03 2008-06-03 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2009294753A true JP2009294753A (en) 2009-12-17

Family

ID=41542924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008145629A Pending JP2009294753A (en) 2008-06-03 2008-06-03 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2009294753A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101987596A (en) * 2010-11-04 2011-03-23 奇瑞汽车股份有限公司 Parking assisting system and control method thereof
JP2011163822A (en) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd Object-shape evaluating device
EP2426001A1 (en) 2010-09-03 2012-03-07 Honda Motor Co., Ltd. Inattention determining device
JP2013152700A (en) * 2011-12-26 2013-08-08 Denso Corp Driver monitor device
WO2019053809A1 (en) * 2017-09-13 2019-03-21 三菱電機株式会社 Driver state determination device and driver state determination method
CN109774470A (en) * 2017-11-15 2019-05-21 欧姆龙株式会社 Side-sight determination device, side-sight determination method and storage medium
CN109795499A (en) * 2017-11-15 2019-05-24 欧姆龙株式会社 Side-view determination device and method, driving support system, and computer-readable medium
CN109795498A (en) * 2017-11-15 2019-05-24 欧姆龙株式会社 Distraction determination device, distraction determination method, and computer-readable medium
JP2019091270A (en) * 2017-11-15 2019-06-13 オムロン株式会社 Alarm control device, method, and program
US10525981B2 (en) 2017-01-17 2020-01-07 Toyota Jidosha Kabushiki Kaisha Driver condition detection system
CN110909718A (en) * 2019-12-11 2020-03-24 深圳市锐明技术股份有限公司 Driving state identification method and device and vehicle
US10604160B2 (en) 2017-01-18 2020-03-31 Toyota Jidosha Kabushiki Kaisha Driver condition detection system
JP2021149443A (en) * 2020-03-18 2021-09-27 株式会社東海理化電機製作所 Image processing apparatus, computer program, and abnormality estimation system
CN114312826A (en) * 2020-09-24 2022-04-12 丰田自动车株式会社 Automatic driving system
CN116353500A (en) * 2023-04-28 2023-06-30 重庆长安汽车股份有限公司 Camera control method, device, equipment and medium based on steering angle

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011163822A (en) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd Object-shape evaluating device
EP2426001A1 (en) 2010-09-03 2012-03-07 Honda Motor Co., Ltd. Inattention determining device
US20120057749A1 (en) * 2010-09-03 2012-03-08 Honda Motor Co., Ltd. Inattention determining device
US8447072B2 (en) * 2010-09-03 2013-05-21 Honda Motor Co., Ltd. Inattention determining device
CN101987596A (en) * 2010-11-04 2011-03-23 奇瑞汽车股份有限公司 Parking assisting system and control method thereof
CN101987596B (en) * 2010-11-04 2012-11-28 奇瑞汽车股份有限公司 Control method of parking assisting system
JP2013152700A (en) * 2011-12-26 2013-08-08 Denso Corp Driver monitor device
US10525981B2 (en) 2017-01-17 2020-01-07 Toyota Jidosha Kabushiki Kaisha Driver condition detection system
US10604160B2 (en) 2017-01-18 2020-03-31 Toyota Jidosha Kabushiki Kaisha Driver condition detection system
WO2019053809A1 (en) * 2017-09-13 2019-03-21 三菱電機株式会社 Driver state determination device and driver state determination method
JPWO2019053809A1 (en) * 2017-09-13 2019-11-14 三菱電機株式会社 Driver state determination device and driver state determination method
JP2019091263A (en) * 2017-11-15 2019-06-13 オムロン株式会社 Inattentive driving determination device, driving support system, inattentive driving determination method, and program for determining inattentive driving
DE102018216008B4 (en) 2017-11-15 2022-04-21 Omron Corporation DEVICE FOR DETERMINING DISTURBED DRIVING, METHOD FOR DETERMINING DISTRESSED DRIVING, AND PROGRAM FOR DETERMINING DISTRESSED DRIVING
JP2019091266A (en) * 2017-11-15 2019-06-13 オムロン株式会社 Inattentive driving determination device, inattentive driving determination method, and program for determining inattentive driving
CN109795498A (en) * 2017-11-15 2019-05-24 欧姆龙株式会社 Distraction determination device, distraction determination method, and computer-readable medium
CN109795499A (en) * 2017-11-15 2019-05-24 欧姆龙株式会社 Side-view determination device and method, driving support system, and computer-readable medium
CN109774470A (en) * 2017-11-15 2019-05-21 欧姆龙株式会社 Side-sight determination device, side-sight determination method and storage medium
JP2019091270A (en) * 2017-11-15 2019-06-13 オムロン株式会社 Alarm control device, method, and program
CN110909718A (en) * 2019-12-11 2020-03-24 深圳市锐明技术股份有限公司 Driving state identification method and device and vehicle
CN110909718B (en) * 2019-12-11 2024-04-19 深圳市锐明技术股份有限公司 Driving state identification method and device and vehicle
JP2021149443A (en) * 2020-03-18 2021-09-27 株式会社東海理化電機製作所 Image processing apparatus, computer program, and abnormality estimation system
JP7402719B2 (en) 2020-03-18 2023-12-21 株式会社東海理化電機製作所 Image processing device, computer program, and abnormality estimation system
CN114312826B (en) * 2020-09-24 2023-12-12 丰田自动车株式会社 Autonomous driving system
CN114312826A (en) * 2020-09-24 2022-04-12 丰田自动车株式会社 Automatic driving system
CN116353500A (en) * 2023-04-28 2023-06-30 重庆长安汽车股份有限公司 Camera control method, device, equipment and medium based on steering angle
CN116353500B (en) * 2023-04-28 2025-10-31 重庆长安汽车股份有限公司 Camera control method, device, equipment and medium based on steering included angle

Similar Documents

Publication Publication Date Title
JP2009294753A (en) Image processor and image processing method
US10909399B2 (en) Apparatus detecting driving incapability state of driver
US11787408B2 (en) System and method for controlling vehicle based on condition of driver
KR101996419B1 (en) Sensor integration based pedestrian detection and pedestrian collision prevention apparatus and method
KR101996418B1 (en) Sensor integration based pedestrian detection and pedestrian collision prevention apparatus and method
JP6350145B2 (en) Face orientation detection device and vehicle warning system
KR102051142B1 (en) System for managing dangerous driving index for vehicle and method therof
EP2908726B1 (en) Method and device for detecting decreased attentiveness of vehicle driver
EP1721782B1 (en) Driving support equipment for vehicles
US11238739B2 (en) Method and apparatus to prevent VRU accidents
US20150248588A1 (en) Lane line recognition apparatus
CN106043299A (en) Vehicle control apparatus
JP2012084108A (en) Driver&#39;s gaze direction-associated front collision risk warning system, method thereof, and vehicle utilizing the same
CN106471556A (en) The driving of driver is unable to condition checkout gear
WO2016027412A1 (en) In-vehicle control apparatus
CN111311963A (en) Driving incapability state detection device for driver
US11014579B2 (en) Lane departure warning determination method using driver state monitoring
JP2020032786A (en) Vehicle stop support apparatus
JP2004310522A (en) Image processing device for vehicles
JP2020032781A (en) Vehicle stop support apparatus
JP2017206173A (en) Driver state detection device
KR101344885B1 (en) The apparatus of safety driving for vehicle and method for controlling the same
KR20230116122A (en) Vehicle, Vehicle Collision-Avoidance system and Collision-Avoidance Method thereof
JP2020032784A (en) Vehicle stop support apparatus
JP2010039933A (en) Inattentive driving determination device