WO2018167995A1 - 運転者状態推定装置、及び運転者状態推定方法 - Google Patents
運転者状態推定装置、及び運転者状態推定方法 Download PDFInfo
- Publication number
- WO2018167995A1 WO2018167995A1 PCT/JP2017/027244 JP2017027244W WO2018167995A1 WO 2018167995 A1 WO2018167995 A1 WO 2018167995A1 JP 2017027244 W JP2017027244 W JP 2017027244W WO 2018167995 A1 WO2018167995 A1 WO 2018167995A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- driver
- face
- center position
- image
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/223—Posture, e.g. hand, foot, or seat position, turned or inclined
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0059—Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Definitions
- the present invention relates to a driver state estimation device and a driver state estimation method, and more specifically, to estimate a driver's state such as a driver's head position and a driver's face orientation relative to the front of the vehicle.
- the present invention relates to a driver state estimating device and a driver state estimating method.
- Patent Document 1 discloses a technique for detecting a driver's face area in an image captured by a vehicle interior camera and estimating the driver's head position based on the detected face area.
- the specific method for estimating the driver's head position first detects the angle of the head position relative to the vehicle interior camera.
- the method of detecting the angle of the head position is to detect the center position of the face area on the image, and use the center position of the detected face area as the head position (center position of the head).
- a head position straight line passing through the position is obtained, and an angle of the head position straight line (an angle of the head position with respect to the vehicle interior camera) is determined.
- the method for detecting the head position on the head position straight line stores the standard size of the face area when it is at a predetermined distance from the in-vehicle camera, and the standard size and the size of the actually detected face area. And the distance from the vehicle interior camera to the head position is obtained. A position on the straight line of the head position that is away from the vehicle interior camera by the determined distance is estimated as the head position.
- the method for estimating the driver's face orientation described in Patent Document 1 detects feature points (each part of the face) from the face image, and these actually detected feature points and the face orientation are front faces.
- the direction of the driver's face is estimated based on the amount of displacement from the feature point.
- the head position on the image (the center position of the head) is detected based on the center position of the face area. It will change depending on the direction. Therefore, even if the center position of the head is at the same position, the center position (head position) of the face area detected on the image is detected at different positions due to the difference in face orientation. Therefore, the head position detected on the image is detected at a position different from the head position in the real world, and there is a problem that the head position in the real world cannot be accurately estimated.
- the driver's seat of the vehicle can generally adjust the seat position in the front-rear direction. For example, when the vehicle interior camera is installed diagonally in front of the driver's seat, even if the driver's face is facing the front, the difference between the front and rear positions of the driver's seat, that is, the driver's head position Due to this difference, the direction (angle) of the driver's face that appears in the vehicle interior camera is detected at a different angle. Specifically, the direction (angle) of the driver's face reflected in the vehicle interior camera is detected more greatly when the driver's seat is positioned forward than when the driver's seat is positioned rearward.
- the present invention has been made in view of the above problems, and the position of the head of the driver in the real world can be accurately obtained from an image without being affected by the difference in the direction of the driver's face or the position of the driver's seat. It is an object of the present invention to provide a driver state estimation device and a driver state estimation method that can be estimated.
- a driver state estimating device (1) is a driver state estimating device that estimates the state of a driver from a captured image, A monocular imaging unit that captures an image including the face of the driver sitting in the driver's seat; At least one hardware processor; The at least one hardware processor comprises: A head center position estimation unit that estimates the driver's head center position in the image using a three-dimensional face shape model fitted to the driver's face in the image captured by the imaging unit; Based on information including the driver's head center position in the image estimated by the head center position estimation unit and the specifications and position / orientation of the imaging unit, the head center position is provided in the front direction of the driver's seat.
- a distance estimation unit for estimating a distance between the origin and the center position of the driver's head in the real world is provided.
- the center position of the driver's head in the image is estimated using a three-dimensional face shape model fitted to the driver's face in the image.
- the center position of the driver's head in the image can be accurately estimated regardless of the difference in the orientation of the driver's face.
- the center position of the head, the specifications of the imaging unit (such as the angle of view and resolution), and the position and orientation (from the angle and origin) The distance between the origin provided in the front direction of the driver seat and the center position of the driver's head in the real world can be accurately estimated based on the information including the distance.
- the driver state estimation device (2) is the driver state estimation device (1), wherein the at least one hardware processor is: A driving operation availability determination unit that determines whether or not the driver is capable of driving using the distance estimated by the distance estimation unit is provided.
- the driver state estimating device (2) it is possible to determine whether or not the driver is capable of driving based on the distance estimated by the distance estimating unit. For example, if the origin is set to be a steering wheel position, based on the distance, it can be determined whether or not the driver is in a range where the hand can reach the steering wheel. Can be performed appropriately.
- the driver state estimating device (3) is the driver state estimating device (1) or (2), wherein the at least one hardware processor is: A face direction detection unit for detecting a direction of the driver's face with respect to the imaging unit from an image captured by the imaging unit; Based on information including the driver's head center position in the image estimated by the head center position estimation unit and the specifications and position / orientation of the imaging unit, the driver's head in the real world An angle estimation unit that estimates an angle formed by a direction of the imaging unit from a center position and a front direction of the driver seat; Based on the direction of the driver's face detected by the face direction detection unit and the angle estimated by the angle estimation unit, the direction of the driver's face based on the front direction of the driver's seat And a face orientation estimating unit for estimating
- the driver's face with respect to the imaging unit is not affected by the difference in the position of the driver's seat (driver's head position) or the difference in the direction of the driver's face. It is possible to accurately estimate the driver's face direction with reference to the front direction of the driver seat.
- the driver state estimation device (4) is the driver state estimation device (3), wherein the at least one hardware processor is estimated by the face direction estimation unit.
- a driver state determination unit that determines the state of the driver based on the orientation of the driver is provided.
- the driver state estimating device (4) the driver's state, for example, a state of looking aside, is accurately determined based on the driver's face direction estimated by the face direction estimating unit. This makes it possible to make a good judgment and to appropriately monitor the driver.
- the driver state estimation method (1) includes a monocular imaging unit that captures an image including a driver's face sitting in a driver's seat; Using a device with at least one hardware processor, A driver state estimation method for estimating a driver's state using an image captured by the imaging unit, The at least one hardware processor comprises: A head center position estimating step for estimating the driver's head center position in the image using a three-dimensional face shape model fitted to the driver's face in the image captured by the imaging unit; Based on information including the driver's head center position in the image estimated by the head center position estimation step, and the specifications and position / orientation of the imaging unit, the driver is provided in the front direction of the driver's seat. A distance estimating step for estimating a distance between the origin and the center position of the driver's head in the real world.
- the front of the driver's seat is not affected by the difference in the position of the driver's seat (driver's head position) or the driver's face.
- the distance between the origin provided in the direction and the center position of the driver's head in the real world can be estimated.
- the estimated distance can be used to determine whether or not the driver can drive.
- the driver state estimation method (2) is the driver state estimation method (1), wherein the at least one hardware processor includes: A face orientation detection step of detecting a face orientation of the driver with respect to the imaging unit from the captured image; The driver's head in the real world based on information including the driver's head center position in the image estimated by the head center position estimation step, and the specifications and position / orientation of the imaging unit. An angle estimation step for estimating an angle formed by a direction of the imaging unit from a center position and a front direction of the driver seat; Based on the driver's face orientation detected by the face orientation detection step and the angle estimated by the angle estimation step, the driver's face orientation based on the front direction of the driver's seat And a face direction estimating step for estimating.
- driving with respect to the imaging unit is not affected by the difference in the position of the driver's seat (driver's head position) or the difference in the driver's face direction.
- the direction of the driver's face can be accurately estimated from the direction of the driver's face based on the front direction of the driver's seat.
- FIG. 1 is a block diagram schematically showing a main part of an automatic driving system including a driver state estimating device according to an embodiment.
- FIG. 2 is a block diagram illustrating a configuration of the driver state estimation apparatus according to the embodiment.
- the automatic driving system 1 is a system for automatically driving a vehicle along a road, and includes a driver state estimating device 10, an HMI (Human (Machine Interface) 40, and an automatic driving control device 50. Each device is connected via a communication bus 60.
- the communication bus 60 is also connected with various sensors and control devices (not shown) necessary for controlling automatic driving and manual driving by the driver.
- the driver state estimation device 10 performs processing for estimating the driver's state from the captured image, specifically, the direction of the driver's face with reference to the front direction of the driver's seat, and the driver's head from the handle position. A process for estimating the distance to the center position is performed, a state such as the driver's position and orientation is determined based on these estimation results, and a process for outputting these determination results is performed.
- the driver state estimation device 10 includes a monocular camera 11, a CPU 12, a ROM 13, a RAM 14, a storage unit 15, and an input / output interface (I / F) 16, and these units are connected via a communication bus 17. Yes.
- the monocular camera 11 as an imaging unit is capable of regularly imaging an image including the face of the driver sitting in the driver's seat (for example, 30 to 60 times per second).
- An image sensor such as a CCD or CMOS, and an infrared irradiator such as a near-infrared LED that irradiates near-infrared light (both not shown) are included.
- the CPU 12 is a hardware processor, reads a program stored in the ROM 13, and performs various processes of image data acquired from the monocular camera 11 based on the program.
- a plurality of CPUs 12 may be provided.
- the ROM 13 includes a face detection unit 22, a head center position estimation unit 23, an angle estimation unit 25, a face direction estimation unit 26, a side look determination unit 27, a distance estimation unit 28, and a driving operation availability determination unit 29 illustrated in FIG. 2.
- a program for causing the CPU 12 to execute the process as described above, a three-dimensional (3D) face shape model adaptation algorithm 24, and the like are stored. Note that all or part of the program executed by the CPU 12 may be stored in the storage unit 15 other than the ROM 13 or another storage medium (not shown).
- the RAM 14 temporarily stores data necessary for various processes executed by the CPU 12, programs read from the ROM 13, and the like.
- the storage unit 15 stores image data captured by the monocular camera 11, specification information such as the angle of view and the number of pixels (width ⁇ vertical) of the monocular camera 11, the attachment position and attachment of the monocular camera 11. And an information storage unit 15b for storing position and orientation information such as an angle.
- the CPU 12 stores image data captured by the monocular camera 11 in the image storage unit 15a which is a part of the storage unit 15 (storage instruction), and reads out an image from the image storage unit 15a (read instruction). May be performed.
- the position and orientation information such as the mounting position and mounting angle of the monocular camera 11 is configured so that the setting menu of the monocular camera 11 can be read by the HMI 40, for example, and can be input and set in advance from the setting menu at the time of mounting. Just keep it.
- the storage unit 15 is configured by one or more nonvolatile semiconductor memories such as an EEPROM and a flash memory, for example.
- the input / output interface (I / F) 16 is for exchanging data with various external devices via the communication bus 60.
- the HMI 40 drives a process of notifying the driver of a state such as a side look or a driving posture, an operation state of the automatic driving system 1, automatic driving release information, and the like.
- a process for notifying the user, a process for outputting an operation signal related to the automatic driving control to the automatic driving control device 50, and the like are performed.
- the HMI 40 is configured to include, for example, an operation unit and a voice input unit (not shown) in addition to the display unit 41 and the voice output unit 42 provided at a position where the driver can easily see.
- the automatic driving control device 50 is also connected to a power source control device, a steering control device, a braking control device, a peripheral monitoring sensor, a navigation system, a communication device that communicates with the outside, and the like (not shown), and is based on information acquired from these units. Then, a control signal for performing automatic driving is output to each control device to perform automatic traveling control (automatic steering control, automatic speed adjustment control, etc.) of the vehicle.
- FIG. 3 is a vehicle interior plan view for explaining a driver state estimating method performed by the driver state estimating apparatus 10.
- FIG. 4 is an illustration for explaining the relationship between the head center position and the driver seat position in the image estimated by the driver state estimation apparatus 10.
- FIG. 5 is an illustration for explaining the relationship between the head center position in the image estimated by the driver state estimation device 10 and the direction of the driver's face.
- the driver 30 is seated in the driver's seat 31 as shown in FIG.
- a handle 32 is installed in front of the driver's seat 31 and the position of the driver's seat 31 can be adjusted in the front-rear direction.
- the monocular camera 11 is installed diagonally to the left of the driver's seat 31 and is installed so that an image including the driver's face can be taken.
- the installation position and orientation of the monocular camera 11 is not limited to this form.
- the center position of the handle 32 is the origin O
- the line segment connecting the origin O and the sheet center S is L1
- the line segment orthogonal to the line segment L1 at the origin O is L2
- the attachment angle is set to an angle ⁇ with respect to the line segment L2
- the distance between the center I of the imaging surface of the monocular camera 11 and the origin O is set to A.
- the head center position H of the driver 30 in the real world is on the line segment L1.
- the origin O is a right-angled apex of a right triangle whose hypotenuse is a line segment L3 connecting the monocular camera 11 and the head center position H of the driver 30 in the real world.
- the position of the origin O may be set to a position other than the center position of the handle 32.
- the angle of view of the monocular camera 11 is indicated by ⁇
- the number of pixels in the width direction of the image 11a is indicated by Width.
- the head center position (number of pixels in the width direction) of the driver 30A in the image 11a is indicated by x
- a line segment (vertical line) indicating the head center position x of the driver 30A in the image 11a is indicated by Lx. .
- the direction (angle) of the face of the driver 30 in the real world with respect to the monocular camera 11 is ⁇ 1
- the direction of the monocular camera 11 from the head center position H of the driver 30 is ⁇ 2
- the face direction (angle) of the driver 30 with respect to the front direction (line segment L1) of the driver's seat 31 is ⁇ 3.
- the driver state estimation device 10 estimates the center position x of the head of the driver 30A in the captured image 11a by executing a fitting process of a three-dimensional face shape model described later. If the head center position x of the driver 30A can be estimated, known information, that is, specifications of the monocular camera 11 (view angle ⁇ , number of pixels in the width direction), position and orientation of the monocular camera 11 (mounting angle ⁇ ) Using the distance A) from the origin O, the angle ⁇ 2 (the angle formed by the line segment L3 and the line segment L1) can be obtained by the following equation 1. When strictly considering the lens distortion of the monocular camera 11 and the like, calibration using internal parameters is performed.
- An angle ⁇ 2 that is different from the seat position (front-rear position) of the driver seat 31, that is, the head position of the driver 30, is obtained, and the angle ⁇ 1 (face orientation with respect to the monocular camera 11) is corrected using the angle ⁇ 2.
- the distance B from the head center position H of the driver 30 to the origin O (the handle 32) can be estimated by the following expression 3. Using the estimated distance B, it is possible to determine whether or not the driver 30 is in a state in which the steering wheel can be operated (within a range in which the steering wheel can be operated).
- FIG. 4A to 4D show a relationship between a plan view of the passenger compartment when the position of the driver's seat 31 is moved forward stepwise and an image 11a captured by the monocular camera 11.
- FIG. Yes In either case, the driver 30 is facing the front front of the vehicle.
- the head center position x of the driver 30A in the image 11a is indicated by a line segment Lx.
- the orientation (angle) ⁇ 1 of the face of the driver 30 with respect to the monocular camera 11 gradually increases. Therefore, it is impossible to accurately grasp whether or not the driver 30 is facing the front front of the vehicle only by the angle ⁇ 1.
- the head center position H of the driver 30 in the real world also moves forward, and a line segment Lx indicating the head center position x of the driver 30A in the image 11a is The image 11a is moved to the left side.
- the angle ⁇ 2 (the angle formed by the line segment L3 and the line segment L1) increases.
- FIG. 5A to 5C a plan view of the interior of the vehicle when the driver's seat 31 is in the same position and the face direction of the driver 30 is changed, and an image 11a captured by the monocular camera 11 are shown.
- the 3D face shape model 33 to be fitted to the image 11a and the line segment Lx indicating the head center position x, and the head of the driver 30A estimated by the fitting process of the 3D face shape model 33 to the image 11a An image in which the center position x is indicated by a line segment Lx is shown.
- FIG. 5A shows a case where the face of the driver 30 faces the right side with respect to the front front direction of the vehicle.
- FIG. 5B shows a case where the face of the driver 30 faces the front front of the vehicle.
- FIG. 5C shows a case where the face of the driver 30 faces leftward with respect to the front front direction of the vehicle.
- the positions of organ points such as eyes, nose, and mouth of the face of the driver 30A vary depending on the orientation of the face, but the head center position x ( The line segment Lx) does not change depending on the orientation of the face.
- the head center position x (line segment Lx) does not have a difference (displacement) due to a difference in gender (male, female) or physique of the driver 30, and is substantially the same position.
- the face direction (angle) ⁇ 1 of the driver 30 with respect to the monocular camera 11 changes. Therefore, only the angle ⁇ 1 cannot accurately grasp which direction the driver 30 is facing.
- the line segment Lx indicating the head center position H of the driver 30 in the real world and the head center position x of the driver 30A in the image 11a.
- the driver state estimation device 10 reads various programs stored in the ROM 13 into the RAM 14 and executes them on the CPU 12, thereby causing the image input unit 21, face detection unit 22, head center position estimation unit 23, and three-dimensional. (3D) It is established as a device that performs processing as the face shape model fitting algorithm 24, the angle estimation unit 25, the face direction estimation unit 26, the side-view determination unit 27, the distance estimation unit 28, and the driving operation availability determination unit 29.
- the image input unit 21 performs processing for reading out image data including the driver's face captured by the monocular camera 11 from the image storage unit 15 a and loading the image data into the RAM 14.
- the face detection unit 22 performs processing for detecting the driver's face from the image captured by the monocular camera 11.
- a method for detecting a face from an image is not particularly limited, but a method for detecting a face at high speed and with high accuracy is adopted.
- the difference between brightness and darkness (luminance difference) and edge strength of local areas of the face, and the relationship (co-occurrence) between these local areas are considered as feature quantities, and learning by combining these many feature quantities
- a detector having a hierarchical structure (a hierarchical structure that captures details of a face from a hierarchy that roughly captures a face)
- a plurality of detectors learned separately for each orientation and inclination of the face may be provided.
- the head center position estimation unit 23 fits a 3D face shape model 33 (see FIG. 5) to the face of the driver 30A in the image 11a, and uses the fitted 3D face shape model 33. Then, a process for estimating the head center position x of the driver 30A in the image 11a is performed.
- a technique for fitting a three-dimensional face shape model to a human face in an image techniques described in Japanese Patent Application Laid-Open No. 2007-249280, Japanese Patent No. 4501937, and the like can be suitably used, but the technique is not limited thereto. It is not something.
- a learning process is performed in advance to acquire a three-dimensional face shape model, sampling by a retina structure, and an error estimation matrix by canonical interlayer analysis, and learning results (error estimation matrix, normalization parameters, etc.) by these learning processes are stored in the ROM 13. Is stored in the 3D face shape model fitting algorithm 24.
- the three-dimensional face shape model inputs characteristic organ points of facial organs such as the corners of the eyes, the head of the eyes, the ends of the nostrils, the ends of the lips and the average three-dimensional coordinates of many human face images. It is created by that.
- Each characteristic organ point is sampled by a retina structure in order to improve the detection accuracy of the characteristic organ point.
- the retina structure is a mesh-like sampling structure arranged in a discrete manner (a sequence of points that are denser toward the center and sparser toward the center) around the characteristic organ point of interest.
- the three-dimensional face shape model is the X axis when the horizontal axis when viewing the face from the front is the X axis, the vertical axis is the Y axis, and the depth (front and rear) axis is the Z axis. It can be freely deformed using a plurality of parameters such as rotation around the pitch (pitch), rotation around the Y axis (yaw), rotation around the Z axis (roll), and enlargement / reduction.
- the error estimation matrix learns the correlation of which direction to correct when each characteristic organ point of the three-dimensional face shape model is placed at an incorrect position (a position different from the characteristic organ point to be detected).
- the error estimation matrix is acquired by creating a deformation parameter (correct model parameter) of the 3D face shape model (correct model) at the correct position, and then shifting the correct model parameter within a certain range using random numbers. Create a model. Next, a sampling feature amount acquired based on the shift arrangement model and a difference (a change in parameter) between the shift arrangement model and the correct answer model are acquired as a learning result about the correlation.
- the fitting process to the face of the driver 30A in the image 11a of the three-dimensional face shape model 33 will be described.
- the three-dimensional face shape model 33 is initially arranged at an appropriate position with respect to the face position, orientation, size, and the like.
- the position of the characteristic organ point at the initial position is detected, and the feature amount at the characteristic organ point is calculated.
- the feature amount is input to the error estimation matrix, and the amount of change in the shape change parameter near the correct position is calculated.
- the calculated change in the shape change parameter near the correct position is added to the shape change parameter of the three-dimensional face shape model 33 at the current position.
- the three-dimensional face shape model 33 is fitted to the vicinity of the correct position on the image at high speed.
- the above-described control method of the three-dimensional face shape model is called Active Structured Appearance Model (ASAM).
- the three-dimensional face shape model 33 is used, not only the position and shape of the facial organ but also the face posture with respect to the monocular camera 11, that is, the direction in which the face is facing and its angle ⁇ 1 can be directly obtained. It has become.
- the center position of the head in three dimensions for example, the center position (center axis) of the sphere when the head is assumed to be a sphere, is estimated from the three-dimensional face shape model 33, and is displayed on the two-dimensional image 11a. Projection is performed to estimate the head center position x of the driver 30A in the image 11a.
- various methods such as a parallel projection method and a perspective projection method such as single-point perspective projection can be employed.
- the angle estimation unit 25 includes the head center position x of the driver 30A in the image 11a estimated by the head center position estimation unit 23, and the specifications (view angle ⁇ ) of the monocular camera 11 stored in the information storage unit 15b.
- the side look determination unit 27 is, for example, an angle range that is stored in the ROM 13 or the information storage unit 15b and is not in the sideways state. Is read out into the RAM 14 and a comparison operation is performed to determine whether or not it is an aside state, and a signal indicating the determination result is output to the HMI 40 and the automatic operation control device 50.
- the distance estimation unit 28 includes the head center position x of the driver 30A in the image 11a estimated by the head center position estimation unit 23, and the specifications (view angle ⁇ ) of the monocular camera 11 stored in the information storage unit 15b.
- the driving operation propriety determination unit 29 determines whether or not the driver 30 is in a state capable of driving, for example, stored in the ROM 13 or the information storage unit 15b. A range in which an appropriate steering wheel operation is possible is read into the RAM 14 and a comparison calculation is performed to determine whether or not the driver 30 is within a range where the hand 32 can be reached. Output to the operation control device 50.
- FIG. 6 is a flowchart showing processing operations performed by the CPU 12 in the driver state estimation apparatus 10 according to the embodiment.
- the monocular camera 11 captures an image of 30 to 60 frames per second, and this process is performed for each frame or every frame at a fixed interval.
- step S1 image 11a (image including the driver's face) imaged by the monocular camera 11 is acquired from the image storage unit 15a.
- step S2 the face (face) of the driver 30A is acquired from the acquired image 11a. Region, face orientation, etc.) are detected.
- step S3 the three-dimensional face shape model 33 is arranged at an appropriate position (initial position) with respect to the detected face position in the image 11a.
- step S4 the position of each characteristic organ point at the initial position is obtained, and the characteristic amount of each characteristic organ point is acquired based on the retina structure.
- step S5 the acquired feature amount is input to the error estimation matrix, and an error estimation amount between the three-dimensional face shape model 33 and the correct model parameter is acquired.
- step S6 the error estimation amount is added to the shape change parameter of the three-dimensional face shape model 33 at the current position to obtain an estimated value of the correct model parameter.
- step S7 it is determined whether the acquired correct model parameter is within the normal range and the process has converged. If it is determined in step S7 that the process has not converged, the process returns to step S4 to acquire the feature quantities of the characteristic organ points of the new three-dimensional face shape model 33 created based on the acquired correct model parameters. . On the other hand, if it is determined in step S7 that the process has converged, the process proceeds to step S8, and the arrangement of the three-dimensional face shape model 33 near the correct position is completed.
- step S9 the orientation (angle ⁇ 1) of the driver 30 with respect to the monocular camera 11 is obtained from the similarity transformation (translation, rotation) parameters included in the parameters of the three-dimensional face shape model 33 arranged in the vicinity of the correct position.
- the right angle with respect to the monocular camera 11 is indicated by + (plus), and the left angle is indicated by ⁇ (minus).
- step S10 the head center position x of the driver 30A in the image 11a is obtained using the three-dimensional face shape model 33.
- a three-dimensional head center position (assuming that the head is a sphere and the center position of the sphere) is estimated from the three-dimensional face shape model 33 and projected onto the two-dimensional image 11a.
- the center position x of the head of the driver 30A is estimated.
- step S11 the head center position x of the driver 30A in the image 11a estimated in step S9, the specifications of the monocular camera 11 (the angle of view ⁇ , the number of pixels in the width direction), and the position and orientation (angle ⁇ ) )
- the direction of the monocular camera 11 line segment L3 from the head center position H of the driver 30 in the real world and the front direction of the driver seat 31 (line segment L1). Is estimated based on Equation 1 above.
- the face direction (angle ⁇ 3) of the driver 30 with respect to the front direction (origin O) of the driver seat 31 is estimated. Specifically, the difference between the direction (angle ⁇ 1) of the face of the driver 30 with respect to the monocular camera 11 obtained in step S9 and the angle ⁇ 2 (angle formed by the line segment L3 and the line segment L1) estimated in step S11. ( ⁇ 1- ⁇ 2) is obtained.
- the right angle with respect to the front direction (origin O) of the driver's seat 31 is indicated by + (plus), and the left angle is indicated by-(minus).
- step S13 the angle range that is not in the looking-ahead state stored in the RAM 13 or the information storage unit 15b is read, and the angle ⁇ 3 is within the angle range that is not in the looking-away state ( ⁇ A ⁇ 3 ⁇ + ⁇ ). B ) is determined. ⁇ A and + ⁇ B indicate angles at which it is determined that they are in the looking-aside state.
- step S13 the process proceeds to step S15 if determined that not the inattentive state (a - ⁇ A ⁇ 3 ⁇ + ⁇ B ), if determined that the inattentive state (- ⁇ A ⁇ 3 ⁇ + ⁇ not B) Proceed to step S14.
- step S ⁇ b> 14 a look-ahead state signal is output to the HMI 40 and the automatic driving control device 50.
- a look-ahead state signal is input, for example, a look-ahead warning is displayed on the display unit 41 or a look-ahead warning announcement is executed from the audio output unit 42.
- a look-ahead warning is displayed on the display unit 41 or a look-ahead warning announcement is executed from the audio output unit 42.
- operation control apparatus 50 when a look-aside state signal is input, deceleration control etc. are performed, for example.
- step S16 the range in which the appropriate handle operation can be performed is read out from the RAM 13 or the information storage unit 15b and the comparison B is performed, so that the distance B is within the range in which the appropriate handle operation can be performed (distance D 1 It is determined whether or not ⁇ distance B ⁇ distance D 2 ). For example, the distance D 1 is 40 cm, the distance D 2 may be set to a value of about 70cm. If it is determined in step S16 that the distance B is within a range where an appropriate handle operation is possible, the process is thereafter terminated, whereas if it is determined that the distance B is not within a range where an appropriate handle operation is possible, a step is performed. Proceed to S17.
- step S17 a driving operation impossible signal is output to the HMI 40 or the automatic driving control device 50, and then the processing ends.
- a driving operation disabling signal is input, for example, a display warning of a driving posture or a seat position is displayed on the display unit 41, or an announcement for warning of a driving posture or a seat position is executed from the audio output unit 42.
- operation control apparatus 50 when a driving operation impossible signal is input, deceleration control etc. are performed, for example. Note that the order of the processes in steps S12 to S14 and the processes in steps S15 to S17 may be interchanged, and the processes in steps S12 to S14 and the processes in steps S15 to S17 are performed separately at different timings. You may make it implement.
- the head center position x of the driver 30A in the image 11a using the three-dimensional face shape model 33 fitted to the face of the driver 30A in the image 11a can be accurately estimated regardless of the difference in the direction of the face of the driver 30.
- the head center position x of the driver 30A in the image 11a can be accurately estimated, the head center position x and the specification information of the monocular camera 11 that is known information (the angle of view ⁇ , the number of pixels in the width direction Width). Based on the position and orientation information (angle ⁇ ), the direction of the monocular camera 11 (line segment L3) from the head center position H of the driver 30 in the real world and the front direction of the driver seat 31 (through the origin O). The angle ⁇ 2 formed with the line segment L1) can be estimated with high accuracy.
- the driver's face with respect to the monocular camera 11 is not affected by the difference in the position of the driver's seat 31 (the head position of the driver 30) or the difference in the orientation of the face of the driver 30.
- the direction ( ⁇ 3) of the face of the driver 30 based on the front direction (origin O) of the driver's seat 31 can be accurately estimated from the direction (angle ⁇ 1).
- the state of the driver 30 in the real world for example, the state of looking aside can be accurately determined. it can.
- the distance B to the driver and the direction of the driver's face (angle ⁇ 3) can be accurately estimated without providing another sensor in addition to the monocular camera 11. It is possible to simplify the configuration of the apparatus, and it is not necessary to provide another sensor, so that additional processing is not required, the load on the CPU 12 can be reduced, and the apparatus can be downsized. And cost reduction.
- the driver state estimation device 10 By installing the driver state estimation device 10 in the automatic driving system 1, it is possible to cause the driver to appropriately monitor the automatic driving, and even if the driving control in the automatic driving becomes difficult, the manual driving is performed. As a result, the safety of the automatic driving system 1 can be improved.
- a driver state estimation device that estimates a driver's state from a captured image, A monocular imaging unit that captures an image including the face of the driver sitting in the driver's seat; At least one storage unit; At least one hardware processor; The at least one storage unit is An image storage unit for storing an image captured by the imaging unit; An information storage unit that stores information including specifications and position and orientation of the imaging unit, The at least one hardware processor comprises: A storage instruction unit for storing an image captured by the imaging unit in the image storage unit; A read instruction unit for reading the image from the image storage unit; Head center position estimation for estimating the driver's head center position in the image using a three-dimensional face shape model fitted to the driver's face in the image read from the image storage unit And Based on information including the driver's head center position in the image estimated by the head center position estimation unit, and the specifications and position and orientation of the imaging unit read from the information storage unit, A driver state estimation device comprising: a distance estimation unit that estimates a distance between an origin provided in a front direction of the
- a driver state estimation method for estimating a driver's state using an image captured by the imaging unit is An image storage unit for storing an image captured by the imaging unit; An information storage unit that stores information including specifications and position and orientation of the imaging unit,
- the at least one hardware processor comprises: A storage instruction step of storing an image captured by the imaging unit in the image storage unit; A reading step of reading the image from the image storage unit; Head center position estimation for estimating the driver's head center position in the image using a three-dimensional face shape model fitted to the driver's face in the image read from the image storage unit Steps, Based on information including the driver's head center position in the image estimated by the head center position estimation step, and the specifications and position / orientation of the imaging unit read from the information storage unit, A driver state estimation method including a distance estimation step of estimating a distance
- the present invention can be widely used mainly in the field of the automobile industry, such as an automatic driving system that needs to monitor a driver's condition.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
運転者の着座位置や顔の向き等の違いによる影響を受けることなく、実世界における運転者の頭部の位置を画像から精度良く推定することができる運転者状態推定装置を提供することを目的としており、運転席に着座している運転者の顔を含む画像を撮像する単眼カメラ11と、CPU12とを備え、CPU12が、単眼カメラ11により撮像された画像中の運転者の顔にフィッティングさせた3次元顔形状モデルを用いて画像中の運転者の頭部中心位置xを推定する頭部中心位置推定部23と、頭部中心位置推定部23により推定された画像中の運転者の頭部中心位置xと単眼カメラ11の仕様及び位置姿勢とを含む情報に基づいて、運転席の正面方向に設けた原点Oと実世界における運転者の頭部中心位置Hとの距離Bを推定する距離推定部28とを装備する。
Description
本発明は運転者状態推定装置、及び運転者状態推定方法に関し、より詳細には運転者の頭部の位置や車両前方正面に対する運転者の顔の向きなど、運転者の状態を推定することができる運転者状態推定装置、及び運転者状態推定方法に関する。
車室内カメラで撮影された運転者の画像から運転者の動作や視線などの状態を検知し、運転者に必要とされる情報の提示や警告などを行う技術が従来より開発されている。
また、近年開発が進められている自動運転システムでは、自動運転中においても、自動運転から手動運転への引き継ぎがスムーズに行えるように、運転者が運転操作可能な状態であるかどうかを推定しておく技術が必要になると考えられており、車室内カメラで撮像した画像を解析して、運転者の状態を推定する技術の開発が進められている。
また、近年開発が進められている自動運転システムでは、自動運転中においても、自動運転から手動運転への引き継ぎがスムーズに行えるように、運転者が運転操作可能な状態であるかどうかを推定しておく技術が必要になると考えられており、車室内カメラで撮像した画像を解析して、運転者の状態を推定する技術の開発が進められている。
運転者の状態を推定するためには、運転者の頭部位置や顔の向きを検出する技術が必要とされている。例えば、特許文献1には、車室内カメラで撮像された画像中における運転者の顔領域を検出し、検出した顔領域に基づいて、運転者の頭部位置を推定する技術が開示されている。
上記運転者の頭部位置の具体的な推定方法は、まず、車室内カメラに対する頭部位置の角度を検出する。該頭部位置の角度の検出方法は、画像上での顔領域の中心位置を検出し、該検出した顔領域の中心位置を頭部位置(頭部の中心位置)として、該顔領域の中心位置を通る頭部位置直線を求め、該頭部位置直線の角度(頭部位置の車室内カメラに対する角度)を決定する。
次に、頭部位置直線上の頭部位置を検出する。該頭部位置直線上の頭部位置の検出方法は、車室内カメラから所定距離に存在する場合の顔領域の標準大きさを記憶しておき、この標準大きさと実際に検出した顔領域の大きさとを比較して、車室内カメラから頭部位置までの距離を求める。そして、求めた距離だけ車室内カメラから離れた、頭部位置直線上の位置を頭部位置として推定するようになっている。
また、特許文献1記載の運転者の顔の向きの推定方法は、顔画像から特徴点(顔の各部位)を検出し、これら実際に検出された特徴点と、顔の向きが正面である場合の特徴点との変位量に基づいて運転者の顔の向きを推定するようになっている。
[発明が解決しようとする課題]
特許文献1記載の頭部位置の推定方法では、画像上での頭部位置(頭部の中心位置)を顔領域の中心位置を基準として検出しているが、顔領域の中心位置は顔の向きによって変わってしまう。そのため、頭の中心位置が同じ位置にあっても、顔の向きの違いより、画像上で検出される顔領域の中心位置(頭部位置)はそれぞれ異なる位置に検出される。そのため画像上で検出される頭部位置が実世界の頭部位置とは異なる位置に検出されてしまい、実世界における頭部位置を精度よく推定することができないという課題があった。
特許文献1記載の頭部位置の推定方法では、画像上での頭部位置(頭部の中心位置)を顔領域の中心位置を基準として検出しているが、顔領域の中心位置は顔の向きによって変わってしまう。そのため、頭の中心位置が同じ位置にあっても、顔の向きの違いより、画像上で検出される顔領域の中心位置(頭部位置)はそれぞれ異なる位置に検出される。そのため画像上で検出される頭部位置が実世界の頭部位置とは異なる位置に検出されてしまい、実世界における頭部位置を精度よく推定することができないという課題があった。
また、車両の運転席は、一般的に前後方向へ座席位置を調整できるようになっている。車室内カメラが、例えば、運転席の斜め前方に設置されている場合、運転者の顔の向きが正面に向いている場合でも、運転席の前後位置の違い、すなわち、運転者の頭部位置の違いによって、車室内カメラに写る運転者の顔の向き(角度)は異なる角度で検出されてしまう。具体的には、運転席を前寄りに位置させたときの方が、運転席を後寄りに位置させたときよりも、車室内カメラに写る運転者の顔の向き(角度)は大きく検出される。したがって、特許文献1記載の顔の向き推定方法では、運転席の前後位置(運転者の頭部位置)の違いに伴って変化する、車室内カメラに写る運転者の顔の向き(角度)の違いに対応できておらず、運転者の車両前方正面に対する顔の向きも正確に検出できていないという課題があった。
本発明は上記課題に鑑みなされたものであって、運転者の顔の向きの違いや運転席位置の違いによる影響を受けることなく、実世界における運転者の頭部の位置を画像から精度良く推定することができる運転者状態推定装置、及び運転者状態推定方法を提供することを目的としている。
上記目的を達成するために本発明に係る運転者状態推定装置(1)は、撮像された画像から運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つのハードウェアプロセッサとを備え、
該少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えていることを特徴としている。
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つのハードウェアプロセッサとを備え、
該少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えていることを特徴としている。
上記運転者状態推定装置(1)によれば、前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定するので、前記運転者の顔の向きの違いに関わらずに、前記画像中の前記運転者の頭部中心位置を精度良く推定することができる。前記画像中の前記運転者の頭部中心位置が精度良く推定されることにより、該頭部中心位置と、前記撮像部の仕様(画角や解像度など)、及び位置姿勢(角度や原点からの距離など)を含む情報とに基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を精度良く推定することができる。
また本発明に係る運転者状態推定装置(2)は、上記運転者状態推定装置(1)において、前記少なくとも1つのハードウェアプロセッサが、
前記距離推定部により推定された前記距離を用いて、前記運転者が運転操作可能な状態であるか否かを判定する運転操作可否判定部を備えていることを特徴としている。
前記距離推定部により推定された前記距離を用いて、前記運転者が運転操作可能な状態であるか否かを判定する運転操作可否判定部を備えていることを特徴としている。
上記運転者状態推定装置(2)によれば、前記距離推定部で推定された前記距離に基づいて、前記運転者が運転操作可能な状態であるか否かを判定することができる。例えば、前記原点がハンドル位置となるように設定すれば、前記距離に基づいて、前記運転者がハンドルに手が届く範囲内にいる状態か否かを判定することができ、前記運転者の監視を適切に行うことができる。
また本発明に係る運転者状態推定装置(3)は、上記運転者状態推定装置(1)又は(2)において、前記少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出部と、
前記頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定部と、
前記顔の向き検出部で検出された前記運転者の顔の向きと、前記角度推定部で推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定部とを備えていることを特徴としている。
前記撮像部により撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出部と、
前記頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定部と、
前記顔の向き検出部で検出された前記運転者の顔の向きと、前記角度推定部で推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定部とを備えていることを特徴としている。
上記運転者状態推定装置(3)によれば、精度良く推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様(画角や解像度など)、及び位置姿勢(角度)とを含む情報とに基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を精度良く推定することができる。該推定された角度を用いることにより、前記運転席の位置(運転者の頭部位置)の違いや前記運転者の顔の向きの違いの影響を受けることなく、前記撮像部に対する運転者の顔の向きから前記運転席の正面方向を基準とする前記運転者の顔の向きを精度良く推定することができる。
また本発明に係る運転者状態推定装置(4)は、上記運転者状態推定装置(3)において、前記少なくとも1つのハードウェアプロセッサが、前記顔の向き推定部で推定された前記運転者の顔の向きに基づいて、前記運転者の状態を判定する運転者状態判定部を備えていることを特徴としている。
上記運転者状態推定装置(4)によれば、前記顔の向き推定部で推定された前記運転者の顔の向きに基づいて、前記運転者の状態、例えば、脇見している状態などを精度良く判定することができ、前記運転者の監視を適切に行うことできる。
また本発明に係る運転者状態推定方法(1)は、運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいることを特徴としている。
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいることを特徴としている。
上記運転者状態推定方法(1)によれば、前記運転席の位置(運転者の頭部位置)の違いや前記運転者の顔の向きの違いの影響を受けることなく、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定することができる。該推定された距離を前記運転者が運転操作可能な状態かどうかの判定に利用することが可能となる。
また本発明に係る運転者状態推定方法(2)は、上記運転者状態推定方法(1)において、前記少なくとも1つのハードウェアプロセッサが、
前記撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出ステップと、
前記頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定ステップと、
前記顔の向き検出ステップにより検出された前記運転者の顔の向きと、前記角度推定ステップにより推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定ステップとを含んでいることを特徴としている。
前記撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出ステップと、
前記頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定ステップと、
前記顔の向き検出ステップにより検出された前記運転者の顔の向きと、前記角度推定ステップにより推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定ステップとを含んでいることを特徴としている。
上記運転者状態推定方法(2)によれば、前記運転席の位置(運転者の頭部位置)の違いや前記運転者の顔の向きの違いの影響を受けることなく、前記撮像部に対する運転者の顔の向きから前記運転席の正面方向を基準とする前記運転者の顔の向きを精度良く推定することができる。
以下、本発明に係る運転者状態推定装置、及び運転者状態推定方法の実施の形態を図面に基づいて説明する。なお、以下に述べる実施の形態は、本発明の好適な具体例であり、技術的に種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
図1は、実施の形態に係る運転者状態推定装置を含む自動運転システムの要部を概略的に示したブロック図である。図2は、実施の形態に係る運転者状態推定装置の構成を示すブロック図である。
自動運転システム1は、車両を道路に沿って自動で走行させるためのシステムであり、運転者状態推定装置10、HMI(Human Machine Interface)40、及び自動運転制御装置50を含んで構成され、これら各装置が通信バス60を介して接続されている。なお、通信バス60には、自動運転や運転者による手動運転の制御に必要な各種センサや制御装置(図示せず)も接続されている。
運転者状態推定装置10は、撮像された画像から運転者の状態、具体的には、運転席の正面方向を基準とする運転者の顔の向きを推定する処理、ハンドル位置から運転者の頭部中心位置までの距離を推定する処理を行い、これら推定結果に基づいて運転者の位置姿勢などの状態を判定し、これら判定結果を出力する処理などを行う。
運転者状態推定装置10は、単眼カメラ11、CPU12、ROM13、RAM14、記憶部15、及び入出力インターフェース(I/F)16を含んで構成され、これら各部が通信バス17を介して接続されている。
撮像部としての単眼カメラ11は、運転席に着座している運転者の顔を含む画像を定期的(例えば、1秒間に30~60回)に撮像可能なものであり、単眼のレンズ系、CCD又はCMOSなどの撮像素子、及び近赤外光を照射する近赤外LEDなどの赤外線照射器(いずれも図示せず)などを含んで構成されている。
CPU12は、ハードウェアプロセッサであり、ROM13に記憶されているプログラムを読み出し、該プログラムに基づいて単眼カメラ11から取得した画像データの各種処理などを行う。CPU12を複数装備してもよい。
ROM13には、図2に示す顔検出部22、頭部中心位置推定部23、角度推定部25、顔の向き推定部26、脇見判定部27、距離推定部28、及び運転操作可否判定部29としての処理を、CPU12に実行させるためのプログラムや3次元(3D)顔形状モデル適合アルゴリズム24などが記憶されている。なお、CPU12で実行される前記プログラムの全部又は一部をROM13とは別の記憶部15や他の記憶媒体(図示せず)に記憶してもよい。
ROM13には、図2に示す顔検出部22、頭部中心位置推定部23、角度推定部25、顔の向き推定部26、脇見判定部27、距離推定部28、及び運転操作可否判定部29としての処理を、CPU12に実行させるためのプログラムや3次元(3D)顔形状モデル適合アルゴリズム24などが記憶されている。なお、CPU12で実行される前記プログラムの全部又は一部をROM13とは別の記憶部15や他の記憶媒体(図示せず)に記憶してもよい。
RAM14には、CPU12で実行される各種処理に必要なデータやROM13から読み出したプログラムなどが一時記憶される。
記憶部15は、単眼カメラ11で撮像された画像データを記憶する画像記憶部15aと、単眼カメラ11の画角や画素数(幅×縦)などの仕様情報、単眼カメラ11の取付位置や取付角度などの位置姿勢情報などを記憶する情報記憶部15bとを含んでいる。また、CPU12が、単眼カメラ11で撮像された画像データを記憶部15の一部である画像記憶部15aに記憶させる処理(記憶指示)や、画像記憶部15aから画像を読み出す処理(読み出し指示)を行うようにしてもよい。単眼カメラ11の取付位置や取付角度などの位置姿勢情報は、例えば、単眼カメラ11の設定メニューをHMI40で読み出せるように構成しておき、取付時に、前記設定メニューから予め入力設定できるようにしておけばよい。記憶部15は、例えば、EEPROM、フラッシュメモリなどの1つ以上の不揮発性の半導体メモリで構成されている。入出力インターフェース(I/F)16は、通信バス60を介して各種外部装置とのデータのやり取りを行うためのものである。
記憶部15は、単眼カメラ11で撮像された画像データを記憶する画像記憶部15aと、単眼カメラ11の画角や画素数(幅×縦)などの仕様情報、単眼カメラ11の取付位置や取付角度などの位置姿勢情報などを記憶する情報記憶部15bとを含んでいる。また、CPU12が、単眼カメラ11で撮像された画像データを記憶部15の一部である画像記憶部15aに記憶させる処理(記憶指示)や、画像記憶部15aから画像を読み出す処理(読み出し指示)を行うようにしてもよい。単眼カメラ11の取付位置や取付角度などの位置姿勢情報は、例えば、単眼カメラ11の設定メニューをHMI40で読み出せるように構成しておき、取付時に、前記設定メニューから予め入力設定できるようにしておけばよい。記憶部15は、例えば、EEPROM、フラッシュメモリなどの1つ以上の不揮発性の半導体メモリで構成されている。入出力インターフェース(I/F)16は、通信バス60を介して各種外部装置とのデータのやり取りを行うためのものである。
HMI40は、運転者状態推定装置10から送信されてきた信号に基づいて、運転者に脇見や運転姿勢等の状態を報知する処理、自動運転システム1の作動状況や自動運転の解除情報などを運転者に報知する処理、自動運転制御に関連する操作信号を自動運転制御装置50に出力する処理などを行う。HMI40は、例えば、運転者が視認しやすい位置に設けられた表示部41や音声出力部42の他、図示しない操作部や音声入力部などを含んで構成されている。
自動運転制御装置50は、図示しない動力源制御装置、操舵制御装置、制動制御装置、周辺監視センサ、ナビゲーションシステム、外部と通信を行う通信装置などにも接続され、これら各部から取得した情報に基づいて、自動運転を行うための制御信号を各制御装置へ出力して、車両の自動走行制御(自動操舵制御や自動速度調整制御など)を行う。
図2に示した運転者状態推定装置10の各部を説明する前に、図3~図5を用いて、運転者状態推定装置10による運転者状態推定方法について説明する。
図3は、運転者状態推定装置10による運転者状態推定方法を説明するための車室内平面図である。図4は、運転者状態推定装置10で推定する画像中の頭部中心位置と運転席位置との関係などについて説明するためのイラスト図である。図5は、運転者状態推定装置10で推定する画像中の頭部中心位置と運転者の顔の向きとの関係などについて説明するためのイラスト図である。
図3は、運転者状態推定装置10による運転者状態推定方法を説明するための車室内平面図である。図4は、運転者状態推定装置10で推定する画像中の頭部中心位置と運転席位置との関係などについて説明するためのイラスト図である。図5は、運転者状態推定装置10で推定する画像中の頭部中心位置と運転者の顔の向きとの関係などについて説明するためのイラスト図である。
図3に示すように、運転者30が運転席31に着座しているとする。運転席31の正面前方にはハンドル32が設置されており、運転席31は、前後方向に位置調整可能となっている。単眼カメラ11は、運転席31の左斜め前方に設置され、運転者の顔を含む画像を撮像可能に設置されている。なお、単眼カメラ11の設置位置姿勢はこの形態に限定されるものではない。
本実施の形態では、ハンドル32の中心位置を原点O、原点Oとシート中心Sとを結ぶ線分をL1、原点Oで線分L1と直交する線分をL2とした場合、単眼カメラ11の取付角度は、線分L2に対して角度θに設定され、単眼カメラ11の撮像面の中心Iと原点Oとの距離はAに設定されている。また、線分L1上に実世界における運転者30の頭部中心位置Hがあるものとする。原点Oは、単眼カメラ11と実世界における運転者30の頭部中心位置Hとを結ぶ線分L3を斜辺とする直角三角形の直角の頂点となっている。なお、原点Oの位置は、ハンドル32の中心位置以外に設定してもよい。
また、単眼カメラ11の画角をα、画像11aの幅方向の画素数をWidthで示している。画像11a中の運転者30Aの頭部中心位置(幅方向の画素数)をx、画像11a中の運転者30Aの頭部中心位置xを示す線分(垂直線)をLxで示すものとする。
また、単眼カメラ11に対する実世界における運転者30の顔の向き(角度)をφ1、運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(線分L1)とのなす角度をφ2、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)をφ3として説明する。
運転者状態推定装置10では、撮像された画像11a中の運転者30Aの頭部中心位置xを、後述する3次元顔形状モデルのフィッティング処理を実行して推定する。
運転者30Aの頭部中心位置xを推定することができれば、既知の情報、すなわち、単眼カメラ11の仕様(画角α、幅方向の画素数Width)、単眼カメラ11の位置姿勢(取付角度θ、原点Oからの距離A)を利用して、以下の式1で角度φ2(線分L3と線分L1とのなす角度)を求めることができる。なお、単眼カメラ11のレンズ歪み等を厳密に考慮する場合は、内部パラメータを用いたキャリブレーションを行う。
運転者30Aの頭部中心位置xを推定することができれば、既知の情報、すなわち、単眼カメラ11の仕様(画角α、幅方向の画素数Width)、単眼カメラ11の位置姿勢(取付角度θ、原点Oからの距離A)を利用して、以下の式1で角度φ2(線分L3と線分L1とのなす角度)を求めることができる。なお、単眼カメラ11のレンズ歪み等を厳密に考慮する場合は、内部パラメータを用いたキャリブレーションを行う。
式1:φ2=90°-((90°-θ)-α/2+α×x/Width)
=θ+α/2-α×x/Width
=θ+α/2-α×x/Width
そして、後述する3次元顔形状モデルのフィッティング処理などで求めた、単眼カメラ11に対する運転者30の顔の向き(角度φ1)を用いて、
式2:角度φ1-角度φ2を計算することで、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を求めることができる。
式2:角度φ1-角度φ2を計算することで、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を求めることができる。
運転席31の座席位置(前後位置)、すなわち、運転者30の頭部位置で異なる角度になる角度φ2を求め、この角度φ2を用いて、角度φ1(単眼カメラ11に対する顔の向き)を補正することにより、運転席31の座席位置に関わらずに、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を正確に求めることが可能となる。
また、角度φ2を求めることができれば、原点O、撮像面の中心I、頭部中心位置Hを結んだ三角形が、原点Oを直角の頂点とする直角三角形となるため、既知である原点Oから撮像面の中心Iまでの距離A、角度φ2を利用して、以下の式3により、運転者30の頭部中心位置Hから原点O(ハンドル32)までの距離Bを推定することができる。推定された距離Bを用いて、運転者30がハンドル操作可能な状態(ハンドル操作可能な範囲内にいる)か否かを判定することが可能となる。
式3:B=A/tanφ2
(なお、φ2=θ+α/2-α×x/Width)
(但し、θ+α/2>α×x/Widthとする。)
(なお、φ2=θ+α/2-α×x/Width)
(但し、θ+α/2>α×x/Widthとする。)
図4の(a)~(d)には、運転席31の位置を段階的に前方へ移動させたときの車室内平面図と、単眼カメラ11で撮像された画像11aとの関係を示している。いずれも運転者30は、車両前方正面を向いている状態である。画像11aには、画像11a中の運転者30Aの頭部中心位置xを線分Lxで示している。
運転席31を前方へ移動させることにより、単眼カメラ11に対する運転者30の顔の向き(角度)φ1は次第に大きくなる。したがって、角度φ1だけでは、運転者30が、車両前方正面を向いているのかどうかを正確に把握することができない。
一方、運転席31を前方へ移動させることにより、実世界における運転者30の頭部中心位置Hも前方に移動し、画像11a中の運転者30Aの頭部中心位置xを示す線分Lxは、画像11a中を左側に移動してゆく。画像11a中の頭部中心位置xを示す線分Lxが左側に移動するにしたがって角度φ2(線分L3と線分L1とのなす角度)は大きくなる。
したがって、上記した式2:角度φ1-角度φ2を計算して、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を求めると、この場合、φ3=φ1-φ2の値は、約0°となり、いずれの座席位置でも、運転者30は車両前方正面を向いていることが推定可能となる。
また、既知である原点Oから撮像面の中心Iまでの距離A、角度φ2を利用して、上記した式3より、運転者30の頭部中心位置Hから原点O(ハンドル)までの距離Bも推定することが可能となる。
また、既知である原点Oから撮像面の中心Iまでの距離A、角度φ2を利用して、上記した式3より、運転者30の頭部中心位置Hから原点O(ハンドル)までの距離Bも推定することが可能となる。
図5の(a)~(c)には、運転席31が同じ位置にあり、運転者30の顔の向きを変化させたときの車室内平面図と、単眼カメラ11で撮像された画像11aと、該画像11aにフィッティングさせる3次元顔形状モデル33及び頭部中心位置xを示す線分Lxと、3次元顔形状モデル33の画像11aへのフィッティング処理により推定された運転者30Aの頭部中心位置xを線分Lxで示した画像とを示している。
図5(a)は、運転者30の顔の向きが車両前方正面方向に対して右側を向いている場合を示している。図5(b)は、運転者30の顔の向きが車両前方正面を向いている場合を示している。図5(c)は、運転者30の顔の向きが車両前方正面方向に対して左側を向いている場合を示している。
図5(a)~(c)の画像11aに示すように、運転者30Aの顔の目、鼻、口などの器官点の位置は、顔の向きによって変化するが、頭部中心位置x(線分Lx)は、顔の向きによって変化しない。なお、運転席31が同じ位置にある場合、頭部中心位置x(線分Lx)は運転者30の性別(男性、女性)や体格等の違いによる差(ずれ)はなく、略同位置となる。
図5(a)~(c)の画像11aに示すように、運転者30Aの顔の目、鼻、口などの器官点の位置は、顔の向きによって変化するが、頭部中心位置x(線分Lx)は、顔の向きによって変化しない。なお、運転席31が同じ位置にある場合、頭部中心位置x(線分Lx)は運転者30の性別(男性、女性)や体格等の違いによる差(ずれ)はなく、略同位置となる。
運転者30が顔の向きを変えると、単眼カメラ11に対する運転者30の顔の向き(角度)φ1は変化する。したがって、角度φ1だけでは、運転者30が、どの方向を向いているのかを正確に把握することができない。
一方、運転者30が顔の向きを変えた場合であっても、実世界における運転者30の頭部中心位置Hと、画像11a中の運転者30Aの頭部中心位置xを示す線分Lxの位置は、殆ど変化しない。したがって、上記した式1で求められる角度φ2(線分L3と線分L1とのなす角度)は、運転者30が顔の向きを変えた場合であっても、略同じ値を示す。
したがって、上記した式2:角度φ1-角度φ2を計算して、運転席31の正面方向(線分L1)を基準とする運転者30の顔の向き(角度)φ3を求めることにより、運転席31の正面方向に対する運転者30の顔の向き(角度)を略正確に推定することが可能となる。また、既知である原点Oから撮像面の中心Iまでの距離A、角度φ2を利用して、上記した式3により、運転者30の頭部中心位置Hから原点O(ハンドル)までの距離Bも推定することが可能となる。
次に運転者状態推定装置10の具体的構成について、図2に示したブロック図に基づいて説明する。
運転者状態推定装置10は、ROM13に記憶された各種のプログラムがRAM14に読出され、CPU12で実行されることによって、画像入力部21、顔検出部22、頭部中心位置推定部23、3次元(3D)顔形状モデル適合アルゴリズム24、角度推定部25、顔の向き推定部26、脇見判定部27、距離推定部28、及び運転操作可否判定部29としての処理を行う装置として成立する。
運転者状態推定装置10は、ROM13に記憶された各種のプログラムがRAM14に読出され、CPU12で実行されることによって、画像入力部21、顔検出部22、頭部中心位置推定部23、3次元(3D)顔形状モデル適合アルゴリズム24、角度推定部25、顔の向き推定部26、脇見判定部27、距離推定部28、及び運転操作可否判定部29としての処理を行う装置として成立する。
画像入力部21は、単眼カメラ11で撮像された運転者の顔を含む画像データを画像記憶部15aから読み出してRAM14に取り込む処理を行う。
顔検出部22は、単眼カメラ11で撮像された画像から運転者の顔を検出する処理を行う。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法が採用される。例えば、顔の局所的な領域の明暗差(輝度差)やエッジ強度、これら局所的領域間の関連性(共起性)を特徴量として捉え、これら多数の特徴量を組み合わせて学習することで検出器を作成し、階層的な構造(顔をおおまかにとらえる階層から顔の細部をとらえる階層構造)の検出器を備えることで、顔の領域検出を高速に行うことが可能となる。また、顔の向きや傾きに対応するために、顔の向きや傾きごとに別々に学習させた複数の検出器を備えるようにしてもよい。
顔検出部22は、単眼カメラ11で撮像された画像から運転者の顔を検出する処理を行う。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法が採用される。例えば、顔の局所的な領域の明暗差(輝度差)やエッジ強度、これら局所的領域間の関連性(共起性)を特徴量として捉え、これら多数の特徴量を組み合わせて学習することで検出器を作成し、階層的な構造(顔をおおまかにとらえる階層から顔の細部をとらえる階層構造)の検出器を備えることで、顔の領域検出を高速に行うことが可能となる。また、顔の向きや傾きに対応するために、顔の向きや傾きごとに別々に学習させた複数の検出器を備えるようにしてもよい。
頭部中心位置推定部23は、画像11a中の運転者30Aの顔に3次元顔形状モデル33(図5を参照)をフィッティング(適合)させ、該フィッティングさせた3次元顔形状モデル33を用いて画像11a中の運転者30Aの頭部中心位置xを推定する処理を行う。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術は、特開2007-249280号公報、特許第4501937号公報などに記載された技術を好適に用いることができるが、これに限定されるものではない。
3次元顔形状モデルを画像中の運転者の顔にフィッティングさせる技術の一例の概略を説明する。
予め学習処理により、3次元顔形状モデルの取得、レティナ構造によるサンプリング、及び正準層間分析による誤差推定行列の取得を行い、これら学習処理による学習結果(誤差推定行列、正規化パラメータなど)がROM13内の3D顔形状モデル適合アルゴリズム24に記憶されている。
予め学習処理により、3次元顔形状モデルの取得、レティナ構造によるサンプリング、及び正準層間分析による誤差推定行列の取得を行い、これら学習処理による学習結果(誤差推定行列、正規化パラメータなど)がROM13内の3D顔形状モデル適合アルゴリズム24に記憶されている。
3次元顔形状モデルは、多数の人の顔画像に対し、目尻、目頭、鼻の穴の両端、唇の両端など顔器官の特徴的器官点を入力し、これらの平均3次元座標間を結ぶことで作成される。各特徴的器官点では、その特徴的器官点の検出精度を高めるために、レティナ構造によるサンプリングが実施される。レティナ構造とは、着目する特徴的器官点の周囲に放射状に離散的(中心に近づくほど密で、離れるほど疎な点列)に配置された網目状のサンプリング構造のことをいう。
3次元顔形状モデルは、顔を正面から見たときの左右水平方向の軸をX軸、上下垂直方向の軸をY軸、奥行き(前後)方向の軸をZ軸とした場合の、X軸回りの回転(pitch)、Y軸回りの回転(yaw)、Z軸回りの回転(roll)、拡大縮小などの複数のパラメータを用いて自由自在に変形させることができる。
誤差推定行列は、3次元顔形状モデルの各特徴的器官点が誤った位置(検出すべき特徴的器官点と異なる位置)に配置されたときにどの方向に修正すべきかの相関関係についての学習結果(特徴的器官点での特徴量から、正解位置からのパラメータの変化分への変換行列)である。
誤差推定行列の取得方法は、正解位置にある3次元顔形状モデル(正解モデル)の変形パラメータ(正解モデルパラメータ)を作成し、次に正解モデルパラメータを乱数などにより一定範囲内でずらしたずれ配置モデルを作成する。次に、ずれ配置モデルに基づいて取得したサンプリング特徴量と、ずれ配置モデルと正解モデルとの差(パラメータの変化分)とを組として相関関係についての学習結果として取得する。
誤差推定行列は、3次元顔形状モデルの各特徴的器官点が誤った位置(検出すべき特徴的器官点と異なる位置)に配置されたときにどの方向に修正すべきかの相関関係についての学習結果(特徴的器官点での特徴量から、正解位置からのパラメータの変化分への変換行列)である。
誤差推定行列の取得方法は、正解位置にある3次元顔形状モデル(正解モデル)の変形パラメータ(正解モデルパラメータ)を作成し、次に正解モデルパラメータを乱数などにより一定範囲内でずらしたずれ配置モデルを作成する。次に、ずれ配置モデルに基づいて取得したサンプリング特徴量と、ずれ配置モデルと正解モデルとの差(パラメータの変化分)とを組として相関関係についての学習結果として取得する。
3次元顔形状モデル33の画像11a中の運転者30Aの顔へのフィッティング処理について説明する。顔検出部22で検出された顔検出の結果に基づき、顔の位置、向き、大きさなどに対して適切な位置に3次元顔形状モデル33を初期配置する。その初期位置における特徴的器官点の位置を検出し、その特徴的器官点での特徴量を算出する。その特徴量を誤差推定行列に入力し、正解位置近傍への形状変化パラメータの変化分を算出する。現在位置での3次元顔形状モデル33の形状変化パラメータに、上記算出された正解位置近傍への形状変化パラメータの変化分を加算する。これら処理により3次元顔形状モデル33が画像上の正解位置近傍へ高速にフィッティングされる。上記した3次元顔形状モデルの制御方法を、Active Structured Appearance Model (ASAM)と呼ぶ。
また、3次元顔形状モデル33を用いているため、顔の器官の位置や形状だけでなく、単眼カメラ11に対する顔姿勢、すなわち、顔が向いている方向やその角度φ1を直接求めることが可能となっている。
また、3次元顔形状モデル33から3次元での頭部中心位置、例えば、頭部を球体と仮定したときの、該球体の中心位置(中心軸)を推定し、2次元の画像11a上に射影して、画像11a中の運転者30Aの頭部中心位置xを推定する。3次元での頭部中心位置を2次元平面に射影する方法としては、平行投影法、単点透視投影などの透視投影法などの各種の手法が採用され得る。
また、3次元顔形状モデル33から3次元での頭部中心位置、例えば、頭部を球体と仮定したときの、該球体の中心位置(中心軸)を推定し、2次元の画像11a上に射影して、画像11a中の運転者30Aの頭部中心位置xを推定する。3次元での頭部中心位置を2次元平面に射影する方法としては、平行投影法、単点透視投影などの透視投影法などの各種の手法が採用され得る。
角度推定部25は、頭部中心位置推定部23により推定された画像11a中の運転者30Aの頭部中心位置xと、情報記憶部15bに記憶されている単眼カメラ11の仕様(画角α、幅方向の画素数Width)及び位置姿勢(角度θ)とを含む情報に基づいて、実世界における運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(線分L1)とのなす角度φ2を上記した式1(φ2=θ+α/2-α×x/Width)に基づいて推定する。
顔の向き推定部26は、顔検出部22での検出処理、又は頭部中心位置推定部23での3次元顔形状モデルフィッティング処理時に検出された運転者の顔の向き(角度φ1)と、角度推定部25で推定された角度φ2とに基づいて、運転席31の正面方向(原点Oを通る線分L1)を基準とする運転者30の顔の向き(角度φ3=φ1-φ2)を推定する。
脇見判定部27は、顔の向き推定部26で推定された運転者30の顔の向き(角度φ3)に基づいて、例えば、ROM13又は情報記憶部15bに記憶された、脇見状態ではない角度範囲をRAM14に読み出し、比較演算を行うことにより脇見状態であるか否かを判定し、該判定結果を示す信号をHMI40や自動運転制御装置50へ出力する。
距離推定部28は、頭部中心位置推定部23により推定された画像11a中の運転者30Aの頭部中心位置xと、情報記憶部15bに記憶されている単眼カメラ11の仕様(画角α、幅方向の画素数Width)及び位置姿勢(角度θと距離A)とを含む情報(換言すれば、角度φ2と距離A)に基づいて、運転席31の正面方向に設けた原点Oと実世界における運転者30の頭部中心位置Hとの距離Bを上記した式3(B=A/tanφ2)に基づいて推定する。
運転操作可否判定部29は、距離推定部28で推定された距離Bに基づいて、運転者30が運転操作可能な状態であるか否か、例えば、ROM13又は情報記憶部15bに記憶された、適切なハンドル操作が可能な範囲をRAM14に読み出し、比較演算を行うことにより、運転者30がハンドル32に手が届く範囲内にいるか否かを判定し、該判定結果を示す信号をHMI40や自動運転制御装置50へ出力する。
図6は、実施の形態に係る運転者状態推定装置10におけるCPU12の行う処理動作を示したフローチャートである。単眼カメラ11では、例えば、毎秒30~60フレームの画像が撮像され、各フレーム、又は一定間隔のフレーム毎に本処理が行われる。
まず、ステップS1では、単眼カメラ11で撮像された画像11a(運転者の顔を含む画像)データを画像記憶部15aから取得し、ステップS2で、取得した画像11aから運転者30Aの顔(顔領域、顔の向きなど)を検出する処理を行う。
ステップS3では、検出された画像11a中の顔の位置に対して適切な位置(初期位置)に3次元顔形状モデル33を配置する。ステップS4では、初期位置における各特徴的器官点の位置を求め、レティナ構造に基づき各特徴的器官点の特徴量を取得する。
ステップS5では、取得した特徴量を誤差推定行列に入力し、3次元顔形状モデル33と正解モデルパラメータとの誤差推定量を取得する。ステップS6では、現在位置での3次元顔形状モデル33の形状変化パラメータに上記誤差推定量を加算し、正解モデルパラメータの推定値を取得する。
ステップS7では、取得した正解モデルパラメータが正常範囲内であり、処理が収束したか否かを判断する。ステップS7において、処理が収束していないと判断すれば、ステップS4に戻り、取得した正解モデルパラメータに基づいて作成した新たな3次元顔形状モデル33の各特徴的器官点の特徴量を取得する。一方ステップS7において、処理が収束したと判断すればステップS8に進み、正解位置近傍への3次元顔形状モデル33の配置を完了する。
ステップS9では、正解位置近傍に配置された3次元顔形状モデル33のパラメータに含まれる相似変換(平行移動、回転)パラメータから単眼カメラ11に対する運転者30の顔の向き(角度φ1)を求める。単眼カメラ11に対して右向き角度は+(プラス)、左向き角度は-(マイナス)で示すものとする。
ステップS10では、3次元顔形状モデル33を用いて画像11a中の運転者30Aの頭部中心位置xを求める。例えば、3次元顔形状モデル33から3次元での頭部中心位置(頭部を球体と仮定し、該球体の中心位置)を推定し、2次元の画像11a上に射影して、画像11a中の運転者30Aの頭部中心位置xを推定する。
次のステップS11では、ステップS9で推定された画像11a中の運転者30Aの頭部中心位置xと、単眼カメラ11の仕様(画角α、幅方向の画素数Width)及び位置姿勢(角度θ)とを含む情報に基づいて、実世界における運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(線分L1)とのなす角度φ2を上記した式1に基づいて推定する。
次のステップS12では、運転席31の正面方向(原点O)を基準とする運転者30の顔の向き(角度φ3)を推定する。具体的には、ステップS9で求めた単眼カメラ11に対する運転者30の顔の向き(角度φ1)とステップS11で推定した角度φ2(線分L3と線分L1とのなす角)との差の(φ1-φ2)を求める。運転席31の正面方向(原点O)に対して右向き角度は+(プラス)、左向き角度は-(マイナス)で示すものとする。
ステップS13では、RAM13又は情報記憶部15bに記憶された、脇見状態ではない角度範囲を読み出し、比較演算を行うことにより、角度φ3が、脇見状態ではない角度範囲内(-φA<φ3<+φB)であるか否かを判定する。-φA、+φBは、脇見状態であると判定する角度を示す。ステップS13において、脇見状態ではない(-φA<φ3<+φBである)と判定すればステップS15に進む一方、脇見状態である(-φA<φ3<+φBではない)と判定すればステップS14に進む。
ステップS14では、HMI40や自動運転制御装置50に脇見状態信号を出力する。
HMI40では、脇見状態信号を入力した場合、例えば、表示部41に脇見警告表示や、音声出力部42より脇見警告アナウンスを実行する。また、自動運転制御装置50では、脇見状態信号を入力した場合、例えば、減速制御などを実行する。
HMI40では、脇見状態信号を入力した場合、例えば、表示部41に脇見警告表示や、音声出力部42より脇見警告アナウンスを実行する。また、自動運転制御装置50では、脇見状態信号を入力した場合、例えば、減速制御などを実行する。
ステップS15では、運転席31の正面方向に設けた原点Oと実世界における運転者30の頭部中心位置Hとの距離Bを上記した式3(B=A/tanφ2)に基づいて推定する。
ステップS16では、RAM13又は情報記憶部15bに記憶された、適切なハンドル操作が可能な範囲を読み出し、比較演算を行うことにより、距離Bが、適切なハンドル操作が可能な範囲内(距離D1<距離B<距離D2)であるか否かを判定する。例えば、距離D1は40cm、距離D2は70cm程度の値に設定することができる。ステップS16において、距離Bが、適切なハンドル操作が可能な範囲内であると判定すれば、その後処理を終える一方、距離Bが、適切なハンドル操作が可能な範囲内ではないと判定すればステップS17に進む。
ステップS17では、HMI40や自動運転制御装置50に運転操作不可信号を出力し、その後処理を終える。HMI40では、運転操作不可信号を入力した場合、例えば、表示部41に運転姿勢や座席位置を警告する表示や、音声出力部42より運転姿勢や座席位置を警告するアナウンスを実行する。また、自動運転制御装置50では、運転操作不可信号を入力した場合、例えば、減速制御などを実行する。なお、ステップS12~S14の処理と、ステップS15~S17の処理の順序を入れ替えてもよく、また、経時的に異なるタイミングでステップS12~S14の処理と、ステップS15~S17の処理とを別々に実施するようにしてもよい。
実施の形態に係る運転者状態推定装置10によれば、画像11a中の運転者30Aの顔にフィッティングさせた3次元顔形状モデル33を用いて画像11a中の運転者30Aの頭部中心位置xを推定するので、図5で説明したように、運転者30の顔の向きの違いに関わらずに、画像11a中の運転者30Aの頭部中心位置xを精度良く推定することができる。
画像11a中の運転者30Aの頭部中心位置xを精度良く推定できることにより、頭部中心位置xと、既知の情報である単眼カメラ11の仕様情報(画角α、幅方向の画素数Width)、及び位置姿勢情報(角度θ)とに基づいて、実世界における運転者30の頭部中心位置Hからの単眼カメラ11の方向(線分L3)と運転席31の正面方向(原点Oを通る線分L1)とのなす角度φ2を精度良く推定することができる。
そして、角度φ2を用いることにより、運転席31の位置(運転者30の頭部位置)の違いや運転者30の顔の向きの違いの影響を受けることなく、単眼カメラ11に対する運転者の顔の向き(角度φ1)から運転席31の正面方向(原点O)を基準とする運転者30の顔の向き(φ3)を精度良く推定することができる。
また、顔の向き推定部26で推定された運転者の顔の向き(角度φ3)に基づいて、実世界の運転者30の状態、例えば、脇見している状態などを精度良く判定することができる。
また、顔の向き推定部26で推定された運転者の顔の向き(角度φ3)に基づいて、実世界の運転者30の状態、例えば、脇見している状態などを精度良く判定することができる。
また、頭部中心位置推定部23により推定された画像11a中の運転者30Aの頭部中心位置xと、既知の情報である単眼カメラ11の仕様情報(画角α、幅方向の画素数Width)、及び位置姿勢情報(角度θや原点Oからの距離Aなど)とに基づいて、運転席31の正面方向に設けた原点Oと実世界における運転者30の頭部中心位置Hとの距離Bを精度良く推定することができる。そして、距離推定部28で推定された距離Bに基づいて、運転者30が適切なハンドル操作が可能な範囲内にいるか否かを判定することができる。
運転者状態推定装置10によれば、単眼カメラ11に加えて別のセンサを設けることなく、上記した運転者までの距離Bや運転者の顔の向き(角度φ3)を精度良く推定することができ、装置構成の簡素化を図ることができ、また、前記別のセンサを設ける必要がないため、それに伴う追加の処理も不要となり、CPU12にかかる負荷を低減させることができ、装置の小型化や低コスト化を図ることができる。
運転者状態推定装置10によれば、単眼カメラ11に加えて別のセンサを設けることなく、上記した運転者までの距離Bや運転者の顔の向き(角度φ3)を精度良く推定することができ、装置構成の簡素化を図ることができ、また、前記別のセンサを設ける必要がないため、それに伴う追加の処理も不要となり、CPU12にかかる負荷を低減させることができ、装置の小型化や低コスト化を図ることができる。
運転者状態推定装置10が自動運転システム1に搭載されることにより、運転者に自動運転の監視を適切に実行させることができ、自動運転での走行制御が困難状況になっても、手動運転への引き継ぎを迅速かつ安全に行うことができ、自動運転システム1の安全性を高めることができる。
(付記1)
撮像された画像から運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備え、
前記少なくとも1つの記憶部が、
前記撮像部で撮像された画像を記憶する画像記憶部と、
前記撮像部の仕様及び位置姿勢を含む情報を記憶する情報記憶部とを備え、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記画像記憶部に記憶させる記憶指示部と、
前記画像記憶部から前記画像を読み出す読み出し指示部と、
前記画像記憶部から読み出された前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記情報記憶部から読み出された前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えている運転者状態推定装置。
撮像された画像から運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備え、
前記少なくとも1つの記憶部が、
前記撮像部で撮像された画像を記憶する画像記憶部と、
前記撮像部の仕様及び位置姿勢を含む情報を記憶する情報記憶部とを備え、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記画像記憶部に記憶させる記憶指示部と、
前記画像記憶部から前記画像を読み出す読み出し指示部と、
前記画像記憶部から読み出された前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記情報記憶部から読み出された前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えている運転者状態推定装置。
(付記2)
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つの記憶部が、
前記撮像部で撮像された画像を記憶する画像記憶部と、
前記撮像部の仕様及び位置姿勢を含む情報を記憶する情報記憶部とを備え、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記画像記憶部に記憶させる記憶指示ステップと、
前記画像記憶部から前記画像を読み出す読み出しステップと、
前記画像記憶部から読み出された前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記情報記憶部から読み出された前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいる運転者状態推定方法。
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つの記憶部が、
前記撮像部で撮像された画像を記憶する画像記憶部と、
前記撮像部の仕様及び位置姿勢を含む情報を記憶する情報記憶部とを備え、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記画像記憶部に記憶させる記憶指示ステップと、
前記画像記憶部から前記画像を読み出す読み出しステップと、
前記画像記憶部から読み出された前記画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記情報記憶部から読み出された前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいる運転者状態推定方法。
本発明は、運転者の状態を監視する必要がある自動運転システムなど、主に自動車産業の分野において広く利用することができる。
10 運転者状態推定装置
11 単眼カメラ
11a 画像
12 CPU
13 ROM
14 RAM
15 記憶部
15a 画像記憶部
15b 情報記憶部
21 画像入力部
22 顔検出部
23 頭部中心位置推定部
24 3D顔形状モデル適合アルゴリズム
25 角度推定部
26 顔の向き推定部
27 脇見判定部
28 距離推定部
29 運転操作可否判定部
30 実世界の運転者
30A 画像中の運転者
31 運転席
32 ハンドル
Lx 線分(画像中の頭部中心位置xを示す)
O 原点
S シート中心
H 実世界における運転者の頭部中心位置
I 撮像面の中心
L1、L2、L3 線分
α 画角
θ 単眼カメラの取付角度
11 単眼カメラ
11a 画像
12 CPU
13 ROM
14 RAM
15 記憶部
15a 画像記憶部
15b 情報記憶部
21 画像入力部
22 顔検出部
23 頭部中心位置推定部
24 3D顔形状モデル適合アルゴリズム
25 角度推定部
26 顔の向き推定部
27 脇見判定部
28 距離推定部
29 運転操作可否判定部
30 実世界の運転者
30A 画像中の運転者
31 運転席
32 ハンドル
Lx 線分(画像中の頭部中心位置xを示す)
O 原点
S シート中心
H 実世界における運転者の頭部中心位置
I 撮像面の中心
L1、L2、L3 線分
α 画角
θ 単眼カメラの取付角度
Claims (6)
- 撮像された画像から運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つのハードウェアプロセッサとを備え、
該少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定部と、
該頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定部とを備えていることを特徴とする運転者状態推定装置。 - 前記少なくとも1つのハードウェアプロセッサが、
前記距離推定部により推定された前記距離を用いて、前記運転者が運転操作可能な状態であるか否かを判定する運転操作可否判定部を備えていることを特徴とする請求項1記載の運転者状態推定装置。 - 前記少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出部と、
前記頭部中心位置推定部により推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定部と、
前記顔の向き検出部で検出された前記運転者の顔の向きと、前記角度推定部で推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定部とを備えていることを特徴とする請求項1又は請求項2記載の運転者状態推定装置。 - 前記少なくとも1つのハードウェアプロセッサが、
前記顔の向き推定部で推定された前記運転者の顔の向きに基づいて、前記運転者の状態を判定する運転者状態判定部を備えていることを特徴とする請求項3記載の運転者状態推定装置。 - 運転席に着座している運転者の顔を含む画像を撮像する単眼の撮像部と、
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記撮像部で撮像された画像を用いて運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像中の前記運転者の顔にフィッティングさせた3次元顔形状モデルを用いて前記画像中の前記運転者の頭部中心位置を推定する頭部中心位置推定ステップと、
該頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、前記運転席の正面方向に設けた原点と実世界における前記運転者の頭部中心位置との距離を推定する距離推定ステップとを含んでいることを特徴とする運転者状態推定方法。 - 前記少なくとも1つのハードウェアプロセッサが、
前記撮像された画像から前記撮像部に対する前記運転者の顔の向きを検出する顔の向き検出ステップと、
前記頭部中心位置推定ステップにより推定された前記画像中の前記運転者の頭部中心位置と、前記撮像部の仕様及び位置姿勢とを含む情報に基づいて、実世界における前記運転者の頭部中心位置からの前記撮像部の方向と前記運転席の正面方向とのなす角度を推定する角度推定ステップと、
前記顔の向き検出ステップにより検出された前記運転者の顔の向きと、前記角度推定ステップにより推定された角度とに基づいて、前記運転席の正面方向を基準とする前記運転者の顔の向きを推定する顔の向き推定ステップとを含んでいることを特徴とする請求項5記載の運転者状態推定方法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE112017007237.9T DE112017007237T5 (de) | 2017-03-14 | 2017-07-27 | Fahrerzustandsabschätzungsvorrichtung und fahrerzustandsabschätzungsverfahren |
| US16/481,666 US20190347499A1 (en) | 2017-03-14 | 2017-07-27 | Driver state estimation device and driver state estimation method |
| CN201780084000.6A CN110192224A (zh) | 2017-03-14 | 2017-07-27 | 驾驶员状态推断装置以及驾驶员状态推断方法 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017-048502 | 2017-03-14 | ||
| JP2017048502A JP6708152B2 (ja) | 2017-03-14 | 2017-03-14 | 運転者状態推定装置、及び運転者状態推定方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018167995A1 true WO2018167995A1 (ja) | 2018-09-20 |
Family
ID=63523754
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/027244 Ceased WO2018167995A1 (ja) | 2017-03-14 | 2017-07-27 | 運転者状態推定装置、及び運転者状態推定方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20190347499A1 (ja) |
| JP (1) | JP6708152B2 (ja) |
| CN (1) | CN110192224A (ja) |
| DE (1) | DE112017007237T5 (ja) |
| WO (1) | WO2018167995A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113247010A (zh) * | 2021-05-11 | 2021-08-13 | 上汽通用五菱汽车股份有限公司 | 巡航车速控制方法、车辆及计算机可读存储介质 |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6785175B2 (ja) * | 2017-03-27 | 2020-11-18 | 日産自動車株式会社 | ドライバモニタ方法及びドライバモニタ装置 |
| US11491940B2 (en) * | 2019-04-19 | 2022-11-08 | GM Global Technology Operations LLC | System and method for detecting improper posture of an occupant using a seatbelt restraint system |
| US11724703B2 (en) * | 2021-07-01 | 2023-08-15 | Harman International Industries, Incorporated | Method and system for driver posture monitoring |
| JPWO2024189766A1 (ja) * | 2023-03-14 | 2024-09-19 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1191397A (ja) * | 1997-09-22 | 1999-04-06 | Toyota Motor Corp | 自動走行車両制御装置 |
| JP2006213146A (ja) * | 2005-02-02 | 2006-08-17 | Toyota Motor Corp | 運転者の顔向き判定装置 |
| JP2007280374A (ja) * | 2006-03-14 | 2007-10-25 | Omron Corp | 情報処理装置および方法、記録媒体、並びに、プログラム |
| JP2010100142A (ja) * | 2008-10-22 | 2010-05-06 | Toyota Motor Corp | 車両デバイス制御装置 |
| JP2013141950A (ja) * | 2012-01-12 | 2013-07-22 | Denso Corp | 車両用衝突安全制御装置 |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4922715B2 (ja) * | 2006-09-28 | 2012-04-25 | タカタ株式会社 | 乗員検出システム、警報システム、制動システム、車両 |
| EP2755192A4 (en) * | 2011-10-06 | 2015-05-27 | Honda Motor Co Ltd | VISUALALLY DISTANCE DRIVING DETECTION DEVICE |
| JP2014218140A (ja) | 2013-05-07 | 2014-11-20 | 株式会社デンソー | 運転者状態監視装置、および運転者状態監視方法 |
| JP2015194884A (ja) * | 2014-03-31 | 2015-11-05 | パナソニックIpマネジメント株式会社 | 運転者監視システム |
| DE112015002948B4 (de) * | 2014-06-23 | 2024-07-11 | Denso Corporation | Vorrichtung zum erfassen eines fahrunvermögenzustands eines fahrers |
| CN204452046U (zh) * | 2015-03-17 | 2015-07-08 | 山东理工大学 | 一种长途驾驶防瞌睡装置 |
| CN105354987B (zh) * | 2015-11-26 | 2018-06-08 | 南京工程学院 | 车载型疲劳驾驶检测与身份认证装置及其检测方法 |
-
2017
- 2017-03-14 JP JP2017048502A patent/JP6708152B2/ja active Active
- 2017-07-27 WO PCT/JP2017/027244 patent/WO2018167995A1/ja not_active Ceased
- 2017-07-27 CN CN201780084000.6A patent/CN110192224A/zh active Pending
- 2017-07-27 US US16/481,666 patent/US20190347499A1/en not_active Abandoned
- 2017-07-27 DE DE112017007237.9T patent/DE112017007237T5/de not_active Withdrawn
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1191397A (ja) * | 1997-09-22 | 1999-04-06 | Toyota Motor Corp | 自動走行車両制御装置 |
| JP2006213146A (ja) * | 2005-02-02 | 2006-08-17 | Toyota Motor Corp | 運転者の顔向き判定装置 |
| JP2007280374A (ja) * | 2006-03-14 | 2007-10-25 | Omron Corp | 情報処理装置および方法、記録媒体、並びに、プログラム |
| JP2010100142A (ja) * | 2008-10-22 | 2010-05-06 | Toyota Motor Corp | 車両デバイス制御装置 |
| JP2013141950A (ja) * | 2012-01-12 | 2013-07-22 | Denso Corp | 車両用衝突安全制御装置 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113247010A (zh) * | 2021-05-11 | 2021-08-13 | 上汽通用五菱汽车股份有限公司 | 巡航车速控制方法、车辆及计算机可读存储介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2018151930A (ja) | 2018-09-27 |
| DE112017007237T5 (de) | 2019-12-12 |
| CN110192224A (zh) | 2019-08-30 |
| JP6708152B2 (ja) | 2020-06-10 |
| US20190347499A1 (en) | 2019-11-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10455882B2 (en) | Method and system for providing rear collision warning within a helmet | |
| US10620000B2 (en) | Calibration apparatus, calibration method, and calibration program | |
| EP3033999B1 (en) | Apparatus and method for determining the state of a driver | |
| JP4899424B2 (ja) | 物体検出装置 | |
| JP6708152B2 (ja) | 運転者状態推定装置、及び運転者状態推定方法 | |
| EP3545818B1 (en) | Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program | |
| JP2008002838A (ja) | 車両乗員検出システム、作動装置制御システム、車両 | |
| US9202106B2 (en) | Eyelid detection device | |
| US20160224852A1 (en) | Vehicle operator monitoring system and method | |
| CN109145864A (zh) | 确定视线区域的方法、装置、存储介质和终端设备 | |
| US20210374443A1 (en) | Driver attention state estimation | |
| JP6479272B1 (ja) | 視線方向較正装置、視線方向較正方法および視線方向較正プログラム | |
| JP2007514211A (ja) | 深度データを用いたビジュアルトラッキング | |
| CN112611360B (zh) | 物体检测装置、车辆及物体检测处理方法 | |
| JP2011259152A (ja) | 運転支援装置 | |
| JP2009265722A (ja) | 顔向き検知装置 | |
| JP2009183473A (ja) | 視線方向検出装置及び視線方向検出方法 | |
| JP6737212B2 (ja) | 運転者状態推定装置、及び運転者状態推定方法 | |
| JP6669182B2 (ja) | 乗員監視装置 | |
| JP2005182452A (ja) | 顔の向き検知装置 | |
| JP7267467B2 (ja) | 注意方向判定装置および注意方向判定方法 | |
| JP2010067058A (ja) | 顔向き検出装置 | |
| US20220066551A1 (en) | Apparatus and method for obtaining facial information | |
| WO2018167997A1 (ja) | 運転者状態推定装置、及び運転者状態推定方法 | |
| JP7683546B2 (ja) | シートポジション推定装置、シートポジション推定方法及びシートポジション推定用コンピュータプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17901111 Country of ref document: EP Kind code of ref document: A1 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17901111 Country of ref document: EP Kind code of ref document: A1 |