[go: up one dir, main page]

WO2018092265A1 - 運転支援装置および運転支援方法 - Google Patents

運転支援装置および運転支援方法 Download PDF

Info

Publication number
WO2018092265A1
WO2018092265A1 PCT/JP2016/084255 JP2016084255W WO2018092265A1 WO 2018092265 A1 WO2018092265 A1 WO 2018092265A1 JP 2016084255 W JP2016084255 W JP 2016084255W WO 2018092265 A1 WO2018092265 A1 WO 2018092265A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
driver
driving
state
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/084255
Other languages
English (en)
French (fr)
Inventor
健太 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2018550961A priority Critical patent/JP6647423B2/ja
Priority to PCT/JP2016/084255 priority patent/WO2018092265A1/ja
Priority to CN201680090663.4A priority patent/CN109923597A/zh
Priority to DE112016007454.9T priority patent/DE112016007454T5/de
Priority to US16/338,603 priority patent/US11267461B2/en
Publication of WO2018092265A1 publication Critical patent/WO2018092265A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Definitions

  • the present invention relates to a driving support device for a vehicle, and more particularly to a driving support device that ensures the safety of the host vehicle based on information on other vehicles around the host vehicle.
  • Patent Document 1 discloses a driving support device that allows a driver to perform avoidance driving by assisting driving based on monitoring information of behavior of a rear vehicle.
  • a rear vehicle sensor monitors a rear vehicle traveling behind the host vehicle. Then, the performance determination processing ECU (Electronic Control Unit) estimates the driving mode of the rear vehicle according to the monitoring information of the rear inter-vehicle sensor, and evaluates the estimated driving mode based on a predetermined driving evaluation standard. And the technique in which a display speaker performs the alerting
  • the vehicle behind the vehicle is monitored, and the driving behavior of the vehicle behind the vehicle is notified to the driver of the vehicle based on the estimated driving mode, so that the avoidance action by the driver of the vehicle
  • a vehicle in a dangerous driving state such as a vehicle where the driver is asleep
  • the driver may not be able to cope with it calmly. It can't be said that it is possible to ensure safety.
  • the present invention has been made to solve the above-described problems, and driving assistance that can ensure the safety of the host vehicle even when the vehicle in a dangerous driving state is approaching the host vehicle.
  • An object is to provide an apparatus.
  • a driving support apparatus includes a rear driver state identifying unit that identifies a driving state of a driver of a rear vehicle based on a rear image captured by a rear camera that captures the rear of the host vehicle, and the rear image. Based on the surrounding image of the host vehicle including the surrounding state determination unit for determining the surrounding state of the host vehicle, the driving state identified by the rear driver state identification unit, and the surrounding state determination unit An automatic driving unit that controls automatic driving of the host vehicle based on a surrounding situation, and a communication unit that communicates with the outside, wherein the rear driver state identification unit is a face of the driver of the rear vehicle If the driving state is recognized by determining the direction and presence / absence of opening / closing of the eyes by pattern matching and determined to be a dangerous driving state, the vehicle is in a dangerous driving state via the communication unit. Notify When the rear driver state identification unit determines that the rear vehicle is in a dangerous driving state, the driving unit avoids a collision with the rear vehicle based on the peripheral state determined by the peripheral state
  • the driving support device can support driving so that the safety of the host vehicle can be reliably ensured even when a dangerously driven vehicle is approaching the host vehicle.
  • FIG. 1 is a block diagram showing a configuration of a driving support apparatus 100 according to an embodiment of the present invention.
  • the driving support device 100 is mounted on a vehicle OV, and includes an imaging signal processing unit 1, a backward driver state identification unit 2, a surrounding situation determination unit 3, an automatic driving unit 4, and a communication unit 5. .
  • the imaging signal processing unit 1 is imaged by a rear imaging camera C1 (rear camera), a front imaging camera C2 (front camera), a left side imaging camera C3 (left side camera), and a right side imaging camera C4 (right side camera).
  • An imaging signal is input, predetermined image processing is performed on the imaging signal, and processed image data is output.
  • the vehicle OV may be referred to as the host vehicle OV.
  • the rear driver state identification unit 2 receives the rear image data obtained by performing image processing on the rear image captured by the rear imaging camera C1 among the processed image data output by the imaging signal processing unit 1, and the rear image Based on the data, the presence / absence of the rear vehicle and the driving state (presence / absence of dangerous driving) of the driver of the rear vehicle are identified, and the identification result is output.
  • the surrounding situation determination unit 3 includes, in the processed image data output by the imaging signal processing unit 1, forward image data obtained by performing image processing on the front image captured by the front imaging camera C2, and the left-side imaging camera C3.
  • Left side image data obtained by performing image processing on the captured left side image, right side image data and rear image data obtained by performing image processing on the right side image captured by the right side imaging camera C4 are input, and these images are input.
  • the presence / absence of a vehicle around the host vehicle is determined, and the determination result is output.
  • the front image, the rear image, the left side image, and the right side image are referred to as peripheral images.
  • the automatic driving unit 4 is a part that controls the vehicle equipment 11 such as an accelerator, a brake, and a steering based on the identification result output by the rear driver state identification unit 2 and the determination result output by the surrounding situation determination unit 3. It corresponds to a so-called ADAS (Advanced Driving Assistant System) -ECU.
  • ADAS Advanced Driving Assistant System
  • the communication unit 5 is a part that communicates with an out-of-vehicle infrastructure device (communication base station or the like) and an out-of-vehicle device such as another vehicle.
  • FIG. 1 shows an example in which communication is performed with the communication unit 21 of the rear vehicle RV.
  • the rear vehicle RV has an in-vehicle sensing system 22 such as an in-vehicle camera, and the driving state of the driver of the rear vehicle RV can be determined by the in-vehicle sensing system 22.
  • the in-vehicle sensing system 22 is configured to exchange data with the communication unit 21.
  • the main configuration of the driving support apparatus 100 other than the communication unit 5 can be configured using a computer, and each of these configurations is realized by the computer executing a program. That is, in the driving support apparatus 100 shown in FIG. 1, the imaging signal processing unit 1, the rear driver state identification unit 2, the surrounding situation determination unit 3, and the automatic driving unit 4 are realized by the processing circuit 10 shown in FIG. 2, for example.
  • the A processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor) is applied to the processing circuit 10, and the functions of the above-described components are realized by executing programs stored in a storage device.
  • the processing circuit 10 corresponds to, for example, a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, an ASIC, an FPGA, or a combination thereof. To do.
  • each component (the imaging signal processing unit 1, the rear driver state identification unit 2, the surrounding situation determination unit 3, and the automatic driving unit 4) of the driving support device 100 illustrated in FIG. 1 uses a processor.
  • the hardware configuration in the case of being configured is shown.
  • the function of each component of the driving support device 100 is realized by a combination of software and the like (software, firmware, or software and firmware).
  • Software or the like is described as a program and stored in the memory 112 (storage device).
  • the processor 111 functioning as the processing circuit 10 implements the functions of the respective units by reading and executing the program stored in the memory 112.
  • FIG. 4 is a diagram schematically showing an example of attachment positions of the rear imaging camera C1, the front imaging camera C2, the left side imaging camera C3, and the right side imaging camera C4 attached to the host vehicle OV.
  • the rear imaging camera C1, the front imaging camera C2, the left side imaging camera C3, and the right side imaging camera C4 can capture images of the rear, front, left side, and right side of the host vehicle OV, respectively.
  • the rear imaging camera C1 is attached at a position where the driver of the rear vehicle can take an image.
  • the front imaging camera C2 is attached to a place where a certain angle range ahead of the host vehicle OV can be imaged, and the left side imaging camera C3 and the right side imaging camera C4 are located at positions where the left and right lanes can be imaged. It is attached.
  • these cameras are shown to be attached to the outside of the vehicle, but this is a convenient expression and may be attached inside the vehicle or inside the wall surface of the vehicle body. It may be attached anywhere as long as it satisfies the above imaging range.
  • the image signal of the acquired image is input to the imaging signal processing unit 1, subjected to predetermined image processing in the imaging signal processing unit 1, and output to the rear driver state identification unit 2 as processed image data.
  • the rear driver state identification unit 2 uses the processed image data to identify the presence / absence of the rear vehicle RV and the driving state of the driver of the rear vehicle RV by pattern matching (step S2).
  • the rear vehicle When the driving state of the driver of the rear vehicle RV is identified as a dangerous driving state such as a snoozing driving, the rear vehicle is notified via the communication unit 5 that it is a dangerous driving state (step S3).
  • the communication unit 5 may notify the identification result by inter-vehicle communication that directly communicates with the communication unit 21 of the rear vehicle, or via a communication network device via an infrastructure device (communication base station or the like) outside the vehicle.
  • the identification result may be notified by road-to-vehicle communication.
  • the rear driver state identification unit 2 determines whether or not the rear vehicle RV has a function of in-vehicle sensing (step S4).
  • the in-vehicle sensing function is, for example, imaging the driver's face with an in-vehicle camera, detecting the open / closed state of the eyes, the movement of the pupil, the moving state of the viewpoint, etc., and detecting the driving state of the driver.
  • it is a function that gives a warning to the driver by voice, vibration or the like.
  • step S5 When the rear vehicle RV has an in-vehicle sensing system as an in-vehicle system, the identification result of the driver's state identified by the own vehicle OV and the determination by the in-vehicle sensing system acquired from the rear vehicle RV via the communication unit 5 The result is integrated (step S5).
  • the integration is a process of determining which one to adopt by associating the state of the driver identified by the host vehicle OV with the state of the driver included in the determination result of the in-vehicle sensing system. For example, even if the state of the driver identified by the host vehicle OV is a nap, if the determination result in the in-vehicle sensing system is not a nap, it is not a nap. In addition, when the driver's state identified by the own vehicle OV is falling asleep and the determination result in the in-vehicle sensing system is an aside look, the more accurate determination result in the in-vehicle sensing system is adopted, such as a side look. .
  • step S4 If it is determined in step S4 that the rear vehicle RV does not have an in-vehicle sensing function, the process proceeds to step S6.
  • the determination as to whether or not the rear vehicle RV has the in-vehicle sensing function is made by notifying that the vehicle is in a dangerous driving state. In response to this, both the reception signal from the rear vehicle RV and the determination result in the in-vehicle sensing are transmitted. If not, it can be determined that the rear vehicle RV has no in-vehicle sensing function.
  • the determination result in the in-vehicle sensing is transmitted from the rear vehicle RV via the communication unit 5, and thus has an in-vehicle sensing function. Can be judged.
  • step S4 it may be determined whether or not the rear vehicle RV in step S4 has an in-vehicle sensing function without performing the notification in step S3.
  • the determination as to whether or not the rear vehicle RV has the in-vehicle sensing function is made by transmitting a signal requesting the result of in-vehicle sensing to the rear vehicle RV via the communication unit 5, and from the rear vehicle RV.
  • a reception signal nor a determination result in in-vehicle sensing it can be determined that the rear vehicle RV does not have an in-vehicle sensing function.
  • the rear driver state identification unit 2 finally determines whether the driving state of the driver is a dangerous driving state such as a nap driving or a side-by-side driving based on the integration result (step S6).
  • the accuracy can be further increased.
  • step S6 If it is determined in step S6 that the driving state of the driver of the rear vehicle RV is a dangerous driving state, the rear driver state identification unit 2 notifies the rear vehicle RV via the communication unit 5 and A warning is also notified to the driver of the car (step S7). If it is determined in step S6 that the driving state of the driver of the rear vehicle RV is not in a dangerous driving state, the processing from step S1 is repeated.
  • the rear driver state identification unit 2 determines the driver's driving state based on the driving state of the driver of the rear vehicle RV that the rear vehicle RV has identified. A final determination is made as to whether or not the vehicle is in a dangerous driving state such as a snooze driving or a side-by-side driving. Even if the rear vehicle RV does not have an in-vehicle sensing function, if the rear vehicle RV has an automatic driving device, the automatic driving device is notified by notifying the rear vehicle RV of a warning. In response to this, it is possible to take a countermeasure such as executing an automatic driving.
  • FIG. 6 is a schematic diagram showing a warning notification example in the rear vehicle RV, and a warning display for warning that the vehicle is in a dangerous driving state on the superimposed display portion DP1 provided in a part of the windshield FG of the rear vehicle RV. Is displayed as a pop-up, and a warning is given by voice or alarm. Also, a warning by vibrating the driver's seat, steering wheel, etc. is possible.
  • the rear vehicle RV has an in-vehicle sensing function
  • the driver's face and the like are imaged by the in-vehicle camera CC of the rear vehicle RV, and the in-vehicle sensing system notifies the warning by the method described above. Since it is configured, it is possible to notify the determination result in step S6 in the rear vehicle RV by cooperating with the in-vehicle sensing system.
  • FIG. 7 is a schematic diagram illustrating an example of warning notification in the host vehicle OV.
  • a superimposed display portion DP0 provided in a part of the windshield FG of the host vehicle OV indicates that the rear vehicle is in a dangerous driving state.
  • a warning display will pop up.
  • step S5 it is necessary to construct a system that can exchange data between the in-vehicle sensing system of the rear vehicle RV and the driving support device 100 of the host vehicle OV.
  • a system can be constructed between vehicles of automobile manufacturers or between vehicles having an automatic driving device of a unified standard.
  • the rear driver state identifying unit 2 measures the inter-vehicle distance between the rear vehicle RV and the host vehicle OV (step S8).
  • the inter-vehicle distance is based on the processed image data of the rear vehicle RV, using a table or the like indicating the relationship between the position of the rear vehicle RV in the coordinate system on the image and the position on the coordinate system and the relative distance prepared in advance. Thus, it can be measured by obtaining a relative distance from the rear vehicle RV. If the relative distance is known, the relative speed with respect to the rear vehicle RV can be obtained from the time change.
  • the technique for obtaining the relative distance using image data is a well-known technique.
  • step S8 the surrounding situation determination unit 3 checks whether there is a free space around the host vehicle.
  • This processing includes front image data obtained by performing image processing on the forward image captured by the front imaging camera C2, left side image data obtained by performing image processing on the left side image captured by the left side imaging camera C3, and right side This is executed by determining the presence or absence of vehicles around the host vehicle based on right side image data and rear image data obtained by performing image processing on the right side image captured by the imaging camera C4.
  • the presence of the front vehicle, the left side vehicle, the right side vehicle, and the rear vehicle is confirmed by pattern matching. If there is a direction in which the vehicle does not exist among the front, left side, and right side of the OV, it is determined that there is an empty space there, and if there is a vehicle in any direction, it will be around the host vehicle OV. Judge that there is no free space. The determination result is given to the automatic operation unit 4.
  • FIG. 8 shows a state where there is no empty space around the host vehicle OV.
  • the front imaging camera C2 and the right side imaging camera C4 respectively capture the front vehicle FV and the right side vehicle SV, and from the rear.
  • a state in which the rear vehicle RV is approaching is shown.
  • the vehicle is not imaged by the left side imaging camera C3, the left side is a road shoulder and a guardrail or the like is imaged. Therefore, the surrounding situation determination unit 3 has no free space as a guardrail is present by pattern matching.
  • FIG. 9 shows a state in which a shelter space is provided on the left side of the road. Since neither the vehicle nor the guardrail is imaged on the left side imaging camera C3, the surrounding situation determination unit 3 has an empty space. Judge that.
  • the rear driver state identification unit 2 determines the possibility of a collision with the rear vehicle RV (step S9) and collides. If there is a possibility, a warning is sent to the rear vehicle RV via the communication unit 5 and a warning is also sent to the driver of the host vehicle OV (step S10). The determination result is also given to the automatic operation unit 4.
  • a table of the possibility of a collision with respect to the combination of the inter-vehicle distance and the relative speed is prepared in advance, and the possibility of the collision is determined by referring to the table. Judgment can be made. By determining the possibility of a collision based on the inter-vehicle distance and the relative speed, the determination accuracy can be increased.
  • the rear driver state identification unit 2 may determine the possibility of a collision with the rear vehicle RV based only on the inter-vehicle distance between the rear vehicle RV and the host vehicle OV.
  • step S9 If it is determined in step S9 that there is no possibility of a collision with the rear vehicle RV, the process from step S2 is repeated, and if it is determined that there is a possibility of a collision with the rear vehicle RV, the automatic driving unit 4 In step S8, it is determined whether or not the result of the confirmation in step S8 is that there is an empty space around the host vehicle OV (step S11). It is moved by automatic driving (step S12) to avoid a collision with the rear vehicle RV.
  • the speed of the host vehicle OV is increased, and the inter-vehicle distance with the rear vehicle RV is set to an optimum distance, for example, a recommended inter-vehicle distance according to the vehicle speed.
  • Autonomous driving to spread and maintain it.
  • the host vehicle OV is moved (retracted) to the side space to avoid a collision with the rear vehicle RV.
  • step S11 if it is determined in step S11 that the result of the confirmation in step S8 is that there is no free space around the host vehicle OV, the rear driver state identification unit 2 communicates that it is an emergency situation.
  • the rear vehicle RV is notified via the unit 5. If the rear vehicle RV has an automatic driving device, when it is notified that it is an emergency, the automatic driving device is forcibly activated and the inter-vehicle distance between the host vehicle OV and the rear vehicle RV The rear vehicle RV is controlled to automatically decelerate so as to maintain or spread the vehicle (step S13), and a collision with the host vehicle OV is avoided. Such an operation can reliably avoid a collision even when there is no empty space around the host vehicle OV.
  • a control system such as that described above can be built between vehicles of the same automobile manufacturer, or between vehicles having a standardized automatic driving device.
  • the automatic driving unit 4 of the host vehicle OV warns the driver that it is an emergency, cancels the automatic driving, and avoids the driver's avoidance operation. Thus, a collision with the rear vehicle RV may be avoided.
  • the automatic driving device when the rear vehicle RV has an automatic driving device at the stage where a warning is given to the rear vehicle RV in step S10, the automatic driving device is forcibly activated, and the host vehicle OV and the rear vehicle RV are forcibly started.
  • the rear vehicle RV may be controlled to automatically decelerate so as to maintain or increase the inter-vehicle distance between the vehicle and the vehicle.
  • the image behind the host vehicle OV imaged by the rear imaging camera C1 is subjected to predetermined image processing on a certain area in the imaging signal processing unit 1 (step S21).
  • the fixed area is used for shortening the processing time in the imaging signal processing unit 1 accompanying the image processing. If the processing speed is sufficiently high, the entire area of the rear image may be subjected to image processing. .
  • region the center part of the back image with high possibility that the back vehicle RV exists is mentioned.
  • This image processing includes processing for performing edge detection of the captured image and simplifying and extracting the characteristics of the captured image.
  • Edge detection of a captured image is a conventional technique. For example, an edge image can be obtained by detecting an edge by first-order differentiation of an input image using a Sobel filter. Also, edge detection using the same first derivative includes edge detection using a Prewitt filter, and edge detection using a second derivative includes edge detection using a Laplacian filter. Is also a well-known technique.
  • the image data of the edge image is output to the rear driver state identification unit 2 as processed image data.
  • the rear driver state identification unit 2 first checks the presence or absence of the rear vehicle RV by pattern matching using the edge image (step S22).
  • the edge image of the captured image created by edge detection is feature information of various vehicles (contours of the front part of the vehicle) held (stored) in advance in the driving support device 100 or a predetermined storage device (not shown) of the vehicle. If there is a vehicle with a matching pattern, it is determined that there is a rear vehicle RV, and the process proceeds to step S23. On the other hand, if the edge image of the captured image does not match the feature information of any vehicle, it is determined that the rear vehicle RV does not exist, and the processing from step S21 is repeated.
  • the edge image P1 of the rear vehicle RV is indicated by a broken line. If there is a vehicle having feature information whose pattern matches the edge image P1, it is determined that the rear vehicle RV exists.
  • step S23 After confirming that the rear vehicle RV is present in step S22, the presence or absence of a human shape, for example, the upper body, in the edge image of the captured image is confirmed (step S23).
  • a human shape for example, the upper body
  • pattern matching using an edge image is used.
  • efficient processing is possible by using template matching that searches for a specific image called a template. That is, since the upper body of a person is represented by a simple shape such as a head and a chest, it is easy to prepare a template in advance, and it is easy to specify by using the template.
  • the template matching similarity calculation method includes the SSD (Sum of Squared Difference) method, which uses the sum of the squares of the pixel values of the target image and the template, and the normalized cross-correlation of images.
  • SSD Sud of Squared Difference
  • NCC Normalized Cross-Correlation
  • ZNCC Zero-mean Normalized Cross-Correlation
  • step S23 If the upper body of the person is not confirmed in step S23, the processing from step S21 is repeated, and if the upper body of the person is confirmed, the process proceeds to step S24.
  • step S24 the presence or absence of the person's face is confirmed in the edge image of the upper body of the person confirmed in step S23.
  • efficient processing is possible by using template matching.
  • the human face is represented by the contour shape of the head and the contour shape of the eyes, nose, and mouth, and since the individual difference is small if it is an approximate arrangement and approximate shape, it is easy to prepare a template in advance It is easy to specify by using a template.
  • the edge image P2 of the driver's face of the rear vehicle RV is indicated by a broken line, and the presence or absence of a human face can be easily confirmed by using a template whose pattern matches the edge image P2. be able to.
  • step S24 If the face of the person is not confirmed in step S24, the process from step S21 is repeated, and if the face of the person is confirmed, the process proceeds to step S25.
  • step S25 it is confirmed whether the face of the person confirmed in step S24 is facing forward for a predetermined time, for example, 3 seconds.
  • a predetermined time for example, 3 seconds.
  • template matching is used, and if the template (the template in front of the human face) and the face edge image match, it is determined that the template is facing forward, and the template and the face edge image are If they do not match, it is determined that they are not facing forward. Accordingly, if the time that the template and the edge image of the face match continues for 3 seconds or more, it is determined that the template faces forward for 3 seconds.
  • step S25 if it is determined that the person's face is not facing forward for a certain time, it is determined that the driver is looking aside.
  • FIG. 13 is a diagram illustrating an example of a state in which a person's face is not facing forward for a certain period of time, and a case of looking aside or a case of falling asleep is considered. If it is determined in step S25 that the human face is facing forward for a certain time, the process proceeds to step S26.
  • step S26 the eye portion data in the edge image of the human face confirmed in step S24 is extracted.
  • This data may be data having an accuracy sufficient to determine whether the eyes are closed or open.
  • step S27 it is confirmed whether the eyes are closed for a certain time, for example, 3 seconds. In this case as well, template matching is used, and if the template (closed eye template) matches the edge image of the eye portion extracted in step S26, it is determined that the eye is closed.
  • step S27 if it is determined that the eyes are closed for a certain time, it is determined that the driver is asleep. If it is determined in step S27 that the eyes have not been closed for a certain period of time, the processing from step S21 is repeated.
  • the driver of the rear vehicle RV is photographed from the own vehicle OV, and it is determined whether the driving is dangerous by determining the driving state, and is determined to be dangerous driving. In such a case, since the avoidance action is taken by automatic driving, the safety of the host vehicle can be reliably ensured even when the rear vehicle RV is performing dangerous driving.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Emergency Management (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本発明は運転支援装置に関する。自車両の後方画像に基づいて、後方車両の運転者の運転状態を識別する後方運転者状態識別部と、後方画像を含む自車両の周囲画像に基づいて、自車両の周辺状況を判断する周辺状況判断部と、後方運転者状態識別部で識別された運転状態および周辺状況判断部で判断された周辺状況に基づいて自車両の自動運転を制御する自動運転部と、外部との通信を行う通信部とを備え、後方運転者状態識別部は、後方車両の運転者の顔の向き、目の開閉の有無をパターンマッチングで判定することで運転状態を認識し、危険運転状態と判断される場合は、通信部を介して、後方車両に危険運転状態であることを通知し、自動運転部は、後方車両が危険運転状態と判断された場合は、周辺状況判断部で判断された周辺状況に基づいて、後方車両との衝突を回避するように自動運転を制御する。

Description

運転支援装置および運転支援方法
 本発明は車両の運転支援装置に関し、特に、自車両の周辺の他車両の情報に基づいて、自車両の安全を確保する運転支援装置に関する。
 特許文献1には、後方車両の挙動の監視情報に基づいて運転の支援をすることによって運転者が回避運転をすることができる運転支援装置が開示されている。
 すなわち、後方車間センサが自車の後方を走行する後方車両を監視する。そして、パフォーマンス判定処理ECU(Electronic Control Unit)が、後方車間センサの監視情報に従い、後方車両の運転態様を推定し、推定された運転態様を所定の運転評価基準に基づき評価する。そして、ディスプレイ・スピーカが、パフォーマンス判定処理ECUの評価結果に応じた報知動作を自車両の運転者に対して実行する技術が開示されている。
特開2006-293531号公報
 特許文献1の運転支援装置では、後方車両を監視し、推定された運転態様に基づいて自車両の運転者に対して後方車両の運転パフォーマンスを報知することで、自車両の運転者による回避行動を助けることができるが、危険運転状態の車両、例えば、運転者が居眠りしている車両が自車に近づいているような場合、運転者が冷静に対処できるとは限らず、確実に自車両の安全を確保することができるとは言えない。
 本発明は上記のような問題を解決するためになされたものであり、危険運転状態の車両が自車に近づいているような場合でも、確実に自車両の安全を確保することができる運転支援装置を提供することを目的とする。
 本発明に係る運転支援装置は、自車両の後方を撮像する後方カメラで撮像された後方画像に基づいて、後方車両の運転者の運転状態を識別する後方運転者状態識別部と、前記後方画像を含む前記自車両の周囲画像に基づいて、前記自車両の周辺状況を判断する周辺状況判断部と、前記後方運転者状態識別部で識別された運転状態および前記周辺状況判断部で判断された周辺状況に基づいて前記自車両の自動運転を制御する自動運転部と、外部との通信を行う通信部と、を備え、前記後方運転者状態識別部は、前記後方車両の前記運転者の顔の向き、目の開閉の有無をパターンマッチングで判定することで運転状態を認識し、危険運転状態と判断される場合は、前記通信部を介して、前記後方車両に危険運転状態であることを通知し、前記自動運転部は、前記後方運転者状態識別部で前記後方車両が危険運転状態と判断された場合は、前記周辺状況判断部で判断された周辺状況に基づいて、前記後方車両との衝突を回避するように自動運転を制御する。
 本発明に係る運転支援装置によれば、危険運転状態の車両が自車に近づいているような場合でも、確実に自車両の安全を確保できるように運転を支援することができる。
本発明に係る実施の形態の運転支援装置の構成を示すブロック図である。 本発明に係る実施の形態の運転支援装置のハードウェア構成を示すブロック図である。 本発明に係る実施の形態の運転支援装置のハードウェア構成を示すブロック図である。 各カメラの取り付け位置の例を模式的に示す図である。 本発明に係る実施の形態の運転支援装置の処理フローを説明するフローチャートである。 後方車両における警告の報知例を示す模式図である。 自車両における警告の報知例を示す模式図である。 自車両周辺の空きスペースの確認動作を説明する図である。 自車両周辺の空きスペースの確認動作を説明する図である。 後方車両の運転者識別の処理フローを説明するフローチャートである。 後方車両の有無を確認するパターンマッチングを説明する図である。 後方車両の運転者の顔の有無を確認するパターンマッチングを説明する図である。 後方車両の運転者の顔の向きを確認するパターンマッチングを説明する図である。
 <実施の形態1>
  <装置構成>
 図1は、本発明に係る実施の形態の運転支援装置100の構成を示すブロック図である。図1に示すように運転支援装置100は、車両OVに搭載され、撮像信号処理部1、後方運転者状態識別部2、周辺状況判断部3、自動運転部4および通信部5を備えている。
 撮像信号処理部1は、後方撮像カメラC1(後方カメラ)、前方撮像カメラC2(前方カメラ)、左側方撮像カメラC3(左側方カメラ)および右側方撮像カメラC4(右側方カメラ)によって撮像された撮像信号が入力され、撮像信号に所定の画像処理を施して処理済み画像データを出力する。なお、以後の説明においては、車両OVを自車両OVと呼称する場合もある。
 後方運転者状態識別部2は、撮像信号処理部1が出力する処理済み画像データのうち、後方撮像カメラC1で撮像された後方画像に画像処理を施した後方画像データが入力され、当該後方画像データに基づいて、後方車両の有無、後方車両の運転者の運転状態(危険運転の有無等)を識別し、識別結果を出力する。
 また、周辺状況判断部3は、撮像信号処理部1が出力する処理済み画像データのうち、前方撮像カメラC2で撮像された前方画像に画像処理を施した前方画像データ、左側方撮像カメラC3で撮像された左側方画像に画像処理を施した左側方画像データ、右側方撮像カメラC4で撮像された右側方画像に画像処理を施した右側方画像データおよび後方画像データが入力され、これらの画像データに基づいて、自車両の周辺の車両の有無等を判断し、判断結果を出力する。なお、前方画像、後方画像、左側方画像および右側方画像を周辺画像と呼称する。
 自動運転部4は、後方運転者状態識別部2が出力する識別結果および周辺状況判断部3が出力する判断結果に基づいて、アクセル、ブレーキ、ステアリングなどの車両機器11を制御する部位であり、いわゆるADAS(Advanced Driving Assistant System)-ECUに相当する。
 通信部5は、車外のインフラ機器(通信基地局等)および他車両などの車外機器と通信を行う部位であり、図1では、後方車両RVの通信部21と通信を行う例を示している。なお、図1では、後方車両RVが、車内カメラなどの車内センシングシステム22を有しており、車内センシングシステム22によって後方車両RVの運転者の運転状況を判断できる構成となっている。また、車内センシングシステム22は、通信部21との間でデータの授受を行う構成となっている。
 通信部5以外の運転支援装置100の主たる構成はコンピュータを用いて構成することができ、これらの各構成はコンピュータがプログラムを実行することで実現される。すなわち、図1に示した運転支援装置100のうち撮像信号処理部1、後方運転者状態識別部2、周辺状況判断部3および自動運転部4は、例えば図2に示す処理回路10により実現される。処理回路10には、CPU(Central Processing Unit)、DSP(Digital Signal Processor)などのプロセッサが適用され、記憶装置に格納されるプログラムを実行することで上記各構成の機能が実現される。
 なお、処理回路10には、専用のハードウェアが適用されても良い。処理回路10が専用のハードウェアである場合、処理回路10は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものなどが該当する。
 また、図3には、図1に示した運転支援装置100の各構成(撮像信号処理部1、後方運転者状態識別部2、周辺状況判断部3および自動運転部4)がプロセッサを用いて構成されている場合におけるハードウェア構成を示している。この場合、運転支援装置100の各構成の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリ112(記憶装置)に格納される。処理回路10として機能するプロセッサ111は、メモリ112に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。
 図4は、自車両OVに取り付けられた後方撮像カメラC1、前方撮像カメラC2、左側方撮像カメラC3および右側方撮像カメラC4の取り付け位置の例を模式的に示す図である。図4に示されるように、後方撮像カメラC1、前方撮像カメラC2、左側方撮像カメラC3および右側方撮像カメラC4は、それぞれ自車両OVの後方、前方、左側方および右側方を撮像できるように取り付けられ、後方撮像カメラC1は後方車両の運転者が撮像できる位置に取り付けられる。また、前方撮像カメラC2は、自車両OVの前方の一定角度範囲を撮像できる場所に取り付けられ、左側方撮像カメラC3および右側方撮像カメラC4は、それぞれの左側および右側の車線が撮像できる位置に取り付けられる。なお、図4では、これらのカメラは車両外部に取り付けられるように示されているが、これは便宜的な表現であり、車両内部に取り付けても良く、車体の壁面内に取り付けても良い。上述した撮像範囲を満たす場所ならば、どこに取り付けても良い。
  <動作>
 次に、図5に示すフローチャートを用いて、図1を参照しつつ運転支援装置100の処理フローを説明する。
 運転支援装置100を作動させると、運転支援装置100の動作フローの適用が開始され、後方撮像カメラC1で自車両OVの後方の画像を取得する(ステップ1)。
 取得した画像の画像信号は撮像信号処理部1に入力され、撮像信号処理部1において所定の画像処理が施され、処理済み画像データとして後方運転者状態識別部2に出力される。後方運転者状態識別部2では、処理済み画像データを用いて、パターンマッチングにより後方車両RVの有無、後方車両RVの運転者の運転状態を識別する(ステップS2)。
 そして、後方車両RVの運転者の運転状態が居眠り運転などの危険運転状態であると識別される場合は、危険運転状態である旨を通信部5を介して後方車両に通知する(ステップS3)。このとき、通信部5は後方車両の通信部21と直接通信を行う車車間通信により識別結果を通知しても良いし、車外のインフラ機器(通信基地局等)を介して通信ネットワーク装置を経由して通知する、路車間通信により識別結果を通知しても良い。
 そして、後方運転者状態識別部2では、後方車両RVに車内センシングの機能が備わっているか否かを判断する(ステップS4)。車内センシングの機能とは、例えば、車内カメラで運転者の顔などを撮像し、目の開閉状態、瞳の動き、視点の移動状態などを検出して、運転者の運転状態を検出し、例えば居眠り運転と判断すると、音声、振動などで運転者に警告を与えるような機能である。後方車両RVに車内システムとして車内センシングシステムが備わっている場合は、自車両OVで識別した運転者の状態の識別結果と、後方車両RVから通信部5を介して取得した車内センシングシステムでの判断結果とを統合する(ステップS5)。
 ここで、統合とは、自車両OVで識別した運転者の状態と、車内センシングシステムでの判断結果に含まれる運転者の状態とを付き合わせて、何れを採用するかを決める処理である。例えば、自車両OVで識別した運転者の状態が居眠りとされていても、車内センシングシステムでの判断結果が居眠りとはされていない場合は、居眠りとはしない。また、自車両OVで識別した運転者の状態が居眠りで、車内センシングシステムでの判断結果が脇見である場合は、脇見とするなど、より精度の高い、車内センシングシステムでの判断結果を採用する。
 なお、ステップS4で後方車両RVに車内センシングの機能が備わっていないと判断される場合はステップS6の処理に進む。
 後方車両RVに車内センシングの機能が備わっているか否かの判断は、危険運転状態である旨を通知することで、それに対して後方車両RVから受領信号も、車内センシングでの判断結果も送信されて来ない場合は、後方車両RVには車内センシングの機能が備わっていないものと判断することができる。
 一方、後方車両RVに車内センシングの機能が備わっている場合は後方車両RVから、車内センシングでの判断結果が通信部5を介して送信されて来るので、それをもって車内センシングの機能が備わっているものと判断することができる。
 なお、ステップS3の通知を行わずに、ステップS4の後方車両RVに車内センシングの機能が備わっているか否かの判断を行うようにしても良い。その場合、後方車両RVに車内センシングの機能が備わっているか否かの判断は、後方車両RVに車内センシングの結果を要求する信号を通信部5を介して送信し、それに対して後方車両RVから受領信号も、車内センシングでの判断結果も送信されて来ない場合は、後方車両RVには車内センシングの機能が備わっていないものと判断することができる。
 後方運転者状態識別部2では統合結果に基づいて、運転者の運転状態が、居眠り運転および脇見運転などの危険運転状態であるかを最終判断する(ステップS6)。
 自車両OVで識別した運転者の状態と、車内センシングシステムでの判断結果に含まれる運転者の状態との統合結果に基づいて後方車両RVの運転者の運転状態を判断することで、判断の精度をより高めることができる。
 ステップS6において後方車両RVの運転者の運転状態が危険運転状態であると判断された場合は、後方運転者状態識別部2は通信部5を介して後方車両RVに警告を通知すると共に、自車の運転者に対しても警告を通知する(ステップS7)。なお、ステップS6において後方車両RVの運転者の運転状態が危険運転状態ではないと判断された場合は、ステップS1以下の処理を繰り返す。
 なお、後方車両RVに車内センシングの機能が備わっていない場合は、後方運転者状態識別部2では、自らが識別した後方車両RVの運転者の運転状態に基づいて、運転者の運転状態が、居眠り運転および脇見運転などの危険運転状態であるかを最終判断し、危険運転状態である場合は、自車の運転車に対して警告を通知する(ステップS7)。なお、後方車両RVに車内センシングの機能が備わっていない場合であっても、後方車両RVが自動運転装置を有している場合は、後方車両RVに警告を通知することで、自動運転装置がそれを受けて、自動運転を実行するなどの対応を採るように構成することは可能である。
 ここで、警告の態様の一例を図6および図7を用いて説明する。図6は、後方車両RVにおける警告の報知例を示す模式図であり、後方車両RVのフロントガラスFGの一部に設けられた重畳表示部DP1に、危険運転状態であることを警告する警告表示がポップアップ表示されると共に、音声、警報による警告もなされる。また、運転席、ハンドルなどを振動させることによる警告も可能である。なお、後方車両RVに車内センシングの機能が備わっている場合は、後方車両RVの車内カメラCCで運転者の顔などを撮像して、車内センシングシステムが上記警告を上記のような方法で報知する構成となっているので、車内センシングシステムと連携させることで、ステップS6での判断結果を後方車両RV内で報知させることも可能となる。
 また、図7は、自車両OVにおける警告の報知例を示す模式図であり、自車両OVのフロントガラスFGの一部に設けられた重畳表示部DP0に、後方車両が危険運転状態であることを警告する警告表示がポップアップ表示される。自車両OVにおいて後方車両が危険運転状態であることを報知することで、自車両OVの運転者に危険を認識させ、対応を準備する時間を与えることができる。
 なお、フロントガラスに画像を重畳表示する技術は公知であり、プロジェクタを用いて投影画像を重畳表示する技術が広く知られている。
 ステップS5の処理を行うには、後方車両RVの車内センシングシステムと、自車両OVの運転支援装置100との間でのデータの授受が可能なシステムが構築されている必要があり、例えば、同じ自動車メーカの車両どうし、または、統一された規格の自動運転装置を有する車両どうしであればシステムの構築が可能である。
 ステップS7において、後方車両RVおよび自車両OVの運転者に警告を通知した後は、後方運転者状態識別部2は、後方車両RVと自車両OVとの車間距離を測定する(ステップS8)。車間距離は、後方車両RVの処理済み画像データに基づいて、画像上の座標系おける後方車両RVの位置と、予め準備した上記座標系上の位置と相対距離との関係を示すテーブル等を用いて、後方車両RVとの相対距離を求めることで測定することができる。相対距離が判れば、その時間変化から後方車両RVとの相対速度を求めることもできる。なお、画像データを用いて相対距離を求める技術は周知技術である。
 また、ステップS8では、周辺状況判断部3が自車両の周辺に周辺の空きスペースがあるかどうかを確認する。この処理は、前方撮像カメラC2で撮像された前方撮像に画像処理を施した前方画像データ、左側方撮像カメラC3で撮像されたに左側方画像に画像処理を施した左側方画像データ、右側方撮像カメラC4で撮像された右側方画像に画像処理を施した右側方画像データおよび後方画像データに基づいて、自車両の周辺の車両の有無等を判断することで実行される。
 すなわち、前方画像データ、左側方画像データ、右側方画像データおよび後方画像データに基づいて、パターンマッチングにより、前方車両、左側方車両、右側方車両および後方車両の存在の有無を確認し、自車両OVの前方、左側方および右側方のうち、車両が存在しない方向があれば、そこに空きスペースがあるものと判断し、何れの方向にも車両が存在する場合は、自車両OVの周辺に空きスペースがないものと判断する。なお、判断結果は自動運転部4に与えられる。
 ここで、図8および図9を用いて、自車両OVの周辺の空きスペースの確認動作についてさらに説明する。図8は、自車両OVの周辺に空きスペースがない状態を示しており、前方撮像カメラC2および右側方撮像カメラC4では、それぞれ前方車両FVおよび右側方車両SVが撮像されており、後方からは後方車両RVが接近している状態を示している。左側方撮像カメラC3には車両は撮像されていないが、左側は路肩であり、ガードレール等が撮像されているので、周辺状況判断部3は、パターンマッチングによりガードレールが存在するものとして空きスペースがないと判断する。
 図9は、道路の左側に待避スペースが設けられている状態を示しており、左側方撮像カメラC3には車両もガードレール等も撮像されていないので、周辺状況判断部3は、空きスペースがあるものと判断する。
 ステップS8で測定した後方車両RVと自車両OVとの車間距離および相対速度に基づいて、後方運転者状態識別部2は後方車両RVとの衝突の可能性を判断し(ステップS9)、衝突する可能性があればその旨を通信部5を介して後方車両RVに警告を通知すると共に、自車両OVの運転者に対しても警告を通知する(ステップS10)。また、判断結果は自動運転部4にも与えられる。
 なお、後方車両RVとの衝突の可能性の判断については、車間距離および相対速度の組み合わせに対する衝突の可能性のテーブルを予め準備しておき、当該テーブルを参照することで、衝突の可能性を判断することができる。車間距離および相対速度に基づいて衝突の可能性を判断することで、判断精度を高めることができる。
 なお、後方運転者状態識別部2は、後方車両RVと自車両OVとの間の車間距離だけに基づいて後方車両RVとの衝突の可能性を判断しても良い。
 ステップS9において後方車両RVとの衝突の可能性がないと判断される場合はステップS2以下の処理を繰り返し、後方車両RVとの衝突の可能性があると判断される場合は、自動運転部4において、ステップS8での確認の結果が、自車両OVの周辺に空きスペースがあるとの結果であるか否かを判断し(ステップS11)、空きスペースがある場合は、そこに自車両OVを自動運転により移動させ(ステップS12)、後方車両RVとの衝突を回避する。
 例えば、自車両OVの前方に空きスペースがあった場合、自車両OVの速度を上げ、後方車両RVとの車間距離を、最適な距離、例えば、車両の速度に応じて推奨される車間距離にまで広げ、それを維持するように自動運転する。また、側方に空きスペースがあった場合、例えば隣の車線が空いているような場合は、自車両OVを側方のスペースに移動(退避)させ、後方車両RVとの衝突を回避する。この動作により、危険運転状態の後方車両が接近して来る場合でも、自動運転により確実に衝突を回避できる。
 一方、ステップS11において、ステップS8での確認の結果が自車両OVの周辺に空きスペースがないとの結果であると判断された場合、後方運転者状態識別部2は緊急事態である旨を通信部5を介して後方車両RVに通知する。後方車両RVが自動運転装置を有していれば、緊急事態である旨が通知された場合は、自動運転装置が強制的に起動して、自車両OVと後方車両RVとの間の車間距離を維持または広げるように後方車両RVを自動で減速するように制御し(ステップS13)、自車両OVとの衝突を回避する。このような動作により、自車両OVの周辺に空きスペースがない場合でも、確実に衝突を回避できる。
 上述したような制御システムは、同じ自動車メーカの車両どうし、または、統一された規格の自動運転装置を有する車両どうしであればシステムの構築が可能である。
 なお、後方車両RVが自動運転装置を有していない場合は、自車両OVの自動運転部4は、運転者に緊急事態である旨を警告して自動運転を解除し、運転者の回避操作により、後方車両RVとの衝突を回避するようにしても良い。
 また、ステップS10で後方車両RVに警告を通知した段階で、後方車両RVが自動運転装置を有している場合は、その自動運転装置が強制的に起動して、自車両OVと後方車両RVとの間の車間距離を維持または広げるように後方車両RVを自動で減速するように制御する構成としても良い。
  <後方車両の運転者識別のフロー>
 次に、図10に示すフローチャートを用いて、図5におけるステップS2の後方車両RVの運転者識別の処理フローを説明する。
 後方撮像カメラC1で撮像された自車両OVの後方の画像は、撮像信号処理部1において一定領域に対して所定の画像処理が施される(ステップS21)。一定領域とするのは画像処理に伴う撮像信号処理部1での処理時間を短縮するためであり、処理速度が充分に速ければ、後方の画像の全領域に対して画像処理を行っても良い。なお、一定領域の例としては、後方車両RVが存在している可能性が高い、後方の画像の中央部分が挙げられる。
 この画像処理には、撮像画像のエッジ検出を行い、撮像画像の特徴を単純化して抽出する処理が含まれている。撮像画像のエッジ検出は従来的な技術であり、例えば入力画像をソーベル(Sobel)フィルタを用いて1次微分することでエッジを検出することでエッジ画像を得ることができる。また、同じ1次微分によるエッジ検出としてはプレヴィット(Prewitt)フィルタを用いたエッジ検出も挙げられる、また、2次微分によるエッジ検出としてラプラシアン(Laplacian)フィルタを用いたエッジ検出も挙げられ、何れも周知技術である。
 エッジ画像の画像データが処理済み画像データとして後方運転者状態識別部2に出力される。後方運転者状態識別部2では、エッジ画像を用いて、パターンマッチングにより、まず、後方車両RVの有無を確認する(ステップS22)。
 エッジ検出により作成した撮像画像のエッジ画像は、運転支援装置100内または車両何の所定の記憶装置(図示せず)に予め保持(記憶)された各種車両の特徴情報(車両のフロント部の輪郭形状など)とのパターンマッチングを行い、パターンが一致する車両が存在する場合は、後方車両RVが存在するものと判断し、ステップS23に進む。一方、撮像画像のエッジ画像が何れの車両の特徴情報とも一致しない場合は、後方車両RVは存在しないものと判断して、ステップS21以下の処理を繰り返す。
 図11には、後方車両RVのエッジ画像P1を破線で示しており、このエッジ画像P1とパターンが一致する特徴情報を有する車両が存在する場合は、後方車両RVが存在するものと判断する。
 ステップS22で後方車両RVが存在することが確認された後は、撮像画像のエッジ画像の中における、人の形、例えば上半身の有無を確認する(ステップS23)。この場合もエッジ画像を用いた、パターンマッチングを使用するが、テンプレートと呼ばれる特定の画像を探し出すテンプレートマッチングを使用することで効率的な処理が可能となる。すなわち、人の上半身は、頭部および胸部などの単純な形状で表されるので、予めテンプレートを準備することは容易であり、テンプレートを用いることで特定しやすい。なお、各種車両の特徴情報に、運転席が右側か左側か(右ハンドルか左ハンドルか)の情報も含ませておくことで、エッジ画像の中から上半身の有無を確認する場合には、運転席の側を中心にテンプレートマッチングを行うことで、より効率的な処理が可能となる。
 テンプレートマッチングの類似度の計算方法としては、対象画像とテンプレートの画素値の差の2乗を足し合わせたものを類似度とするSSD(Sum of Squared Difference)法、画像の正規化相互相関を取って類似度とし、値が1に近いほど画像が似ていると判断するNCC(Normalized Cross-Correlation)法、対象画像とテンプレートからそれぞれの画素値の平均を引いてから、正規化相互相関を取って類似度とするZNCC(Zero-mean Normalized Cross-Correlation)法などが挙げられ、何れも周知技術である。
 ステップS23で人の上半身が確認されなかった場合は、ステップS21以下の処理を繰り返し、人の上半身が確認された場合はステップS24に進む。
 ステップS24では、ステップS23で確認された人の上半身のエッジ画像の中における、人の顔の有無を確認する。この場合もテンプレートマッチングを使用することで効率的な処理が可能となる。すなわち、人の顔は、頭部の輪郭形状と、目、鼻、口の輪郭形状で表され、概略の配置、概略の形状であれば個人差は小さいので、予めテンプレートを準備することは容易であり、テンプレートを用いることで特定しやすい。
 図12には、後方車両RVの運転者の顔のエッジ画像P2を破線で示しており、このエッジ画像P2とパターンが一致するテンプレートを使用することで、人の顔の有無を容易に確認することができる。
 ステップS24で人の顔が確認されなかった場合は、ステップS21以下の処理を繰り返し、人の顔が確認された場合はステップS25に進む。
 ステップS25では、ステップS24で確認された人の顔が一定時間、例えば3秒間前方を向いているかを確認する。この場合もテンプレートマッチングを使用し、テンプレート(人の顔の正面のテンプレート)と顔のエッジ画像とが一致している場合は、前方を向いていると判断し、テンプレートと顔のエッジ画像とが一致しない場合は、前方を向いていないと判断する。従って、テンプレートと顔のエッジ画像とが一致している時間が3秒間以上続いていれば、3秒間前方を向いていると判断する。
 ステップS25において、人の顔が一定時間前方を向いていないと判断される場合は、運転者が脇見していると判断する。図13は、人の顔が一定時間前方を向いていない状態の一例を示す図であり、脇見している場合および居眠りしてうつむいている場合が考えられる。ステップS25で人の顔が一定時間前方を向いていると判断される場合は、ステップS26に進む。
 ステップS26では、ステップS24で確認された人の顔のエッジ画像の中における目の部分のデータを抽出する。このデータは、目が閉じているか開いているかが判断できる程度の精度を有するデータであれば良い。そして、ステップS27において、目が一定時間、例えば3秒間閉じているかを確認する。この場合もテンプレートマッチングを使用し、テンプレート(閉じた目のテンプレート)と、ステップS26で抽出された目の部分のエッジ画像とが一致している場合は、目が閉じていると判断する。
 ステップS27において、目が一定時間、閉じていると判断される場合は、運転者が居眠りしていると判断する。なお、ステップS27で、目が一定時間、閉じていないと判断される場合は、ステップS21以下の処理を繰り返す。
 以上説明した実施の形態の運転支援装置100においては、自車両OVから後方車両RVの運転者を撮影し、その運転状態を判別することで危険運転かどうかを判断し、危険運転であると判断される場合には、自動運転による回避行動を取るので、後方車両RVが危険運転を行っている場合でも、確実に自車両の安全を確保することができる。
 この発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。

Claims (14)

  1.  自車両の後方を撮像する後方カメラで撮像された後方画像に基づいて、後方車両の運転者の運転状態を識別する後方運転者状態識別部と、
     前記後方画像を含む前記自車両の周辺画像に基づいて、前記自車両の周辺状況を判断する周辺状況判断部と、
     前記後方運転者状態識別部で識別された運転状態および前記周辺状況判断部で判断された周辺状況に基づいて前記自車両の自動運転を制御する自動運転部と、
     外部との通信を行う通信部と、を備え、
     前記後方運転者状態識別部は、
     前記後方車両の前記運転者の顔の向き、目の開閉の有無をパターンマッチングで判定することで運転状態を認識し、危険運転状態と判断される場合は、前記通信部を介して、前記後方車両に危険運転状態であることを通知し、
     前記自動運転部は、
     前記後方運転者状態識別部で前記後方車両が危険運転状態と判断された場合は、前記周辺状況判断部で判断された周辺状況に基づいて、前記後方車両との衝突を回避するように自動運転を制御する、運転支援装置。
  2.  前記後方運転者状態識別部は、
     前記後方画像に基づいて、前記後方車両と前記自車両との車間距離を取得し、該車間距離に基づいて、前記後方車両との衝突の可能性を判断し、
     前記自動運転部は、
     前記後方運転者状態識別部で前記後方車両が危険運転状態と判断され、かつ前記後方車両と衝突する可能性があると判断された場合であって、前記周辺状況判断部において、前記自車両の周辺に前記自車両を移せるスペースがあると判断された場合には、該スペースに前記自車両を移動させるように自動運転を制御する、請求項1記載の運転支援装置。
  3.  前記後方運転者状態識別部は、
     前記後方画像に基づいて、前記後方車両と前記自車両との車間距離を取得し、該車間距離に基づいて、前記後方車両との衝突の可能性を判断し、
     前記後方運転者状態識別部で前記後方車両が危険運転状態と判断され、かつ前記後方車両と衝突する可能性があると判断された場合であって、前記周辺状況判断部において、前記自車両の周辺に前記自車両を移せるスペースがないと判断された場合には、
     前記後方運転者状態識別部は、前記通信部を介して、前記後方車両に緊急事態であることを通知し、前記後方車両に備わる自動運転装置により前記後方車両を減速させる、請求項1記載の運転支援装置。
  4.  前記後方運転者状態識別部は、前記車間距離と、前記後方車両と前記自車両との相対速度とに基づいて前記後方車両との衝突の可能性を判断する、請求項2または請求項3記載の運転支援装置。
  5.  前記後方運転者状態識別部は、
     前記後方車両に備わる、前記後方車両の前記運転者の運転状態を検出し、前記運転者に警告を与える車内システムで検出した前記運転者の運転状態を前記通信部を介して取得し、
     前記車内システムで検出した前記運転者の運転状態と、前記後方運転者状態識別部で識別した前記運転者の運転状態とに基づいて、危険運転状態であるか否かを判断する、請求項1記載の運転支援装置。
  6.  前記後方運転者状態識別部で前記後方車両が危険運転状態と判断される場合は、自車両内において報知する、請求項1記載の運転支援装置。
  7.  前記自車両内での報知は、フロントガラスの一部に設けられた重畳表示部に、警告表示する、請求項6記載の運転支援装置。
  8.  (a)自車両の後方を撮像する後方カメラで撮像された後方画像に基づいて、後方車両の運転者の運転状態を識別するステップと、
     (b)前記後方画像を含む前記自車両の周辺画像に基づいて、前記自車両の周辺状況を判断するステップと、
     (c)前記ステップ(a)で識別された運転状態および前記ステップ(b)で判断された周辺状況に基づいて前記自車両の自動運転を制御するステップと、を備え、
     前記ステップ(a)は、
     前記後方車両の前記運転者の顔の向き、目の開閉の有無をパターンマッチングで判定することで運転状態を認識するステップと、危険運転状態と判断される場合は、前記後方車両に危険運転状態であることを通知するステップと、を含み、
     前記ステップ(c)は、
     前記ステップ(a)で前記後方車両が危険運転状態と判断された場合は、前記ステップ(b)で判断された周辺状況に基づいて、前記後方車両との衝突を回避するように自動運転を制御するステップを含む、運転支援方法。
  9.  前記ステップ(a)は、
     (a-1)前記後方画像に基づいて、前記後方車両と前記自車両との車間距離を取得し、該車間距離に基づいて、前記後方車両との衝突の可能性を判断するステップを含み、
     前記ステップ(c)は、
     前記ステップ(a)で前記後方車両が危険運転状態と判断され、かつ前記後方車両と衝突する可能性があると判断された場合であって、前記ステップ(b)において、前記自車両の周辺に前記自車両を移せるスペースがあると判断された場合には、該スペースに前記自車両を移動させるように自動運転を制御するステップを含む、請求項8記載の運転支援方法。
  10.  前記ステップ(a)は、
     (a-1)前記後方画像に基づいて、前記後方車両と前記自車両との車間距離を取得し、該車間距離に基づいて、前記後方車両との衝突の可能性を判断するステップを含み、
     前記ステップ(a)で前記後方車両が危険運転状態と判断され、かつ前記後方車両と衝突する可能性があると判断された場合であって、前記ステップ(b)において、前記自車両の周辺に前記自車両を移せるスペースがないと判断された場合には、
     (d)前記後方車両に緊急事態であることを通知するステップを備え、前記後方車両に備わる自動運転装置により前記後方車両を減速させる、請求項8記載の運転支援方法。
  11.  前記ステップ(a-1)は、
     前記車間距離と、前記後方車両と前記自車両との相対速度とに基づいて前記後方車両との衝突の可能性を判断する、請求項9または請求項10記載の運転支援方法。
  12.  前記ステップ(c)の前に、
     (e)前記後方車両に備わる、前記後方車両の前記運転者の運転状態を検出し、前記運転者に警告を与える車内システムで検出した前記運転者の運転状態を取得するステップと、
     (f)前記車内システムで検出した前記運転者の運転状態と、前記ステップ(a)で識別した前記運転者の運転状態とに基づいて、危険運転状態であるか否かを最終判断するステップと、を備える請求項8記載の運転支援方法。
  13.  前記ステップ(a)は、
     前記後方車両が危険運転状態と判断される場合は、自車両内において報知するステップを含む、請求項8記載の運転支援方法。
  14.  前記自車両内での報知するステップは、フロントガラスの一部に設けられた重畳表示部に、警告表示するステップを含む、請求項13記載の運転支援方法。
PCT/JP2016/084255 2016-11-18 2016-11-18 運転支援装置および運転支援方法 Ceased WO2018092265A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018550961A JP6647423B2 (ja) 2016-11-18 2016-11-18 運転支援装置および運転支援方法
PCT/JP2016/084255 WO2018092265A1 (ja) 2016-11-18 2016-11-18 運転支援装置および運転支援方法
CN201680090663.4A CN109923597A (zh) 2016-11-18 2016-11-18 驾驶辅助装置及驾驶辅助方法
DE112016007454.9T DE112016007454T5 (de) 2016-11-18 2016-11-18 Fahrassistenzvorrichtung und Fahrassistenzverfahren
US16/338,603 US11267461B2 (en) 2016-11-18 2016-11-18 Driving assistance apparatus and driving assistance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/084255 WO2018092265A1 (ja) 2016-11-18 2016-11-18 運転支援装置および運転支援方法

Publications (1)

Publication Number Publication Date
WO2018092265A1 true WO2018092265A1 (ja) 2018-05-24

Family

ID=62145104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/084255 Ceased WO2018092265A1 (ja) 2016-11-18 2016-11-18 運転支援装置および運転支援方法

Country Status (5)

Country Link
US (1) US11267461B2 (ja)
JP (1) JP6647423B2 (ja)
CN (1) CN109923597A (ja)
DE (1) DE112016007454T5 (ja)
WO (1) WO2018092265A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110949409A (zh) * 2019-12-17 2020-04-03 斑马网络技术有限公司 基于车辆的行驶处理方法、装置及系统
JP2020095466A (ja) * 2018-12-12 2020-06-18 アルパイン株式会社 電子装置
CN114084160A (zh) * 2020-07-29 2022-02-25 奥迪股份公司 驾驶辅助装置以及相应的车辆、方法、计算机设备和介质
JP2022524920A (ja) * 2019-03-29 2022-05-11 インテル・コーポレーション 自律車両システム
JP2022108614A (ja) * 2021-01-13 2022-07-26 トヨタ自動車株式会社 車両制御システム及び車両制御方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11731614B2 (en) * 2017-07-25 2023-08-22 Hl Klemove Corp. Apparatus and method for controlling vehicle to avoid or mitigate collision
KR20190050633A (ko) * 2017-11-03 2019-05-13 주식회사 만도 운전자 상태 기반 차량 제어 시스템 및 방법
US10762785B1 (en) 2018-01-09 2020-09-01 State Farm Mutual Automobile Insurance Company Vehicle collision alert system and method
US10755111B2 (en) * 2018-01-29 2020-08-25 Micron Technology, Inc. Identifying suspicious entities using autonomous vehicles
US11727794B2 (en) 2018-03-14 2023-08-15 Micron Technology, Inc. Systems and methods for evaluating and sharing human driving style information with proximate vehicles
US10997429B2 (en) 2018-04-11 2021-05-04 Micron Technology, Inc. Determining autonomous vehicle status based on mapping of crowdsourced object data
US11161518B2 (en) 2018-06-15 2021-11-02 Micron Technology, Inc. Detecting road conditions based on braking event data received from vehicles
JP7240218B2 (ja) * 2019-03-19 2023-03-15 本田技研工業株式会社 車両制御システム、車両制御方法、及びプログラム
CN112550282A (zh) * 2019-09-09 2021-03-26 大陆泰密克汽车系统(上海)有限公司 用于机动车的警示方法及警示系统
KR20210035523A (ko) * 2019-09-24 2021-04-01 현대자동차주식회사 차량 주행제어 방법 및 장치
JP7243585B2 (ja) * 2019-11-11 2023-03-22 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び情報処理プログラム
US11383733B2 (en) * 2020-01-31 2022-07-12 Mitac Digital Technology Corporation Method and system for detecting a dangerous driving condition for a vehicle, and non-transitory computer readable medium storing program for implementing the method
US20230105891A1 (en) * 2020-02-06 2023-04-06 Mitsubishi Electric Corporation Sign detection device, driving assistance control device, and sign detection method
CN111746526B (zh) * 2020-05-13 2022-07-12 浙江吉利汽车研究院有限公司 一种后方无人驾驶车辆的预警方法、装置、设备和车辆
WO2022144963A1 (ja) 2020-12-28 2022-07-07 本田技研工業株式会社 車両制御装置、車両制御システム、車両制御方法、およびプログラム
US20220028007A1 (en) * 2021-05-03 2022-01-27 Toyota Jidosha Kabushiki Kaisha Insurance fee setting system
US11767021B2 (en) * 2021-09-15 2023-09-26 Toyota Research Institute, Inc. Systems and methods for remotely assisting an operator
EP4273654A1 (en) * 2022-05-04 2023-11-08 Vay Technology GmbH Rear collision warning for vehicles
EP4403429B1 (en) * 2023-01-23 2025-04-30 Volvo Car Corporation Method for avoiding a rear-end collision between a first vehicle and a second vehicle, data processing apparatus, computer program, and computer-readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0471000A (ja) * 1990-07-12 1992-03-05 Matsushita Electric Ind Co Ltd 車両用状況認識装置
JP2003146117A (ja) * 2001-11-14 2003-05-21 Hitachi Ltd 自動車の走行制御装置
JP2005062912A (ja) * 2003-06-16 2005-03-10 Fujitsu Ten Ltd 車両制御装置
JP2008077309A (ja) * 2006-09-20 2008-04-03 Denso Corp 車両制御装置
JP2012079125A (ja) * 2010-10-01 2012-04-19 Fujitsu Ten Ltd 運転支援装置、運転支援方法、及び運転支援システム
JP2015103003A (ja) * 2013-11-25 2015-06-04 本田技研工業株式会社 車両の制御装置及び制御方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6882287B2 (en) * 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
JP4578795B2 (ja) * 2003-03-26 2010-11-10 富士通テン株式会社 車両制御装置、車両制御方法および車両制御プログラム
JP4655730B2 (ja) 2005-04-07 2011-03-23 トヨタ自動車株式会社 車両用運転支援装置
JP4412365B2 (ja) * 2007-03-26 2010-02-10 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP4853525B2 (ja) * 2009-02-09 2012-01-11 トヨタ自動車株式会社 移動領域予測装置
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
JP5991377B2 (ja) * 2012-07-24 2016-09-14 トヨタ自動車株式会社 運転支援装置
US9007198B2 (en) * 2012-11-02 2015-04-14 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive Actuator interface for active driver warning
JP6232759B2 (ja) * 2013-06-07 2017-11-22 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム
US9505412B2 (en) * 2013-08-02 2016-11-29 Honda Motor Co., Ltd. System and method for detection and utilization of driver distraction level
US20150161894A1 (en) * 2013-12-05 2015-06-11 Elwha Llc Systems and methods for reporting characteristics of automatic-driving software
US9988047B2 (en) * 2013-12-12 2018-06-05 Magna Electronics Inc. Vehicle control system with traffic driving control
CN105083291B (zh) * 2014-04-25 2018-11-09 歌乐株式会社 基于视线检测的驾驶员辅助系统
JP5952859B2 (ja) * 2014-06-23 2016-07-13 富士重工業株式会社 車両の運転支援装置
JP6270227B2 (ja) * 2016-03-14 2018-01-31 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
CN106114501B (zh) * 2016-06-23 2018-10-12 吉林大学 一种具有多模式的基于线控转向的换道避撞控制方法
CN106067256A (zh) * 2016-07-30 2016-11-02 李建彪 防疲劳驾驶装置、防疲劳驾驶系统及疲劳驾驶监测方法
JP6600878B2 (ja) * 2017-12-21 2019-11-06 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US10810966B1 (en) * 2019-01-15 2020-10-20 Ambarella International Lp Fusion of electronic mirror systems and driver monitoring for increased convenience and added safety

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0471000A (ja) * 1990-07-12 1992-03-05 Matsushita Electric Ind Co Ltd 車両用状況認識装置
JP2003146117A (ja) * 2001-11-14 2003-05-21 Hitachi Ltd 自動車の走行制御装置
JP2005062912A (ja) * 2003-06-16 2005-03-10 Fujitsu Ten Ltd 車両制御装置
JP2008077309A (ja) * 2006-09-20 2008-04-03 Denso Corp 車両制御装置
JP2012079125A (ja) * 2010-10-01 2012-04-19 Fujitsu Ten Ltd 運転支援装置、運転支援方法、及び運転支援システム
JP2015103003A (ja) * 2013-11-25 2015-06-04 本田技研工業株式会社 車両の制御装置及び制御方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095466A (ja) * 2018-12-12 2020-06-18 アルパイン株式会社 電子装置
JP7136538B2 (ja) 2018-12-12 2022-09-13 アルパイン株式会社 電子装置
JP2022524920A (ja) * 2019-03-29 2022-05-11 インテル・コーポレーション 自律車両システム
JP7460044B2 (ja) 2019-03-29 2024-04-02 インテル・コーポレーション 自律車両、ならびに自律車両システムに係る装置、プログラム、およびコンピュータ可読媒体
CN110949409A (zh) * 2019-12-17 2020-04-03 斑马网络技术有限公司 基于车辆的行驶处理方法、装置及系统
CN114084160A (zh) * 2020-07-29 2022-02-25 奥迪股份公司 驾驶辅助装置以及相应的车辆、方法、计算机设备和介质
JP2022108614A (ja) * 2021-01-13 2022-07-26 トヨタ自動車株式会社 車両制御システム及び車両制御方法
JP7396306B2 (ja) 2021-01-13 2023-12-12 トヨタ自動車株式会社 車両制御システム及び車両制御方法

Also Published As

Publication number Publication date
JPWO2018092265A1 (ja) 2019-02-28
CN109923597A (zh) 2019-06-21
DE112016007454T5 (de) 2019-08-14
JP6647423B2 (ja) 2020-02-14
US11267461B2 (en) 2022-03-08
US20200039508A1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
JP6647423B2 (ja) 運転支援装置および運転支援方法
CN109758167B (zh) 驾驶员状态检测装置
EP3352037B1 (en) Autonomously traveling work vehicle and method for autonomous travel control
JP4926437B2 (ja) 車両の運転支援装置
JP6888950B2 (ja) 画像処理装置、外界認識装置
CN108447302B (zh) 信息处理装置以及记录介质
US20170297488A1 (en) Surround view camera system for object detection and tracking
US11238739B2 (en) Method and apparatus to prevent VRU accidents
US9981598B2 (en) Alighting notification device
WO2018046015A1 (zh) 车辆报警方法、装置及终端
CN107953827A (zh) 一种车辆盲区预警方法及装置
JPWO2019193715A1 (ja) 運転支援装置
JP2017151606A (ja) 脇見見落とし注意システム及びコンピュータプログラム
US20180204462A1 (en) Device and method for start assistance for a motor vehicle
CN111292509A (zh) 异常检测装置、异常检测系统以及记录介质
WO2020250520A1 (ja) 外部環境認識装置
CN114715031B (zh) 车辆倒车的控制方法、装置、系统及介质
KR20120086577A (ko) 카메라를 이용한 측면차량 검출 장치 및 방법
KR20110062651A (ko) 차선 이탈 경보 방법
JP7558744B2 (ja) 異常報知システム、制御方法および車両制御システム
KR101784096B1 (ko) 자동차용 통합 단말기
JP7432198B2 (ja) 状況認識推定システム及び運転支援システム
KR20210065648A (ko) 주행 위험도 및 운전자 상태 분석에 기초한 차량 긴급 구난 장치
JP6198871B2 (ja) 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視プログラムとその記録媒体
CN118457568A (zh) 用于避免碰撞或减小冲击力的方法和装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018550961

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16921935

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16921935

Country of ref document: EP

Kind code of ref document: A1