[go: up one dir, main page]

WO2013114871A1 - 運転支援装置及び運転支援方法 - Google Patents

運転支援装置及び運転支援方法 Download PDF

Info

Publication number
WO2013114871A1
WO2013114871A1 PCT/JP2013/000498 JP2013000498W WO2013114871A1 WO 2013114871 A1 WO2013114871 A1 WO 2013114871A1 JP 2013000498 W JP2013000498 W JP 2013000498W WO 2013114871 A1 WO2013114871 A1 WO 2013114871A1
Authority
WO
WIPO (PCT)
Prior art keywords
predetermined
driver
head
vehicle
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2013/000498
Other languages
English (en)
French (fr)
Inventor
竜弘 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of WO2013114871A1 publication Critical patent/WO2013114871A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • B60R2300/8026Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system

Definitions

  • the present disclosure relates to a driving support device and a driving support method that facilitate visual recognition of surroundings by a vehicle driver.
  • Patent Document 2 a device that optimizes the display position of an image by estimating the position of the driver's head (eyeball) has been proposed.
  • the driver When driving a vehicle, the driver is in a normal driving position, such as when checking the state of a child sitting in the back seat or an object placed on the back seat, or checking the white line on the side of the vehicle when parked. There is a case where it is desired to view a region that is difficult to visually recognize for a long time. Even in such a scene, it is preferable to detect the position of the driver's head and the movement of the line of sight so that the above-mentioned region can be visually recognized.
  • a normal driving position such as when checking the state of a child sitting in the back seat or an object placed on the back seat, or checking the white line on the side of the vehicle when parked.
  • the present disclosure has been made in view of the above points, and an object of the present disclosure is to provide a driving support device and a driving support method for visually recognizing a region that is difficult to visually recognize in a normal driving posture. .
  • the driving support device includes a head position calculation unit, a state determination unit, and a control unit.
  • the head position calculation unit analyzes an image obtained by capturing a driver of the vehicle and calculates a head position of the driver's head in the vehicle.
  • the state determination unit has a period condition in which a period in which the head position is a predetermined position different from a position in a normal driving posture is a predetermined threshold or more, and a frequency at which the head position is the predetermined position. It is determined whether or not at least one of the frequency conditions that are equal to or greater than a predetermined threshold is satisfied.
  • the control unit is a predetermined region that is visible when the head position becomes the predetermined position when the state determination unit determines that at least one of the period condition and the frequency condition is satisfied.
  • the predetermined device is controlled so that the driver can visually recognize the normal driving posture.
  • the driver can visually recognize an area that is difficult to visually recognize in a normal driving posture in a normal driving posture.
  • the driving support method analyzes an image obtained by capturing a driver of the vehicle to calculate a head position of the driver's head in the vehicle, and the head position is normally At least a period condition in which a period of a predetermined position different from the position in the driving posture is a predetermined threshold or more, and a frequency condition in which the frequency at which the head position is the predetermined position is a predetermined threshold or more It is determined whether or not any of them is satisfied, and when it is determined that at least one of the period condition and the frequency condition is satisfied, it is visible when the head position becomes the predetermined position. Controlling predetermined equipment so that the driver can visually recognize the predetermined area in the normal driving posture.
  • the driver can visually recognize an area that is difficult to visually recognize in a normal driving posture in a normal driving posture.
  • FIG. 1 is a block diagram showing a schematic configuration of a driving support system
  • FIG. 2 is a functional block diagram showing the control device in functional blocks.
  • FIG. 3 is a diagram for explaining the operation of confirming the underline on the side of the vehicle.
  • FIG. 4 is a diagram for explaining the operation of confirming the rear seat of the vehicle.
  • FIG. 5 is a flowchart for explaining the processing procedure of the device control processing.
  • FIG. 6 is a flowchart for explaining the procedure of the state determination process.
  • the driving support system 1 is used by being mounted on a vehicle. As shown in FIG. 1, the first camera 11 for driver shooting and the rear seat shooting are used. The second camera 13, the third camera 15 for photographing outside the vehicle, the mirror angle control device 17, the display device 19, the control device 21, and the like.
  • the control device 21 is an example of a driving support device in the present disclosure.
  • the first camera 11 is a well-known image pickup device that takes an image including a driver's face with an image pickup device, and includes an image pickup device such as a CCD or CMOS, and peripheral electronic circuits such as an optical lens, an optical filter, and a power source.
  • the first camera 11 is arranged so that the driver's seat is located in the shooting range.
  • the first camera 11 captures an image at a predetermined time interval, for example, every 1/30 seconds, and outputs it to the control device 21.
  • the second camera 13 is a well-known imaging device that is arranged so that the rear seat of the vehicle is in the shooting range.
  • the third camera 15 is a well-known imaging device, and is arranged in the vicinity of the number plate in front of the vehicle so that the left and right front sides of the vehicle are in the shooting range.
  • the mirror angle control device 17 has an actuator that controls the mirror angle of the right door mirror that is one of the side mirrors, and changes the mirror angle in accordance with a control signal from the control device 21.
  • the display device 19 is a device having a display capable of displaying an image, and displays an image according to a control signal from the control device 21.
  • the display device 19 is disposed in a place where the driver can visually recognize the vehicle in a normal driving posture, for example, near a dashboard or an installation panel.
  • the control device 21 is a well-known microcomputer including a CPU 31, a ROM 33, a RAM 35, and the like, and executes each process described later based on a program stored in the ROM 33.
  • the control device 21 may be configured by combining a plurality of circuits including a CPU, a ROM, a RAM, and the like.
  • the control device 21 has a known real-time clock (not shown) and can know the current time.
  • the control device 21 includes a calculation unit 41 that calculates a head position and a line-of-sight direction, a learning unit 43 that learns normal motion, a detection unit 45 that detects a predetermined motion, and an estimation unit 47 that estimates a motion purpose. , And a control unit 49 that controls the operation of a predetermined device.
  • the calculation unit 41 includes a head position calculation unit that calculates a head position and a gaze direction calculation unit that calculates a gaze direction.
  • the detection unit 45 and the estimation unit 47 function as an example of a state determination unit.
  • the calculation unit 41 analyzes the image acquired from the first camera 11 and calculates the position of the driver's head in the vehicle (hereinafter also simply referred to as the head position) and the line-of-sight direction.
  • the calculation unit 41 detects this information at a predetermined time interval and outputs it to the learning unit 43 and the detection unit 45.
  • a well-known technique can be used as a method of calculating the head position and the line-of-sight direction by analysis.
  • the three-dimensional coordinates of the head position and the feature points may be obtained by analyzing two captured images captured by two cameras arranged at different positions. That is, the structure which provides the two 1st cameras 11 may be sufficient.
  • the head position itself is calculated, and the feature point position is calculated by calculating the positions of feature points that are strongly related to the head position such as the eyes, nose, and mouth. May be used as the head position, or the position of a part related to the movement of the head such as both shoulders and neck may be calculated and used instead of the head position.
  • Japanese Patent Laid-Open No. 2008-13023 Japanese Patent Laid-Open No. 2005-66023, Japanese Patent Laid-Open No. 2002-352228, Japanese Patent Laid-Open No. 2007-249280, The method described in JP-A-2005-182452 can be used.
  • the learning unit 43 continuously acquires the head position and gaze direction information calculated by the calculation unit 41. Based on the information over a certain period, the head position when the driver is in the normal driving posture is calculated.
  • the method for calculating the head position in the normal driving posture is not particularly limited, and various known methods can be employed. For example, it can be obtained from an average value of head positions acquired within a predetermined period during vehicle travel. The average value may be calculated such that the head position calculated at a timing close to the current time is weighted more.
  • the calculation of the head position in the normal driving posture by the learning unit 43 is continuously executed separately from the device control process and the state determination process described later.
  • the detection unit 45 continuously acquires information on the head position and the line-of-sight direction calculated by the calculation unit 41, and the head position and the line-of-sight direction are in any of the following states (i) to (iv): Is detected.
  • the head position is above the normal driving posture and closer to the door mirror, and the line-of-sight direction is the door mirror direction.
  • the head position is above the normal driving posture and the line-of-sight direction is State that is in the rearview mirror direction (iii)
  • the head position is closer to the center of the vehicle than the normal driving posture, and the line-of-sight direction is rearward
  • the head position is the front position relative to the normal driving posture State
  • the above states (i) to (iv) will be referred to as a visual operation state.
  • Whether or not the head position is different from the normal driving posture is determined by whether or not the head position is away from the position in the normal driving posture determined by the learning unit 43 by a predetermined threshold or more.
  • the head positions in (i) to (iv) described above are examples of predetermined positions in the present disclosure
  • the line-of-sight directions in (i) to (iii) are examples of predetermined directions in the present disclosure.
  • the estimation unit 47 has a period condition in which the period detected by the detection unit 45 as being in the visual operation state is a predetermined threshold or more, for example, 2 seconds or more, and a frequency at which the period is detected as the visual operation state is predetermined. It is determined that at least one of the frequency conditions that are equal to or greater than the threshold value is satisfied, and the operation purpose of the driver is estimated.
  • the specific calculation method for determining whether the frequency is equal to or higher than a predetermined threshold is not particularly limited. For example, when it is detected that the visual recognition operation state has been detected for a predetermined period of time, for example, 10 seconds, for example, three times or more after the first detection of the visual operation state, the frequency is equal to or greater than a predetermined threshold value. It can be judged that there is. In addition, when the period until it is detected a predetermined number of times that the visual movement state has been reached is equal to or less than a predetermined threshold, it can be determined that the frequency is equal to or higher than the predetermined threshold. Of course, the frequency may be obtained by other methods.
  • a specific example of estimating the driver's purpose of operation will be described. At least that the period during which the state (i) is detected in the state (i) is not less than a predetermined threshold and the frequency at which the period (i) is detected is not less than the predetermined threshold. If any one of the conditions is met, it is estimated that the driver has confirmed the white line on the side of the vehicle or the vehicle stop. That is, if at least one of the period condition and the frequency condition is satisfied in the state (i), it is estimated that the driver has confirmed a white line or a vehicle stop on the side of the vehicle.
  • the right rear side of the vehicle 55 can be visually recognized as indicated by the arrow A.
  • the white line 57 at the bottom is difficult to see.
  • the head position is moved to a position above the normal driving posture and closer to the door mirror (the position of the head position 51B), the line-of-sight direction becomes as indicated by the arrow B, and the white line 57 can be easily visually recognized.
  • the white line 57 when visually recognizing the white line 57 in parking or the like, the white line 57 is often viewed continuously for a certain period of time, or frequently viewed while changing the line of sight alternately with other directions. For this reason, it can be estimated as described above.
  • the rear of the vehicle 65 can be viewed as indicated by the arrow C, but the rear seat of the vehicle 65 is difficult to view.
  • the head position is moved to a position above the normal driving posture (the position of the head position 61B)
  • the line-of-sight direction becomes as indicated by the arrow D and the rear seat can be easily visually recognized.
  • the rear seat can be visually recognized by turning the head position closer to the center of the vehicle and looking back. For this reason, it can be estimated as described above.
  • the control unit 49 can be visually recognized when the driver's head position is in the positions (i) to (iv) described above based on the estimation result of the estimation unit 47 after the driver returns to the normal driving posture.
  • the predetermined device is controlled so that the driver can visually recognize the predetermined region in a normal driving posture.
  • This predetermined area is not limited to an area that can be directly visually recognized, but also includes an area that can be visually recognized through a door mirror or a room mirror as described above.
  • the mirror angle control device 17 is controlled to change the mirror angle of the door mirror 53 shown in FIG. 3 so that the arrow B direction can be visually recognized at the head position 51A in the normal driving posture. To do.
  • the image taken by the second camera 13 is displayed on the display device 19.
  • a device for controlling the mirror angle of the room mirror 63 may be provided in the vehicle, and the rear seat may be visually recognized in a normal driving posture by controlling the device to change the mirror angle.
  • This device control process is started when power is supplied to the entire driving support system 1 including the control device 21.
  • the control device 21 is started when the ignition switch is turned on.
  • control device 21 acquires the image captured by the first camera 11 in S1, and calculates the position and line-of-sight direction of the driver's head based on the acquired image.
  • the control device 21 determines whether or not the position of the head and the line-of-sight direction are detected as any of the above-described visual movement states in S2. If it is not in the visual recognition operation state (S2: NO), the control device 21 returns to S1.
  • the control device 21 stores the visual operation state (i) to (iv) described above in the memory (RAM 35), and performs the state determination process in S3. Do. In S3, the control device 21 determines that the period of the visual recognition operation state is equal to or greater than a predetermined threshold value, or that the frequency of the visual recognition operation state is equal to or greater than the predetermined threshold value. When it is determined that the period of the visual operation state is equal to or greater than the predetermined threshold or the frequency of the visual operation state is equal to or greater than the predetermined threshold, the control device 21 sets the device control flag to ON. . Details of this state determination processing will be described later.
  • the control device 21 determines whether or not the device control flag is turned on in S4. If the device control flag is not ON (S4: NO), the control device 21 returns to S1.
  • the control device 21 displays a predetermined display indicating that on the display device in the instrument panel of the vehicle, and in the subsequent S5, the first camera 11 A newly photographed image is acquired from the above and the head position and the line-of-sight direction are calculated.
  • the control device 21 determines whether or not the driver is in a normal driving posture based on the information calculated in S5. If it is not a normal driving posture (S6: NO), the control device 21 returns to S5. That is, the driver waits until the driver returns to the normal driving posture from the visual recognition operation state.
  • the control device 21 controls the operation of a predetermined device in S7.
  • the control device 21 controls the mirror angle control device 17, the display device 19 and the like according to the visual operation states (i) to (iv) detected in S2 in S7. After the predetermined time has elapsed, the control device 21 ends the operation of the predetermined device, and returns to S1.
  • the mirror angle control device 17 and the display device 19 function as predetermined devices.
  • the control device 21 executes this state determination process when it is determined in S2 of the device control process that the visual operation state is set.
  • the control device 21 starts counting elapsed time in S11. Then, an image newly captured by the first camera 11 is acquired, and the head position and the line-of-sight direction are calculated in S12 in the same manner as in S1, and the same as the visual operation state detected in S2 immediately before in S13. It determines whether it is in a visual recognition state.
  • the control device 21 determines whether or not a predetermined time (for example, 2 seconds) has elapsed in S14, and the predetermined time must have elapsed. If (S14: NO), the process returns to S12, and if the predetermined time has elapsed (S14: YES), the device control flag is turned ON in S15. Thereafter, the present process is terminated, and the process proceeds to S4 of the device control process.
  • a predetermined time for example, 2 seconds
  • control device 21 repeatedly determines whether or not it is in the visual operation state in the processes of S12 to S15, and the duration of the state after it is detected as the visual operation state is a predetermined threshold (predetermined time). When it becomes above, the device control flag is turned ON.
  • control apparatus 21 determines with S13 not being a visual recognition operation state (S13: NO), it will memorize
  • S17 it is determined whether or not the number of times that the visual operation state is the same as the visual operation state detected in the immediately preceding S2 is equal to or greater than a preset value.
  • a preset value for example, 3
  • the control device 21 If the counted number is equal to or greater than the set value (S17: YES), the control device 21 turns on the device control flag in S15 and ends this process. On the other hand, if it is not more than the set value (S17: NO), the control device 21 determines whether or not a predetermined time (for example, 10 seconds) has passed in S18, and if the predetermined time has passed (S18). : YES), this process is terminated without turning on the device control flag.
  • a predetermined time for example, 10 seconds
  • control device 21 obtains a new image taken by the first camera 11 again, calculates the head position and the line-of-sight direction in S19, and S20. It is determined whether or not the visual operation state is the same as the visual operation state detected in the immediately preceding S2, and the process returns to S16 to store the determination result.
  • control device 21 determines that the number of times that the predetermined visual recognition operation state is reached before the predetermined time has passed is greater than or equal to the set value, that is, the frequency at which the predetermined visual operation state is reached is predetermined.
  • the device control flag is set to ON when the threshold is exceeded.
  • the driver can visually recognize a predetermined area that is visible in the visual operation state in a normal driving posture.
  • the predetermined area that is visible when the driver is in the visual motion state is difficult to visually recognize in a normal driving posture such as a white line on the side of the vehicle, a car stop, a rear seat of the vehicle, and a right and left direction of the intersection. This is an important area. Therefore, the driver does not need to take an unreasonable posture in order to visually recognize the predetermined area described above, and can maintain a normal driving posture, thereby suppressing a driving operation error and an accident.
  • mirror angle control is performed only when the period of time during which the state continues to be detected is greater than or equal to a predetermined threshold or when the frequency of entering the visual operation state is greater than or equal to a predetermined threshold. Since the device 17, the display device 19, and the like are controlled, it is possible to suppress the operation of the predetermined device until the driver does not intend to view the predetermined region. If the driver's head accidentally moves to a predetermined position when the above-described conditions are not set, and the predetermined device is operated based only on the fact that the driver's head is at a predetermined position.
  • the predetermined device when it is erroneously detected that the head is in a predetermined position for only one frame, the predetermined device may be operated, and the driver feels troublesome due to an unexpected operation by the driver. According to the control device 21 according to the present disclosure, it is possible to prevent the driver from feeling troublesome.
  • a predetermined device is Does not work. Therefore, it can be suppressed that the driver is bothered by unintended operation of a predetermined device. Furthermore, unnecessary energy consumption can be suppressed.
  • the control device 21 determines that the timing for controlling the predetermined device is determined to satisfy at least one of the period condition and the frequency condition, and the driver's head is no longer in a predetermined position. Sometimes. Therefore, when the driver's head is no longer in the predetermined position, for example, when the driver returns to the normal driving posture, the predetermined device is operated, so the head is in the predetermined position and no assistance from the predetermined device is required. It is possible to prevent the driver from feeling unnecessary because the device is operated until unnecessary energy is consumed, or the driver performs an unexpected operation.
  • the predetermined device for example, a mirror angle control device that controls the angle of the mirror mounted on the vehicle is used.
  • the control device 21 controls the mirror angle control device so that the driver can visually recognize a predetermined region that is visible when the head is in a predetermined position through a mirror in a normal driving posture.
  • Control The control device 21 configured as described above allows the driver to visually recognize the predetermined area described above in a normal driving posture by changing the angle of the mirror. Further, if the timing of operating the mirror is when the driver's head is no longer in the predetermined position as described above, the mirror does not operate when the driver's head is in the predetermined position, and the predetermined area is visually confirmed. You can continue.
  • a display device arranged at a position where the driver can visually recognize in a normal driving posture can be used.
  • This display device displays an image captured by an imaging device that captures an area that is visible when the driver's head is in a predetermined position, and the control device 21 displays the image on the display device.
  • the control device 21 configured as described above allows the driver to visually recognize the predetermined region described above by causing the display device to display the image of the region described above.
  • the control device 21 calculates the driver's line-of-sight direction in addition to the position of the driver's head when image analysis is performed on an image of the driver of the vehicle.
  • the control device 21 has a period condition in which a period in which the head is in a predetermined position and the line-of-sight direction is a predetermined direction corresponding to the predetermined position is equal to or greater than a predetermined threshold, and the head is in a predetermined position.
  • the predetermined device is controlled.
  • control device 21 configured in this way controls not only the position of the driver's head but also the driver's line of sight and controls the predetermined device, the control device 21 needs to be supported by the predetermined device. It can discriminate
  • the above-described device control processing is realized by a program including an ordered sequence of instructions suitable for processing by a computer, and this program uses a warning device or the like via various recording media and communication lines.
  • the said program which consists of a command executable by the computer for controlling the control apparatus 21 as mentioned above uses an alerting device and this via a tangible and persistent storage medium readable by the computer.
  • the program including instructions executable by a computer for controlling the control device 21 as described above can be provided to the alerting device or a user using the program via a communication line.
  • the configuration in which it is determined whether or not the driver has returned to the normal driving posture in S6 of the device control process is illustrated, but it is not determined whether or not the driver returns to the normal driving posture.
  • the mirror angle control device 17, the display device 19, and the like may be controlled with the device control flag in S 15 of the state determination process set as ON as a trigger.
  • the driver may return to the normal driving posture and determine whether or not the driver is no longer in the visual operation state.
  • the mirror angle control device 17 and the display device 19 are used as predetermined devices that enable the driver to visually recognize a predetermined region that can be visually recognized when the driver is in the visual operation state. Although illustrated, other devices may be used.
  • the learning unit 43 is configured to learn the head position and the line-of-sight direction when the door mirror and the room mirror are visually recognized during driving, and the detection unit 45 calculates the head position and the line-of-sight direction calculated from the newly captured image. If it is different from the learned one, it may be configured to determine that it is in the visual recognition operation state.
  • the head position in the normal driving posture is exemplified by the learning unit 43.
  • the predetermined position is set as the head position in the normal driving posture, and the learning is not performed. Also good.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

運転支援装置及び運転支援方法 関連出願の相互参照
 本開示は、2012年1月31日に出願された日本出願番号2012-018685号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両の運転者による周囲の視認を容易にする運転支援装置及び運転支援方法に関する。
 従来、車両を運転する運転者の頭部の位置や視線を検出して、運転支援の動作を行う装置が多数提案されている。一例として、特許文献1に開示されたように、車両の後方に二輪車が位置するときに警告動作を行う装置であって、運転者の視線がミラーを視認したと判定した場合には、警告動作を行わないことで、運転者が感じる煩わしさを低減する装置が提案されている。
 また、特許文献2に開示されたように、運転者の頭部(眼球)の位置を推定することで、画像の表示位置を最適化する装置が提案されている。
 車両の運転中において、後部座席に座る子供や後部座席に置いた物の様子を確認する場合や、駐車時に車両側方の白線などを確認する場合のように、運転者が通常の運転姿勢では視認しにくい領域を長時間視認したい場合がある。このような場面であっても運転者の頭部の位置や視線の動きを検出して上述した領域が視認できるようにすることが好ましいが、従来そのような装置は提案されていなかった。
特開2007-286898号公報 特開2004-322726号公報
 本開示は、上記点に鑑みてなされたものであり、その目的は、通常の運転姿勢では視認しにくい領域を、通常の運転姿勢において視認させる運転支援装置及び運転支援方法を提供することである。
 本開示の第一の態様において、運転支援装置は、頭位置算出部、状態判定部及び制御部を備える。前記頭位置算出部は、車両の運転者を撮影した画像を解析して前記運転者の頭部の前記車両内における頭部位置を算出する。前記状態判定部は、前記頭部位置が通常の運転姿勢における位置とは相違する所定位置となる期間が所定の閾値以上となる期間条件、および、前記頭部位置が前記所定位置となる頻度が所定の閾値以上となる頻度条件のうちの少なくともいずれかを満たしたか否かを判定する。前記制御部は、前記状態判定部が前記期間条件及び前記頻度条件のうちの少なくともいずれかが満たされたと判定した場合に、前記頭部位置が前記所定位置となるときに視認可能である所定領域を、前記運転者が前記通常の運転姿勢にて視認可能となるように所定の機器を制御する。
 上記の運転支援装置を用いれば、運転者は、通常の運転姿勢では視認しにくい領域を、通常の運転姿勢において視認することができる。
 本開示の第二の態様において、運転支援方法は、車両の運転者を撮影した画像を解析して前記運転者の頭部の前記車両内における頭部位置を算出し、前記頭部位置が通常の運転姿勢における位置とは相違する所定位置となる期間が所定の閾値以上となる期間条件、および、前記頭部位置が前記所定位置となる頻度が所定の閾値以上となる頻度条件のうちの少なくともいずれか満されたか否かを判定し、前記期間条件及び前記頻度条件のうちの少なくともいずれかが満たされたと判定された場合に、前記頭部位置が前記所定位置となるときに視認可能である所定領域を前記運転者が前記通常の運転姿勢にて視認可能となるように所定の機器を制御することを含む。
 上記の運転支援方法を用いれば、運転者は、通常の運転姿勢では視認しにくい領域を、通常の運転姿勢において視認することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、運転支援システムの概略構成を示すブロック図であり、 図2は、制御装置を機能ブロックにて示した機能ブロック図であり、 図3は、車両側方の下線を確認する動作を説明する図であり、 図4は、車両の後部座席を確認する動作を説明する図であり、 図5は、機器制御処理の処理手順を説明するフローチャートであり、 図6は、状態判定処理の処理手順を説明するフローチャートである。
 以下に本開示の実施形態を図面と共に説明する。
 (実施例)
 (1)運転支援システムの構成
 本実施例の運転支援システム1は車両に搭載されて用いられるものであって、図1に示すように、運転者撮影用の第一カメラ11、後部座席撮影用の第二カメラ13、車外撮影用の第三カメラ15、ミラー角度制御装置17、表示装置19、および制御装置21などを有する。制御装置21は、本開示における運転支援装置の一例である。
 第一カメラ11は、撮像素子により運転者の顔を含む画像を撮影する周知の撮像装置であり、CCDやCMOSなどの撮像素子と光学レンズ、光学フィルタ、電源等の周辺電子回路から成る。第一カメラ11は撮影範囲に運転席が位置するように配置される。第一カメラ11は所定の時間間隔、例えば1/30秒ごとに画像を撮影し、制御装置21に出力する。
 第二カメラ13は、車両の後部座席が撮影範囲となるように配置された周知の撮像装置である。第三カメラ15も同様に周知の撮像装置であり、車両の左右前方が撮影範囲となるように、車両前方のナンバープレート付近に配置される。
 ミラー角度制御装置17は、サイドミラーの一つである右ドアミラーのミラー角度を制御するアクチュエータを有し、制御装置21からの制御信号に従ってミラー角度を変更する。
 表示装置19は画像を表示可能なディスプレイを有する装置であり、制御装置21からの制御信号に従って画像を表示する。表示装置19は運転者が通常の運転姿勢で視認可能な場所、例えばダッシュボード、インストールメントパネル付近に配置される。
 制御装置21は、CPU31,ROM33,RAM35などからなる周知のマイクロコンピュータであって、ROM33に記憶されているプログラムに基づいて後述する各処理を実行する。なお制御装置21は、CPU,ROM,RAM等を備える回路を複数組み合わせて構成されていてもよい。また制御装置21は、図示しない周知のリアルタイムクロックを有しており、現在時刻を知ることができる。
 制御装置21は、図2に示すように、頭位置と視線方向を演算する演算部41、通常動作を学習する学習部43、所定動作を検出する検出部45、動作目的を推定する推定部47、および所定の機器の動作を制御する制御部49として機能する。演算部41は頭位置を算出する頭位置算出部および視線方向を算出する視線方向算出部を含む。検出部45および推定部47は状態判定部の一例として機能する。
 演算部41は、第一カメラ11から取得した画像を解析し、運転者の頭部の車両内における位置(以降、単に頭位置とも述べる)と視線方向とを算出する。演算部41はこれらの情報を所定の時間間隔で検出し、学習部43および検出部45に出力する。
 解析により頭位置や視線方向を算出する方法は周知技術を用いることができる。異なる位置に配置された2つのカメラにより撮影された2つの撮影画像を解析することで、頭位置および特徴点の3次元座標を求めてもよい。すなわち第一カメラ11を2つ設ける構成であってもよい。
 なお、運転者の頭位置を算出する際には、頭部の位置そのものを算出するほか、目、鼻、口などの頭部の位置と関連が強い特徴点の位置を算出して特徴点位置を頭位置として利用してもよいし、両肩や首などの頭部の動きと関連のある部位の位置を算出して頭位置に替えて用いてもよい。
 解析によって運転者の頭位置や視線方向を検出する方法としては、例えば特開2008-13023号公報、特開2005-66023号公報、特開2002-352228号公報、特開2007-249280号公報、特開2005-182452号公報記載の方法を用いることができる。
 学習部43は、演算部41が算出した頭位置や視線方向情報を継続的に取得する。そして一定の期間以上の情報に基づいて、運転者が通常の運転姿勢にあるときの頭位置を算出する。通常の運転姿勢における頭位置の算出方法は特に限定されるものではなく、周知の様々な手法を採ることができる。例えば、車両走行中の所定の期間内に取得された頭位置の平均値から求めることができる。現在時刻に近いタイミングで算出された頭位置ほど重み付けが大きくなるようにして平均値を算出してもよい。
 なおこの学習部43による通常の運転姿勢における頭位置の算出は、後述する機器制御処理や状態判定処理とは別に継続的に実行される。
検出部45は、演算部41が算出した頭位置や視線方向の情報を継続的に取得して、頭位置と視線方向が下記(i)~(iv)のいずれかの状態となっていることを検出する。
 (i)頭位置が通常の運転姿勢よりも上方かつドアミラー寄りの位置であり、視線方向がドアミラー方向である状態
 (ii)頭位置が通常の運転姿勢よりも上方の位置であり、視線方向がルームミラー方向である状態
 (iii)頭位置が通常の運転姿勢よりも車両中央寄りの位置であり、視線方向が後方である状態
 (iv)頭位置が通常の運転姿勢よりも前方の位置である状態
 以降、上記(i)~(iv)の状態のことを視認動作状態と述べる。
 頭位置が通常の運転姿勢と異なるか否かは、学習部43にて求めた通常の運転姿勢における位置から所定の閾値以上離れているか否かにより判断する。なお上述した(i)~(iv)における頭位置が、本開示における所定位置の一例であり、(i)~(iii)における視線方向が、本開示における所定方向の一例である。
 推定部47は、検出部45により視認動作状態であると検出されている期間が所定の閾値以上、例えば、2秒以上となる期間条件、および、視認動作状態であると検出される頻度が所定の閾値以上となる頻度条件の少なくともいずれかを満たしたことを判定し、運転者の動作目的を推定する。
 頻度が所定の閾値以上となったか否かの具体的な算出方法は特に限定されない。例えば、最初に視認動作状態と検出されてから所定の期間、例えば、10秒内に所定回数、例えば、3回以上視認動作状態となったことが検出された場合、頻度が所定の閾値以上であると判断できる。また、視認動作状態となったことが所定回数検出されるまでの期間が所定の閾値以下である場合に、頻度が所定の閾値以上であると判断できる。もちろん、頻度は他の手法により求めてもよい。
 運転者の動作目的を推定する具体例を説明する。上記(i)の状態にて(i)の状態であると検出されている期間が所定の閾値以上および(i)の状態であると検出される頻度が所定の閾値以上となったことの少なくともいずれかの条件を満たせば、運転者が車両の側方の白線や車止めなどを確認していると推定する。即ち、上記(i)の状態にて上記期間条件及び上記頻度条件の少なくともいずれかを満たせば、運転者が車両の側方の白線や車止めなどを確認していると推定する。
 図3に示すように、通常の運転姿勢の頭位置51Aから運転席のドアミラー53を視認すると、矢印Aの示すように車両55の右側後方は視認できるが、車両のすぐ側方であり後方の下部にある白線57などは視認しにくい。頭位置を通常の運転姿勢よりも上方かつドアミラー寄りの位置(頭位置51Bの位置)に移動させると、視線方向が矢印Bのようになり白線57を容易に視認できるようになる。
 また、駐車等で白線57を視認する場合には、ある程度の期間継続的に視認したり、他方向と交互に視線を替えながら高い頻度で視認することが多い。このような理由から、上記のように推定することができる。
 また、上記(ii)の状態や(iii)の状態にて、期間条件及び頻度条件の少なくともいずれかを満たせば、運転者が車両の後部座席を確認していると推定する。
 図4に示すように、通常の運転姿勢の頭位置61Aからルームミラー63を視認すると、矢印Cが示すように車両65の後方は視認できるが、車両65の後部座席は視認しにくい。頭位置を通常の運転姿勢よりも上方の位置(頭位置61Bの位置)に移動させると、視線方向が矢印Dのようになり後部座席を容易に視認できるようになる。または、頭位置を車両中央寄りとして後方を振り返ることで、後部座席を視認できるようになる。このような理由から、上記のように推定することができる。
 また、上記(iv)の状態にて、期間条件及び頻度条件のうちの少なくともいずれかを満たせば、運転者が左右の見通しの悪い交差点などで身を前に乗り出して左右を確認していると推定する。
 制御部49は、運転者が通常の運転姿勢に戻った後に、推定部47の推定結果に基づいて、運転者の頭位置が上述した(i)~(iv)の位置にあるときに視認可能である所定領域を、運転者が通常の運転姿勢にて視認可能となるように所定の機器を制御する。この所定領域とは、直接的に視認できる領域に限らず、上述したようにドアミラーやルームミラーなどを介して視認可能となる領域も含む。
 具体的な制御内容について説明する。推定結果が上記(i)の場合、ミラー角度制御装置17を制御して図3に示すドアミラー53のミラー角度を変更させ、通常の運転姿勢の頭位置51Aにて矢印B方向が視認できるようにする。
 また推定結果が(ii)または(iii)の場合、第二カメラ13にて撮影された画像を表示装置19に表示させる。なお、ルームミラー63のミラー角度を制御する装置を車両に設けて、その装置を制御してミラー角度を変更させることで通常の運転姿勢にて後部座席が視認できるようにしてもよい。
 また推定結果が(iv)の場合、第三カメラ15にて撮影された画像を表示装置19に表示させる。(2)制御装置21が実行する処理
 (2.1)機器制御処理
 制御装置21が実行する機器制御処理を、図5に示すフローチャートに基づいて説明する。
 この機器制御処理は、制御装置21を含む運転支援システム1全体に電力が供給されたときに開始される。本実施形態では、制御装置21はイグニッションスイッチがオンされたときに開始される。
 本処理では、制御装置21は、S1にて第一カメラ11が撮影した画像を取得し、その取得した画像に基づいて運転者の頭部の位置と視線方向とを算出する。
 制御装置21は、S2にて頭部の位置、および視線方向が、上述した視認動作状態のいずれかと検出されているか否かを判定する。視認動作状態でなければ(S2:NO)、制御装置21は、S1に戻る。
 視認動作状態であれば(S2:YES)、制御装置21は上述した(i)~(iv)のいずれの視認動作状態であるかをメモリ(RAM35)に記憶し、S3にて状態判定処理を行う。制御装置21は、S3にて視認動作状態である期間が所定の閾値以上となったこと、あるいは視認動作状態となる頻度が所定の閾値以上となったことを判定する。視認動作状態である期間が所定の閾値以上となった、あるいは視認動作状態となる頻度が所定の閾値以上であると判定がなされた場合には、制御装置21は機器制御フラグをONに設定する。この状態判定処理の詳細については後述する。
 制御装置21はS4にて機器制御フラグがONとなったか否かを判定する。機器制御フラグがONでなければ(S4:NO)、制御装置21はS1に戻る。
 機器制御フラグがONとなってれいば(S4:YES)、制御装置21はその旨を示す所定の表示を車両のインストルメントパネル内の表示装置に表示し、続くS5にて、第一カメラ11から新たに撮影した画像を取得し頭位置と視線方向とを算出する。そして制御装置21はS6にて、S5で算出した情報に基づいて、運転者が通常の運転姿勢であるか否かを判定する。通常の運転姿勢でなければ(S6:NO)、制御装置21はS5に戻る。即ち、運転者が視認動作状態から通常の運転姿勢に戻るまで待機する。
 運転者が通常の運転姿勢になれば(S6:YES)、制御装置21はS7にて所定の機器の動作を制御する。制御装置21は、S7でS2にて検出した上記視認動作状態(i)~(iv)に応じて、ミラー角度制御装置17や表示装置19等を制御する。所定時間経過後、制御装置21は所定の機器の動作を終了し、S1に戻る。本実施形態では、ミラー角度制御装置17や表示装置19が所定の機器として機能する。
 (2.2)状態判定処理
 制御装置21が実行する状態判定処理を、図6に示すフローチャートに基づいて説明する。
 制御装置21は、機器制御処理のS2において視認動作状態であると判定されたときに、この状態判定処理を実行する。
 状態判定処理が開始されると、制御装置21はS11にて経過時間のカウントを開始する。そして第一カメラ11が新たに撮影した画像を取得して、S12にて上記S1と同様に頭位置と視線方向とを算出し、S13にて直前のS2にて検出された視認動作状態と同じ視認状態であるかを判定する。
 このS13において視認動作状態であると判定された場合(S13:YES)、制御装置21はS14にて所定時間(例えば2秒)が経過したか否かを判定し、所定時間が経過していなければ(S14:NO)、処理がS12に戻り、所定時間が経過していれば(S14:YES)、S15にて機器制御フラグをONとする。その後、本処理を終了して、機器制御処理のS4に移行する。
 つまり、制御装置21はS12~S15の処理では視認動作状態であるか否かを繰り返し判定し、視認動作状態であることが検出されてからその状態の継続する期間が所定の閾値(所定時間)以上となった場合に機器制御フラグをONとする。
 なお制御装置21はS13にて視認動作状態ではないと判定すると(S13:NO)、S16にてその判定結果をメモリに記憶させる。即ち、S13から移行した場合は、メモリに直前のS2にて検出された視認動作状態と同じ視認状態でない判定結果を記憶させる。
 次に、S17にて直前のS2にて検出された視認動作状態と同じ視認動作状態となった回数が予め設定された値以上となったか否かを判定する。ここでは、メモリに記憶された判定結果に基づき、直前のS2にて検出された視認動作状態と同じ視認動作状態でない判定結果から直前のS2にて検出された視認動作状態と同じ視認動作状態である判定結果となった回数をカウントし、設定された値(例えば3)以上となったか否かを判定する。
 カウントした回数が設定された値以上であれば(S17:YES)、制御装置21はS15にて機器制御フラグをONとし、本処理を終了する。一方、設定された値以上でなければ(S17:NO)、制御装置21はS18にて所定時間(例えば10秒)が経過したか否かを判定し、所定時間が経過していれば(S18:YES)、機器制御フラグをONとすることなく本処理を終了する。
 また、所定時間が経過していなければ(S18:NO)、制御装置21は再度、第一カメラ11が新たに撮影した画像を取得してS19にて頭位置と視線方向とを算出し、S20にて直前のS2にて検出された視認動作状態と同じ視認動作状態であるか否かを判定し、S16に戻り、判定結果を記憶する。
 つまり、制御装置21はS15~S20では、所定時間が経過するまでに所定の視認動作状態となった回数が設定された値以上となった場合、即ち、所定の視認動作状態となる頻度が所定の閾値以上となった場合に機器制御フラグをONとする。
 (3)効果
 上記実施例の制御装置21によると、運転者は、視認動作状態のときに視認可能である所定領域を通常の運転姿勢にて視認できる。運転者が視認動作状態のときに視認可能である所定領域とは、具体的には車両の側方の白線や車止め、車両の後部座席、および交差点の左右方向といった通常の運転姿勢では視認が困難な領域である。そのため、運転者は、上述した所定領域を視認するために無理な体勢をとる必要がなくなり、また通常の運転姿勢を維持できることから運転操作のミスや事故の発生を抑制できる。
 また、視認動作状態であることが検出されてからその状態の継続する期間が所定の閾値以上となった場合、あるいは視認動作状態となる頻度が所定の閾値以上となった場合にのみミラー角度制御装置17や表示装置19等を制御するため、運転者が所定領域の視認を意図していない場合にまで所定の機器を作動させてしまうことを抑制できる。仮に上述した条件を設定せず、運転者の頭部が所定位置にあることのみに基づいて所定の機器を動作させるように構成した場合、偶然に運転者の頭部が所定位置に移動したときや、1フレームのみ頭部が所定位置にあると誤検出したときなどにも所定の機器を作動させてしまうことになりかねず、運転者が予期しない動作によって運転者が煩わしく感じることとなる。本開示による制御装置21によると、上記のような運転者が煩わしく感じることを抑制することができる。
 運転中には頭部を通常の姿勢から移動することが間々あり、また所定領域を一瞬だけ確認したい場合などもあるが、本開示による制御装置21によるとそのような場合には所定の機器が作動しない。よって、意図しない所定の機器の動作によって運転者を煩わせてしまうことが抑制できる。さらに、不要なエネルギーの消費を抑制できる。
 上記制御装置21は、所定の機器を制御するタイミングを、期間条件と頻度条件のうちの少なくともいずれかを満たしたと判定された場合であって、さらに、運転者の頭部が所定位置でなくなったときとしている。よって、運転者の頭部が所定位置でなくなったとき、例えば通常の運転姿勢に戻ったときに所定の機器を動作させるため、頭部が所定位置にあって所定の機器による補助を必要としないときにまで機器を動作させて不要なエネルギーを消費してしまったり、運転者が予期しない動作をしてしまい運転者が煩わしく感じることを抑制できる。
 所定の機器としては、例えば、車両に搭載されるミラーの角度を制御するミラー角度制御装置を用いられる。その場合には、制御装置21は、頭部が所定位置にあるときに視認可能である所定領域を、運転者が通常の運転姿勢においてミラーを介して視認可能となるようにミラー角度制御装置を制御する。このように構成された制御装置21は、ミラーの角度を変更させることにより、通常の運転姿勢において上述した所定領域を運転者に視認させることができる。また、ミラーを動作させるタイミングを上述したように運転者の頭部が所定位置でなくなったときとすれば、運転者の頭部が所定位置にあるときにはミラーが動作せず上記所定領域を視認し続けることができる。
 また、所定の機器としては、運転者が通常の運転姿勢において視認可能である位置に配置される表示装置を用いることもできる。この表示装置は運転者の頭部が所定位置であるときに視認可能である領域を撮影する撮影装置により撮影された画像を表示するものであり、制御装置21は表示装置に上記画像を表示させる。このように構成された制御装置21は、表示装置に上述した領域の画像を表示させることにより、上述した所定領域を運転者に視認させることができる。
 上記制御装置21は、車両の運転者を撮影した画像を画像解析した際に、運転者の頭部の位置に加え、運転者の視線方向を算出する。その場合、制御装置21は、頭部が所定位置にあり、かつ視線方向が上記所定位置に対応する所定方向である期間が所定の閾値以上となる期間条件、および、頭部が所定位置となり、かつ視線方向が上記所定方向となる頻度が所定の閾値以上となる頻度条件のうちの少なくともいずれかが満たされた場合に、所定の機器を制御する。
 このように構成された制御装置21は、運転者の頭部の位置のみでなく、運転者の視線方向まで確認して所定の機器を制御するため、当該所定の機器による支援が必要な状況を高い精度で判別でき、運転者が所定領域の視認を意図していない場合にまで機器を作動させてしまうことを抑制できる。
 なお、上述した機器制御処理は、コンピュータによる処理に適した命令の順番付けられた列からなるプログラムにより実現され、このプログラムは、各種記録媒体や通信回線を介して、注意喚起装置やこれを利用するユーザに提供される。なお、制御装置21を上記のように制御するためのコンピュータによって実行可能な命令からなる上記プログラムは、コンピュータで読み込み可能な有形かつ持続的な記憶媒体を介して、注意喚起装置やこれを利用するユーザに提供される。また、制御装置21を上記のように制御するためのコンピュータによって実行可能な命令からなる上記プログラムは、通信回線を介して、注意喚起装置やこれを利用するユーザに提供されることもできる。
 (4)変形例
 上記実施例においては、視認動作状態であることを頭位置と視線方向の両方に基づいて検出する構成を例示したが、視線方向は考慮せず、頭位置のみに基づいて視認動作状態であることを検出する構成であってもよい。
 上記実施例においては、機器制御処理のS6において、運転者が通常の運転姿勢に戻ったか否かを判定する構成を例示したが、運転者が通常の運転姿勢に戻るか否かを判断せず、状態判定処理のS15の機器制御フラグがONに設定されたことをトリガとしてミラー角度制御装置17や表示装置19等を制御する構成であってもよい。また、上記S6において、運転者が通常の運転姿勢に戻ることに変えて、運転者が視認動作状態でなくなったか否かを判断する構成としてもよい。
 また、運転者が視認動作状態であるときに視認可能である所定領域を運転者が通常の運転姿勢にて視認可能となるようにする所定の機器として、ミラー角度制御装置17および表示装置19を例示したが、それ以外の機器であってもよい。
 また、学習部43が、運転中にドアミラーおよびルームミラーを視認する際の頭位置や視線方向を学習するように構成し、検出部45が、新たに撮影した画像から算出した頭位置や視線方向が学習したものと相違する場合に、視認動作状態であると判定するように構成してもよい。
 また上記実施例においては、通常の運転姿勢における頭位置は学習部43にて学習する構成を例示したが、予め定められた位置を通常の運転姿勢における頭位置とし、学習をしない構成であってもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (7)

  1.  車両の運転者を撮影した画像を解析して、前記車両の車室内における前記運転者の頭部位置を算出する演算部(41)と、
     前記頭部位置が、通常の運転姿勢における位置とは相違する所定位置となる期間が所定の閾値以上となる期間条件、および、前記頭部位置が前記所定位置となる頻度が所定の閾値以上となる頻度条件のうちの少なくともいずれかが満されたかを判定する状態判定部(45,47)と、
     前記状態判定部(45,47)が前記期間条件及び前記頻度条件のうちの少なくともいずれかが満たされたと判定した場合に、前記頭部位置が前記所定位置となるときに視認可能である所定領域を、前記運転者が前記通常の運転姿勢にて視認可能となるように所定の機器を制御する制御部(49)とを備える
     運転支援装置。
  2.  前記制御部(49)は、前記状態判定部(45,47)が前記期間条件及び前記頻度条件のうちの少なくともいずれかが満たされたと判定した場合であって、かつ前記演算部(41)により算出された前記頭部位置が前記所定位置でなくなったときに、前記所定領域を、前記運転者が前記通常の運転姿勢にて視認可能となるように前記所定の機器を制御する
     請求項1に記載の運転支援装置。
  3.  前記所定の機器とは、前記車両に搭載されるミラーの角度を制御するミラー角度制御装置であり、
     前記制御部(49)は、前記所定領域を、前記運転者が前記通常の運転姿勢において前記ミラーを介して視認可能となるように前記ミラー角度制御装置を制御する
     請求項1または請求項2に記載の運転支援装置。
  4.  前記所定の機器とは、前記所定領域を撮影する撮影装置により撮影された画像を表示する表示装置であり、
     前記表示装置は、前記運転者が前記通常の運転姿勢において視認可能である位置に配置され、
     前記制御部(49)は、前記表示装置を制御して前記所定領域の画像を表示させる
     請求項1または請求項2に記載の運転支援装置。
  5.  前記演算部(41)は、前記車両の前記運転者を撮影した前記画像を解析して前記運転者の視線方向を算出し、
     前記状態判定部(45,47)は、前記頭部位置が前記所定位置となり、かつ前記視線方向が前記所定位置に対応する所定方向である期間が所定の閾値以上となる期間条件、および、前記頭部位置が前記所定位置となり、かつ前記視線方向が前記所定方向となる頻度が所定の閾値以上となる頻度条件のうちの少なくともいずれかが満たされたかを判定し、
     前記制御部(49)は、前記状態判定部(45,47)が前記期間条件及び前記頻度条件のうちの少なくともいずれかが満たされたと判定した場合に、前記所定領域を前記運転者が前記通常の運転姿勢にて視認可能となるように前記所定の機器を制御する
     請求項1から請求項4のいずれか1項に記載の運転支援装置。
  6.  請求項1から請求項5のいずれか1項に記載の運転支援装置を制御するためのコンピュータによって実行可能な命令を含むコンピュータで読み込み可能な有形かつ持続的な記憶媒体。
  7.  車両の運転者を撮影した画像を解析して前記運転者の頭部の前記車両内における頭部位置を算出し、
     前記頭部位置が通常の運転姿勢における位置とは相違する所定位置となる期間が所定の閾値以上となる期間条件、および、前記頭部位置が前記所定位置となる頻度が所定の閾値以上となる頻度条件のうちの少なくともいずれかを満たしたか判定し、
     前記期間条件及び前記頻度条件のうちの少なくともいずれかが満された場合に、前記頭部位置が前記所定位置となるときに視認可能である所定領域を、前記運転者が前記通常の運転姿勢にて視認可能となるように所定の機器を制御することを含む
     運転支援方法。
     
PCT/JP2013/000498 2012-01-31 2013-01-30 運転支援装置及び運転支援方法 Ceased WO2013114871A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012018685A JP2013154836A (ja) 2012-01-31 2012-01-31 運転支援装置およびプログラム
JP2012-018685 2012-08-03

Publications (1)

Publication Number Publication Date
WO2013114871A1 true WO2013114871A1 (ja) 2013-08-08

Family

ID=48904916

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/000498 Ceased WO2013114871A1 (ja) 2012-01-31 2013-01-30 運転支援装置及び運転支援方法

Country Status (2)

Country Link
JP (1) JP2013154836A (ja)
WO (1) WO2013114871A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016041576A (ja) * 2014-08-13 2016-03-31 センソリー・インコーポレイテッド 自動化された死角の可視化のための技術
CN109034137A (zh) * 2018-09-07 2018-12-18 百度在线网络技术(北京)有限公司 头部姿态标记更新方法、装置、存储介质和终端设备
CN110382321A (zh) * 2017-03-17 2019-10-25 日立汽车系统株式会社 驾驶辅助装置以及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001260776A (ja) * 2000-03-22 2001-09-26 Mazda Motor Corp 車両用障害物警報装置
JP2002274265A (ja) * 2001-03-22 2002-09-25 Honda Motor Co Ltd ミラー調整装置
JP2005062911A (ja) * 2003-06-16 2005-03-10 Fujitsu Ten Ltd 車両制御装置
JP2009023565A (ja) * 2007-07-20 2009-02-05 Denso It Laboratory Inc 運転支援装置および運転支援方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001260776A (ja) * 2000-03-22 2001-09-26 Mazda Motor Corp 車両用障害物警報装置
JP2002274265A (ja) * 2001-03-22 2002-09-25 Honda Motor Co Ltd ミラー調整装置
JP2005062911A (ja) * 2003-06-16 2005-03-10 Fujitsu Ten Ltd 車両制御装置
JP2009023565A (ja) * 2007-07-20 2009-02-05 Denso It Laboratory Inc 運転支援装置および運転支援方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016041576A (ja) * 2014-08-13 2016-03-31 センソリー・インコーポレイテッド 自動化された死角の可視化のための技術
CN110382321A (zh) * 2017-03-17 2019-10-25 日立汽车系统株式会社 驾驶辅助装置以及方法
CN110382321B (zh) * 2017-03-17 2022-12-27 日立安斯泰莫株式会社 驾驶辅助装置
CN109034137A (zh) * 2018-09-07 2018-12-18 百度在线网络技术(北京)有限公司 头部姿态标记更新方法、装置、存储介质和终端设备
CN109034137B (zh) * 2018-09-07 2019-11-19 百度在线网络技术(北京)有限公司 头部姿态标记更新方法、装置、存储介质和终端设备

Also Published As

Publication number Publication date
JP2013154836A (ja) 2013-08-15

Similar Documents

Publication Publication Date Title
JP6470335B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
JP5099451B2 (ja) 車両周辺確認装置
CN108639055B (zh) 车辆的显示系统及车辆的显示系统的控制方法
US10166922B2 (en) On-vehicle image display device, on-vehicle image display method for vehicle, and on-vehicle image setting device
US7379089B2 (en) Apparatus and method for monitoring the immediate surroundings of a vehicle
JP5093611B2 (ja) 車両周辺確認装置
CN101313576A (zh) 车辆周边显示装置
JP7058800B2 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
JP6197814B2 (ja) 車両用表示装置
JP5092776B2 (ja) 視線方向検出装置及び視線方向検出方法
CN103688299A (zh) 车辆的驾驶辅助装置
JP2013132970A (ja) ミラー制御装置およびプログラム
JP2012176656A (ja) 駐車支援装置
WO2014034065A1 (ja) 移動体警告装置、および移動体警告方法
WO2017145549A1 (ja) 脇見見落とし注意システム及びコンピュータプログラム
JP2010184534A (ja) 死角表示装置
WO2013114871A1 (ja) 運転支援装置及び運転支援方法
JP5845909B2 (ja) 障害物警報装置
JP6700502B2 (ja) 車両用表示制御装置および表示制御方法
KR20130031653A (ko) 차량용 후방감지 카메라의 시야각 조절 시스템
JP2009044570A (ja) 車両死角補助システム
JP5943207B2 (ja) 車両の駐車操作支援用映像表示装置
JP5020606B2 (ja) 周辺監視装置
JP2008162550A (ja) 外部環境表示装置
JP2021170166A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13744298

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13744298

Country of ref document: EP

Kind code of ref document: A1