[go: up one dir, main page]

JP2011008699A - Driving operation evaluation device - Google Patents

Driving operation evaluation device Download PDF

Info

Publication number
JP2011008699A
JP2011008699A JP2009153970A JP2009153970A JP2011008699A JP 2011008699 A JP2011008699 A JP 2011008699A JP 2009153970 A JP2009153970 A JP 2009153970A JP 2009153970 A JP2009153970 A JP 2009153970A JP 2011008699 A JP2011008699 A JP 2011008699A
Authority
JP
Japan
Prior art keywords
vehicle
driving operation
driver
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009153970A
Other languages
Japanese (ja)
Inventor
Naoyuki Yamada
直之 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009153970A priority Critical patent/JP2011008699A/en
Publication of JP2011008699A publication Critical patent/JP2011008699A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運転者による運転操作を車両の周囲の状況に応じて適正に評価する。
【解決手段】運転操作評価ECU1は、該車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する移動体検出部101と、検出された移動体の該車両からの距離、及び、相対速度に基づき、仮想的な優良運転者の運転操作を推定する優良操作推定部108と、該車両の運転者による運転操作を検出する運転操作検出部104と、優良操作推定部108によって推定された仮想的な優良運転者の運転操作に基づき、運転操作検出部104によって検出された運転操作の適否を評価する操作評価部110と、を備える。
【選択図】図3
A driving operation by a driver is appropriately evaluated according to a situation around the vehicle.
A driving operation evaluation ECU is detected by a moving body detecting unit that detects a distance from the other vehicle existing around the vehicle, a moving body including a pedestrian from the vehicle, and a relative speed. Based on the distance of the moving body from the vehicle and the relative speed, an excellent operation estimation unit 108 that estimates the driving operation of the virtual excellent driver, and a driving operation detection that detects the driving operation by the driver of the vehicle Unit 104 and an operation evaluation unit 110 that evaluates the suitability of the driving operation detected by the driving operation detection unit 104 based on the driving operation of the virtual excellent driver estimated by the excellent operation estimating unit 108.
[Selection] Figure 3

Description

本発明は、例えば、車両に搭載され、運転者による運転操作の適否を評価する運転操作評価装置に関する。   The present invention relates to a driving operation evaluation apparatus that is mounted on, for example, a vehicle and evaluates the suitability of a driving operation by a driver.

従来、運転者による運転操作の安全性を改善する目的で、運転者によって行われた運転操作が安全性の観点から適切なものであるか否かを評価する種々の装置、方法等が提案されている(例えば、特許文献1参照)。   Conventionally, for the purpose of improving the safety of the driving operation by the driver, various devices, methods and the like for evaluating whether the driving operation performed by the driver is appropriate from the viewpoint of safety have been proposed. (For example, refer to Patent Document 1).

例えば、特許文献1に記載の安全運転評価装置は、運転者の状態を検出する運転者状態検出手段、自車の運転状態を検出する車両状態検出手段、及び、自車の周囲の走行環境を検出する走行環境検出手段、の検出情報に基づき運転の内容を評価する運転評価手段と、運転評価手段の評価結果を運転者に認知させるために出力する評価出力手段とを備える。   For example, a safe driving evaluation device described in Patent Document 1 includes a driver state detecting unit that detects a driver's state, a vehicle state detecting unit that detects a driving state of the host vehicle, and a traveling environment around the host vehicle. Driving evaluation means for evaluating the content of driving based on detection information of the traveling environment detection means to detect, and evaluation output means for outputting the evaluation result of the driving evaluation means to make the driver recognize.

上記特許文献1に記載の安全運転評価装置によれば、運転者の状態、自車の運転状態、及び、自車の周囲の走行環境、の検出情報に基づき運転内容を評価し、これを出力して運転者に認知させることができ、安全度の低い運転をしている場合には運転者に安全運転を促すことができる。   According to the safe driving evaluation device described in Patent Document 1, the driving content is evaluated based on detection information of the driver's state, the driving state of the host vehicle, and the traveling environment around the host vehicle, and the output is output. Thus, the driver can be made aware, and the driver can be encouraged to drive safely when driving with low safety.

特開2000−268297号公報JP 2000-268297 A

しかしながら、上記特許文献1に記載の安全運転評価装置には、種々の実施形態が記載されているが、運転内容の評価基準が画一的であって、車両の周囲の状況に応じた適正な評価がされない虞がある。   However, although various embodiments are described in the safe driving evaluation apparatus described in Patent Document 1, the evaluation criteria for driving contents are uniform and appropriate according to the situation around the vehicle. There is a risk that it will not be evaluated.

例えば、上記特許文献1の図11には、車間距離が安全領域にあるか否かに基づいて、運転内容の評価する技術が開示されている。しかしながら、交通量の多寡等の、該車両の周囲の状況に応じて、運転者は、車間距離を臨機応変に決定する必要があるため、上述のような評価では、適正な結果が得られない場合がある。   For example, FIG. 11 of Patent Document 1 discloses a technique for evaluating driving details based on whether or not the inter-vehicle distance is in a safe region. However, since the driver needs to determine the inter-vehicle distance flexibly according to the situation around the vehicle, such as the amount of traffic, an appropriate result cannot be obtained in the above evaluation. There is a case.

本発明は、上記事情に鑑みてなされたものであって、その目的とするところは、運転者による運転操作を車両の周囲の状況に応じて適正に評価することの可能な運転操作評価装置を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a driving operation evaluation apparatus capable of appropriately evaluating a driving operation by a driver according to a situation around the vehicle. It is to provide.

上記目的を達成するために、本発明は、以下の特徴を有している。第1の発明は、車両に搭載され、運転者による運転操作の適否を評価する運転操作評価装置であって、該車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する移動体検出手段と、前記移動体検出手段によって検出された移動体の該車両からの距離、及び、相対速度に基づき、仮想的な優良運転者の運転操作を推定する優良操作推定手段と、該車両の運転者による運転操作を検出する運転操作検出手段と、前記優良操作推定手段によって推定された仮想的な優良運転者の運転操作に基づき、前記運転操作検出手段によって検出された運転操作の適否を評価する操作評価手段と、を備える。   In order to achieve the above object, the present invention has the following features. A first aspect of the present invention is a driving operation evaluation device that is mounted on a vehicle and evaluates the suitability of a driving operation by a driver, from other vehicles existing around the vehicle and from the vehicle of a moving body including a pedestrian The moving object detecting means for detecting the distance and the relative speed, and the driving operation of the virtual excellent driver based on the distance from the vehicle and the relative speed of the moving object detected by the moving object detecting means. Based on the driving operation of the virtual excellent driver estimated by the excellent operation estimating means, the driving operation detecting means for detecting the driving operation by the driver of the vehicle, Operation evaluation means for evaluating the suitability of the driving operation detected by the detection means.

第2の発明は、上記第1の発明において、ナビゲーションシステムを介して、該車両が走行している道路近傍に敷設され、該車両の周囲に存在する信号機、標識、横断歩道を含む敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報を取得する敷設物情報取得手段を備え、前記優良操作推定手段が、前記敷設物情報取得手段によって取得された敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報に基づき、仮想的な優良運転者の運転操作を推定する。   According to a second aspect of the present invention, in the first aspect of the present invention, there is provided a laying object including a traffic light, a sign, and a pedestrian crossing that is laid near the road on which the vehicle is traveling and is located around the vehicle via the navigation system. Type information, position information, and laying object information acquisition means for acquiring position information on the map of the vehicle, wherein the excellent operation estimation means is the type information of the laying object acquired by the laying object information acquisition means, Based on the position information and the position information on the map of the vehicle, the driving operation of the virtual excellent driver is estimated.

第3の発明は、上記第1の発明において、前記移動体検出手段が、該車両の前方及び側方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する。   According to a third invention, in the first invention, the moving body detecting means includes other vehicles existing in front and sides of the vehicle, distances of the moving bodies including pedestrians from the vehicle, and relative Detect speed.

第4の発明は、上記第3の発明において、前記移動体検出手段が、該車両の後方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する。   In a fourth aspect based on the third aspect, the moving body detecting means detects a distance from the vehicle and other vehicles existing behind the vehicle and a moving body including a pedestrian, and a relative speed. To do.

第5の発明は、上記第1の発明において、前記移動体検出手段が、画像情報を生成するカメラ、及び、レーダ装置を介して、該車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する。   According to a fifth invention, in the first invention, the moving body detection means includes a camera that generates image information, and other vehicles and pedestrians existing around the vehicle via a radar device. The distance and relative speed of the moving body from the vehicle are detected.

第6の発明は、上記第2の発明において、前記運転操作検出手段によって検出された該車両の運転者による運転操作、及び、前記敷設物情報取得手段によって取得された敷設物の種類情報、位置情報、該車両の地図上の位置情報、の少なくとも一方に基づいて、該車両の右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作の少なくとも1つの操作を含み、予め設定された複数の評価対象操作の内、いずれかが行われたか否かを判定する操作判定手段を備え、前記操作評価手段が、前記操作判定手段によって前記複数の評価対象操作のいずれかが行われたと判定された場合に、前記運転操作検出手段によって検出された運転操作の適否を評価する。   In a sixth aspect based on the second aspect, the driving operation by the driver of the vehicle detected by the driving operation detecting means, and the type information and position of the laying object acquired by the laying object information acquiring means Including at least one of a right turn operation, a left turn operation, an overtaking operation, a lane change operation, a pause operation, and an intersection passing operation based on at least one of the information and the position information on the map of the vehicle An operation determining means for determining whether any of a plurality of preset evaluation target operations has been performed, wherein the operation evaluation means is one of the plurality of evaluation target operations by the operation determination means. When it is determined that the driving operation is performed, the propriety of the driving operation detected by the driving operation detecting means is evaluated.

第7の発明は、上記第1の発明において、前記操作評価手段が、前記移動体検出手段によって検出された移動体と該車両との距離に基づいて、該車両の運転者による運転操作の適否を評価する。   In a seventh aspect based on the first aspect, the operation evaluating means determines whether the driving operation by the driver of the vehicle is appropriate based on the distance between the moving body and the vehicle detected by the moving body detecting means. To evaluate.

第8の発明は、上記第7の発明において、前記操作評価手段が、前記移動体検出手段によって検出された移動体との相対速度に基づいて、該車両の運転者による運転操作の適否を評価する。   In an eighth aspect based on the seventh aspect, the operation evaluation means evaluates whether or not the driving operation by the driver of the vehicle is appropriate based on a relative speed with respect to the moving body detected by the moving body detection means. To do.

第9の発明は、上記第7の発明において、前記操作評価手段が、前記移動体検出手段によって検出された移動体と該車両との距離を、前記優良操作推定手段によって推定された仮想的な優良運転者の運転操作による仮想的な車両から前記移動体検出手段によって検出された移動体までの距離と比較することによって、該車両の運転者による運転操作の適否を評価する。   A ninth invention is the virtual machine according to the seventh invention, wherein the operation evaluation means estimates the distance between the moving object detected by the moving object detection means and the vehicle by the excellent operation estimation means. The suitability of the driving operation by the driver of the vehicle is evaluated by comparing with the distance from the virtual vehicle by the driving operation of the excellent driver to the moving body detected by the moving body detecting means.

第10の発明は、上記第7の発明において、前記移動体検出手段によって検出された移動体の種類を推定する移動体判別手段を備え、前記操作評価手段が、前記移動体判別手段によって推定された移動体の種類に基づいて、該車両の運転者による運転操作の適否を評価する。   According to a tenth aspect of the present invention, in the seventh aspect of the invention, the mobile unit determination unit estimates the type of the mobile unit detected by the mobile unit detection unit, and the operation evaluation unit is estimated by the mobile unit determination unit. The suitability of the driving operation by the driver of the vehicle is evaluated based on the type of the moving body.

第11の発明は、上記第2の発明において、前記敷設物情報取得手段によって取得された敷設物の種類情報及び位置情報、前記移動体検出手段によって検出された移動体の該車両からの距離、相対速度、及び、前記運転操作検出手段によって検出された該車両の運転者による運転操作に基づいて、前記敷設物の種類、位置、前記移動体の位置、及び、該車両の位置を含み、予め設定された第1所定時間毎の予め設定された第1所定範囲の鳥瞰図である第1鳥瞰図を生成する第1鳥瞰図生成手段を備え、前記操作評価手段が、前記第1鳥瞰図に基づいて、該車両の運転者による運転操作の適否を評価する。   In an eleventh aspect based on the second aspect, the type information and position information of the laying object acquired by the laying object information acquiring means, the distance of the moving object detected by the moving object detecting means from the vehicle, Based on the relative speed and the driving operation by the driver of the vehicle detected by the driving operation detecting means, the type of the laying object, the position, the position of the moving body, and the position of the vehicle are included in advance. A first bird's-eye view generation means for generating a first bird's-eye view that is a bird's-eye view of a first predetermined range set in advance for each set first predetermined time, and the operation evaluation means, based on the first bird's-eye view, Evaluate the suitability of driving operations by the vehicle driver.

第12の発明は、上記第11の発明において、前記敷設物情報取得手段によって取得された敷設物の種類情報及び位置情報、前記移動体検出手段によって検出された移動体の該車両からの距離、相対速度、及び、前記優良操作推定手段によって推定された仮想的な優良運転者の運転操作に基づいて、前記敷設物の種類、位置、前記移動体の位置、及び、前記仮想的な優良運転者が運転操作する仮想的な車両の位置を含み、予め設定された第2所定時間毎の予め設定された第2所定範囲の鳥瞰図である第2鳥瞰図を生成する第2鳥瞰図生成手段を備え、前記操作評価手段が、前記第1鳥瞰図及び前記第2鳥瞰図に基づいて、該車両の運転者による運転操作の適否を評価する。   In a twelfth aspect based on the eleventh aspect, the type information and position information of the laying object acquired by the laying object information acquiring means, the distance of the moving object detected by the moving object detecting means from the vehicle, Based on the relative speed and the driving operation of the virtual excellent driver estimated by the excellent operation estimating means, the type of the laying object, the position, the position of the moving body, and the virtual excellent driver Comprising a second bird's-eye view generation means for generating a second bird's-eye view that is a bird's-eye view of a second predetermined range that is preset every second predetermined time, including the position of the virtual vehicle that is operated by The operation evaluation means evaluates the suitability of the driving operation by the driver of the vehicle based on the first bird's eye view and the second bird's eye view.

第13の発明は、上記第12の発明において、前記第2所定時間が、前記第1所定時間と略同一値に設定され、前記第2所定範囲が、前記第1所定範囲と略同一範囲に設定されている。   In a thirteenth aspect based on the twelfth aspect, the second predetermined time is set to be substantially the same value as the first predetermined time, and the second predetermined range is set to be substantially the same as the first predetermined range. Is set.

第14の発明は、上記第12の発明において、前記操作評価手段が、前記第1鳥瞰図における該車両の位置の時間的変化を、前記第2鳥瞰図における前記仮想的な車両の位置の時間的変化と比較して、該車両の運転者による運転操作の適否を評価する。   In a fourteenth aspect based on the twelfth aspect, the operation evaluating means indicates a temporal change in the position of the vehicle in the first bird's-eye view, and a temporal change in the position of the virtual vehicle in the second bird's-eye view. In comparison with the above, the propriety of the driving operation by the driver of the vehicle is evaluated.

第15の発明は、上記第12の発明において、前記操作評価手段による評価結果を、該車両の運転者へ視認可能に出力する評価結果出力手段を備える。   In a fifteenth aspect based on the twelfth aspect, the fifteenth aspect includes evaluation result output means for outputting the evaluation result by the operation evaluation means to the driver of the vehicle so as to be visible.

第16の発明は、上記第15の発明において、前記評価結果出力手段が、前記第1鳥瞰図及び前記第2鳥瞰図の少なくとも一方を、該車両の運転者に視認可能に表示する。   In a sixteenth aspect based on the fifteenth aspect, the evaluation result output means displays at least one of the first bird's-eye view and the second bird's-eye view so as to be visible to the driver of the vehicle.

第17の発明は、上記第15の発明において、前記評価結果出力手段が、前記操作評価手段による評価結果を説明する音声情報を生成し、生成された音声を出力する。   In a seventeenth aspect based on the fifteenth aspect, the evaluation result output means generates sound information explaining the evaluation result by the operation evaluation means, and outputs the generated sound.

第18の発明は、上記第1の発明において、前記操作評価手段による評価結果を、該車両の運転者へ視認可能に出力する評価結果出力手段を備える。   In an eighteenth aspect based on the first aspect, an evaluation result output means is provided for outputting the evaluation result by the operation evaluation means to the driver of the vehicle so as to be visible.

第19の発明は、上記第18の発明において、前記操作評価手段による評価結果を該車両の運転者へ出力するタイミングである出力タイミングを決定する出力時点決定手段を備え、前記評価結果出力手段が、前記出力時点決定手段によって決定された出力タイミングにおいて、前記操作評価手段による評価結果を出力する。   In a nineteenth aspect based on the eighteenth aspect, the present invention further comprises output time point determination means for determining an output timing that is a timing for outputting the evaluation result by the operation evaluation means to a driver of the vehicle, wherein the evaluation result output means is The evaluation result by the operation evaluation unit is output at the output timing determined by the output time point determination unit.

第20の発明は、上記第19の発明において、前記出力時点決定手段が、前記操作評価手段による評価が終了した後、該車両が安全な状況になったタイミングを前記出力タイミングとして決定する。   In a twentieth aspect according to the nineteenth aspect, the output time point determination means determines, as the output timing, a timing when the vehicle is in a safe state after the evaluation by the operation evaluation means is completed.

第21の発明は、上記第20の発明において、前記敷設物情報取得手段によって取得された敷設物の種類及び位置、該車両の地図上の位置、前記移動体検出手段によって検出された移動体の該車両からの距離、相対速度、及び、前記運転操作検出手段によって検出された該車両の運転者による運転操作に基づいて、該車両が安全な状況であるか否かを判定する状況判定手段を備え、前記出力時点決定手段が、前記状況判定手段によって該車両が安全な状況になったと判定されたタイミングを前記出力タイミングとして決定する。   According to a twenty-first aspect, in the twentieth aspect, the type and position of the laying object acquired by the laying object information acquiring means, the position on the map of the vehicle, and the moving object detected by the moving object detecting means. Situation determining means for determining whether or not the vehicle is in a safe state based on the distance from the vehicle, the relative speed, and the driving operation by the driver of the vehicle detected by the driving operation detecting means. The output time determination means determines the timing at which the situation determination means determines that the vehicle is in a safe situation as the output timing.

上記第1の発明によれば、車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度が検出される。そして、検出された移動体の該車両からの距離、及び、相対速度に基づき、仮想的な優良運転者の運転操作が推定される。また、該車両の運転者による運転操作が検出される。更に、推定された仮想的な優良運転者の運転操作に基づき、検出された運転操作の適否が評価される。従って、運転者による運転操作を車両の周囲の状況に応じて適正に評価することができる。   According to the first aspect of the invention, the distance from the other vehicle existing around the vehicle, the moving body including the pedestrian from the vehicle, and the relative speed are detected. Based on the detected distance of the moving body from the vehicle and the relative speed, the driving operation of the virtual excellent driver is estimated. Further, a driving operation by the driver of the vehicle is detected. Furthermore, the suitability of the detected driving operation is evaluated based on the estimated driving operation of the virtual excellent driver. Therefore, the driving operation by the driver can be appropriately evaluated according to the situation around the vehicle.

すなわち、車両の周囲の状況として、車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度が検出される。そして、この車両の周囲の状況において、仮想的な優良運転者の運転操作が推定され、推定された仮想的な優良運転者の運転操作に基づき、検出された運転操作の適否が評価されるため、運転者による運転操作を、具体的な車両の周囲の状況における仮想的な優良運転者の運転操作と対比することによって、運転者による運転操作を車両の周囲の状況に応じて適正に評価することができるのである。   That is, as the situation around the vehicle, the distance from the other vehicle existing around the vehicle, the moving body including the pedestrian, and the relative speed are detected. In this situation around the vehicle, the driving operation of the virtual excellent driver is estimated, and the suitability of the detected driving operation is evaluated based on the estimated driving operation of the virtual excellent driver. By comparing the driving operation by the driver with the driving operation of a virtual excellent driver in a specific situation around the vehicle, the driving operation by the driver is appropriately evaluated according to the situation around the vehicle. It can be done.

上記第2の発明によれば、ナビゲーションシステムを介して、該車両が走行している道路近傍に敷設され、該車両の周囲に存在する信号機、標識、横断歩道を含む敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報が取得される。そして、取得された敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報に基づき、仮想的な優良運転者の運転操作が推定される。従って、仮想的な優良運転者の運転操作を更に正確に推定することができる。   According to the second aspect of the invention, the type information and position of the laying object including the traffic lights, signs, and pedestrian crossings that are laid in the vicinity of the road on which the vehicle is traveling and that exist around the vehicle via the navigation system. Information and position information on the map of the vehicle are acquired. Then, based on the acquired laying object type information, position information, and position information on the map of the vehicle, the driving operation of the virtual excellent driver is estimated. Therefore, the driving operation of the virtual excellent driver can be estimated more accurately.

すなわち、車両の周囲の状況として、更に、該車両が走行している道路近傍に敷設され、該車両の周囲に存在する信号機、標識、横断歩道を含む敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報が取得されるため、車両の周囲の状況を更に正確に認識することができる。そこで、更に正確に認識された車両の周囲の状況に基づいて、仮想的な優良運転者の運転操作が推定されるため、仮想的な優良運転者の運転操作を更に正確に推定することができるのである。   That is, as the situation around the vehicle, further, the type information of the laying object including the traffic lights, signs, and pedestrian crossings that are laid near the road on which the vehicle is traveling, the position information, and Since the position information on the map of the vehicle is acquired, the situation around the vehicle can be more accurately recognized. Therefore, since the driving operation of the virtual excellent driver is estimated based on the situation around the vehicle recognized more accurately, the driving operation of the virtual excellent driver can be estimated more accurately. It is.

上記第3の発明によれば、該車両の前方及び側方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度が検出されるため、仮想的な優良運転者の運転操作を正確に推定することができる。   According to the third aspect of the present invention, the distance from the vehicle to the other vehicle existing in front and side of the vehicle, the pedestrian, and the relative speed are detected. The driving operation of the driver can be accurately estimated.

すなわち、該車両の周囲の状況として、該車両の進行方向に存在する移動体の該車両からの距離、及び、相対速度を検出することが重要である。そこで、該車両の前方及び側方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度が検出されるため、該車両の周囲の状況を適正に検出することができるので、仮想的な優良運転者の運転操作を正確に推定することができるのである。   That is, it is important to detect the distance from the vehicle and the relative speed of the moving body that exists in the traveling direction of the vehicle as the situation around the vehicle. Therefore, since the distance from the vehicle and the relative speed of the moving body including the pedestrian and other vehicles existing in front and side of the vehicle are detected, the situation around the vehicle is properly detected. Therefore, the driving operation of a virtual excellent driver can be accurately estimated.

上記第4の発明によれば、該車両の後方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度が検出される。従って、仮想的な優良運転者の運転操作を更に正確に推定することができる。   According to the fourth aspect of the present invention, the distance from the vehicle to the other vehicle existing behind the vehicle, the moving body including the pedestrian, and the relative speed are detected. Therefore, the driving operation of the virtual excellent driver can be estimated more accurately.

すなわち、該車両の前方及び側方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度に加えて、該車両の後方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度が検出されるため、該車両の周囲の状況を更に適正に検出することができるので、仮想的な優良運転者の運転操作を更に正確に推定することができるのである。   That is, in addition to the distance and relative speed of the moving body including the other vehicles and pedestrians existing in front and side of the vehicle, the other vehicles and pedestrians existing behind the vehicle. Since the distance and relative speed of the moving body including the vehicle are detected, the situation around the vehicle can be detected more appropriately, so that the driving operation of the virtual excellent driver can be more accurately performed. Can be estimated.

上記第5の発明によれば、画像情報を生成するカメラ、及び、レーダ装置を介して、該車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度が検出される。従って、簡素な構成で正確に該車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出することができる。   According to the fifth aspect of the present invention, the distance from the vehicle of the moving body including the other vehicle existing around the vehicle, the pedestrian, and the vehicle via the camera that generates the image information and the radar device, and Relative speed is detected. Therefore, it is possible to accurately detect the distance and relative speed of other vehicles existing around the vehicle and the moving body including the pedestrian from the vehicle with a simple configuration.

上記第6の発明によれば、検出された該車両の運転者による運転操作、及び、取得された敷設物の種類情報、位置情報、該車両の地図上の位置情報、の少なくとも一方に基づいて、該車両の右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作の少なくとも1つの操作を含み、予め設定された複数の評価対象操作の内、いずれかが行われたか否かが判定される。そして、前記複数の評価対象操作のいずれかが行われたと判定された場合に、検出された運転操作の適否が評価される。従って、運転者による運転操作の内、前記複数の評価対象操作に含まれる運転操作を、車両の周囲の状況に応じて適正に評価することができる。   According to the sixth aspect of the invention, based on at least one of the detected driving operation by the driver of the vehicle and the acquired type information, position information, and position information on the map of the vehicle. Including at least one of a right turn operation, a left turn operation, an overtaking operation, a lane change operation, a pause operation, and an intersection passing operation of the vehicle, and any one of a plurality of preset evaluation target operations is performed. It is determined whether or not it has been received. When it is determined that any of the plurality of evaluation target operations has been performed, the suitability of the detected driving operation is evaluated. Therefore, among the driving operations performed by the driver, the driving operations included in the plurality of evaluation target operations can be appropriately evaluated according to the situation around the vehicle.

すなわち、該車両の右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作は、事故の発生する危険性の高い運転操作である。そこで、これらの運転操作が行われた場合(=前記複数の評価対象操作のいずれかが行われたと判定された場合)に、検出された運転操作の適否が評価されるため、前記複数の評価対象操作を適正に設定することによって、危険性の高い運転操作に関して、車両の周囲の状況に応じた適正な評価を行うことができるのである。   That is, a right turn operation, a left turn operation, an overtaking operation, a lane change operation, a temporary stop operation, and an intersection passing operation of the vehicle are driving operations with a high risk of causing an accident. Therefore, when these driving operations are performed (= when it is determined that any of the plurality of evaluation target operations has been performed), the suitability of the detected driving operations is evaluated. By appropriately setting the target operation, it is possible to appropriately evaluate the driving operation with high risk in accordance with the situation around the vehicle.

上記第7の発明によれば、検出された移動体と該車両との距離に基づいて、該車両の運転者による運転操作の適否が評価される。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the seventh aspect, the propriety of the driving operation by the driver of the vehicle is evaluated based on the detected distance between the moving body and the vehicle. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、例えば、該車両が右折する際に、該車両の進行方向において歩行者が横断歩道を渡っている場合(図4参照)には、優良運転者は、前記歩行者が危険を感じない程度の距離閾値Lsh(例えば、5m)を確保して、この距離を確保するべく運転操作を行う。これに対して、該車両と前記歩行者との距離が距離閾値Lsh以下(図5、図6参照)である場合には、該車両の運転者による運転操作が適切ではないと評価する。このようにして、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができるのである。   That is, for example, when a pedestrian crosses a pedestrian crossing in the traveling direction of the vehicle when the vehicle turns to the right (see FIG. 4), the excellent driver does not feel the pedestrian feels dangerous. The distance threshold Lsh (for example, 5 m) is secured, and the driving operation is performed to secure this distance. In contrast, when the distance between the vehicle and the pedestrian is equal to or less than the distance threshold Lsh (see FIGS. 5 and 6), it is evaluated that the driving operation by the driver of the vehicle is not appropriate. In this way, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

上記第8の発明によれば、検出された移動体との相対速度に基づいて、該車両の運転者による運転操作の適否が評価される。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the eighth aspect, the propriety of the driving operation by the driver of the vehicle is evaluated based on the detected relative speed with the moving body. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、例えば、該車両が右折する際に、該車両の進行方向において歩行者が横断歩道を渡っている場合(図4参照)には、優良運転者は、前記横断歩道近傍において、前記歩行者が危険を感じない程度の閾値速度(例えば、10km/時)以下とするべく運転操作を行う。これに対して、該車両と前記歩行者との相対速度が閾値速度より大きい場合には、該車両の運転者による運転操作が適切ではないと評価する。このようにして、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができるのである。   That is, for example, when a pedestrian crosses a pedestrian crossing in the traveling direction of the vehicle when the vehicle turns to the right (see FIG. 4), an excellent driver is located near the pedestrian crossing. The driving operation is performed so that the speed is below a threshold speed (for example, 10 km / hour) that does not cause danger. On the other hand, when the relative speed between the vehicle and the pedestrian is larger than the threshold speed, it is evaluated that the driving operation by the driver of the vehicle is not appropriate. In this way, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

上記第9の発明によれば、検出された移動体と該車両との距離を、推定された仮想的な優良運転者の運転操作による仮想的な車両から移動体までの距離と比較することによって、該車両の運転者による運転操作の適否が評価される。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the ninth aspect, by comparing the distance between the detected moving body and the vehicle with the estimated distance from the virtual vehicle to the moving body by the driving operation of the virtual excellent driver. The suitability of the driving operation by the driver of the vehicle is evaluated. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、例えば、該車両が右折する際に、該車両の進行方向において歩行者が横断歩道を渡っている場合(図5参照)には、優良運転者は、前記歩行者が危険を感じない程度の距離閾値Lsh(例えば、5m)を確保して、この距離を確保するべく運転操作を行う。これに対して、該車両と前記歩行者との距離が距離閾値Lsh以下(図4、図6参照)である場合には、該車両の運転者による運転操作が適切ではないと評価する。このようにして、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができるのである。   That is, for example, when a pedestrian crosses a pedestrian crossing in the traveling direction of the vehicle when the vehicle makes a right turn (see FIG. 5), the excellent driver does not feel the danger of the pedestrian. The distance threshold Lsh (for example, 5 m) is secured, and the driving operation is performed to secure this distance. On the other hand, when the distance between the vehicle and the pedestrian is not more than the distance threshold Lsh (see FIGS. 4 and 6), it is evaluated that the driving operation by the driver of the vehicle is not appropriate. In this way, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

上記第10の発明によれば、検出された移動体の種類が推定される。そして、推定された移動体の種類に基づいて、該車両の運転者による運転操作の適否が評価される。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the tenth aspect, the type of the detected moving object is estimated. Then, the propriety of the driving operation by the driver of the vehicle is evaluated based on the estimated type of the moving body. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、例えば、移動体の種類が子供であると推定された場合には、進行方向を急に変えることがある、急に走り出すことがある等の子供の行動特性を反映して、運転操作を評価することができる。また、例えば、移動体の種類が老人であると推定された場合には、危険な状況になった場合に立ち止まる等の老人の行動特性を反映して、運転操作を評価することができる。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができるのである。   That is, for example, when it is estimated that the type of the moving body is a child, the driving operation is reflected to reflect the behavioral characteristics of the child, such as a sudden change in the direction of travel or a sudden start of running. Can be evaluated. For example, when it is estimated that the type of the moving body is an elderly person, it is possible to evaluate the driving operation by reflecting the behavioral characteristics of the elderly person such as stopping in a dangerous situation. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

上記第11の発明によれば、取得された敷設物の種類情報及び位置情報、検出された移動体の該車両からの距離、相対速度、及び、検出された該車両の運転者による運転操作に基づいて、前記敷設物の種類、位置、前記移動体の位置、及び、該車両の位置を含み、予め設定された第1所定時間毎の予め設定された第1所定範囲の鳥瞰図である第1鳥瞰図が生成される。そして、生成された第1鳥瞰図に基づいて、該車両の運転者による運転操作の適否が評価される。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the eleventh aspect of the invention, the type information and position information of the acquired laying object, the distance of the detected moving body from the vehicle, the relative speed, and the detected driving operation by the driver of the vehicle. 1 is a bird's-eye view of a first predetermined range that is set in advance for each first predetermined time that includes a type, a position of the laying object, a position of the moving body, and a position of the vehicle. A bird's eye view is generated. Based on the generated first bird's-eye view, the propriety of the driving operation by the driver of the vehicle is evaluated. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、前記第1鳥瞰図には、例えば、図4に示すように、予め設定された第1所定範囲(図4では、車両VC1が右折する交差点の近傍)における信号機、横断歩道、停止線等の敷設物の種類情報及び位置情報が含まれている。また、前記第1鳥瞰図には、例えば、図4に示すように、予め設定された第1所定時間(例えば、0.5sec)毎の、前記移動体(ここでは、歩行者WP)の位置P20〜P27、車両VC1の位置P10〜P17が含まれている。つまり、前記第1鳥瞰図には、車両の周囲の状況と、車両VC1の位置の変化とが含まれているため、生成された第1鳥瞰図に基づいて、該車両(=車両VC1)の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができるのである。   That is, in the first bird's-eye view, for example, as shown in FIG. 4, traffic lights, pedestrian crossings, stop lines, etc. in a first predetermined range set in advance (in the vicinity of the intersection where the vehicle VC1 turns to the right in FIG. 4) The type information and position information of the laying object are included. In addition, in the first bird's-eye view, for example, as shown in FIG. 4, the position P20 of the moving body (here, the pedestrian WP) every preset first predetermined time (for example, 0.5 sec). To P27, and positions P10 to P17 of the vehicle VC1 are included. That is, since the first bird's-eye view includes the situation around the vehicle and the change in the position of the vehicle VC1, the driver of the vehicle (= vehicle VC1) based on the generated first bird's-eye view. This makes it possible to more appropriately evaluate the driving operation according to the situation around the vehicle.

上記第12の発明によれば、取得された敷設物の種類情報及び位置情報、検出された移動体の該車両からの距離、相対速度、及び、推定された仮想的な優良運転者の運転操作に基づいて、前記敷設物の種類、位置、前記移動体の位置、及び、前記仮想的な優良運転者が運転操作する仮想的な車両の位置を含み、予め設定された第2所定時間毎の予め設定された第2所定範囲の鳥瞰図である第2鳥瞰図が生成される。そして、前記第1鳥瞰図及び前記第2鳥瞰図に基づいて、該車両の運転者による運転操作の適否が評価される。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the twelfth aspect of the present invention, the type information and position information of the acquired installation object, the distance of the detected moving body from the vehicle, the relative speed, and the estimated driving operation of the virtual excellent driver Based on the type of the laying object, the position, the position of the moving body, and the position of the virtual vehicle operated by the virtual excellent driver, and is set at every second predetermined time set in advance. A second bird's-eye view, which is a bird's-eye view of a second predetermined range set in advance, is generated. Based on the first bird's-eye view and the second bird's-eye view, the suitability of the driving operation by the driver of the vehicle is evaluated. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、前記第2鳥瞰図には、例えば、図5に示すように、予め設定された第2所定範囲(図5では、車両VC1が右折する交差点の近傍)における信号機、横断歩道、停止線等の敷設物の種類情報及び位置情報が含まれている。また、前記第2鳥瞰図には、例えば、図5に示すように、予め設定された第1所定時間(例えば、0.5sec)毎の、前記移動体(ここでは、歩行者WP)の位置P20〜P27、仮想的な車両VC10の位置Q10〜Q17が含まれている。つまり、前記第2鳥瞰図には、車両の周囲の状況と、仮想的な車両VC10の位置の変化とが含まれているため、生成された第2鳥瞰図と、前記第1鳥瞰図とに基づいて、該車両(=車両VC1)の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができるのである。   That is, in the second bird's-eye view, for example, as shown in FIG. 5, traffic lights, pedestrian crossings, stop lines, etc. in a preset second predetermined range (in the vicinity of the intersection where the vehicle VC1 turns to the right in FIG. 5) The type information and position information of the laying object are included. Further, in the second bird's-eye view, for example, as shown in FIG. 5, the position P20 of the moving body (here, the pedestrian WP) every preset first predetermined time (for example, 0.5 sec). To P27, and positions Q10 to Q17 of the virtual vehicle VC10 are included. That is, since the second bird's-eye view includes the situation around the vehicle and the change in the position of the virtual vehicle VC10, based on the generated second bird's-eye view and the first bird's-eye view, The driving operation by the driver of the vehicle (= vehicle VC1) can be more appropriately evaluated according to the situation around the vehicle.

上記第13の発明によれば、前記第2所定時間が、前記第1所定時間と略同一値に設定され、前記第2所定範囲が、前記第1所定範囲と略同一範囲に設定されている。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the thirteenth aspect, the second predetermined time is set to be substantially the same value as the first predetermined time, and the second predetermined range is set to be substantially the same range as the first predetermined range. . Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、前記第2所定時間が、前記第1所定時間と略同一値に設定され、前記第2所定範囲が、前記第1所定範囲と略同一範囲に設定されているため、前記第1鳥瞰図上の該車両VC1の位置と、前記第2鳥瞰図上の仮想的な車両VC10の位置とを、直接的に比較することが可能となるので、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができるのである。   In other words, the second predetermined time is set to be substantially the same value as the first predetermined time, and the second predetermined range is set to be substantially the same range as the first predetermined range. It is possible to directly compare the position of the vehicle VC1 and the position of the virtual vehicle VC10 on the second bird's eye view, so that the driving operation by the driver of the vehicle It can be evaluated more appropriately according to the situation.

上記第14の発明によれば、前記第1鳥瞰図における該車両の位置の時間的変化を、前記第2鳥瞰図における前記仮想的な車両の位置の時間的変化と比較して、該車両の運転者による運転操作の適否が評価される。従って、該車両の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   According to the fourteenth aspect of the present invention, the temporal change in the position of the vehicle in the first bird's-eye view is compared with the temporal change in the position of the virtual vehicle in the second bird's-eye view. The suitability of the driving operation is evaluated. Therefore, the driving operation by the driver of the vehicle can be more appropriately evaluated according to the situation around the vehicle.

すなわち、前記第1鳥瞰図における該車両VC1の位置の時間的変化(マークP10〜マークP17:図4参照)と、前記第2鳥瞰図における仮想的な車両VC10の位置の時間的変化(マークQ10〜マークQ17:図5参照)とを比較することによって、視覚的に両者の動きを比較して、該車両の運転者による運転操作を適正に評価することができるのである。   That is, the temporal change in the position of the vehicle VC1 in the first bird's-eye view (marks P10 to P17: see FIG. 4) and the temporal change in the position of the virtual vehicle VC10 in the second bird's-eye view (marks Q10 to 10) Q17: see FIG. 5), by comparing the movements of both visually, the driving operation by the driver of the vehicle can be properly evaluated.

上記第15の発明によれば、該車両の運転者による運転操作の評価結果が、該車両の運転者へ視認可能に出力される。従って、該車両の運転者による運転操作の評価結果を容易に把握することができる。   According to the fifteenth aspect, the evaluation result of the driving operation by the driver of the vehicle is output to the driver of the vehicle so as to be visible. Therefore, the evaluation result of the driving operation by the driver of the vehicle can be easily grasped.

上記第16の発明によれば、前記第1鳥瞰図及び前記第2鳥瞰図の少なくとも一方が、該車両の運転者に視認可能に表示される。従って、該車両の運転者による運転操作の評価結果を更に容易に把握することができる。   According to the sixteenth aspect, at least one of the first bird's-eye view and the second bird's-eye view is displayed so as to be visible to the driver of the vehicle. Therefore, the evaluation result of the driving operation by the driver of the vehicle can be grasped more easily.

上記第17の発明によれば、該車両の運転者による運転操作の評価結果を説明する音声情報が生成され、生成された音声が出力される。従って、該車両の運転者が、運転操作の評価結果を更に容易に把握することができる。   According to the seventeenth aspect, the sound information explaining the evaluation result of the driving operation by the driver of the vehicle is generated, and the generated sound is output. Therefore, the driver of the vehicle can grasp the evaluation result of the driving operation more easily.

上記第18の発明によれば、該車両の運転者による運転操作の評価結果が、該車両の運転者へ視認可能に出力される。従って、該車両の運転者による運転操作の評価結果を容易に把握することができる。   According to the eighteenth aspect, the evaluation result of the driving operation by the driver of the vehicle is output so as to be visible to the driver of the vehicle. Therefore, the evaluation result of the driving operation by the driver of the vehicle can be easily grasped.

上記第19の発明によれば、該車両の運転者による運転操作の評価結果を該車両の運転者へ出力するタイミングである出力タイミングが決定される。そして、決定された出力タイミングにおいて、該車両の運転者による運転操作の評価結果が出力される。従って、適正な出力タイミングを決定することによって、該車両の運転者による運転操作の評価結果を適正なタイミングで出力することができる。   According to the nineteenth aspect of the invention, the output timing that is the timing for outputting the evaluation result of the driving operation by the driver of the vehicle to the driver of the vehicle is determined. Then, at the determined output timing, the evaluation result of the driving operation by the driver of the vehicle is output. Therefore, by determining an appropriate output timing, the evaluation result of the driving operation by the driver of the vehicle can be output at an appropriate timing.

上記第20の発明によれば、該車両の運転者による運転操作の評価が終了した後、該車両が安全な状況になったタイミングが前記出力タイミングとして決定される。従って、適正な出力タイミングを決定することができる。   According to the twentieth aspect, after the evaluation of the driving operation by the driver of the vehicle is finished, the timing when the vehicle is in a safe state is determined as the output timing. Therefore, an appropriate output timing can be determined.

上記第21の発明によれば、前記敷設物情報取得手段によって取得された敷設物の種類及び位置、該車両の地図上の位置、前記移動体検出手段によって検出された移動体の該車両からの距離、相対速度、及び、前記運転操作検出手段によって検出された該車両の運転者による運転操作に基づいて、該車両が安全な状況であるか否かが判定される。そして、該車両が安全な状況になったと判定されたタイミングが前記出力タイミングとして決定される。従って、該車両が安全な状況であるか否かを適正に判定することができるので、更に適正な出力タイミングを決定することができる。   According to the twenty-first aspect, the type and position of the laying object acquired by the laying object information acquiring unit, the position of the vehicle on the map, and the moving body detected by the moving body detecting unit from the vehicle. Based on the distance, the relative speed, and the driving operation performed by the driver of the vehicle detected by the driving operation detection means, it is determined whether or not the vehicle is in a safe situation. Then, the timing at which it is determined that the vehicle is in a safe situation is determined as the output timing. Therefore, it is possible to appropriately determine whether or not the vehicle is in a safe situation, so that a more appropriate output timing can be determined.

本発明に係る運転操作評価装置の構成の一例を示すブロック図The block diagram which shows an example of a structure of the driving operation evaluation apparatus which concerns on this invention 図1に示すレーダ装置、カメラの搭載位置の一例を示す平面図The top view which shows an example of the mounting position of the radar apparatus and camera shown in FIG. 図1に示す運転操作評価ECUの機能構成の一例を示すブロック図The block diagram which shows an example of a function structure of driving operation evaluation ECU shown in FIG. 第1鳥瞰図表示画面の一例を示す画面図Screen view showing an example of the first bird's eye view display screen 第2鳥瞰図表示画面の一例を示す画面図Screen diagram showing an example of the second bird's eye view display screen 歩行者との距離の変化の一例を示すグラフGraph showing an example of changes in distance to pedestrians 評価結果の出力タイミングの一例を示す平面図Plan view showing an example of output timing of evaluation results 運転操作評価ECUの動作の一例を示すフローチャート(前半部)Flow chart showing an example of operation of driving operation evaluation ECU (first half) 運転操作評価ECUの動作の一例を示すフローチャート(後半部)Flow chart showing an example of the operation of the driving operation evaluation ECU (second half)

以下、図面を参照して本発明に係る運転操作評価装置の実施形態について説明する。本発明に係る運転操作評価装置は、例えば、車両に搭載され、運転者による運転操作の適否を評価する装置である。まず、図1を用いて、本発明に係る運転操作評価装置の構成について説明する。図1は、本発明に係る運転操作評価装置の構成の一例を示すブロック図である。図1に示すように、本発明に係る運転操作評価ECU(Electronic Control Unit)1(=運転操作評価装置に相当する)は、周辺機器としての入力機器2及び出力機器3と通信可能に接続されている。   Hereinafter, an embodiment of a driving operation evaluation apparatus according to the present invention will be described with reference to the drawings. The driving operation evaluation apparatus according to the present invention is, for example, an apparatus that is mounted on a vehicle and evaluates the suitability of the driving operation by the driver. First, the configuration of the driving operation evaluation apparatus according to the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the configuration of a driving operation evaluation apparatus according to the present invention. As shown in FIG. 1, a driving operation evaluation ECU (Electronic Control Unit) 1 (= corresponding to a driving operation evaluation device) according to the present invention is connected to an input device 2 and an output device 3 as peripheral devices so as to be communicable. ing.

入力機器2は、レーダ装置21、カメラ22、ナビゲーションシステム23、車速センサ24、操舵角センサ25、加速操作センサ26、減速操作センサ27、及び、方向指示操作センサ28を備えている。また、出力機器3は、ディスプレイ31、及び、スピーカ32を備えている。   The input device 2 includes a radar device 21, a camera 22, a navigation system 23, a vehicle speed sensor 24, a steering angle sensor 25, an acceleration operation sensor 26, a deceleration operation sensor 27, and a direction indication operation sensor 28. The output device 3 includes a display 31 and a speaker 32.

レーダ装置21(レーダ装置211〜216:図2参照)は、例えば、ミリ波等を介して、車両VC1の周囲に存在する他の車両、歩行者等の移動体との距離、及び、相対速度を検出する装置である。また、レーダ装置21は、運転操作評価ECU1(ここでは、移動体検出部101:図3参照)に対して、車両VC1の周囲に存在する移動体との距離及び相対速度を示す信号を出力する。   The radar device 21 (radar devices 211 to 216: refer to FIG. 2), for example, a distance from other vehicles existing around the vehicle VC1, a moving body such as a pedestrian, and a relative speed via a millimeter wave or the like. Is a device for detecting Further, the radar device 21 outputs a signal indicating a distance and a relative speed with respect to the moving body existing around the vehicle VC1 to the driving operation evaluation ECU 1 (here, the moving body detecting unit 101: see FIG. 3). .

カメラ22は、例えば、CCD(Charge Coupled Device)等のセンサを備え、車両VC1の前方の画像を生成し、画像処理等を施して、車両VC1の前方に存在する他の車両、歩行者等の移動体との距離、及び、相対速度を検出するカメラである。また、カメラ22は、運転操作評価ECU1(ここでは、移動体検出部101:図3参照)に対して、車両VC1の前方に存在する移動体との距離及び相対速度を示す信号を出力する。   The camera 22 includes, for example, a sensor such as a CCD (Charge Coupled Device), generates an image in front of the vehicle VC1, performs image processing, and the like, such as other vehicles and pedestrians existing in front of the vehicle VC1. It is a camera that detects the distance to the moving body and the relative speed. In addition, the camera 22 outputs a signal indicating the distance and relative speed with respect to the moving object existing in front of the vehicle VC1 to the driving operation evaluation ECU 1 (here, the moving object detecting unit 101: see FIG. 3).

図2は、図1に示すレーダ装置21、カメラ22の搭載位置の一例を示す平面図である。ここでは、車両VC1には、車両VC1の前方に存在する移動体を検出するレーダ装置211及びカメラ22が車両VC1の前端部に搭載されている。また、車両VC1には、車両VC1の側方に存在する移動体を検出するレーダ装置212〜215が、車両VC1の側面に搭載されている。更に、車両VC1には、車両VC1の後方に存在する移動体を検出するレーダ装置216が、車両VC1の後端部に搭載されている。   FIG. 2 is a plan view showing an example of mounting positions of the radar device 21 and the camera 22 shown in FIG. Here, in the vehicle VC1, a radar device 211 and a camera 22 for detecting a moving body present in front of the vehicle VC1 are mounted on the front end portion of the vehicle VC1. Further, in the vehicle VC1, radar devices 212 to 215 for detecting a moving body that exists on the side of the vehicle VC1 are mounted on the side surface of the vehicle VC1. Furthermore, a radar device 216 that detects a moving body that exists behind the vehicle VC1 is mounted on the rear end of the vehicle VC1.

なお、レーダ装置211〜216は、略同一の構成を有するため、以下の説明においては、レーダ装置21と総称する。また、本実施形態では、レーダ装置21が、車両VC1の周囲に存在する移動体を検出し、カメラ22が、車両VC1の前方に存在する移動体を検出する場合について説明するが、レーダ装置21及びカメラ22の少なくとも一方が、車両VC1の周囲に存在する移動体を検出する形態であれば良い。更には、車両VC1に、その他のセンサ(例えば、超音波センサ)等が搭載され、該センサを介して、車両VC1の周囲に存在する移動体を検出する形態でも良い。   In addition, since the radar apparatuses 211 to 216 have substantially the same configuration, the radar apparatus 21 is generically referred to in the following description. In the present embodiment, the radar device 21 detects a moving body that exists around the vehicle VC1, and the camera 22 detects a moving body that exists in front of the vehicle VC1. And at least one of the cameras 22 should just be a form which detects the mobile body which exists around the vehicle VC1. Furthermore, another form (for example, ultrasonic sensor) etc. is mounted in vehicle VC1, and the form which detects the mobile body which exists around vehicle VC1 through this sensor may be sufficient.

再び、図1に戻って、入力機器2について説明する。ナビゲーションシステム23は、
地図情報を備え、GPS(Global Positioning System)等を介して、車両の地図上の位置である車両位置を検出し、地図上の車両位置をディスプレイ31に表示するシステムである。また、ナビゲーションシステム23は、運転操作評価ECU1(ここでは、敷設物情報取得部103:図3参照)に対して、前記車両位置情報、及び、該車両位置の周囲に敷設された信号機、標識、横断歩道を含む敷設物の種類情報、位置情報を出力する。
Returning to FIG. 1 again, the input device 2 will be described. The navigation system 23
The system includes map information, detects a vehicle position that is a position on the map of the vehicle via a GPS (Global Positioning System), and displays the vehicle position on the map on the display 31. Further, the navigation system 23 provides the driving operation evaluation ECU 1 (here, the laying object information acquisition unit 103: see FIG. 3) with the vehicle position information and traffic lights, signs, Outputs type information and position information of laid objects including pedestrian crossings.

車速センサ24は、車両の走行速度を検出するセンサであって、検出された車速情報を運転操作評価ECU1(ここでは、運転操作検出部104:図3参照)に対して出力する。   The vehicle speed sensor 24 is a sensor that detects the traveling speed of the vehicle, and outputs the detected vehicle speed information to the driving operation evaluation ECU 1 (here, the driving operation detection unit 104: see FIG. 3).

操舵角センサ25は、ステアリングセンサ等からなり、操舵角を検出するセンサであって、検出された操舵角情報を運転操作評価ECU1(ここでは、運転操作検出部104:図3参照)に対して出力する。   The steering angle sensor 25 includes a steering sensor and the like, and is a sensor that detects the steering angle. The detected steering angle information is transmitted to the driving operation evaluation ECU 1 (here, the driving operation detection unit 104: see FIG. 3). Output.

加速操作センサ26は、スロットル開度センサ等からなり、アクセルペダルの踏み込み量を検出するセンサであって、検出されたアクセル踏込量情報を運転操作評価ECU1(ここでは、運転操作検出部104:図3参照)に対して出力する。   The acceleration operation sensor 26 includes a throttle opening sensor and the like, and is a sensor for detecting the depression amount of the accelerator pedal. The acceleration depression amount information is detected by the driving operation evaluation ECU 1 (here, the driving operation detection unit 104: FIG. 3).

減速操作センサ27は、ブレーキペダルの踏み込み量を検出するセンサであって、検出されたブレーキ踏込量情報を運転操作評価ECU1(ここでは、運転操作検出部104:図3参照)に対して出力する。   The deceleration operation sensor 27 is a sensor that detects the depression amount of the brake pedal, and outputs the detected brake depression amount information to the driving operation evaluation ECU 1 (here, the driving operation detection unit 104: see FIG. 3). .

方向指示操作センサ28は、方向指示レバーを介して行われる方向指示操作を検出するセンサであって、検出された方向指示操作情報を運転操作評価ECU1(ここでは、運転操作検出部104:図3参照)に対して出力する。   The direction indication operation sensor 28 is a sensor that detects a direction indication operation performed via a direction indication lever, and uses the detected direction indication operation information as a driving operation evaluation ECU 1 (here, a driving operation detection unit 104: FIG. 3). Output).

ディスプレイ31は、車両VC1の運転席前方のフロントパネル等に配設されたLCD(Liquid Crystal Display)等からなり、種々の画像情報(例えば、ナビゲーションシステム23からの車両位置情報、図4、図5を用いて後述する第1鳥瞰図画像情報、第2鳥瞰図画像情報等)を運転者に視認可能に表示するものである。   The display 31 is composed of an LCD (Liquid Crystal Display) or the like disposed on the front panel or the like in front of the driver seat of the vehicle VC1, and various image information (for example, vehicle position information from the navigation system 23, FIGS. 4 and 5). The first bird's-eye view image information, the second bird's-eye view image information, etc., which will be described later, are displayed so as to be visible to the driver.

スピーカ32は、車両VC1の運転席の周囲に配設され、運転者に対して種々の音声情報(ガイダンス情報、警報情報等)を出力するものである。   The speaker 32 is disposed around the driver's seat of the vehicle VC1 and outputs various audio information (guidance information, alarm information, etc.) to the driver.

図3は、図1に示す運転操作評価ECU1の機能構成の一例を示すブロック図である。図3に示すように、運転操作評価ECU1は、機能的に、移動体検出部101、移動体判別部102、敷設物情報取得部103、運転操作検出部104、操作判定部105、第1鳥瞰図生成部106、優良操作記憶部107、優良操作推定部108、第2鳥瞰図生成部109、操作評価部110、状況判定部111、出力時点決定部112、及び、評価結果出力部113を備えている。   FIG. 3 is a block diagram illustrating an example of a functional configuration of the driving operation evaluation ECU 1 illustrated in FIG. 1. As shown in FIG. 3, the driving operation evaluation ECU 1 functionally includes a moving object detection unit 101, a moving object determination unit 102, a laying object information acquisition unit 103, a driving operation detection unit 104, an operation determination unit 105, and a first bird's-eye view. A generation unit 106, an excellent operation storage unit 107, an excellent operation estimation unit 108, a second bird's eye view generation unit 109, an operation evaluation unit 110, a situation determination unit 111, an output time point determination unit 112, and an evaluation result output unit 113 are provided. .

なお、運転操作評価ECU1は、運転操作評価ECU1の適所に配設されたマイクロコンピュータに、運転操作評価ECU1の適所に配設されたROM(Read Only Memory)等に予め格納された制御プログラムを実行させることにより、当該マイクロコンピュータを、運転操作評価ECU1は、機能的に、移動体検出部101、移動体判別部102、敷設物情報取得部103、運転操作検出部104、操作判定部105、第1鳥瞰図生成部106、優良操作記憶部107、優良操作推定部108、第2鳥瞰図生成部109、操作評価部110、状況判定部111、出力時点決定部112、評価結果出力部113等の機能部として機能させる。   The driving operation evaluation ECU 1 executes a control program stored in advance in a ROM (Read Only Memory) or the like disposed at a proper position of the driving operation evaluation ECU 1 on a microcomputer disposed at a proper position of the driving operation evaluation ECU 1. By operating the microcomputer, the driving operation evaluation ECU 1 functionally includes a moving object detection unit 101, a moving object determination unit 102, a laying object information acquisition unit 103, a driving operation detection unit 104, an operation determination unit 105, and a second operation determination unit 105. 1 bird's-eye view generation unit 106, excellent operation storage unit 107, excellent operation estimation unit 108, second bird's-eye view generation unit 109, operation evaluation unit 110, situation determination unit 111, output time point determination unit 112, evaluation result output unit 113, etc. To function as.

移動体検出部101は、レーダ装置21及びカメラ22を介して、車両の周囲に存在する他の車両、歩行者を含む移動体の該車両VC1からの距離、及び、相対速度を検出する機能部である。ここで、移動体検出部101は、移動体検出手段に相当する。また、移動体検出部101は、レーダ装置21及びカメラ22を介して、車両の周囲に存在する移動体の大きさ、輪郭等の形状等を検出する。   The moving object detection unit 101 is a functional unit that detects the distance from the vehicle VC1 of a moving object including a pedestrian and other vehicles existing around the vehicle and the relative speed via the radar device 21 and the camera 22. It is. Here, the mobile body detection unit 101 corresponds to mobile body detection means. In addition, the moving object detection unit 101 detects the size of the moving object existing around the vehicle, the shape such as the contour, and the like via the radar device 21 and the camera 22.

移動体判別部102は、移動体検出部101によって検出された移動体の種類を推定する機能部である。ここで、移動体判別部102は、移動体判別手段に相当する。また、移動体判別部102は、具体的には、移動体検出部101によって検出された移動体の相対速度、大きさ、輪郭等の形状に基づいて、車両、歩行者、自転車等の移動体の種類を推定する。   The moving body determination unit 102 is a functional unit that estimates the type of moving body detected by the moving body detection unit 101. Here, the moving body determination unit 102 corresponds to a moving body determination unit. In addition, the mobile body determination unit 102 specifically includes mobile bodies such as vehicles, pedestrians, and bicycles based on the relative speed, size, outline, and the like of the mobile body detected by the mobile body detection unit 101. Estimate the type of

敷設物情報取得部103は、ナビゲーションシステム23を介して、車両VC1が走行している道路近傍に敷設され、車両VC1の周囲に存在する信号機、標識、横断歩道を含む敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報を取得する機能部である。ここで、敷設物情報取得部103は、敷設物情報取得手段に相当する。   The laying object information acquisition unit 103 is laid near the road on which the vehicle VC1 is traveling via the navigation system 23, and the type information and position of the laying object including traffic lights, signs, and pedestrian crossings existing around the vehicle VC1. It is a function part which acquires information and the positional information on the map of this vehicle. Here, the laying object information acquiring unit 103 corresponds to a laying object information acquiring unit.

運転操作検出部104は、車速センサ24、操舵角センサ25、加速操作センサ26、減速操作センサ27、及び、方向指示操作センサ28を介して、車両VC1の運転者による運転操作を検出する機能部である。ここで、運転操作検出部104は、運転操作検出手段に相当する。また、運転操作検出部104は、具体的には、運転操作として、車両VC1の車速、操舵角、アクセル踏込量、ブレーキ踏込量、方向指示操作を検出する。   The driving operation detection unit 104 detects a driving operation by the driver of the vehicle VC1 via the vehicle speed sensor 24, the steering angle sensor 25, the acceleration operation sensor 26, the deceleration operation sensor 27, and the direction instruction operation sensor 28. It is. Here, the driving operation detection unit 104 corresponds to driving operation detection means. Specifically, the driving operation detection unit 104 detects the vehicle speed, steering angle, accelerator depression amount, brake depression amount, and direction instruction operation of the vehicle VC1 as the driving operation.

操作判定部105は、運転操作検出部104によって検出された車両VC1の運転者による運転操作、及び、敷設物情報取得部103によって取得された敷設物の種類情報、位置情報、車両VC1の地図上の位置情報に基づいて、予め設定された複数の評価対象操作の内、いずれかが行われたか否かを判定する機能部である。ここで、操作判定部105は、操作判定手段に相当する。   The operation determination unit 105 includes a driving operation performed by the driver of the vehicle VC1 detected by the driving operation detection unit 104, and the type information, position information, and position information acquired by the installation information acquisition unit 103 on the map of the vehicle VC1. This is a functional unit that determines whether one of a plurality of preset evaluation target operations has been performed based on the position information. Here, the operation determination unit 105 corresponds to an operation determination unit.

また、「評価対象操作」とは、操作評価部110によって評価される対象の操作であって、ここでは、車両VC1の右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作を含む。   Further, the “evaluation target operation” is an operation to be evaluated by the operation evaluation unit 110, and here, the vehicle VC1 turns right, turns left, passes, lane change operation, pause operation, and Includes intersection passing operation.

第1鳥瞰図生成部106は、車両VC1が走行している道路近傍に敷設された敷設物の種類、位置、車両VC1の周囲に存在する移動体の位置、及び、車両VC1の位置を含み、予め設定された第1所定時間ΔT1(例えば、0.5sec)毎の予め設定された第1所定範囲(例えば、車両VC1が右折する交差点近傍)の鳥瞰図である第1鳥瞰図BM1(図4参照)を生成する機能部である。ここで、第1鳥瞰図生成部106は、第1鳥瞰図生成手段に相当する。   The first bird's-eye view generation unit 106 includes the type and position of the laying object laid near the road on which the vehicle VC1 is traveling, the position of the moving body existing around the vehicle VC1, and the position of the vehicle VC1. A first bird's-eye view BM1 (see FIG. 4), which is a bird's-eye view of a preset first predetermined range (for example, near the intersection where the vehicle VC1 turns to the right) every set first predetermined time ΔT1 (for example, 0.5 sec). It is a function part to generate. Here, the first bird's-eye view generation unit 106 corresponds to first bird's-eye view generation means.

また、第1鳥瞰図生成部106は、具体的には、敷設物情報取得部103によって取得された敷設物の種類情報及び位置情報、移動体検出部101によって検出された移動体の車両VC1からの距離、相対速度、移動体判別部102によって推定された移動体の種類、及び、運転操作検出部104によって検出された車両VC1の運転者による運転操作に基づいて、第1鳥瞰図BM1を生成する。更に、第1鳥瞰図生成部106によって生成された第1鳥瞰図BM1は、操作評価部110によって、車両VC1の運転者による運転操作の評価に用いられると共に、評価結果出力部113によって、ディスプレイ31に表示される。   Further, the first bird's eye view generation unit 106, specifically, the type information and position information of the laying object acquired by the laying object information acquisition unit 103, the vehicle VC1 of the moving object detected by the moving object detection unit 101, The first bird's-eye view BM1 is generated based on the distance, the relative speed, the type of the moving body estimated by the moving body determination unit 102, and the driving operation by the driver of the vehicle VC1 detected by the driving operation detection unit 104. Furthermore, the first bird's-eye view BM1 generated by the first bird's-eye view generation unit 106 is used by the operation evaluation unit 110 to evaluate the driving operation by the driver of the vehicle VC1, and is displayed on the display 31 by the evaluation result output unit 113. Is done.

図4は、評価結果出力部113によってディスプレイ31に表示される第1鳥瞰図表示画面の一例を示す画面図である。ここで、第1鳥瞰図表示画面は、第1鳥瞰図BM1を表示する画面である。ここでは、図4に示すように、第1鳥瞰図表示画面には、敷設物情報取得部103によって取得された敷設物として、実線で示す車線、破線で示す中央区分線、横断歩道が表示されている。また、第1鳥瞰図表示画面には、移動体検出部101によって検出された移動体(ここでは、車両VC2、歩行者WP)の位置が、移動体判別部102によって推定された移動体の種類(ここでは、種類を示す画像)と対応付けて表示されている。   FIG. 4 is a screen diagram illustrating an example of a first bird's eye view display screen displayed on the display 31 by the evaluation result output unit 113. Here, the first bird's eye view display screen is a screen for displaying the first bird's eye view BM1. Here, as shown in FIG. 4, the first bird's-eye view display screen displays the lanes indicated by the solid line, the center division line indicated by the broken line, and the pedestrian crossing as the laying object acquired by the laying object information acquisition unit 103. Yes. In addition, the first bird's eye view display screen displays the type of the moving object (here, the vehicle VC2 and the pedestrian WP) detected by the moving object detection unit 101 estimated by the moving object determination unit 102 ( Here, it is displayed in association with an image showing the type).

更に、第1鳥瞰図表示画面には、運転操作検出部104によって検出された車両VC1の運転者による運転操作に基づいて、予め設定された第1所定時間ΔT1(例えば、0.5sec)毎の車両VC1の位置を示すマーク(ここでは、黒丸●)P10〜P17が表示されている。加えて、第1鳥瞰図表示画面には、移動体検出部101によって検出された歩行者WPの位置を示すマーク(ここでは、白抜きの丸○)P20〜P27が表示されている。ここで、マークP10〜P17、及び、マークP20〜P27は、時点T0〜T7(図6参照)における車両VC1及び歩行者WPの位置をそれぞれ示すマークである。また、時点T0〜T7は、第1所定時間ΔT1(例えば、0.5sec)間隔の時点である。   Further, the first bird's-eye view display screen displays a vehicle every first predetermined time ΔT1 (for example, 0.5 sec) set in advance based on the driving operation by the driver of the vehicle VC1 detected by the driving operation detection unit 104. Marks (here, black circles) P10 to P17 indicating the position of VC1 are displayed. In addition, on the first bird's eye view display screen, marks (here, white circles) P20 to P27 indicating the position of the pedestrian WP detected by the moving body detection unit 101 are displayed. Here, the marks P10 to P17 and the marks P20 to P27 are marks respectively indicating the positions of the vehicle VC1 and the pedestrian WP at the time points T0 to T7 (see FIG. 6). In addition, the time points T0 to T7 are the time points of the first predetermined time ΔT1 (for example, 0.5 sec).

再び、図3に戻って、運転操作評価ECU1の機能構成について説明する。優良操作記憶部107は、車両VC1の周囲の状況における仮想的な優良運転者の運転操作を推定するための各種データを格納する機能部である。ここで、優良操作記憶部107は、優良操作推定手段の一部に相当する。また、優良操作記憶部107は、具体的には、車両VC1の周囲の状況と対応付けて、仮想的な優良運転者の運転操作情報を格納している。ここで、車両VC1の周囲の状況は、右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作を含む評価対象操作毎に分類されている。   Returning to FIG. 3 again, the functional configuration of the driving operation evaluation ECU 1 will be described. The excellent operation storage unit 107 is a functional unit that stores various data for estimating a driving operation of a virtual excellent driver in a situation around the vehicle VC1. Here, the good operation storage unit 107 corresponds to a part of the good operation estimation means. Further, the excellent operation storage unit 107 stores driving operation information of a virtual excellent driver, specifically, in association with the situation around the vehicle VC1. Here, the situation around the vehicle VC1 is classified for each evaluation target operation including a right turn operation, a left turn operation, an overtaking operation, a lane change operation, a pause operation, and an intersection passing operation.

更に、優良操作記憶部107には、評価対象操作毎に、種々の車両VC1の周囲の状況を示す情報が格納されている。例えば、評価対象操作が右折操作である場合には、対向車両、歩行者、自転車、自動二輪車等との関係において、典型的な周囲の状況が格納されている。例えば、片側2車線の交差点において、手前側の対向車両の陰に自動二輪車が隠れていて、運転者による該自動二輪車の確認が遅れることによって、事故が発生し得る状況(以下の説明において、便宜上「状況A」という)を示す情報が格納されている。また、例えば、横断中の歩行者の横断に注目している場合に、右側からの自転車の接近に気付くのが遅れることによって、事故が発生し得る状況(以下の説明において、便宜上「状況B」という)を示す情報が格納されている。   Further, the excellent operation storage unit 107 stores information indicating various situations around the vehicle VC1 for each evaluation target operation. For example, when the evaluation target operation is a right turn operation, typical ambient conditions are stored in relation to oncoming vehicles, pedestrians, bicycles, motorcycles, and the like. For example, a situation in which a motorcycle may be hidden behind an oncoming vehicle at the intersection of two lanes on one side and a driver may delay the confirmation of the motorcycle (for convenience in the following description). Information indicating “situation A”) is stored. In addition, for example, when attention is paid to the crossing of a pedestrian who is crossing, a situation in which an accident may occur due to a delay in noticing the approach of the bicycle from the right side (in the following description, “situation B” for convenience) Is stored.

加えて、優良操作記憶部107は、上記評価対象操作毎の各周囲の状況を示す情報に対応付けて、仮想的な優良運転者の運転操作情報を格納している。例えば、状況Aを示す情報に対応付けて、仮想的な優良運転者の運転操作としては、手前側の対向車両が通りすぎて、直ぐに右折を開始するのではなく、安全確認をして、自動二輪車が通りすぎたのを確認した後に、右折を開始することを示す運転操作情報を格納している。また、例えば、状況Bを示す情報に対応付けて、仮想的な優良運転者の運転操作としては、歩行者の横断の安全を確認して、直ぐに加速操作を開始するのではなく、周囲の安全を再度確認し、自転車の通過の後に、緩やかに加速操作を行うことを示す運転操作情報を格納している。   In addition, the excellent operation storage unit 107 stores driving operation information of a virtual excellent driver in association with information indicating each surrounding situation for each evaluation target operation. For example, in association with the information indicating the situation A, as a driving operation of a virtual excellent driver, the oncoming vehicle on the near side passes by and immediately starts a right turn. After confirming that the motorcycle has passed, driving operation information indicating that a right turn is to be started is stored. In addition, for example, as a driving operation of a virtual excellent driver in association with information indicating the situation B, it is not necessary to confirm the safety of pedestrian crossing and immediately start an acceleration operation, Is stored again, and driving operation information indicating that the acceleration operation is gently performed after the bicycle passes is stored.

優良操作推定部108は、車両VC1の周囲の状況における仮想的な優良運転者の運転操作を推定する機能部である。ここで、優良操作記憶部107は、優良操作推定手段の一部に相当する。また、優良操作推定部108は、具体的には、敷設物情報取得部103によって取得された敷設物の種類情報及び位置情報、移動体検出部101によって検出された移動体の車両VC1からの距離、相対速度、及び、移動体判別部102によって推定された移動体の種類に基づいて、優良操作記憶部107に格納されている周囲の状況の中から、近似する周囲の状況を検索する。そして、優良操作推定部108は、近似する周囲の状況に対応付けて優良操作記憶部107に格納されている仮想的な優良運転者の運転操作情報を読み出すことによって、仮想的な優良運転者の運転操作を推定する。   The excellent operation estimation unit 108 is a functional unit that estimates a driving operation of a virtual excellent driver in a situation around the vehicle VC1. Here, the good operation storage unit 107 corresponds to a part of the good operation estimation means. Further, the excellent operation estimation unit 108 specifically includes the type information and position information of the laying object acquired by the laying object information acquisition unit 103, and the distance from the vehicle VC1 of the moving object detected by the moving object detection unit 101. Based on the relative speed and the type of the moving object estimated by the moving object discriminating unit 102, an approximate surrounding condition is searched from the surrounding conditions stored in the excellent operation storage unit 107. Then, the excellent operation estimating unit 108 reads out the driving operation information of the virtual excellent driver stored in the excellent operation storage unit 107 in association with the surrounding situation to be approximated, and thereby the virtual excellent driver's driving operation information is read out. Estimate driving operations.

第2鳥瞰図生成部109は、車両VC1が走行している道路近傍に敷設された敷設物の種類、位置、車両VC1の周囲に存在する移動体の位置、及び、仮想的な優良運転者が運転操作する仮想的な車両VC10の位置を含み、予め設定された第2所定時間ΔT2(例えば、0.5sec)毎の予め設定された第2所定範囲(例えば、車両VC1が右折する交差点近傍)の鳥瞰図である第2鳥瞰図BM2(図5参照)を生成する機能部である。ここで、第2鳥瞰図生成部109は、第2鳥瞰図生成手段に相当する。   The second bird's-eye view generation unit 109 is operated by the type and position of the laying object laid near the road on which the vehicle VC1 is traveling, the position of the moving body existing around the vehicle VC1, and a virtual excellent driver. A predetermined second predetermined range (for example, near the intersection where the vehicle VC1 makes a right turn) every second predetermined time ΔT2 (for example, 0.5 sec) including the position of the virtual vehicle VC10 to be operated. This is a functional unit that generates a second bird's-eye view BM2 (see FIG. 5), which is a bird's-eye view. Here, the second bird's-eye view generation unit 109 corresponds to second bird's-eye view generation means.

なお、第2所定時間ΔT2が、第1所定時間ΔT1と同一値(ここでは、0.5sec)に設定され、前記第2所定範囲が、前記第1所定範囲と同一範囲(ここでは、車両VC1が右折する交差点近傍)に設定されている。   The second predetermined time ΔT2 is set to the same value (here, 0.5 sec) as the first predetermined time ΔT1, and the second predetermined range is the same as the first predetermined range (here, the vehicle VC1). Is set near the intersection that makes a right turn).

このように、第2所定時間ΔT2が、第1所定時間ΔT1と同一値に設定され、前記第2所定範囲が、前記第1所定範囲と同一範囲(ここでは、車両VC1が右折する交差点近傍)に設定されているため、第1鳥瞰図BM1上の車両VC1の位置を示すマークP10〜P17と、第2鳥瞰図BM2上の仮想的な車両VC10の位置を示すマークQ10〜Q17とを、直接的に比較することが可能となるので、車両VC1の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   Thus, the second predetermined time ΔT2 is set to the same value as the first predetermined time ΔT1, and the second predetermined range is the same as the first predetermined range (here, in the vicinity of the intersection where the vehicle VC1 turns right). Therefore, the marks P10 to P17 indicating the position of the vehicle VC1 on the first bird's eye view BM1 and the marks Q10 to Q17 indicating the position of the virtual vehicle VC10 on the second bird's eye view BM2 are directly Since the comparison is possible, the driving operation by the driver of the vehicle VC1 can be more appropriately evaluated according to the situation around the vehicle.

また、第2鳥瞰図生成部109は、具体的には、敷設物情報取得部103によって取得された敷設物の種類情報及び位置情報、移動体検出部101によって検出された移動体の車両VC1からの距離、相対速度、移動体判別部102によって推定された移動体の種類、及び、運転操作検出部108によって推定された仮想的な車両VC10の仮想的な運転者による運転操作に基づいて、第2鳥瞰図BM2を生成する。更に、第2鳥瞰図生成部109によって生成された第2鳥瞰図BM2は、操作評価部110によって、車両VC1の運転者による運転操作の評価に用いられると共に、評価結果出力部113によって、ディスプレイ31に表示される。   In addition, the second bird's eye view generation unit 109, specifically, the type information and position information of the laying object acquired by the laying object information acquisition unit 103, and the moving object detected by the moving object detection unit 101 from the vehicle VC1. Based on the distance, the relative speed, the type of the moving body estimated by the moving body determination unit 102, and the driving operation by the virtual driver of the virtual vehicle VC10 estimated by the driving operation detection unit 108, the second A bird's eye view BM2 is generated. Further, the second bird's-eye view BM2 generated by the second bird's-eye view generation unit 109 is used by the operation evaluation unit 110 to evaluate the driving operation by the driver of the vehicle VC1, and is displayed on the display 31 by the evaluation result output unit 113. Is done.

図5は、評価結果出力部113によってディスプレイ31に表示される第2鳥瞰図表示画面の一例を示す画面図である。ここで、第2鳥瞰図表示画面は、第2鳥瞰図BM2を表示する画面である。ここでは、図5に示すように、第2鳥瞰図表示画面には、敷設物情報取得部103によって取得された敷設物として、実線で示す車線、破線で示す中央区分線、横断歩道が表示されている。また、第2鳥瞰図表示画面には、移動体検出部101によって検出された移動体(ここでは、車両VC2、歩行者WP)の位置が、移動体判別部102によって推定された移動体の種類(ここでは、種類を示す画像)と対応付けて表示されている。   FIG. 5 is a screen diagram illustrating an example of a second bird's eye view display screen displayed on the display 31 by the evaluation result output unit 113. Here, the second bird's eye view display screen is a screen that displays the second bird's eye view BM2. Here, as shown in FIG. 5, the second bird's-eye view display screen displays the lanes indicated by the solid line, the center division line indicated by the broken line, and the pedestrian crossing as the laying object acquired by the laying object information acquisition unit 103. Yes. In addition, the second bird's eye view display screen displays the type of the moving object (here, the vehicle VC2 and the pedestrian WP) detected by the moving object detection unit 101 estimated by the moving object determination unit 102 ( Here, it is displayed in association with an image showing the type).

更に、第2鳥瞰図表示画面には、優良操作推定部108によって推定された仮想的な車両VC10の仮想的な優良運転者による運転操作に基づいて、予め設定された第2所定時間ΔT2(例えば、0.5sec)毎の車両VC10の位置を示すマーク(ここでは、黒丸●)Q10〜Q17が表示されている。加えて、第2鳥瞰図表示画面には、移動体検出部101によって検出された歩行者WPの位置を示すマーク(ここでは、白抜きの丸○)P20〜P27が表示されている。ここで、マークQ10〜Q17、及び、マークP20〜P27は、時点T0〜T7(図6参照)における車両VC10及び歩行者WPの位置をそれぞれ示すマークである。また、時点T0〜T7は、第2所定時間ΔT1(例えば、0.5sec)間隔の時点である。   Further, the second bird's-eye view display screen displays a second predetermined time ΔT2 (for example, preset) based on the driving operation by the virtual excellent driver of the virtual vehicle VC10 estimated by the excellent operation estimating unit 108. Marks (here, black circles) Q10 to Q17 indicating the position of the vehicle VC10 every 0.5 sec) are displayed. In addition, on the second bird's eye view display screen, marks (here, white circles) P20 to P27 indicating the position of the pedestrian WP detected by the moving body detection unit 101 are displayed. Here, the marks Q10 to Q17 and the marks P20 to P27 are marks respectively indicating the positions of the vehicle VC10 and the pedestrian WP at the time points T0 to T7 (see FIG. 6). In addition, time points T0 to T7 are time points at intervals of the second predetermined time ΔT1 (for example, 0.5 sec).

再び、図3に戻って、運転操作評価ECU1の機能構成について説明する。操作評価部110は、優良操作推定部108によって推定された仮想的な優良運転者の運転操作に基づき、運転操作検出部104によって検出された運転操作の適否を評価する機能部である。ここでは、操作評価部110は、操作評価手段に相当する。また、操作評価部110は、具体的には、操作判定部105によって前記複数の評価対象操作のいずれかが行われたと判定された場合に、運転操作検出部104によって検出された運転操作の適否を評価する。すなわち、ここでは、操作判定部105によって、該車両の右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作のいずれかが行われたと判定された場合に、操作評価部110は、運転操作検出部104によって検出された運転操作の適否を評価する。   Returning to FIG. 3 again, the functional configuration of the driving operation evaluation ECU 1 will be described. The operation evaluating unit 110 is a functional unit that evaluates the suitability of the driving operation detected by the driving operation detecting unit 104 based on the driving operation of the virtual excellent driver estimated by the excellent operation estimating unit 108. Here, the operation evaluation unit 110 corresponds to an operation evaluation unit. Specifically, the operation evaluation unit 110 determines whether the driving operation detected by the driving operation detection unit 104 is appropriate when the operation determination unit 105 determines that any of the plurality of evaluation target operations has been performed. To evaluate. That is, here, when the operation determination unit 105 determines that any of the right turn operation, left turn operation, overtaking operation, lane change operation, temporary stop operation, and intersection passing operation of the vehicle has been performed, The evaluation unit 110 evaluates the suitability of the driving operation detected by the driving operation detection unit 104.

また、操作評価部110は、第1鳥瞰図生成部106によって生成された第1鳥瞰図BM1(図4参照)、及び、第2鳥瞰図生成部109によって生成された第2鳥瞰図BM2(図5参照)に基づいて、運転操作検出部104によって検出された運転操作の適否を評価する。更に、操作評価部110は、第1鳥瞰図BM1における車両VC1の位置の時間的変化(図4に示すマークP10〜P17)を、第2鳥瞰図BM2における仮想的な車両VC10の位置の時間的変化(図5に示すマークQ10〜Q17)と比較して、車両VC1の運転者による運転操作の適否を評価する。   In addition, the operation evaluation unit 110 applies the first bird's-eye view BM1 (see FIG. 4) generated by the first bird's-eye view generation unit 106 and the second bird's-eye view BM2 (see FIG. 5) generated by the second bird's-eye view generation unit 109. Based on this, the suitability of the driving operation detected by the driving operation detection unit 104 is evaluated. Further, the operation evaluation unit 110 uses a temporal change in the position of the vehicle VC1 in the first bird's-eye view BM1 (marks P10 to P17 shown in FIG. 4) and a temporal change in the position of the virtual vehicle VC10 in the second bird's-eye view BM2 ( Compared with the marks Q10 to Q17) shown in FIG. 5, the suitability of the driving operation by the driver of the vehicle VC1 is evaluated.

このようにして、第1鳥瞰図BM1における車両VC1の位置の時間的変化(マークP10〜マークP17:図4参照)と、第2鳥瞰図BM2における仮想的な車両VC10の位置の時間的変化(マークQ10〜マークQ17:図5参照)とを比較することによって、視覚的に両者の動きを比較して、車両VC1の運転者による運転操作を適正に評価することができる。   Thus, the temporal change in the position of the vehicle VC1 in the first bird's-eye view BM1 (mark P10 to mark P17: see FIG. 4) and the temporal change in the position of the virtual vehicle VC10 in the second bird's-eye view BM2 (mark Q10). To the mark Q17 (see FIG. 5), it is possible to visually compare the movements of the two and visually evaluate the driving operation by the driver of the vehicle VC1.

加えて、操作評価部110は、移動体検出部101によって検出された移動体(例えば、歩行者WP)と車両VC1との距離L1を、優良操作推定部108によって推定された仮想的な優良運転者の運転操作による仮想的な車両VC10から移動体検出部101によって検出された移動体(例えば、歩行者WP)までの距離L10と比較することによって、該車両の運転者による運転操作の適否を評価する。   In addition, the operation evaluation unit 110 is a virtual excellent driving in which the excellent operation estimation unit 108 estimates the distance L1 between the mobile body (for example, the pedestrian WP) detected by the mobile body detection unit 101 and the vehicle VC1. By comparing the distance L10 from the virtual vehicle VC10 due to the driver's driving operation to the moving body (for example, the pedestrian WP) detected by the moving body detection unit 101, the propriety of the driving operation by the driver of the vehicle is determined. evaluate.

図6は、車両VC1(車両VC10)と歩行者WPとの距離Lの変化の一例を示すグラフである。図の横軸は、時間であって、縦軸は、車両VC1と歩行者WPとの距離L1(又は、車両VC10と歩行者WPとの距離L10)である。ここでは、便宜上、距離L1、距離L10を距離Lと表記している。グラフG1は、車両VC1と歩行者WPとの距離L1の時間的変化を示すグラフであり、グラフG2は、車両VC10と歩行者WPとの距離L10の時間的変化を示すグラフである。   FIG. 6 is a graph showing an example of a change in the distance L between the vehicle VC1 (vehicle VC10) and the pedestrian WP. The horizontal axis in the figure is time, and the vertical axis is the distance L1 between the vehicle VC1 and the pedestrian WP (or the distance L10 between the vehicle VC10 and the pedestrian WP). Here, for the sake of convenience, the distance L1 and the distance L10 are expressed as a distance L. The graph G1 is a graph showing a temporal change in the distance L1 between the vehicle VC1 and the pedestrian WP, and the graph G2 is a graph showing a temporal change in the distance L10 between the vehicle VC10 and the pedestrian WP.

図のグラフG2に示すように、車両VC10と歩行者WPとの距離L10は、予め設定された距離閾値Lsh(例えば、5m)以下となることはない。これに対して、図のグラフG1に示すように、車両VC1と歩行者WPとの距離L1は、時間T5において距離閾値Lsh以下となっている。そこで、操作評価部110は、車両VC1の運転者による運転操作を、適正な運転操作ではないと評価する。   As shown in the graph G2 in the figure, the distance L10 between the vehicle VC10 and the pedestrian WP does not become equal to or less than a preset distance threshold Lsh (for example, 5 m). On the other hand, as shown in the graph G1 in the figure, the distance L1 between the vehicle VC1 and the pedestrian WP is equal to or less than the distance threshold Lsh at time T5. Therefore, the operation evaluation unit 110 evaluates that the driving operation by the driver of the vehicle VC1 is not an appropriate driving operation.

このようにして、例えば、車両VC1が右折する際に、車両VC1の進行方向において歩行者WPが横断歩道を渡っている場合(図5参照)には、優良運転者は、歩行者WPが危険を感じない程度の距離閾値Lsh(ここでは、5m)を確保して、この距離を確保するべく運転操作を行う。これに対して、車両VC1と歩行者WPとの距離が距離閾値Lsh以下(図4、図6参照)である場合には、車両VC1の運転者による運転操作が適切ではないと評価する。このようにして、車両VC1の運転者による運転操作を、車両の周囲の状況に応じて更に適正に評価することができる。   In this way, for example, when the vehicle VC1 makes a right turn and the pedestrian WP crosses the pedestrian crossing in the traveling direction of the vehicle VC1 (see FIG. 5), the excellent driver is in danger of the pedestrian WP. A distance threshold Lsh (5 m in this case) is secured so as not to feel the distance, and the driving operation is performed to secure this distance. On the other hand, when the distance between the vehicle VC1 and the pedestrian WP is equal to or less than the distance threshold Lsh (see FIGS. 4 and 6), it is evaluated that the driving operation by the driver of the vehicle VC1 is not appropriate. In this way, the driving operation by the driver of the vehicle VC1 can be more appropriately evaluated according to the situation around the vehicle.

本実施形態では、操作評価部110が、車両VC1と歩行者WPとの距離L1を、仮想的な車両VC10と歩行者WPまでの距離L10と比較することによって、車両VC1の運転者による運転操作の適否を評価する場合について説明したが、操作評価部110が、車両VC1の歩行者WP等の移動体との距離及び相対速度を、仮想的な車両VC10の歩行者WP等の移動体との距離及び相対速度と比較することによって、車両VC1の運転者による運転操作の適否を評価する形態でも良い。この場合には、更に車両VC1の運転者による運転操作の適否を更に適正に評価することができる。   In the present embodiment, the operation evaluation unit 110 compares the distance L1 between the vehicle VC1 and the pedestrian WP with the distance L10 between the virtual vehicle VC10 and the pedestrian WP, thereby driving the driver of the vehicle VC1. However, the operation evaluation unit 110 determines the distance and relative speed between the vehicle VC1 and a moving object such as the pedestrian WP of the vehicle VC1 and the moving object such as the pedestrian WP of the virtual vehicle VC10. A mode of evaluating the suitability of the driving operation by the driver of the vehicle VC1 by comparing with the distance and the relative speed may be employed. In this case, the suitability of the driving operation by the driver of the vehicle VC1 can be further appropriately evaluated.

再び、図3に戻って、運転操作評価ECU1の機能構成について説明する。状況判定部111は、車両VC1が安全な状況であるか否かを判定する機能部である。ここで、状況判定部111は、状況判定手段に相当する。また、状況判定部111は、具体的には、敷設物情報取得部103によって取得された敷設物の種類及び位置、車両VC1の地図上の位置、移動体検出部101によって検出された移動体の車両VC1からの距離、相対速度、移動体判別部102によって推定された移動体の種類、及び、運転操作検出部104によって検出された車両VC1の運転者による運転操作に基づいて、車両VC1が安全な状況であるか否かを判定する。   Returning to FIG. 3 again, the functional configuration of the driving operation evaluation ECU 1 will be described. The situation determination unit 111 is a functional unit that determines whether or not the vehicle VC1 is in a safe situation. Here, the situation determination unit 111 corresponds to a situation determination unit. In addition, the situation determination unit 111 specifically includes the type and position of the laying object acquired by the laying object information acquisition unit 103, the position on the map of the vehicle VC1, and the moving object detected by the moving object detection unit 101. Based on the distance from the vehicle VC1, the relative speed, the type of the moving body estimated by the moving body discrimination unit 102, and the driving operation by the driver of the vehicle VC1 detected by the driving operation detection unit 104, the vehicle VC1 is safe. It is determined whether or not the situation is correct.

出力時点決定部112は、操作評価部110による評価結果を車両VC1の運転者へ出力するタイミングである出力タイミングを決定する機能部である。ここで、出力時点決定部112は、出力時点決定手段に相当する。また、出力時点決定部112は、具体的には、状況判定部111によって車両VC1が安全な状況になったと判定されたタイミングを前記出力タイミングとして決定する。   The output time determination unit 112 is a functional unit that determines an output timing that is a timing at which an evaluation result by the operation evaluation unit 110 is output to the driver of the vehicle VC1. Here, the output time point determination unit 112 corresponds to an output time point determination unit. Further, the output time determination unit 112 specifically determines the timing when the situation determination unit 111 determines that the vehicle VC1 is in a safe situation as the output timing.

図7は、操作評価部110による評価結果の出力タイミングの一例を示す平面図である。図7に示すように車両VC1は、片側1車線の道路を、図の上向きに直進している。時点T20においては、車両VC1の前方に、駐車している車両VC3があり、更に、対向車線を走行する車両VC4が存在している。なお、これらの車両VC3、車両VC4は、移動体検出部101によって検出される。また、図7に示すように、車両VC1の進行方向には、交差点がある。この交差点は、敷設物情報取得部103によって取得される。   FIG. 7 is a plan view showing an example of the output timing of the evaluation result by the operation evaluation unit 110. As shown in FIG. 7, the vehicle VC1 goes straight on a one-lane road on one side upward. At time T20, there is a parked vehicle VC3 in front of the vehicle VC1, and there is a vehicle VC4 traveling in the oncoming lane. The vehicle VC3 and the vehicle VC4 are detected by the moving body detection unit 101. Moreover, as shown in FIG. 7, there is an intersection in the traveling direction of the vehicle VC1. This intersection is acquired by the laying object information acquisition unit 103.

時点T20においては、上述のように、駐車している車両VC3、対向車線を走行する車両VC4、及び、交差点の存在に基づき、状況判定部111によって、車両VC1が安全な状況ではないと判定される。そして、車両VC1が、車両VC3を避けて走行し、車両VC4と離合し、更に、交差点を通過した時点T21において、状況判定部111によって、車両VC1が安全な状況であると判定される。そして、出力時点決定部112によって、時点T21が、操作評価部110による評価結果を車両VC1の運転者へ出力するタイミングである出力タイミングとして決定される。   At time T20, as described above, the situation determination unit 111 determines that the vehicle VC1 is not in a safe situation based on the parked vehicle VC3, the vehicle VC4 traveling in the opposite lane, and the presence of an intersection. The Then, when the vehicle VC1 travels away from the vehicle VC3, separates from the vehicle VC4, and further passes through the intersection, the situation determination unit 111 determines that the vehicle VC1 is in a safe situation. Then, the output time point determination unit 112 determines the time point T21 as an output timing that is a timing for outputting the evaluation result by the operation evaluation unit 110 to the driver of the vehicle VC1.

このようにして、状況判定部111によって、敷設物の種類及び位置、車両VC1の地図上の位置、移動体の車両VC1からの距離、相対速度、移動体の種類、及び、車両VC1の運転者による運転操作に基づいて、車両VC1が安全な状況であるか否かが判定されるため、車両が安全な状況であるか否かを適正に判定することができる。   In this way, the situation determination unit 111 causes the type and position of the laying object, the position of the vehicle VC1 on the map, the distance of the moving body from the vehicle VC1, the relative speed, the type of moving body, and the driver of the vehicle VC1. Since it is determined whether or not the vehicle VC1 is in a safe situation based on the driving operation according to the above, it is possible to appropriately determine whether or not the vehicle is in a safe situation.

また、出力時点決定部112によって、車両VC1が安全な状況になったと判定されたタイミングが、操作評価部110による評価結果を車両VC1の運転者へ出力するタイミングである出力タイミングとして決定されるため、適正な出力タイミングを決定することができる。   In addition, the timing at which the output time determination unit 112 determines that the vehicle VC1 is in a safe situation is determined as the output timing that is the timing at which the evaluation result by the operation evaluation unit 110 is output to the driver of the vehicle VC1. The proper output timing can be determined.

本実施形態では、出力時点決定部112が、状況判定部111によって車両VC1が安全な状況になったと判定されたタイミングを前記出力タイミングとして決定する場合について説明するが、出力時点決定部112が、その他のタイミングを前記出力タイミングとして決定する形態でも良い。例えば、出力時点決定部112が、操作評価部110によって評価結果が出力された後、車両VC1が信号待ち等で停車したタイミングを前記出力タイミングとして決定する形態でも良い。この場合には、処理が簡略化される。   In the present embodiment, the case where the output time determination unit 112 determines the timing at which the situation determination unit 111 determines that the vehicle VC1 is in a safe situation as the output timing will be described. Other timing may be determined as the output timing. For example, the output time determination unit 112 may determine, as the output timing, the timing at which the vehicle VC1 stops due to a signal waiting after the evaluation result is output by the operation evaluation unit 110. In this case, the process is simplified.

再び、図3に戻って、運転操作評価ECU1の機能構成について説明する。評価結果出力部113は、操作評価部110による評価結果を、車両VC1の運転者へ視認可能に出力する機能部である。ここで、評価結果出力部113は、評価結果出力手段に相当する。また、評価結果出力部113は、具体的には、ディスプレイ31を介して、第1鳥瞰図BM1(図4参照)及び第2鳥瞰図MP2(図5参照)を、車両VC1の運転者に視認可能に表示する。更に、評価結果出力部113は、操作評価部110による評価結果を説明する音声情報を生成し、生成された音声を、スピーカ32を介して出力する。なお、評価結果出力部113は、出力時点決定部112によって決定された出力タイミング(例えば、図7に示す時点T21)において、操作評価部110による評価結果を出力する。   Returning to FIG. 3 again, the functional configuration of the driving operation evaluation ECU 1 will be described. The evaluation result output unit 113 is a functional unit that outputs the evaluation result by the operation evaluation unit 110 to the driver of the vehicle VC1 so as to be visible. Here, the evaluation result output unit 113 corresponds to an evaluation result output unit. In addition, the evaluation result output unit 113 specifically enables the driver of the vehicle VC1 to visually recognize the first bird's-eye view BM1 (see FIG. 4) and the second bird's-eye view MP2 (see FIG. 5) via the display 31. indicate. Furthermore, the evaluation result output unit 113 generates audio information that explains the evaluation result by the operation evaluation unit 110 and outputs the generated audio via the speaker 32. The evaluation result output unit 113 outputs the evaluation result by the operation evaluation unit 110 at the output timing determined by the output time determination unit 112 (for example, time T21 shown in FIG. 7).

このようにして、評価結果出力部113によって、第1鳥瞰図BM1及び第2鳥瞰図BM2が、車両VC1の運転者に視認可能にディスプレイ31を介して表示されるため、車両VC1の運転者が、運転操作の評価結果を容易に把握することができる。   Thus, since the first bird's-eye view BM1 and the second bird's-eye view BM2 are displayed via the display 31 so as to be visible to the driver of the vehicle VC1, the evaluation result output unit 113 allows the driver of the vehicle VC1 to drive. The operation evaluation result can be easily grasped.

また、評価結果出力部113によって、車両VC1の運転者による運転操作の評価結果を説明する音声情報が生成され、生成された音声がスピーカ32を介して出力されるため、車両VC1の運転者が、運転操作の評価結果を更に容易に把握することができる。   Further, since the evaluation result output unit 113 generates voice information that explains the evaluation result of the driving operation by the driver of the vehicle VC1, and the generated voice is output via the speaker 32, the driver of the vehicle VC1 Thus, the evaluation result of the driving operation can be grasped more easily.

本実施形態では、評価結果出力部113が、第1鳥瞰図BM1及び第2鳥瞰図BM2を表示する場合について説明するが、評価結果出力部113が、第1鳥瞰図BM1及び第2鳥瞰図BM2の少なくとも一方を表示する形態でも良い。この場合には、処理が簡略化される。   In this embodiment, the case where the evaluation result output unit 113 displays the first bird's-eye view BM1 and the second bird's-eye view BM2 will be described. However, the evaluation result output unit 113 displays at least one of the first bird's-eye view BM1 and the second bird's-eye view BM2. The form to display may be sufficient. In this case, the process is simplified.

また、本実施形態では、評価結果出力部113が、車両VC1の運転者による運転操作の評価結果を説明する音声を出力する場合について説明するが、評価結果出力部113が、車両VC1の運転者による運転操作の評価結果を説明する文字情報を生成して、生成された文字情報を、第1鳥瞰図BM1及び第2鳥瞰図BM2と共に、ディスプレイ31を介して表示する形態でも良い。   Further, in the present embodiment, a case where the evaluation result output unit 113 outputs a sound explaining the evaluation result of the driving operation by the driver of the vehicle VC1 will be described. However, the evaluation result output unit 113 is a driver of the vehicle VC1. The character information explaining the evaluation result of the driving operation may be generated, and the generated character information may be displayed through the display 31 together with the first bird's-eye view BM1 and the second bird's-eye view BM2.

図8、図9は、図3に示す運転操作評価ECU1の動作の一例を示すフローチャートである。図8に示すように、まず、移動体検出部101によって、車両VC1の周囲に存在する移動体との距離及び相対速度が検出される(S101)。そして、移動体判別部102によって、ステップS101において検出された移動体の種類が推定される(S103)。次いで、敷設物情報取得部103によって、車両VC1が走行している道路近傍に敷設され、車両VC1の周囲に存在する敷設物の種類、位置、及び、車両VC1の地図上の位置が取得される(S105)。次に、運転操作検出部104によって、車両VC1の運転者による運転操作が検出される(S107)。   8 and 9 are flowcharts showing an example of the operation of the driving operation evaluation ECU 1 shown in FIG. As shown in FIG. 8, first, the distance and relative speed with respect to the moving body existing around the vehicle VC1 is detected by the moving body detecting unit 101 (S101). Then, the moving object discriminating unit 102 estimates the type of moving object detected in step S101 (S103). Next, the laying object information acquisition unit 103 lays the road near the road on which the vehicle VC1 is traveling, and acquires the type and position of the laying objects existing around the vehicle VC1 and the position of the vehicle VC1 on the map. (S105). Next, the driving operation by the driver of the vehicle VC1 is detected by the driving operation detection unit 104 (S107).

そして、操作判定部105によって、評価対象操作が行われたか否かが判定される(S109)。評価対象操作が行われていないと判定された場合(S109でNO)には、処理がステップS101に戻され、ステップS101以降の処理が繰り返し実行される。評価対象操作が行われたと判定された場合(S109でYES)には、第1鳥瞰図生成部106によって、ステップS107において検出された車両VC1の運転者による運転操作等に基づいて、第1鳥瞰図BM1が生成される(S111)。そして、優良操作推定部108によって、車両VC1の周囲の状況における仮想的な優良運転者の運転操作が推定される(S113)。次に、第2鳥瞰図生成部109によって、ステップS113において推定された車両VC10の仮想的な優良運転者による運転操作等に基づいて、第2鳥瞰図BM2が生成される(S115)。   Then, the operation determination unit 105 determines whether or not an evaluation target operation has been performed (S109). If it is determined that the evaluation target operation has not been performed (NO in S109), the process returns to step S101, and the processes after step S101 are repeatedly executed. If it is determined that the evaluation target operation has been performed (YES in S109), the first bird's-eye view BM1 based on the driving operation or the like by the driver of the vehicle VC1 detected in step S107 by the first bird's-eye view generation unit 106. Is generated (S111). Then, the excellent operation estimation unit 108 estimates the driving operation of the virtual excellent driver in the situation around the vehicle VC1 (S113). Next, the second bird's-eye view generation unit 109 generates the second bird's-eye view BM2 based on the driving operation or the like by the virtual excellent driver of the vehicle VC10 estimated in step S113 (S115).

次いで、図9に示すように、操作評価部110によって、図8のステップS111において生成された第1鳥瞰図BM1、図8のステップS115において生成された第2鳥瞰図BM2に基づいて、図8のステップS107において検出された運転操作の適否が評価される(S117)。そして、評価結果出力部113によって、第1鳥瞰図BM1を含む第1鳥瞰図表示画面情報、第2鳥瞰図BM2を含む第2鳥瞰図表示画面情報、評価結果を説明する音声情報等からなる評価結果出力情報が生成される(S119)。   Next, as shown in FIG. 9, the operation evaluation unit 110 performs the steps in FIG. 8 based on the first bird's-eye view BM1 generated in step S111 in FIG. 8 and the second bird's-eye view BM2 generated in step S115 in FIG. The suitability of the driving operation detected in S107 is evaluated (S117). Then, the evaluation result output unit 113 outputs evaluation result output information including first bird's-eye view display screen information including the first bird's-eye view BM1, second bird's-eye view display screen information including the second bird's-eye view BM2, and voice information explaining the evaluation result. It is generated (S119).

次に、移動体検出部101によって、車両VC1の周囲に存在する移動体との距離及び相対速度が検出される(S121)。そして、移動体判別部102によって、ステップS121において検出された移動体の種類が推定される(S123)。次いで、敷設物情報取得部103によって、車両VC1が走行している道路近傍に敷設され、車両VC1の周囲に存在する敷設物の種類、位置、及び、車両VC1の地図上の位置が取得される(S125)。次に、運転操作検出部104によって、車両VC1の運転者による運転操作が検出される(S127)。   Next, the distance and relative speed with the moving body existing around the vehicle VC1 is detected by the moving body detecting unit 101 (S121). Then, the moving object discriminating unit 102 estimates the type of moving object detected in step S121 (S123). Next, the laying object information acquisition unit 103 lays the road near the road on which the vehicle VC1 is traveling, and acquires the type and position of the laying objects existing around the vehicle VC1 and the position of the vehicle VC1 on the map. (S125). Next, the driving operation by the driver of the vehicle VC1 is detected by the driving operation detection unit 104 (S127).

そして、状況判定部111によって、車両VC1が安全な状況であるか否かが判定され
る(S129)。車両VC1が安全な状況ではないと判定された場合(S129でNO)には、処理がステップS121に戻され、ステップS121以降の処理が繰り返し実行される。車両VC1が安全な状況であると判定された場合(S129でYES)には、出力時点決定部112によって、ステップS129において車両VC1が安全な状況になったと判定されたタイミングが、評価結果の出力タイミングとして決定される(S131)。そして、評価結果出力部113によって、ステップS119において生成された評価結果出力情報が、ディスプレイ31、スピーカ32を介して出力されて(S133)、処理が終了される。
Then, the situation determination unit 111 determines whether or not the vehicle VC1 is in a safe situation (S129). If it is determined that vehicle VC1 is not in a safe situation (NO in S129), the process returns to step S121, and the processes after step S121 are repeatedly executed. When it is determined that the vehicle VC1 is in a safe situation (YES in S129), the timing at which the output time determination unit 112 determines that the vehicle VC1 is in a safe situation in step S129 is output as an evaluation result. The timing is determined (S131). Then, the evaluation result output unit 113 outputs the evaluation result output information generated in step S119 via the display 31 and the speaker 32 (S133), and the process is terminated.

このようにして、車両VC1の周囲の状況において、仮想的な優良運転者の運転操作が推定され、推定された仮想的な優良運転者の運転操作に基づき、検出された運転操作の適否が評価されるため、運転者による運転操作を、具体的な車両の周囲の状況における仮想的な優良運転者の運転操作と対比することによって、運転者による運転操作を車両VC1の周囲の状況に応じて適正に評価することができる。   In this way, the driving operation of the virtual excellent driver is estimated in the situation around the vehicle VC1, and the suitability of the detected driving operation is evaluated based on the estimated driving operation of the virtual excellent driver. Therefore, by comparing the driving operation by the driver with the driving operation of the virtual excellent driver in a specific situation around the vehicle, the driving operation by the driver is made according to the situation around the vehicle VC1. Appropriate evaluation is possible.

なお、本発明に係る運転操作評価装置は、上記実施形態に係る運転操作評価ECU1に限定されず、下記の形態でも良い。
(A)本実施形態においては、移動体検出部101が、レーダ装置21(レーダ装置211〜216:図2参照)及びカメラ22を介して、車両VC1の周囲に存在する移動体を検出する場合について説明したが、移動体検出部101が、少なくとも車両VC1の前方に存在する移動体を検出する形態であれば良い。この場合には、構成及び処理が簡略化される。
In addition, the driving operation evaluation apparatus according to the present invention is not limited to the driving operation evaluation ECU 1 according to the above embodiment, and may be in the following form.
(A) In the present embodiment, the moving object detection unit 101 detects a moving object existing around the vehicle VC1 via the radar device 21 (radar devices 211 to 216: see FIG. 2) and the camera 22. However, any configuration may be used as long as the moving object detection unit 101 detects a moving object existing at least in front of the vehicle VC1. In this case, the configuration and processing are simplified.

(B)本実施形態においては、運転操作検出部104が、車速センサ24、操舵角センサ25、加速操作センサ26、減速操作センサ27、及び、方向指示操作センサ28を介して、運転操作を検出する場合について説明したが、運転操作検出部104が、少なくとも車速センサ24及び操舵角センサ25を介して、運転操作を検出する形態であれば良い。この場合には、構成及び処理が簡略化される。   (B) In the present embodiment, the driving operation detection unit 104 detects a driving operation via the vehicle speed sensor 24, the steering angle sensor 25, the acceleration operation sensor 26, the deceleration operation sensor 27, and the direction instruction operation sensor 28. However, the driving operation detection unit 104 may be configured to detect the driving operation through at least the vehicle speed sensor 24 and the steering angle sensor 25. In this case, the configuration and processing are simplified.

(C)本実施形態においては、評価結果出力部113が、ディスプレイ31及びスピーカ32を介して、評価結果を出力する場合について説明したが、評価結果出力部113が、ディスプレイ31又はスピーカ32を介して、評価結果を出力する形態でも良い。この場合には、構成及び処理が簡略化される。   (C) In the present embodiment, the evaluation result output unit 113 outputs the evaluation result via the display 31 and the speaker 32. However, the evaluation result output unit 113 passes the display 31 or the speaker 32. The evaluation result may be output. In this case, the configuration and processing are simplified.

(D)本実施形態においては、運転操作評価ECU1が、機能的に、移動体検出部101、移動体判別部102、敷設物情報取得部103、運転操作検出部104、操作判定部105、第1鳥瞰図生成部106、優良操作記憶部107、優良操作推定部108、第2鳥瞰図生成部109、操作評価部110、状況判定部111、出力時点決定部112、評価結果出力部113等を備える場合について説明したが、移動体検出部101、移動体判別部102、敷設物情報取得部103、運転操作検出部104、操作判定部105、第1鳥瞰図生成部106、優良操作記憶部107、優良操作推定部108、第2鳥瞰図生成部109、操作評価部110、状況判定部111、出力時点決定部112、及び、評価結果出力部113の内、少なくとも1の機能部が、電気回路等のハードウェアによって構成されている形態でも良い。   (D) In the present embodiment, the driving operation evaluation ECU 1 functionally includes a moving object detection unit 101, a moving object determination unit 102, a laying object information acquisition unit 103, a driving operation detection unit 104, an operation determination unit 105, When a 1 bird's eye view generation unit 106, a superior operation storage unit 107, a superior operation estimation unit 108, a second bird's eye view generation unit 109, an operation evaluation unit 110, a situation determination unit 111, an output time point determination unit 112, an evaluation result output unit 113, and the like are provided. The moving object detection unit 101, the moving object determination unit 102, the laying object information acquisition unit 103, the driving operation detection unit 104, the operation determination unit 105, the first bird's eye view generation unit 106, the excellent operation storage unit 107, and the excellent operation are described. Among the estimation unit 108, the second bird's eye view generation unit 109, the operation evaluation unit 110, the situation determination unit 111, the output time point determination unit 112, and the evaluation result output unit 113, at least Function part of, or in the form as it is constituted by hardware such as an electric circuit.

(E)本実施形態においては、操作評価部110によって評価される対象の運転操作である評価対象操作が、右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作を含む場合について説明したが、評価対象操作が、右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作の少なくとも1つを含む形態であれば良い。評価対象操作の個数が少ない程、処理が簡略化される。   (E) In the present embodiment, an evaluation target operation that is a target driving operation evaluated by the operation evaluation unit 110 is a right turn operation, a left turn operation, an overtaking operation, a lane change operation, a pause operation, and an intersection passing operation. However, the evaluation target operation only needs to include at least one of a right turn operation, a left turn operation, an overtaking operation, a lane change operation, a pause operation, and an intersection passing operation. The smaller the number of operations to be evaluated, the more simplified the process.

(F)本実施形態においては、操作評価部110が、操作判定部105によって前記複数の評価対象操作のいずれかが行われたと判定された場合に、運転操作の適否を評価する場合について説明したが、操作評価部110が、予め設定された条件を満たすと、運転操作の適否を評価する形態でも良い。例えば、ナビゲーションシステム23に目的地を設定している場合に、操作評価部110が、予め設定された事故発生多発地点を通過するとの条件を満たすと、運転操作の適否を評価する形態でも良い。   (F) In the present embodiment, a case has been described in which the operation evaluation unit 110 evaluates the suitability of the driving operation when the operation determination unit 105 determines that any of the plurality of evaluation target operations has been performed. However, when the operation evaluation part 110 satisfy | fills the preset conditions, the form which evaluates the suitability of driving operation may be sufficient. For example, when the destination is set in the navigation system 23, the operation evaluation unit 110 may evaluate the suitability of the driving operation when the condition that the vehicle passes a preset accident occurrence point is satisfied.

(G)本実施形態においては、優良操作推定部108が、優良操作記憶部107に予め格納されている運転操作情報を読み出すことによって、仮想的な優良運転者の運転操作を推定する場合について説明したが、優良操作推定部108が、その他の方法で仮想的な優良運転者の運転操作を推定する形態でも良い。例えば、優良操作推定部108が、敷設物の種類情報及び位置情報、移動体の車両VC1からの距離、相対速度、及び、移動体の種類等の周囲の状況に基づいて、仮想的な優良運転者の運転操作を推定する形態でも良い。すなわち、仮想的な優良運転者の運転操作を規定する複数のルールを予め設定しておき、該ルールに則って仮想的な優良運転者の運転操作を推定する形態でも良い。この場合には、上記複数のルールを適正に設定することによって、仮想的な優良運転者の運転操作を正確に推定するができる。   (G) In this embodiment, the case where the excellent operation estimation unit 108 estimates the driving operation of a virtual excellent driver by reading the driving operation information stored in advance in the excellent operation storage unit 107 will be described. However, the configuration in which the excellent operation estimation unit 108 estimates the driving operation of the virtual excellent driver by other methods may be employed. For example, the excellent operation estimation unit 108 performs virtual excellent driving based on surrounding conditions such as the type information and position information of the laying object, the distance of the moving body from the vehicle VC1, the relative speed, and the type of the moving body. The form which estimates a person's driving operation may be sufficient. That is, a plurality of rules that prescribe the driving operation of the virtual excellent driver may be set in advance, and the driving operation of the virtual excellent driver may be estimated according to the rule. In this case, the driving operation of the virtual excellent driver can be accurately estimated by appropriately setting the plurality of rules.

本発明は、例えば、車両に搭載され、運転者による運転操作の適否を評価する運転操作評価装置に適用することができる。   The present invention can be applied to, for example, a driving operation evaluation apparatus that is mounted on a vehicle and evaluates the suitability of a driving operation by a driver.

1 運転操作評価ECU(運転操作評価装置)
101 移動体検出部(移動体検出手段)
102 移動体判別部(移動体判別手段)
103 敷設物情報取得部(敷設物情報取得手段)
104 運転操作検出部(運転操作検出手段)
105 操作判定部(操作判定手段)
106 第1鳥瞰図生成部(第1鳥瞰図生成手段)
107 優良操作記憶部(優良操作推定手段の一部)
108 優良操作推定部(優良操作推定手段の一部)
109 第2鳥瞰図生成部(第2鳥瞰図生成手段)
110 操作評価部(操作評価手段)
111 状況判定部(状況判定手段)
112 出力時点決定部(出力時点決定手段)
113 評価結果出力部(評価結果出力手段)
2 入力機器
21(211〜216) レーダ装置
22 カメラ
23 ナビゲーションシステム
24 車速センサ
25 操舵角センサ
26 加速操作センサ
27 減速操作センサ
28 方向指示操作センサ
3 出力機器
31 ディスプレイ
32 スピーカ
1 Driving operation evaluation ECU (Driving operation evaluation device)
101 Moving body detection unit (moving body detection means)
102 Moving object discriminating unit (moving object discriminating means)
103 Installation information acquisition unit (Installation information acquisition means)
104 Driving operation detection unit (driving operation detection means)
105 Operation determination unit (operation determination means)
106 1st bird's-eye view production | generation part (1st bird's-eye view production | generation means)
107 Excellent operation storage unit (part of excellent operation estimation means)
108 Excellent operation estimation unit (part of excellent operation estimation means)
109 Second bird's-eye view generation unit (second bird's-eye view generation means)
110 Operation Evaluation Unit (Operation Evaluation Unit)
111 Situation determination unit (situation determination means)
112 Output time determination unit (output time determination means)
113 Evaluation result output unit (Evaluation result output means)
2 Input device 21 (211 to 216) Radar device 22 Camera 23 Navigation system 24 Vehicle speed sensor 25 Steering angle sensor 26 Acceleration operation sensor 27 Deceleration operation sensor 28 Direction indication operation sensor 3 Output device 31 Display 32 Speaker

Claims (21)

車両に搭載され、運転者による運転操作の適否を評価する運転操作評価装置であって、
該車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離及び相対速度を検出する移動体検出手段と、
前記移動体検出手段によって検出された移動体の該車両からの距離、及び、相対速度に基づき、仮想的な優良運転者の運転操作を推定する優良操作推定手段と、
該車両の運転者による運転操作を検出する運転操作検出手段と、
前記優良操作推定手段によって推定された仮想的な優良運転者の運転操作に基づき、前記運転操作検出手段によって検出された運転操作の適否を評価する操作評価手段と、を備える、運転操作評価装置。
A driving operation evaluation device that is mounted on a vehicle and evaluates the suitability of a driving operation by a driver,
Moving body detection means for detecting the distance and relative speed of the moving body including other vehicles and pedestrians existing around the vehicle;
Excellent operation estimating means for estimating a driving operation of a virtual excellent driver based on a distance from the vehicle of the moving object detected by the moving object detecting means and a relative speed;
Driving operation detecting means for detecting a driving operation by a driver of the vehicle;
A driving operation evaluation apparatus comprising: an operation evaluation unit that evaluates the suitability of the driving operation detected by the driving operation detection unit based on the driving operation of the virtual excellent driver estimated by the excellent operation estimation unit.
ナビゲーションシステムを介して、該車両が走行している道路近傍に敷設され、該車両の周囲に存在する信号機、標識、横断歩道を含む敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報を取得する敷設物情報取得手段を備え、
前記優良操作推定手段は、前記敷設物情報取得手段によって取得された敷設物の種類情報、位置情報、及び、該車両の地図上の位置情報に基づき、仮想的な優良運転者の運転操作を推定する、請求項1に記載の運転操作評価装置。
Via the navigation system, the type information, the position information, and the information on the laying object including the traffic lights, signs, and pedestrian crossings that are laid near the road on which the vehicle is traveling. Laying object information acquisition means for acquiring the position information of,
The excellent operation estimating means estimates the driving operation of a virtual excellent driver based on the type information, position information, and position information on the map of the vehicle acquired by the installation information acquisition means. The driving operation evaluation device according to claim 1.
前記移動体検出手段は、該車両の前方及び側方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する、請求項1に記載の運転操作評価装置。   2. The driving operation according to claim 1, wherein the moving body detection unit detects a distance from the vehicle and other vehicles existing in front and side of the vehicle, a moving body including a pedestrian, and a relative speed. Evaluation device. 前記移動体検出手段は、該車両の後方に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する、請求項3に記載の運転操作評価装置。   The driving operation evaluation apparatus according to claim 3, wherein the moving body detection unit detects other vehicles existing behind the vehicle, a distance of the moving body including a pedestrian from the vehicle, and a relative speed. 前記移動体検出手段は、画像情報を生成するカメラ、及び、レーダ装置を介して、該車両の周囲に存在する他の車両、歩行者を含む移動体の該車両からの距離、及び、相対速度を検出する、請求項1に記載の運転操作評価装置。   The moving body detecting means includes a camera that generates image information, and a radar apparatus, and other vehicles existing around the vehicle, a distance of the moving body including a pedestrian from the vehicle, and a relative speed. The driving operation evaluation device according to claim 1, wherein 前記運転操作検出手段によって検出された該車両の運転者による運転操作、及び、前記敷設物情報取得手段によって取得された敷設物の種類情報、位置情報、該車両の地図上の位置情報、の少なくとも一方に基づいて、該車両の右折操作、左折操作、追い越し操作、車線変更操作、一時停止操作、及び、交差点通過操作の少なくとも1つの操作を含み、予め設定された複数の評価対象操作の内、いずれかが行われたか否かを判定する操作判定手段を備え、
前記操作評価手段は、前記操作判定手段によって前記複数の評価対象操作のいずれかが行われたと判定された場合に、前記運転操作検出手段によって検出された運転操作の適否を評価する、請求項2に記載の運転操作評価装置。
At least the driving operation by the driver of the vehicle detected by the driving operation detecting means, the type information of the laying object acquired by the laying object information acquiring means, the position information, and the position information on the map of the vehicle Based on one of the plurality of preset evaluation target operations, including at least one of the right turn operation, left turn operation, overtaking operation, lane change operation, pause operation, and intersection passing operation of the vehicle, Comprising an operation determining means for determining whether or not any of them has been performed;
The operation evaluation unit evaluates the suitability of the driving operation detected by the driving operation detection unit when it is determined by the operation determination unit that any of the plurality of evaluation target operations has been performed. The driving operation evaluation apparatus according to 1.
前記操作評価手段は、前記移動体検出手段によって検出された移動体と該車両との距離に基づいて、該車両の運転者による運転操作の適否を評価する、請求項1に記載の運転操作評価装置。   2. The driving operation evaluation according to claim 1, wherein the operation evaluating unit evaluates whether or not the driving operation by the driver of the vehicle is appropriate based on a distance between the moving body and the vehicle detected by the moving body detecting unit. apparatus. 前記操作評価手段は、前記移動体検出手段によって検出された移動体との相対速度に基づいて、該車両の運転者による運転操作の適否を評価する、請求項7に記載の運転操作評価装置。   The driving operation evaluation apparatus according to claim 7, wherein the operation evaluation unit evaluates whether or not the driving operation by the driver of the vehicle is appropriate based on a relative speed with the moving body detected by the moving body detection unit. 前記操作評価手段は、前記移動体検出手段によって検出された移動体と該車両との距離を、前記優良操作推定手段によって推定された仮想的な優良運転者の運転操作による仮想的な車両から前記移動体検出手段によって検出された移動体までの距離と比較することによって、該車両の運転者による運転操作の適否を評価する、請求項7に記載の運転操作評価装置。   The operation evaluation unit is configured to determine a distance between the vehicle detected by the mobile object detection unit and the vehicle from a virtual vehicle by a driving operation of a virtual excellent driver estimated by the excellent operation estimation unit. The driving operation evaluation device according to claim 7, wherein the propriety of the driving operation by the driver of the vehicle is evaluated by comparing with a distance to the moving body detected by the moving body detection means. 前記移動体検出手段によって検出された移動体の種類を推定する移動体判別手段を備え、
前記操作評価手段は、前記移動体判別手段によって推定された移動体の種類に基づいて、該車両の運転者による運転操作の適否を評価する、請求項7に記載の運転操作評価装置。
A moving object determining means for estimating the type of moving object detected by the moving object detecting means;
The driving operation evaluation device according to claim 7, wherein the operation evaluation unit evaluates whether the driving operation by the driver of the vehicle is appropriate based on the type of the moving body estimated by the moving body determination unit.
前記敷設物情報取得手段によって取得された敷設物の種類情報及び位置情報、前記移動体検出手段によって検出された移動体の該車両からの距離、相対速度、及び、前記運転操作検出手段によって検出された該車両の運転者による運転操作に基づいて、前記敷設物の種類、位置、前記移動体の位置、及び、該車両の位置を含み、予め設定された第1所定時間毎の予め設定された第1所定範囲の鳥瞰図である第1鳥瞰図を生成する第1鳥瞰図生成手段を備え、
前記操作評価手段は、前記第1鳥瞰図に基づいて、該車両の運転者による運転操作の適否を評価する、請求項2に記載の運転操作評価装置。
The type information and position information of the laying object acquired by the laying object information acquiring means, the distance from the vehicle of the moving object detected by the moving object detecting means, the relative speed, and the driving operation detecting means. In addition, based on the driving operation by the driver of the vehicle, the type of the laying object, the position, the position of the moving body, and the position of the vehicle are set in advance at every first predetermined time set in advance. Comprising a first bird's-eye view generation means for generating a first bird's-eye view that is a bird's-eye view of a first predetermined range;
The driving operation evaluation device according to claim 2, wherein the operation evaluation unit evaluates whether the driving operation by the driver of the vehicle is appropriate based on the first bird's-eye view.
前記敷設物情報取得手段によって取得された敷設物の種類情報及び位置情報、前記移動体検出手段によって検出された移動体の該車両からの距離、相対速度、及び、前記優良操作推定手段によって推定された仮想的な優良運転者の運転操作に基づいて、前記敷設物の種類、位置、前記移動体の位置、及び、前記仮想的な優良運転者が運転操作する仮想的な車両の位置を含み、予め設定された第2所定時間毎の予め設定された第2所定範囲の鳥瞰図である第2鳥瞰図を生成する第2鳥瞰図生成手段を備え、
前記操作評価手段は、前記第1鳥瞰図及び前記第2鳥瞰図に基づいて、該車両の運転者による運転操作の適否を評価する、請求項11に記載の運転操作評価装置。
The type information and position information of the laying object acquired by the laying object information acquiring unit, the distance from the vehicle of the moving body detected by the moving body detecting unit, the relative speed, and estimated by the excellent operation estimating unit. Based on the driving operation of the virtual excellent driver, the type of the laying object, the position, the position of the moving body, and the position of the virtual vehicle that the virtual excellent driver operates, A second bird's-eye view generating means for generating a second bird's-eye view that is a bird's-eye view of a preset second predetermined range every second predetermined time set in advance;
The driving operation evaluation device according to claim 11, wherein the operation evaluation unit evaluates whether the driving operation by the driver of the vehicle is appropriate based on the first bird's-eye view and the second bird's-eye view.
前記第2所定時間は、前記第1所定時間と略同一値に設定され、前記第2所定範囲は、前記第1所定範囲と略同一範囲に設定されている、請求項12に記載の運転操作評価装置。   The driving operation according to claim 12, wherein the second predetermined time is set to be substantially the same value as the first predetermined time, and the second predetermined range is set to be substantially the same range as the first predetermined range. Evaluation device. 前記操作評価手段は、前記第1鳥瞰図における該車両の位置の時間的変化を、前記第2鳥瞰図における前記仮想的な車両の位置の時間的変化と比較して、該車両の運転者による運転操作の適否を評価する、請求項12に記載の運転操作評価装置。   The operation evaluation means compares the temporal change in the position of the vehicle in the first bird's-eye view with the temporal change in the position of the virtual vehicle in the second bird's-eye view, and performs a driving operation by the driver of the vehicle. The driving operation evaluation apparatus according to claim 12, wherein the propriety of the driving is evaluated. 前記操作評価手段による評価結果を、該車両の運転者へ視認可能に出力する評価結果出力手段を備える、請求項12に記載の運転操作評価装置。   The driving operation evaluation apparatus according to claim 12, further comprising an evaluation result output unit that outputs an evaluation result by the operation evaluation unit so as to be visible to a driver of the vehicle. 前記評価結果出力手段は、前記第1鳥瞰図及び前記第2鳥瞰図の少なくとも一方を、該車両の運転者に視認可能に表示する、請求項15に記載の運転操作評価装置。   The driving operation evaluation device according to claim 15, wherein the evaluation result output means displays at least one of the first bird's-eye view and the second bird's-eye view so as to be visible to a driver of the vehicle. 前記評価結果出力手段は、前記操作評価手段による評価結果を説明する音声情報を生成し、生成された音声を出力する、請求項15に記載の運転操作評価装置。   16. The driving operation evaluation apparatus according to claim 15, wherein the evaluation result output unit generates voice information that explains an evaluation result by the operation evaluation unit, and outputs the generated voice. 前記操作評価手段による評価結果を、該車両の運転者へ視認可能に出力する評価結果出力手段を備える、請求項1に記載の運転操作評価装置。   The driving operation evaluation apparatus according to claim 1, further comprising an evaluation result output unit that outputs an evaluation result obtained by the operation evaluation unit so as to be visible to a driver of the vehicle. 前記操作評価手段による評価結果を該車両の運転者へ出力するタイミングである出力タイミングを決定する出力時点決定手段を備え、
前記評価結果出力手段は、前記出力時点決定手段によって決定された出力タイミングにおいて、前記操作評価手段による評価結果を出力する、請求項18に記載の運転操作評価装置。
An output time point determining means for determining an output timing which is a timing for outputting an evaluation result by the operation evaluating means to a driver of the vehicle;
19. The driving operation evaluation device according to claim 18, wherein the evaluation result output means outputs an evaluation result by the operation evaluation means at an output timing determined by the output time point determination means.
前記出力時点決定手段は、前記操作評価手段による評価が終了した後、該車両が安全な状況になったタイミングを前記出力タイミングとして決定する、請求項19に記載の運転操作評価装置。   The driving operation evaluation device according to claim 19, wherein the output time point determination means determines, as the output timing, a timing when the vehicle is in a safe state after the evaluation by the operation evaluation means is completed. 前記敷設物情報取得手段によって取得された敷設物の種類及び位置、該車両の地図上の位置、前記移動体検出手段によって検出された移動体の該車両からの距離、相対速度、及び、前記運転操作検出手段によって検出された該車両の運転者による運転操作に基づいて、該車両が安全な状況であるか否かを判定する状況判定手段を備え、
前記出力時点決定手段は、前記状況判定手段によって該車両が安全な状況になったと判定されたタイミングを前記出力タイミングとして決定する、請求項20に記載の運転操作評価装置。
The type and position of the laying object acquired by the laying object information acquiring means, the position of the vehicle on the map, the distance from the vehicle of the moving object detected by the moving object detecting means, the relative speed, and the driving Based on the driving operation by the driver of the vehicle detected by the operation detecting means, comprising a situation determining means for determining whether or not the vehicle is in a safe situation;
21. The driving operation evaluation apparatus according to claim 20, wherein the output time determination means determines, as the output timing, a timing when the situation determination means determines that the vehicle is in a safe situation.
JP2009153970A 2009-06-29 2009-06-29 Driving operation evaluation device Pending JP2011008699A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009153970A JP2011008699A (en) 2009-06-29 2009-06-29 Driving operation evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009153970A JP2011008699A (en) 2009-06-29 2009-06-29 Driving operation evaluation device

Publications (1)

Publication Number Publication Date
JP2011008699A true JP2011008699A (en) 2011-01-13

Family

ID=43565238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009153970A Pending JP2011008699A (en) 2009-06-29 2009-06-29 Driving operation evaluation device

Country Status (1)

Country Link
JP (1) JP2011008699A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013108752A1 (en) * 2012-01-20 2013-07-25 トヨタ自動車 株式会社 Driving model generation device, driving model generation method, driving evaluation device, driving evaluation method, and driving support system
CN103267598A (en) * 2013-05-03 2013-08-28 苏州科技学院 Floor with weight perception and guiding functions
JP2014135061A (en) * 2014-02-05 2014-07-24 Toyota Motor Corp Drive evaluating device, drive evaluating method, and drive support system
JP2021157606A (en) * 2020-03-27 2021-10-07 パイオニア株式会社 Evaluation device, evaluation method, and program for evaluation device
CN113539010A (en) * 2020-09-28 2021-10-22 腾讯科技(深圳)有限公司 Driving simulation method, device, equipment and storage medium
CN113748245A (en) * 2020-03-27 2021-12-03 住友重机械工业株式会社 Information processing device for construction machine, information management system, and information processing program for construction machine

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013108752A1 (en) * 2012-01-20 2013-07-25 トヨタ自動車 株式会社 Driving model generation device, driving model generation method, driving evaluation device, driving evaluation method, and driving support system
JP2013149154A (en) * 2012-01-20 2013-08-01 Toyota Motor Corp Driving model creating device and driving model creating method, drive evaluating device and drive evaluating method, and drive support system
US10229229B2 (en) 2012-01-20 2019-03-12 Toyota Jidosha Kabushiki Kaisha Driving model generation device, driving model generation method, driving evaluation device, driving evaluation method, and driving support system
CN103267598A (en) * 2013-05-03 2013-08-28 苏州科技学院 Floor with weight perception and guiding functions
JP2014135061A (en) * 2014-02-05 2014-07-24 Toyota Motor Corp Drive evaluating device, drive evaluating method, and drive support system
JP2021157606A (en) * 2020-03-27 2021-10-07 パイオニア株式会社 Evaluation device, evaluation method, and program for evaluation device
CN113748245A (en) * 2020-03-27 2021-12-03 住友重机械工业株式会社 Information processing device for construction machine, information management system, and information processing program for construction machine
CN113748245B (en) * 2020-03-27 2025-10-03 住友重机械工业株式会社 Information processing device for construction machinery, information management system, and information processing program for construction machinery
CN113539010A (en) * 2020-09-28 2021-10-22 腾讯科技(深圳)有限公司 Driving simulation method, device, equipment and storage medium
CN113539010B (en) * 2020-09-28 2023-09-15 腾讯科技(深圳)有限公司 Driving simulation method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
US11634150B2 (en) Display device
US20220289228A1 (en) Hmi control device, hmi control method, and hmi control program product
CN109515434B (en) Vehicle control device, vehicle control method, and storage medium
US9827907B2 (en) Drive assist device
CN102077257B (en) Vehicle information processing device
JP2019049774A (en) Vehicle control device, vehicle control method, and program
CN105599610A (en) Road sign information display system and method
JP7586270B2 (en) Traffic jam judgment device for vehicle and display control device for vehicle
JP2017027292A (en) Vehicle control device
CN111220175B (en) Information output apparatus, output control method, and storage medium
US20200369151A1 (en) Display unit
JP7635808B2 (en) Display device for vehicle and display program for vehicle
JP2011008699A (en) Driving operation evaluation device
CN113401056B (en) Display control device, display control method, and computer-readable storage medium
JP6471707B2 (en) Driving teaching device
JP2007296978A (en) Confluence operation support device
JP2006209455A5 (en)
JP2019128773A (en) Vehicle control system
CN106710266A (en) Processing method of vehicle running data and apparatus thereof
JP2020154468A (en) Driving support device, method, and computer program
JP2022036003A (en) Vehicle display device
JP2005018461A (en) Ambient condition judgment device for vehicles
JP2007122155A (en) Branch route entry estimation device
JP2021103369A (en) Warning control device, warning control method, program, and recording medium
CN116061935B (en) Driving support devices

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901