[go: up one dir, main page]

JP2011227571A - Information processing method, information processing program, and information processing apparatus - Google Patents

Information processing method, information processing program, and information processing apparatus Download PDF

Info

Publication number
JP2011227571A
JP2011227571A JP2010094154A JP2010094154A JP2011227571A JP 2011227571 A JP2011227571 A JP 2011227571A JP 2010094154 A JP2010094154 A JP 2010094154A JP 2010094154 A JP2010094154 A JP 2010094154A JP 2011227571 A JP2011227571 A JP 2011227571A
Authority
JP
Japan
Prior art keywords
dangerous driving
information
driving
host vehicle
dangerous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010094154A
Other languages
Japanese (ja)
Inventor
Kazuyuki Ozaki
一幸 尾崎
Shingo Hamaguchi
慎吾 濱口
Yuzuru Yamakage
譲 山影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010094154A priority Critical patent/JP2011227571A/en
Publication of JP2011227571A publication Critical patent/JP2011227571A/en
Pending legal-status Critical Current

Links

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】本発明は、運転の映像から危険運転を効率的に抽出する方法を提供する技術を提供することを目的とする。
【解決手段】上記課題を解決するために、危険運転解析装置100は、自車両に関連する運転情報として、自車両の周辺の周辺情報を記憶する周辺情報DB128と、前記周辺情報が、前記自車両の運転が安全に行われていることを示す安全運転基準を満たすか否かを判断し、前記安全運転基準を満たさない危険運転を、前記周辺情報DB128から抽出する危険運転抽出手段と、を含む。
【選択図】図4
An object of the present invention is to provide a technique for providing a method for efficiently extracting dangerous driving from a driving image.
In order to solve the above problems, a dangerous driving analysis apparatus 100 includes a peripheral information DB 128 that stores peripheral information around the host vehicle as driving information related to the host vehicle, and the peripheral information is stored in the host vehicle. A dangerous driving extraction means for determining whether or not a safe driving standard indicating that the vehicle is safely operated is satisfied, and extracting a dangerous driving that does not satisfy the safe driving standard from the peripheral information DB 128; Including.
[Selection] Figure 4

Description

本発明は、自車両の危険運転を抽出する情報処理方法、情報処理プログラム及び情報処理装置に関する。   The present invention relates to an information processing method, an information processing program, and an information processing apparatus for extracting dangerous driving of a host vehicle.

車社会において安全を促進させて事故数を減少させることが大きな課題となっており、様々な対策がなされている。例えば、対策の1つとして、どのような場合に事故が生じやすいのかを映像を用いて運転者に学習させる方法がある。具体的には、例えば、特許文献1に記載のシステムのように、車両に搭載したドライブレコーダにより事故映像を取得し、その事故映像を再生して交通安全教育に役立てる。   Promoting safety and reducing the number of accidents in the automobile society has become a major issue, and various countermeasures have been taken. For example, as one of the countermeasures, there is a method in which a driver learns when an accident is likely to occur using a video. Specifically, for example, as in the system described in Patent Document 1, an accident video is acquired by a drive recorder mounted on a vehicle, and the accident video is reproduced to be used for traffic safety education.

ドライブレコーダは、衝突事故における衝撃、あるいは、運転者が危険な状態を察知して急ブレーキ及び急なハンドル操作を行うと、加速度変化などに基づいてその危険運転を検出し、検出時点の前後の所定期間の映像を記録する。また、ドライブレコーダには、加速度変化に関係無く、常に映像を記録するタイプもある。   When a drive recorder detects an impact in a collision accident or a driver suddenly operates a sudden brake and sudden steering operation, the drive recorder detects the dangerous driving based on changes in acceleration, etc. Records video for a predetermined period. In addition, there is a type of drive recorder that always records video regardless of changes in acceleration.

特開2007-011148号公報Japanese Unexamined Patent Publication No. 2007-011148

しかし、上記の加速度変化に基づいて映像を記録するドライブレコーダでは、運転者が危険な状態を察知できないために、急ブレーキ及び急なハンドル操作を行わなかった場合など、加速度の変化を伴わない危険運転の映像については記録することができない。つまり、前記ドライブレコーダでは、運転者が危険運転を認知していない場合には、危険運転の映像を記録することができない。   However, in the drive recorder that records video based on the above acceleration change, the driver cannot perceive a dangerous state, so there is no danger of acceleration change, such as when sudden braking and sudden steering operation are not performed. Driving images cannot be recorded. That is, in the drive recorder, when the driver does not recognize the dangerous driving, the video of the dangerous driving cannot be recorded.

例えば図41に示すように、自車両300が車線600上を走行しており、他車両500aが車線600に隣接する車線601上を走行しているとする。自車両300の運転者は、自車両300の前方に他車両500bが走行しているのは認識している。しかしながら、自車両300の運転者は、自車両300の右後方に隣接する位置に他車両500aが走行しているのに気づいていない。このまま自車両300が車線601に車線変更すると、自車両300と他車両500aとは衝突してしまう。このような場合、自車両300の運転者は、他車両500aの存在を認知していないため、他車両500aとの衝突を回避するために急ブレーキ及び急なハンドル操作を行わない。この際に他車両が回避しなければ、衝突し、その衝撃でドライブレコーダは危険運転の映像を記録する。一方で、他車両が回避行動とったりして、衝突を回避した場合には、前記ドライブレコーダでは、このような危険運転を記録することができない。また、自車両300の運転者が急ブレーキ及び急なハンドル操作を行わないまま、自車両300を他車両500aの前方に車線変更するような危険運転も記録されない。   For example, as shown in FIG. 41, it is assumed that the host vehicle 300 is traveling on a lane 600 and the other vehicle 500 a is traveling on a lane 601 adjacent to the lane 600. The driver of the host vehicle 300 recognizes that the other vehicle 500b is traveling in front of the host vehicle 300. However, the driver of the host vehicle 300 is not aware that the other vehicle 500a is traveling at a position adjacent to the right rear of the host vehicle 300. If the host vehicle 300 changes to a lane 601 as it is, the host vehicle 300 and the other vehicle 500a collide. In such a case, the driver of the host vehicle 300 does not recognize the presence of the other vehicle 500a, and therefore does not perform a sudden brake or a sudden steering operation in order to avoid a collision with the other vehicle 500a. At this time, if the other vehicle does not avoid, it collides, and the drive recorder records a dangerous driving image by the impact. On the other hand, when the other vehicle takes an avoidance action and avoids a collision, the drive recorder cannot record such a dangerous driving. Also, a dangerous driving in which the driver of the host vehicle 300 changes the lane of the host vehicle 300 to the front of the other vehicle 500a without performing a sudden brake and a sudden steering operation is not recorded.

ここで、運転者の危険運転に対する認知不足が原因である車両事故が、車両事故全体の70%以上であるとの分析もなされている。よって、運転者が認知していない危険運転がどのような場合に生じているのかを学習させるのが交通安全教育には効果的である。   Here, it has also been analyzed that the number of vehicle accidents caused by a driver's lack of awareness of dangerous driving is 70% or more of the total number of vehicle accidents. Therefore, it is effective for traffic safety education to learn when dangerous driving that is not recognized by the driver occurs.

さらに、映像を常時記録するドライブレコーダでは、危険運転も含む全ての映像を記録しているものの、全ての映像から危険運転の映像を人間が分析して選別する必要があり、多大な労力を要し、現実的に実施するのは困難である。   In addition, a drive recorder that constantly records images records all images including dangerous driving, but it is necessary for humans to analyze and select dangerous driving images from all images, which requires a lot of labor. However, it is difficult to implement realistically.

さらに、運転者が認知していない危険運転を抽出するには図41に示すように、通常のドライブレコーダで記録する前方とは異なる側方や後方の情報も必要となる事がある。このような側方や後方の映像にも対応しようとすると、確認する映像の量がさらに増え、実施を一層困難にしている。   Further, in order to extract dangerous driving that is not recognized by the driver, as shown in FIG. 41, side and rear information different from the front recorded by a normal drive recorder may be required. When trying to deal with such side and rear images, the amount of images to be confirmed further increases, making implementation more difficult.

そこで、運転情報から危険運転を効率的に抽出する支援を行うための情報処理方法、情報処理プログラム及び情報処理装置を提供することを目的とする。   Then, it aims at providing the information processing method, the information processing program, and information processing apparatus for performing the assistance which extracts dangerous driving efficiently from driving information.

上記課題を解決するために、自車両に関連する運転情報をから、前記自車両の運転が安全に行われていることを示す安全運転基準を満たすか否かを判断し、前記安全運転基準を満たさない危険運転を抽出する危険運転抽出ステップを含む、情報処理方法を提供する。   In order to solve the above-mentioned problem, it is determined whether or not a safe driving standard indicating that the driving of the host vehicle is safely performed from driving information related to the host vehicle, and the safe driving standard is determined. Provided is an information processing method including a dangerous driving extraction step for extracting a dangerous driving that is not satisfied.

運転情報から危険運転を効率的に抽出するための情報処理方法、情報処理プログラム及び情報処理装置を提供することができる。   An information processing method, an information processing program, and an information processing apparatus for efficiently extracting dangerous driving from driving information can be provided.

第1実施形態例に係る、危険運転解析装置、情報取得装置及び運転教育用端末の接続関係の一例。An example of the connection relation of a dangerous driving analysis device, an information acquisition device, and a driving education terminal according to the first embodiment. 危険運転解析装置、情報取得装置及び運転教育用端末のハードウェア構成を示すブロック図の一例。An example of the block diagram which shows the hardware constitutions of a dangerous driving | running analysis apparatus, an information acquisition apparatus, and the terminal for driving education. 周辺情報取得機器の取付位置と撮影範囲を示す説明図。Explanatory drawing which shows the attachment position and imaging | photography range of a periphery information acquisition apparatus. 第1実施形態例にかかる各装置の機能構成を示すブロック図の一例。An example of a block diagram showing functional composition of each device concerning the example of the 1st embodiment. 周辺情報DBの周辺情報の一例。An example of peripheral information in the peripheral information DB. 周辺映像が投影される三次元投影面を示す模式図。The schematic diagram which shows the three-dimensional projection surface on which a periphery image | video is projected. 対象物の抽出方法の一例を示す説明図Explanatory drawing which shows an example of the extraction method of a target object 相対情報DBの相対情報の一例。An example of relative information in the relative information DB. 相対距離Lの算出方法の一例を示す説明図。Explanatory drawing which shows an example of the calculation method of the relative distance L. FIG. 危険運転抽出処理の一例を示す説明図。An explanatory view showing an example of dangerous driving extraction processing. 危険運転情報DBの危険運転情報の一例。An example of dangerous driving information in the dangerous driving information DB. 危険運転抽出処理の具体例を説明するための相対情報の一例。An example of the relative information for demonstrating the specific example of a dangerous driving | running | working extraction process. 走行・操作情報DBの走行情報及び操作情報の一例。An example of driving | running | working information and operation information of driving | running | working / operation information DB. 位置情報DBの位置情報の一例。An example of the positional information of positional information DB. 危険運転パターンDBの一例。An example of dangerous driving pattern DB. 自車両と他車両との関係を示す説明図。Explanatory drawing which shows the relationship between the own vehicle and another vehicle. 自車両に対して後方の他車両からの視点に基づいた表示映像の一例。An example of the display image | video based on the viewpoint from the other vehicle behind with respect to the own vehicle. 第1実施形態例にかかる危険運転解析装置が実行する全体処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the whole process which the dangerous driving | running analysis apparatus concerning 1st Embodiment performs. 第1実施形態例にかかる対象物抽出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the target object extraction process concerning the example of 1st Embodiment. 第1実施形態例にかかる相対情報算出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the relative information calculation process concerning 1st Embodiment. 第1実施形態例にかかる危険運転抽出処理の流れの一例を示すフローチャート(1)。The flowchart (1) which shows an example of the flow of the dangerous driving | running | working extraction process concerning 1st Embodiment. 第1実施形態例にかかる危険運転抽出処理の流れの一例を示すフローチャート(2)。The flowchart (2) which shows an example of the flow of the dangerous driving | running | working extraction process concerning 1st Embodiment. 第1実施形態例にかかる認知判定抽出処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the recognition determination extraction process concerning the example of 1st Embodiment. 第1実施形態例にかかる危険運転分類処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the dangerous driving classification process concerning 1st Embodiment. 危険運転抽出処理の他の一例を示す説明図。An explanatory view showing other examples of dangerous driving extraction processing. 危険運転抽出処理の他の一例を示す説明図。An explanatory view showing other examples of dangerous driving extraction processing. 変形例2に係る各装置の接続関係及びハードウェア構成を示すブロック図の一例。FIG. 10 is an example of a block diagram showing a connection relationship and hardware configuration of each device according to Modification 2. 視線検出機器の取付位置を示す説明図。Explanatory drawing which shows the attachment position of a gaze detection apparatus. 視線検出機器の取付位置を示す説明図。Explanatory drawing which shows the attachment position of a gaze detection apparatus. ミラーにより確認可能な領域の一例を示す説明図。Explanatory drawing which shows an example of the area | region which can be confirmed with a mirror. 自車両と他車両との関係を示す斜視図。The perspective view which shows the relationship between the own vehicle and another vehicle. 変形例2にかかる各装置の機能構成を示すブロック図の一例。An example of a block diagram showing functional composition of each device concerning modification 2. 視線原点P及び視線ベクトルの算出方法の一例を示す説明図。Explanatory drawing which shows an example of the calculation method of the gaze origin P and a gaze vector. 視線データDBの視線データの一例。An example of line-of-sight data in the line-of-sight data DB. 相対情報DBの相対情報の一例。An example of relative information in the relative information DB. 視線ベクトルと対象物ベクトルとの成す角Δθの算出方法の一例を示す説明図。Explanatory drawing which shows an example of the calculation method of angle (DELTA) (theta) which a line-of-sight vector and an object vector form. ミラー視線ベクトルと対象物ベクトルとの成す角Δθの算出方法の一例を示す説明図。Explanatory drawing which shows an example of the calculation method of angle | corner (DELTA) (theta) which a mirror line-of-sight vector and an object vector form. 障害物検出センサが設けられた車両の一例。An example of a vehicle provided with an obstacle detection sensor. 第2実施形態例にかかる各装置の機能構成を示すブロック図の一例。An example of the block diagram which shows the function structure of each apparatus concerning 2nd Embodiment. 第3実施形態例に係る、危険運転解析装置のハードウェア構成を示すブロック図の一例。An example of the block diagram which shows the hardware constitutions of the dangerous driving | running analysis apparatus based on 3rd Embodiment. 第3実施形態例にかかる危険運転解析装置の機能構成を示すブロック図の一例。An example of the block diagram which shows the function structure of the dangerous driving | running analysis apparatus concerning 3rd Embodiment. 危険運転の映像を記録しない場合を説明する模式図。The schematic diagram explaining the case where the image | video of a dangerous driving is not recorded.

<第1実施形態例>
第1実施形態例の危険運転解析装置100は、自車両に関連する運転情報について、自車両の運転が安全に行われていることを示す安全運転基準を満たすか否かを判断し、安全運転基準を満たさない危険運転を、運転情報から抽出する。
<First embodiment>
The dangerous driving analysis apparatus 100 according to the first embodiment determines whether or not the driving information related to the own vehicle satisfies a safe driving standard indicating that the driving of the own vehicle is performed safely, and performs safe driving. Dangerous driving that does not meet the criteria is extracted from the driving information.

なお、自車両に関連する運転情報には、少なくとも自車両周辺の映像が含まれる。その他、自車両に関連する運転情報には、自車両周辺に存在する対象物と自車両との相対距離及び相対速度、自車両の速度及び加速度などが含まれていても良い。また、自車両に関連する運転情報は、自車両の運転者が急ブレーキ及び急なハンドル操作を行った時など危険運転を認知した時だけではなく、自車両が運転状態にある場合に取得され、記憶される。   Note that the driving information related to the own vehicle includes at least a video around the own vehicle. In addition, the driving information related to the host vehicle may include a relative distance and a relative speed between an object existing around the host vehicle and the host vehicle, a speed and an acceleration of the host vehicle, and the like. In addition, driving information related to the host vehicle is acquired not only when the driver of the host vehicle recognizes dangerous driving such as when sudden braking and sudden steering operation is performed, but also when the host vehicle is in a driving state. Memorized.

なお、対象物とは、自車両300周辺に存在する障害物であり、詳細には、運転者が自車両300を運転する際に認知すべき障害物である。対象物には、車、自転車、バイクなどの車両、人、動物、その他の走行の障害となり得る物体などが含まれる。   The object is an obstacle existing around the host vehicle 300. Specifically, the object is an obstacle that the driver should recognize when driving the host vehicle 300. The objects include vehicles such as cars, bicycles, and motorcycles, people, animals, and other objects that can interfere with traveling.

下記に、まず第1実施形態例の危険運転解析装置100と、各種情報を取得する情報取得装置200と、運転教育用端末250と、の関係及びそれぞれのハードウェア構成について説明する。   First, the relationship between the dangerous driving analysis apparatus 100 of the first embodiment, the information acquisition apparatus 200 that acquires various types of information, and the driving education terminal 250 and the respective hardware configurations will be described.

(1)危険運転解析装置、情報取得装置及び運転教育用端末の関係
図1は、第1実施形態例に係る、危険運転解析装置、情報取得装置及び運転教育用端末の接続関係の一例である。図2は、危険運転解析装置、情報取得装置及び運転教育用端末のハードウェア構成を示すブロック図の一例である。
(1) Relationship between Dangerous Driving Analysis Device, Information Acquisition Device, and Driving Education Terminal FIG. 1 is an example of a connection relationship between a dangerous driving analysis device, an information acquisition device, and a driving education terminal according to the first embodiment. . FIG. 2 is an example of a block diagram illustrating a hardware configuration of the dangerous driving analysis device, the information acquisition device, and the driving education terminal.

危険運転解析装置100は、上述の通り、自車両300に関する運転情報の中から危険運転を抽出する。情報取得装置200は、自車両300に関する運転情報の元となる各種情報を取得する。各種情報としては、例えば、自車両300の周辺の周辺情報、自車両300の走行情報、運転者による自車両300の操作情報及び自車両300の位置情報などが挙げられる。運転教育用端末250は、安全運転教育の対象者である運転者などが、危険運転解析装置100が抽出した危険運転を視聴するための端末である。   As described above, the dangerous driving analysis device 100 extracts dangerous driving from driving information related to the host vehicle 300. The information acquisition device 200 acquires various information that is the basis of driving information related to the host vehicle 300. Examples of the various information include peripheral information around the host vehicle 300, travel information of the host vehicle 300, operation information of the host vehicle 300 by the driver, position information of the host vehicle 300, and the like. The driving education terminal 250 is a terminal for a driver who is a subject of safe driving education to view dangerous driving extracted by the dangerous driving analysis device 100.

危険運転解析装置100、情報取得装置200及び運転教育用端末250は、各種情報を送受信可能なように接続されておいる。接続方法として、例えば、SCSI(Small Computer System Interface)、USB(Universal Serial Bus)などのインターフェースなど、また、インターネットなどのネットワークなどが挙げられる。   The dangerous driving analysis device 100, the information acquisition device 200, and the driving education terminal 250 are connected so that various types of information can be transmitted and received. Examples of the connection method include interfaces such as SCSI (Small Computer System Interface) and USB (Universal Serial Bus), and networks such as the Internet.

(2)ハードウェア構成
(2−1)危険運転解析装置
危険運転解析装置100は、例えば、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力機器I/F104、通信I/F(InterFace)108を有している。これらは、バス109を介して互いに接続されている。
(2) Hardware Configuration (2-1) Dangerous Driving Analysis Device The dangerous driving analysis device 100 includes, for example, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and an input / output A device I / F 104 and a communication I / F (InterFace) 108 are included. These are connected to each other via a bus 109.

入出力機器I/F104は、ディスプレイ105、マウス106及びキーボード107などの入出力機器と接続されている。   The input / output device I / F 104 is connected to input / output devices such as a display 105, a mouse 106, and a keyboard 107.

ROM102は、危険運転解析装置100が行う後述の各種制御に関わる各種制御プログラムを記憶している。   The ROM 102 stores various control programs related to various controls described later performed by the dangerous driving analysis apparatus 100.

RAM103は、ROM102内の各種制御プログラム、情報取得装置200から取得した自車両300周辺の周辺情報などの各種情報を一時的に記憶する。また、RAM103は、各種制御プログラムの実行に応じて各種フラグなどの情報を一時的に記憶する。   The RAM 103 temporarily stores various information such as various control programs in the ROM 102 and peripheral information around the host vehicle 300 acquired from the information acquisition device 200. The RAM 103 temporarily stores information such as various flags in accordance with the execution of various control programs.

CPU101は、ROM102に記憶された各種制御プログラムをRAM103に展開し、後述の各種制御を行う。   The CPU 101 develops various control programs stored in the ROM 102 in the RAM 103 and performs various controls described later.

通信I/F108は、CPU101の制御に基づいて、例えば情報取得装置200及び運転教育用端末250との間でコマンド又はデータの送受信などの通信を行う。   The communication I / F 108 performs communication such as transmission / reception of commands or data between the information acquisition device 200 and the driving education terminal 250 based on the control of the CPU 101.

バス109は、例えばPCI(Peripheral Component Interconnect)バスやISA(Industrial Standard Architecture)バス等からなり、上記構成を互いに接続する。   The bus 109 includes, for example, a PCI (Peripheral Component Interconnect) bus, an ISA (Industrial Standard Architecture) bus, and the like, and connects the above configurations to each other.

(2−2)情報取得装置
情報取得装置200は、例えば、CPU201、ROM202、RAM203、入出力機器I/F204、通信I/F209を有している。これらは、バス214を介して互いに接続されている。
(2-2) Information Acquisition Device The information acquisition device 200 includes, for example, a CPU 201, a ROM 202, a RAM 203, an input / output device I / F 204, and a communication I / F 209. These are connected to each other via a bus 214.

(a)入出力機器I/F
入出力機器I/F204は、周辺情報取得機器205、走行情報取得機器206、操作情報取得機器207及び位置情報取得機器208などと接続されている。各取得機器205〜208により検出された情報は、入出力機器I/F204を介してRAM203、CPU201及び通信I/F209などに出力される。
(A) Input / output device I / F
The input / output device I / F 204 is connected to a peripheral information acquisition device 205, a travel information acquisition device 206, an operation information acquisition device 207, a position information acquisition device 208, and the like. Information detected by each of the acquisition devices 205 to 208 is output to the RAM 203, the CPU 201, the communication I / F 209, and the like via the input / output device I / F 204.

(b)周辺情報取得機器
周辺情報取得機器205は、自車両300周辺に存在する一又は複数の対象物を含む周辺情報を取得する。周辺情報は、例えば自車両300周辺の周辺映像、自車両300周辺の対象物の位置、大きさなどの対象物情報などを言う。本実施形態例では、周辺情報取得機器205は、周辺情報として周辺映像を取得するものとする。例えば、周辺情報取得機器205は、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置からなり、自車両300周辺の周辺映像を取得する。
(B) Peripheral information acquisition device The peripheral information acquisition device 205 acquires peripheral information including one or more objects existing around the host vehicle 300. The peripheral information refers to, for example, peripheral video around the host vehicle 300, target information such as the position and size of the target around the host vehicle 300, and the like. In the present embodiment example, it is assumed that the peripheral information acquisition device 205 acquires a peripheral video as peripheral information. For example, the peripheral information acquisition device 205 includes an imaging device such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera, and acquires peripheral video around the host vehicle 300.

図3は、周辺情報取得機器の取付位置と撮影範囲を示す説明図である。周辺情報取得機器205は、例えば図3に示すように、例えば前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dの4つのカメラから構成される。前方カメラ205aは、車両300の前部バンパの中央に取り付けられて、車両300の前方を撮影する。後方カメラ205dは、車両300の後部バンパの中央に取り付けられて、車両300の後方を撮影する。右側カメラ205bは、車両300の右側面の中央に取り付けられて、車両300の右側方を撮影する。左側カメラ205cは、車両300の左側面の中央に取り付けられて、車両300の左側方を撮影する。   FIG. 3 is an explanatory diagram showing the attachment position and photographing range of the peripheral information acquisition device. For example, as shown in FIG. 3, the peripheral information acquisition device 205 includes four cameras, for example, a front camera 205a, a right camera 205b, a left camera 205c, and a rear camera 205d. The front camera 205 a is attached to the center of the front bumper of the vehicle 300 and photographs the front of the vehicle 300. The rear camera 205d is attached to the center of the rear bumper of the vehicle 300 and photographs the rear of the vehicle 300. The right camera 205 b is attached to the center of the right side surface of the vehicle 300 and photographs the right side of the vehicle 300. The left camera 205 c is attached to the center of the left side surface of the vehicle 300 and photographs the left side of the vehicle 300.

各カメラ205a〜205dは、例えばそれぞれが180度の画角を有する超広角レンズを用いたカメラである。このことから、図3に示すように、前方カメラ205aは車両300の前方領域210を撮影し、右側カメラ205bは車両300の右側方領域211を撮影し、左側カメラ205cは車両300の左側方領域212を撮影し、後方カメラ205dは、車両300の後方領域213を撮影する。各カメラ205a〜205dの撮影領域は、それぞれ隣接するカメラが撮影する領域と重複するように構成される。   Each of the cameras 205a to 205d is, for example, a camera using an ultra-wide angle lens having a field angle of 180 degrees. Therefore, as shown in FIG. 3, the front camera 205 a captures the front area 210 of the vehicle 300, the right camera 205 b captures the right area 211 of the vehicle 300, and the left camera 205 c captures the left area of the vehicle 300. The rear camera 205 d captures the rear region 213 of the vehicle 300. The shooting areas of the cameras 205a to 205d are configured to overlap with areas shot by adjacent cameras.

なお、各カメラ205a〜205dの取付位置、取付角度、その他カメラのレンズの歪み補正値及び焦点距離などのカメラの特性は、車両300の中心点Oを原点とする空間座標系に適合可能なように補正、いわゆるキャリブレーションされる。このキャリブレーションの実行により、各カメラ205a〜205dで撮影された映像は、車両300の中心点Oを原点とする空間座標系に組み込み可能となる。なお、空間座標系はX、Y、Z座標で表すものとし、例えば中心点Oは、自車両300の中心である、自車両300の車幅の半分及び車長の半分の位置により定義され、(X、Y、Z)=(0、0、0)で表される。Yは車両の前進方向、Xは前進方向と交差する方向、Zは高さ方向である。   The camera characteristics such as the mounting position and mounting angle of each of the cameras 205a to 205d, and other camera lens distortion correction values and the focal length can be adapted to a spatial coordinate system with the center point O of the vehicle 300 as the origin. Correction, so-called calibration is performed. By executing this calibration, the images captured by the cameras 205a to 205d can be incorporated into a spatial coordinate system having the center point O of the vehicle 300 as the origin. Note that the spatial coordinate system is represented by X, Y, and Z coordinates. For example, the center point O is defined by the position of the center of the host vehicle 300, which is the half of the vehicle width of the host vehicle 300 and the half of the vehicle length. (X, Y, Z) = (0, 0, 0). Y is the forward direction of the vehicle, X is the direction crossing the forward direction, and Z is the height direction.

各カメラ205a〜205dは、図示したように、車両300の前面、右側面、左側面、後面のそれぞれ中央に取り付けることが好ましい。しかし、各カメラ205a〜205dの撮影領域が、隣接するカメラの撮影領域と部分的に重複する位置であればよく、各カメラ205a〜205dの取付位置は特に限定されるものではない。例えば、右側カメラ205b、左側カメラ205cは、車両300の左右のドアミラーに取り付けることも可能である。また、各カメラの撮影領域が一部重複し、かつ車両300の周囲360度の範囲を撮影することが可能であればよく、カメラの数は4つに限定されるものではない。   As shown in the figure, each of the cameras 205a to 205d is preferably attached to the center of the front surface, right side surface, left side surface, and rear surface of the vehicle 300. However, it suffices if the shooting area of each camera 205a to 205d partially overlaps the shooting area of the adjacent camera, and the mounting position of each camera 205a to 205d is not particularly limited. For example, the right camera 205 b and the left camera 205 c can be attached to the left and right door mirrors of the vehicle 300. Further, the number of cameras is not limited to four as long as the shooting areas of each camera partially overlap and it is possible to capture a 360 ° range around the vehicle 300.

また、各カメラ205a〜205dは、例えば、1秒当たり30枚のフレームを撮影する。カメラ205a〜205dからなる周辺情報取得機器205によって撮影された映像データは、入出力機器I/F204を介してRAM203に記憶される。   In addition, each of the cameras 205a to 205d captures 30 frames per second, for example. Video data captured by the peripheral information acquisition device 205 including the cameras 205a to 205d is stored in the RAM 203 via the input / output device I / F 204.

上記のように各カメラ205a〜205dにより映像を撮影することで、危険運転解析装置100は、後述の映像処理部121により車両300の全周囲の周辺映像を取得することができる。よって、危険運転解析装置100は、車両300の全周囲において対象物を抽出することができるため、車両300の運転者が視認困難な死角であっても対象物を抽出することができる。   As described above, the dangerous driving analysis apparatus 100 can acquire the surrounding image of the entire periphery of the vehicle 300 by the image processing unit 121 described later by capturing the images with the cameras 205a to 205d. Therefore, since the dangerous driving analysis apparatus 100 can extract the object all around the vehicle 300, the object can be extracted even in a blind spot that is difficult for the driver of the vehicle 300 to visually recognize.

(c)走行情報取得機器
走行情報取得機器206は、自車両300の速度及び加速度などの走行情報を取得する。速度及び加速度は、例えば、自車両の前進方向(以下のY方向)及び前進方向に交差する方向(以下のX方向)のデータを含む。走行情報取得機器206は、例えばこれに限定されないが、タイヤを支持する車軸の所定時間内での回転回数及びタイヤの直径などから速度及び加速度を算出する。その他、走行情報取得機器206は、自車両300のタイヤに設けられた複数のセンサが道路と接触した時に出力するセンサデータの時間間隔とセンサの設置間隔に基づいて、速度及び加速度を算出しても良い。
(C) Travel Information Acquisition Device The travel information acquisition device 206 acquires travel information such as the speed and acceleration of the host vehicle 300. The speed and acceleration include, for example, data on the forward direction (hereinafter referred to as Y direction) of the host vehicle and the direction intersecting the forward direction (hereinafter referred to as X direction). The travel information acquisition device 206 calculates the speed and acceleration from, for example, but not limited to, the number of rotations of the axle supporting the tire within a predetermined time, the diameter of the tire, and the like. In addition, the travel information acquisition device 206 calculates the speed and acceleration based on the time interval of sensor data output when a plurality of sensors provided on the tire of the host vehicle 300 come into contact with the road and the sensor installation interval. Also good.

(d)操作情報取得機器
操作情報取得機器207は、自車両300の運転手がどのような操作を行ったかを示す操作情報を取得する。自車両の操作情報とは、例えば、ブレーキ操作の有無、操舵角、方向指示器の操作の有無、アクセルの操作の有無などを含む情報などである。
(D) Operation Information Acquisition Device The operation information acquisition device 207 acquires operation information indicating what operation the driver of the host vehicle 300 has performed. The operation information of the host vehicle is information including the presence / absence of a brake operation, the steering angle, the presence / absence of a turn indicator, the presence / absence of an accelerator operation, and the like.

操作情報取得機器207は、例えば自車両300のブレーキ及びアクセルの操作に対応した信号を検出し、ブレーキ操作及びアクセル操作の有無を検出する。また、操作情報取得機器207は、例えばハンドルの回転軸の回転角に基づいてハンドルの操舵角を検出する。また、操作情報取得機器207は、例えば方向指示器からの信号を検出し、左右いずれの方向に方向指示器が操作されたかを検出する。   For example, the operation information acquisition device 207 detects a signal corresponding to the operation of the brake and the accelerator of the host vehicle 300, and detects the presence or absence of the brake operation and the accelerator operation. Further, the operation information acquisition device 207 detects the steering angle of the handle based on the rotation angle of the rotation axis of the handle, for example. Further, the operation information acquisition device 207 detects, for example, a signal from a direction indicator, and detects whether the direction indicator is operated in the left or right direction.

(e)位置情報取得機器
位置情報取得機器208は、地図上における自車両300の位置情報などを取得する。例えば、位置情報取得機器208は、GPS(Global Position System)衛生からの電波を受信し、電波に含まれる情報に基づいて地図上での位置情報を取得する。
(E) Location Information Acquisition Device The location information acquisition device 208 acquires location information of the host vehicle 300 on the map. For example, the position information acquisition device 208 receives radio waves from GPS (Global Position System) hygiene and acquires position information on a map based on information included in the radio waves.

(f)ROM、RAM、通信I/F
ROM202は、情報取得装置200が行う各種制御プログラムを記憶している。
(F) ROM, RAM, communication I / F
The ROM 202 stores various control programs executed by the information acquisition device 200.

RAM203は、ROM202内の各種制御プログラム、各種フラグ、各取得機器205〜208から受信した各種情報を一時的に記憶する。   The RAM 203 temporarily stores various control programs, various flags, and various types of information received from the acquisition devices 205 to 208 in the ROM 202.

通信I/F209は、CPU201の制御に基づいて危険運転解析装置100との間で、周辺情報、走行情報、操作情報、位置情報及び各種コマンドなどのデータの送受信を行う。   The communication I / F 209 transmits and receives data such as peripheral information, travel information, operation information, position information, and various commands to and from the dangerous driving analysis apparatus 100 based on the control of the CPU 201.

(g)CPU
CPU201は、ROM202に記憶された各種制御プログラムをRAM203に展開し、各種制御を行う。例えば、CPU201は、各種制御プログラムの実行により周辺情報取得機器205及び走行情報取得機器206などの取得機器を制御し、周辺映像などの各種情報の取得を開始させる。
(G) CPU
The CPU 201 develops various control programs stored in the ROM 202 in the RAM 203 and performs various controls. For example, the CPU 201 controls acquisition devices such as the peripheral information acquisition device 205 and the travel information acquisition device 206 by executing various control programs, and starts acquisition of various information such as peripheral images.

(2−3)運転教育用端末
運転教育用端末250は、安全運転教育を受けるユーザが使用する端末であり、この端末では特に危険運転を視聴可能である。
(2-3) Driving Education Terminal The driving education terminal 250 is a terminal used by a user who receives safe driving education, and particularly dangerous driving can be viewed on this terminal.

運転教育用端末250は、例えば、CPU251、ROM252、RAM253、入出力機器I/F254、通信I/F258を有している。これらは、バス259を介して互いに接続されている。入出力機器I/F254は、ディスプレイ255、マウス256及びキーボード257などの入出力機器と接続されている。入出力機器I/F254は、マウス256及びキーボード257を介してユーザから所望の危険運転の表示指示を受け付ける。入出力機器I/F254には、音声を出力するためのスピーカ等が接続されていても良い。   The driving education terminal 250 includes, for example, a CPU 251, a ROM 252, a RAM 253, an input / output device I / F 254, and a communication I / F 258. These are connected to each other via a bus 259. The input / output device I / F 254 is connected to input / output devices such as a display 255, a mouse 256, and a keyboard 257. The input / output device I / F 254 receives a display instruction of a desired dangerous driving from the user via the mouse 256 and the keyboard 257. A speaker or the like for outputting sound may be connected to the input / output device I / F 254.

CPU251は、ROM252に記憶された各種制御プログラムをRAM253に展開し、危険運転解析装置100から危険運転に関するデータを取得してディスプレイ255等に出力する。   The CPU 251 expands various control programs stored in the ROM 252 to the RAM 253, acquires data related to dangerous driving from the dangerous driving analysis device 100, and outputs the data to the display 255 or the like.

その他の構成は、危険運転解析装置100と概ね同様であるので、説明を省略する。   Other configurations are substantially the same as those of the dangerous driving analysis apparatus 100, and thus the description thereof is omitted.

(3)機能構成
次に危険運転解析装置100、情報取得装置200及び運転教育用端末250の機能構成について説明する。
(3) Functional Configuration Next, functional configurations of the dangerous driving analysis device 100, the information acquisition device 200, and the driving education terminal 250 will be described.

図4は、第1実施形態例にかかる各装置の機能構成を示すブロック図の一例である。なお、図4に示す各機能部の接続線は、データの流れの一例を示したものであり、全てのデータの流れを記載したものではない。   FIG. 4 is an example of a block diagram illustrating a functional configuration of each device according to the first embodiment. Note that the connection lines of the respective functional units shown in FIG. 4 show an example of the data flow, and do not describe all the data flows.

まず情報取得装置200の機能構成について説明する。   First, the functional configuration of the information acquisition apparatus 200 will be described.

(3−1)情報取得装置
情報取得装置200の各ハードウェア構成が相互に連携してプログラムを実行することにより、情報取得装置200は、後述の各機能部として機能する。
(3-1) Information Acquisition Device When the hardware configurations of the information acquisition device 200 cooperate with each other to execute the program, the information acquisition device 200 functions as each functional unit described later.

情報取得装置200の機能部には、例えば、周辺情報取得部220、走行情報取得部221、操作情報取得部222、位置情報取得部223、送受信部224、取得データDB225などが含まれる。   The functional units of the information acquisition device 200 include, for example, a peripheral information acquisition unit 220, a travel information acquisition unit 221, an operation information acquisition unit 222, a position information acquisition unit 223, a transmission / reception unit 224, an acquisition data DB 225, and the like.

(3−1−1)各取得部、取得データDB
周辺情報取得部220は、前述の図3に示す前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した周辺映像を取得し、取得データDB225に格納する。
(3-1-1) Each acquisition unit, acquisition data DB
The peripheral information acquisition unit 220 acquires the peripheral video captured by the peripheral information acquisition device 205 including the front camera 205a, the right camera 205b, the left camera 205c, and the rear camera 205d shown in FIG. 3 and stores it in the acquisition data DB 225. .

走行情報取得部221は、走行情報取得機器206が取得した速度及び加速度などの走行情報を受け取り、取得データDB225に格納する。   The travel information acquisition unit 221 receives travel information such as speed and acceleration acquired by the travel information acquisition device 206 and stores it in the acquisition data DB 225.

操作情報取得部222は、操作情報取得機器207が取得した操作情報を受け取り、取得データDB225に格納する。   The operation information acquisition unit 222 receives the operation information acquired by the operation information acquisition device 207 and stores it in the acquisition data DB 225.

位置情報取得部223は、位置情報取得機器208が取得した地図上における自車両300の位置情報を受け取り、取得データDB225に格納する。   The position information acquisition unit 223 receives the position information of the host vehicle 300 on the map acquired by the position information acquisition device 208 and stores it in the acquisition data DB 225.

(3−1−2)送受信部
情報取得装置200の送受信部224は、危険運転解析装置100の送受信部120との間で、各種コマンド及び取得データDB225内の各種データ等を送受信する。
(3-1-2) Transmission / Reception Unit The transmission / reception unit 224 of the information acquisition device 200 transmits / receives various commands and various data in the acquisition data DB 225 to / from the transmission / reception unit 120 of the dangerous driving analysis device 100.

(3−2)危険運転解析装置
危険運転解析装置100の各ハードウェア構成が相互に連携してプログラムを実行することにより、危険運転解析装置100は後述の各機能部として機能する。
(3-2) Dangerous Driving Analysis Device When each hardware configuration of the dangerous driving analysis device 100 executes a program in cooperation with each other, the dangerous driving analysis device 100 functions as each functional unit described later.

危険運転解析装置100の機能部には、例えば、送受信部120、映像処理部121、対象物抽出部122、相対情報算出部123、危険運転抽出部124、認知判定部125、危険運転分類部126、表示映像生成部127などが含まれる。さらに、危険運転解析装置100は、各種情報を記憶するために、周辺情報DB128、相対情報DB129、危険運転情報DB130、走行・操作情報DB131、位置情報DB132及び危険運転パターンDB133及び各種対応表DB134などを含む。   The functional units of the dangerous driving analysis device 100 include, for example, a transmission / reception unit 120, a video processing unit 121, an object extraction unit 122, a relative information calculation unit 123, a dangerous driving extraction unit 124, a recognition determination unit 125, and a dangerous driving classification unit 126. , A display video generation unit 127 and the like are included. Furthermore, in order to store various information, the dangerous driving analysis apparatus 100 includes a peripheral information DB 128, a relative information DB 129, a dangerous driving information DB 130, a driving / operation information DB 131, a position information DB 132, a dangerous driving pattern DB 133, various correspondence tables DB 134, and the like. including.

(3−2−1)送受信部
危険運転解析装置100の送受信部120は、情報取得装置200の送受信部224との間で、各種データ及び各種コマンド等を送受信する。
(3-2-1) Transmission / Reception Unit The transmission / reception unit 120 of the dangerous driving analysis device 100 transmits / receives various data, various commands, and the like to / from the transmission / reception unit 224 of the information acquisition device 200.

(3−2−2)周辺情報DB
周辺情報DB128は、自車両周辺の対象物を含む周辺情報として、自車両周辺の周辺映像を情報取得装置200から取得して記憶する。周辺映像には、前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した映像が含まれる。
(3-2-2) Peripheral information DB
The peripheral information DB 128 acquires and stores a peripheral video around the host vehicle from the information acquisition device 200 as peripheral information including objects around the host vehicle. The peripheral video includes video captured by the peripheral information acquisition device 205 including the front camera 205a, the right camera 205b, the left camera 205c, and the rear camera 205d.

図5は、周辺情報DBの周辺情報の一例である。周辺情報DB128は、例えば、各フレームごとに、フレーム番号及び各カメラ205での映像データを記憶する。映像データには、前方カメラ205aが撮影した前方映像、右側カメラ205bが撮影した右側映像、左側カメラ205cが撮影した左側映像及び後方カメラ205dが撮影した後方映像が含まれる。   FIG. 5 is an example of peripheral information in the peripheral information DB. For example, the peripheral information DB 128 stores a frame number and video data of each camera 205 for each frame. The video data includes a front video shot by the front camera 205a, a right video shot by the right camera 205b, a left video shot by the left camera 205c, and a rear video shot by the rear camera 205d.

(3−2−3)映像処理部
映像処理部121は、各カメラ205が撮影した映像データを周辺情報DB128から取得し、合成することで図6に示すような三次元投影面400に投影された周辺映像を生成する。図6は、周辺映像が投影される三次元投影面を示す模式図である。
(3-2-3) Video Processing Unit The video processing unit 121 obtains video data captured by each camera 205 from the peripheral information DB 128 and synthesizes the video data onto a three-dimensional projection plane 400 as shown in FIG. Generate peripheral video. FIG. 6 is a schematic diagram showing a three-dimensional projection plane onto which the peripheral video is projected.

具体的には、まず、映像処理部121は、各カメラ205a〜205dの各画素と、三次元投影面400の各座標と、の対応関係を、後述の各種対応表DB134から取得する。次に、映像処理部121は、前記座標の対応関係に基づいて、各カメラ205a〜205dの映像データを三次元投影面400に投影し、周辺映像を生成する。   Specifically, first, the video processing unit 121 acquires a correspondence relationship between each pixel of each of the cameras 205a to 205d and each coordinate of the three-dimensional projection plane 400 from various correspondence table DBs 134 described later. Next, the video processing unit 121 projects the video data of each of the cameras 205a to 205d on the three-dimensional projection surface 400 based on the correspondence relationship of the coordinates, and generates a peripheral video.

(3−2−4)対象物抽出部
対象物抽出部122は、映像処理部121が生成した周辺映像から、自車両300周辺に存在する一又は複数の対象物を抽出する。
(3-2-4) Object Extraction Unit The object extraction unit 122 extracts one or more objects existing around the host vehicle 300 from the peripheral video generated by the video processing unit 121.

図7は、対象物の抽出方法の一例を示す説明図である。図7では、車線600上を自車両300が走行しており、左に隣接する車線601上を対象物である他車両500が走行している。まず、対象物抽出部122は、例えば周辺映像における輝度のコントラスト比に基づいてエッジを抽出し、車線表示ライン602a〜602dを検出する。次に、対象物抽出部122は、車線表示ライン602a〜602dの交点から消失点Dを検出し、消失点Dに基づいて対象物の検索範囲を確定する。例えば、検索範囲は、消失点Dと車線表示ライン602a〜602dとにより囲まれる範囲、又は前記範囲を含む所定範囲と確定することができる。   FIG. 7 is an explanatory diagram illustrating an example of an object extraction method. In FIG. 7, the host vehicle 300 is traveling on the lane 600, and the other vehicle 500 that is the object is traveling on the lane 601 adjacent to the left. First, the object extraction unit 122 extracts edges based on, for example, the luminance contrast ratio in the surrounding video, and detects the lane display lines 602a to 602d. Next, the object extraction unit 122 detects the vanishing point D from the intersection of the lane display lines 602a to 602d, and determines the object search range based on the vanishing point D. For example, the search range can be determined as a range surrounded by the vanishing point D and the lane display lines 602a to 602d or a predetermined range including the range.

対象物抽出部122は、検索範囲内において自車両300周辺の対象物候補を抽出する。対象物候補とは、対象物となり得る候補を言う。次に、対象物抽出部122は、対象物候補と、予め格納されている対象物の各種特徴を記憶したパターンデータと、を比較することで、対象物候補を対象物とするか否かを決定する。例えば、対象物抽出部122は、対象物候補が車両のパターンデータと一致する場合には、対象物候補を対象物と決定し、さらに、対象物が何であるかを示す対象物種類を決定する。対象物種類としては、例えば、乗用車、トラック/バス、自転車/バイク、歩行者などが挙げられる。図7の例では、対象物抽出部122は、対象物として他車両500を抽出している。一方、対象物抽出部122は、対象物候補が対象物のパターンデータと一致しない場合、対象物候補を対象物ではないと決定する。   The object extraction unit 122 extracts object candidates around the host vehicle 300 within the search range. An object candidate is a candidate that can be an object. Next, the target object extraction unit 122 compares the target object candidate with the pattern data storing various characteristics of the target object stored in advance, and determines whether or not the target object candidate is the target object. decide. For example, when the object candidate matches the vehicle pattern data, the object extraction unit 122 determines the object candidate as the object, and further determines the object type indicating what the object is. . Examples of the object type include passenger cars, trucks / buses, bicycles / bikes, and pedestrians. In the example of FIG. 7, the object extraction unit 122 extracts another vehicle 500 as the object. On the other hand, the object extraction unit 122 determines that the object candidate is not an object when the object candidate does not match the pattern data of the object.

対象物抽出部122は、各フレームにおいて、対象物を抽出した場合は対象物フラグを“1”にセットし、対象物を抽出しなかった場合は対象物フラグを“0”にセットする。   In each frame, the object extraction unit 122 sets the object flag to “1” when the object is extracted, and sets the object flag to “0” when the object is not extracted.

また、対象物抽出部122は、抽出した各対象物を識別するために、各対象物に対象物番号を付与し、自車両300に対する対象物の相対位置Qを取得する。相対位置Qとしては、例えば、対象物のうち、自車両300に最も近接する部分の座標が挙げられる。図7のように他車両500が自車両300に対して左前方を走行している場合は、対象物抽出部122は、相対位置として他車両500の右隅点Qを取得する。一方、他車両500が自車両300に対して右後方を走行している場合は、対象物抽出部122は、相対位置として他車両500の左隅点を取得する。   Further, the object extraction unit 122 assigns an object number to each object in order to identify each extracted object, and acquires the relative position Q of the object with respect to the host vehicle 300. Examples of the relative position Q include coordinates of a portion of the target object that is closest to the host vehicle 300. When the other vehicle 500 is traveling left front relative to the host vehicle 300 as shown in FIG. 7, the object extraction unit 122 acquires the right corner point Q of the other vehicle 500 as a relative position. On the other hand, when the other vehicle 500 is traveling right rear with respect to the host vehicle 300, the object extraction unit 122 acquires the left corner point of the other vehicle 500 as a relative position.

ここで、相対位置Qは、車両300の任意の中心点Oを原点とする空間座標系により定義される。なお、対象物抽出部122は、対象物の位置を把握できれば良く、対象物の相対位置は前述の相対位置Qに限定されない。   Here, the relative position Q is defined by a spatial coordinate system having an arbitrary center point O of the vehicle 300 as an origin. The object extraction unit 122 only needs to be able to grasp the position of the object, and the relative position of the object is not limited to the relative position Q described above.

対象物抽出部122は、対象物フラグ、対象物番号、対象物種類及び相対位置Qを相対情報DB129に格納する。   The object extraction unit 122 stores the object flag, the object number, the object type, and the relative position Q in the relative information DB 129.

(3−2−5)相対情報算出部、相対情報DB
相対情報DB129は、対象物抽出部122から取得した対象物フラグ、対象物番号、対象物種類及び相対位置Qを、各フレーム及び各対象物ごとに記憶する。また、相対情報DB129は、相対情報算出部123が算出した相対距離L、相対速度V及びTTC(Time To Collision)などを、各フレーム及び各対象物ごとに記憶する。
(3-2-5) Relative information calculation unit, relative information DB
The relative information DB 129 stores the object flag, the object number, the object type, and the relative position Q acquired from the object extracting unit 122 for each frame and each object. In addition, the relative information DB 129 stores the relative distance L, the relative speed V, TTC (Time To Collision), and the like calculated by the relative information calculation unit 123 for each frame and each object.

図8は、相対情報DBの相対情報の一例である。相対情報DB129は、例えば、フレーム番号、対象物フラグ、対象物番号、対象物種類、相対位置Q、相対距離L、相対速度V及びTTCを記憶している。TTCは、自車両300と各対象物とが衝突するまでの予想時間である。また、相対距離L、相対速度V及びTTCには、X方向及びY方向にそれぞれデータ値があるものとする。   FIG. 8 is an example of relative information in the relative information DB. The relative information DB 129 stores, for example, a frame number, an object flag, an object number, an object type, a relative position Q, a relative distance L, a relative speed V, and a TTC. TTC is the expected time until the host vehicle 300 and each object collide. The relative distance L, the relative speed V, and the TTC have data values in the X direction and the Y direction, respectively.

対象物は自車両300に近づいたり、離れたりするため、対象物数は増加又は減少する。例えば、図8のフレーム番号=1のフレームでの対象物数は“N”であり、フレーム番号=2のフレームでの対象物数は“M”であり異なる。また、対象物番号が“1”、“2”の対象物は、フレーム番号=1、2のフレームで存在していたが、フレーム番号=Iのフレームでは存在していない。   Since the object approaches or leaves the host vehicle 300, the number of objects increases or decreases. For example, the number of objects in the frame with frame number = 1 in FIG. 8 is “N”, and the number of objects in the frame with frame number = 2 is “M”, which is different. Further, the objects having the object numbers “1” and “2” existed in the frames having the frame numbers = 1 and 2, but do not exist in the frame having the frame numbers = 1.

相対情報算出部123は、自車両300と一又は複数の対象物との相対距離L及び相対速度V、TTCなどの相対情報を算出する。相対情報の算出方法を再び図7を用いて説明する。まず、相対情報算出部123は、相対情報DB129から対象物の相対位置Qを読み出す。また、相対情報算出部123は、自車両300の中心点Oと対象物の相対位置Qとの距離に基づいて、X方向の相対距離Lx’及びY方向の相対距離Ly’を算出する。図8の相対情報DB129を参照すると、フレーム番号=1及び対象物番号=2の場合、相対位置Qは(X_21、Y_21、Z_21)である。中心点Oの座標は(0、0、0)であるので、X方向の相対距離Lx’はLx’=X_21と算出される。同様に、Y方向の相対距離Ly’はLy’=Y_21と算出される。ここで、相対距離Lx’及びY方向の相対距離Ly’は、自車両300の車幅の半分及び車長の半分を含む距離である。よって、相対情報算出部123は、自車両300のX方向の車幅の半分であるLxcarを、相対距離Lx’から減算することで、相対距離Lxを算出する。同様に、相対情報算出部123は、自車両300のY方向の車長の半分であるLycarを、相対距離Ly’から減算することで、相対距離Lyを算出する。   The relative information calculation unit 123 calculates relative information such as a relative distance L, a relative speed V, and TTC between the host vehicle 300 and one or more objects. The relative information calculation method will be described again with reference to FIG. First, the relative information calculation unit 123 reads the relative position Q of the object from the relative information DB 129. Further, the relative information calculation unit 123 calculates a relative distance Lx ′ in the X direction and a relative distance Ly ′ in the Y direction based on the distance between the center point O of the host vehicle 300 and the relative position Q of the target object. Referring to the relative information DB 129 of FIG. 8, when the frame number = 1 and the object number = 2, the relative position Q is (X_21, Y_21, Z_21). Since the coordinates of the center point O are (0, 0, 0), the relative distance Lx ′ in the X direction is calculated as Lx ′ = X_21. Similarly, the relative distance Ly ′ in the Y direction is calculated as Ly ′ = Y_21. Here, the relative distance Lx ′ and the relative distance Ly ′ in the Y direction are distances including half of the vehicle width of the host vehicle 300 and half of the vehicle length. Therefore, the relative information calculation unit 123 calculates the relative distance Lx by subtracting Lxcar, which is half the vehicle width in the X direction, of the host vehicle 300 from the relative distance Lx ′. Similarly, the relative information calculation unit 123 calculates the relative distance Ly by subtracting Lycar, which is half the vehicle length of the host vehicle 300 in the Y direction, from the relative distance Ly ′.

より具体的な相対距離Lの算出方法として、カメラ205の設置高さ及び焦点距離等を考慮した相対距離の算出方法の一例を次に説明する。図9は、相対距離Lの算出方法の一例を示す説明図である。自車両300の周辺映像を撮影するカメラ205は、自車両300の中心点Oの上部の車体上に設けられているものとする。また、カメラ205の地面からの高さはHであり、カメラ205のレンズの焦点距離はfであり、消失点Dの座標は(XD、YD、ZD)であるとする。ここで、対象物である他車両500の相対位置Qを(XQ、YQ、ZQ)とすると、相対情報算出部123は、次式(1)、(2)に基づいて相対距離Lx’及び相対距離Ly’を算出する。   As a more specific method for calculating the relative distance L, an example of a method for calculating the relative distance in consideration of the installation height of the camera 205, the focal length, and the like will be described below. FIG. 9 is an explanatory diagram illustrating an example of a method for calculating the relative distance L. It is assumed that the camera 205 that captures a peripheral image of the host vehicle 300 is provided on the vehicle body above the center point O of the host vehicle 300. The height of the camera 205 from the ground is H, the focal length of the lens of the camera 205 is f, and the coordinates of the vanishing point D are (XD, YD, ZD). Here, if the relative position Q of the other vehicle 500 as the object is (XQ, YQ, ZQ), the relative information calculation unit 123 calculates the relative distance Lx ′ and the relative distance based on the following equations (1) and (2). The distance Ly ′ is calculated.

相対距離Ly’=f×H/│YQ−YD│ ・・・(1)
相対距離Lx’=Ly’×f/│XQ−XD│ ・・・(2)
相対情報算出部123は、相対距離Lx’及び相対距離Ly’と、Lxcar及びLycarと、に基づいて、前述と同様に相対距離Lx及び相対距離Lyを算出し、相対情報DB129に格納する。これにより、現在着目している現フレームにおける、相対距離Lx及び相対距離Lyを算出することができる。
Relative distance Ly ′ = f × H / | YQ−YD | (1)
Relative distance Lx ′ = Ly ′ × f / | XQ−XD | (2)
The relative information calculation unit 123 calculates the relative distance Lx and the relative distance Ly in the same manner as described above based on the relative distance Lx ′ and the relative distance Ly ′, and Lxcar and Lycar, and stores them in the relative information DB 129. Thereby, it is possible to calculate the relative distance Lx and the relative distance Ly in the current frame of interest.

次に、相対情報算出部123は、相対速度Vを算出するために、現フレームに対して1つ前の前フレームにおいて、着目している対象物の相対距離Ly及び相対距離Lxを取得する。つまり、相対情報算出部123は、同一の対象物番号について、前フレームと現フレームとの相対距離Lの差を算出する。次に、相対情報算出部123は、現フレームと前フレームとの相対距離Lyの差分と、フレーム間の時間と、に基づいてY方向の相対速度Vyを算出する。同様に、相対情報算出部123は、現フレームと前フレームとの相対距離Lxの差分と、フレーム間の時間と、に基づいてX方向の相対速度Vxを算出する。   Next, in order to calculate the relative speed V, the relative information calculation unit 123 acquires the relative distance Ly and the relative distance Lx of the target object in the previous frame immediately before the current frame. That is, the relative information calculation unit 123 calculates the difference in the relative distance L between the previous frame and the current frame for the same object number. Next, the relative information calculation unit 123 calculates the relative velocity Vy in the Y direction based on the difference in the relative distance Ly between the current frame and the previous frame and the time between frames. Similarly, the relative information calculation unit 123 calculates the relative velocity Vx in the X direction based on the difference in the relative distance Lx between the current frame and the previous frame and the time between frames.

さらに、相対情報算出部123は、対象物と自車両300とが衝突するまでに要するTTCを、相対距離L及び相対速度Vに基づいて算出する。例えば、対象物及び自車両300が等速運動すると仮定すると、TTCは次式(3)に基づいて算出できる。   Furthermore, the relative information calculation unit 123 calculates TTC required until the target object and the host vehicle 300 collide based on the relative distance L and the relative speed V. For example, assuming that the object and the host vehicle 300 move at a constant speed, the TTC can be calculated based on the following equation (3).

TTC=相対距離/相対速度 ・・・(3)
X方向及びY方向のそれぞれについてTTCを算出するため、まず、相対情報算出部123は、相対情報DB129から相対距離Lx、Ly及び相対速度Vx、Vyを取得する。相対情報算出部123は、前記式(3)に基づいてX方向のTTCx及びY方向のTTCyを算出する。
TTC = relative distance / relative speed (3)
In order to calculate TTC for each of the X direction and the Y direction, first, the relative information calculation unit 123 acquires the relative distances Lx and Ly and the relative velocities Vx and Vy from the relative information DB 129. The relative information calculation unit 123 calculates the TTCx in the X direction and the TTCy in the Y direction based on the equation (3).

なお、相対情報算出部123は、対象物及び自車両300が等速運動すると仮定して前記式(3)に基づいてTTCを算出しているが、相対加速度などをさらに考慮してTTCを算出しても良い。   The relative information calculation unit 123 calculates the TTC based on the equation (3) on the assumption that the object and the host vehicle 300 move at a constant speed, but calculates the TTC further considering the relative acceleration and the like. You may do it.

(3−2−6)危険運転抽出部、危険運転情報DB
危険運転抽出部124は、自車両300に関する運転情報から、安全運転基準を満たさない危険運転を抽出する。なお、自車両300に関する運転情報には、例えば、少なくとも周辺情報DB128に格納された周辺情報が含まれる。その他、自車両300に関する運転情報には、相対情報DB129内の各種相対情報及び走行・操作情報DB131内の各種情報などが含まれても良い。
(3-2-6) Dangerous driving extraction unit, dangerous driving information DB
The dangerous driving extraction unit 124 extracts the dangerous driving that does not satisfy the safe driving standard from the driving information regarding the host vehicle 300. Note that the driving information related to the host vehicle 300 includes at least peripheral information stored in the peripheral information DB 128, for example. In addition, the driving information related to the host vehicle 300 may include various relative information in the relative information DB 129 and various information in the travel / operation information DB 131.

ここで、安全運転基準には、例えば次の基準が含まれる。   Here, the safe driving standards include, for example, the following standards.

(i)自車両300と対象物との相対距離Lx及びLyに対する相対距離基準値Lxs及びLys(Ls:Length standard)。   (I) Relative distance reference values Lxs and Lys (Ls: Length standard) for the relative distances Lx and Ly between the subject vehicle 300 and the object.

(ii)TTCx及びTTCyに対するTTC基準値TTCxs及びTTCys(TTCs:Time To Collision standard)。   (Ii) TTC reference values TTCxs and TTCys (TTCs: Time To Collision standard) for TTCx and TTCy.

(iii)所定の単位時間あたりのTTCx及びTTCyの変化率に対するTTC変化率基準値DTTCxs及びDTTCys(DTTCs:Deviation rate of Time To Collision standard)。   (Iii) TTC change rate reference values DTTCxs and DTTCys (DTTCs: Deviation rate of Time To Collision standard) with respect to the change rates of TTCx and TTCy per predetermined unit time.

次に、本実施形態例に係る危険運転抽出処理を説明する。   Next, the dangerous driving extraction process according to the present embodiment will be described.

(a)危険運転抽出処理の概要
まず、危険運転抽出処理の概要について図10を用いて説明する。図10は、危険運転抽出処理の一例を示す説明図である。
(A) Overview of Hazardous Driving Extraction Process First, an overview of the dangerous driving extraction process will be described with reference to FIG. FIG. 10 is an explanatory diagram illustrating an example of the dangerous driving extraction process.

ここで、周辺情報は、周辺情報DB128の一例である図5に示すように、フレームごとの映像データを含んでおり、時間軸上に沿って構成されている。図10には、この周辺情報の時間軸が示されている。   Here, the peripheral information includes video data for each frame as shown in FIG. 5 as an example of the peripheral information DB 128, and is configured along the time axis. FIG. 10 shows the time axis of this peripheral information.

まず、危険運転抽出部124は、相対情報DB129を参照し、周辺情報の時間軸において自車両300周辺に対象物が存在するフレーム区間を、対象物フラグ=1に基づいて抽出する。以下では、自車両300周辺に対象物が存在するフレーム区間を“対象物有区間”と称し、自車両300周辺に対象物が存在しないフレーム区間を“対象物無区間”と称する。前記処理により、図10に示すように、周辺情報の時間軸において、開始フレームA及び終了フレームAで定義される“対象物有区間”が抽出される。   First, the dangerous driving extraction unit 124 refers to the relative information DB 129 and extracts a frame section in which the object exists around the host vehicle 300 on the time axis of the peripheral information based on the object flag = 1. Hereinafter, a frame section in which an object exists around the host vehicle 300 is referred to as an “object-existing section”, and a frame section in which the object does not exist around the host vehicle 300 is referred to as an “no-object section”. As a result of the processing, as shown in FIG. 10, the “object existence section” defined by the start frame A and the end frame A is extracted on the time axis of the peripheral information.

次に、危険運転抽出部124は、相対情報DB129を参照し、“対象物有区間”に存在する各対象物について、相対距離Lx及びLyと、上記基準(i)のLxs及びLysとを比較する。これにより、危険運転抽出部124は、“対象物有区間”から、相対距離LxがLxsよりも小さいか、又は、相対距離LyがLysよりも小さい“接近区間”を抽出する。ここで、図10では、“対象物有区間”に1の対象物のみが存在し、その対象物と自車両300との“接近区間”が開始フレームB及び終了フレームBで定義されている。   Next, the dangerous driving extraction unit 124 refers to the relative information DB 129 and compares the relative distances Lx and Ly with the above-mentioned reference (i) Lxs and Lys for each target existing in the “target presence section”. To do. As a result, the dangerous driving extraction unit 124 extracts the “approaching section” from the “object existence section” where the relative distance Lx is smaller than Lxs or the relative distance Ly is smaller than Lys. Here, in FIG. 10, there is only one target object in the “target existence section”, and the “approach section” between the target object and the host vehicle 300 is defined by the start frame B and the end frame B.

ここで、危険運転抽出部124は、1の“対象物有区間”のうち、その“対象物有区間”に存在する複数の対象物の“接近区間”について、最初に開始する開始フレームと、最後に終了する終了フレームと、により定義される区間を“危険運転候補区間”として抽出する。つまり、危険運転抽出部124は、1の“対象物有区間”のうち、いずれの対象物の“接近区間”にも該当しない区間を除去した区間を“危険運転候補区間”として抽出する。また、危険運転抽出部124は、“危険運転候補区間”ごとに“危険運転候補番号”を付与する。これについては、後述の図12において詳述する。なお、図10の場合、“対象物有区間”に1の対象物のみが存在するため、1の“接近区間”が1の“危険運転候補区間”と対応している。   Here, the dangerous driving extraction unit 124 starts the first frame for the “approaching section” of the plurality of objects existing in the “object-containing section” among the “object-containing section”, The section defined by the end frame that ends last is extracted as a “dangerous driving candidate section”. In other words, the dangerous driving extraction unit 124 extracts, as one “hazardous driving candidate section”, a section obtained by removing a section that does not correspond to the “approaching section” of any target object from one “target existing section”. Further, the dangerous driving extraction unit 124 assigns a “dangerous driving candidate number” to each “dangerous driving candidate section”. This will be described in detail later with reference to FIG. In the case of FIG. 10, since only one target exists in the “target presence section”, one “approach section” corresponds to one “dangerous driving candidate section”.

また、危険運転抽出部124は、図8の相対情報DB129を参照し、各対象物の“接近区間”について、TTCx及びTTCyの最小値、及び/又は、TTCx及びTTCyの変化率の最大値を算出する。次に、危険運転抽出部124は、算出結果を上記基準(ii)及び(iii)に基づいて判定する。つまり、危険運転抽出部124は、TTCxの最小値がTTCxsよりも小さいとの条件、及び/又は、TTCyの最小値がTTCysよりも小さいとの条件を満たすか否かを判定する。同様に、危険運転抽出部124は、TTCxの変化率の最大値がDTTCxsよりも大きいとの条件、及び/又は、TTCyの変化率の最大値がDTTCysよりも大きいとの条件を満たすか否かを判定する。   Further, the dangerous driving extraction unit 124 refers to the relative information DB 129 of FIG. 8 and calculates the minimum value of TTCx and TTCy and / or the maximum value of the change rate of TTCx and TTCy for the “approach section” of each object. calculate. Next, the dangerous driving extraction unit 124 determines the calculation result based on the criteria (ii) and (iii). That is, the dangerous driving extraction unit 124 determines whether or not the condition that the minimum value of TTCx is smaller than TTCxs and / or the condition that the minimum value of TTCy is smaller than TTCys is satisfied. Similarly, the dangerous driving extraction unit 124 determines whether or not the condition that the maximum value of the change rate of TTCx is larger than DTTCxs and / or the condition that the maximum value of the change rate of TTCy is larger than DTTCys is satisfied. Determine.

危険運転抽出部124は、少なくともいずれかの条件を満たすと判定した場合には危険運転であると判断し、その“危険運転候補区間”に対する危険判定フラグを“1”にセットする(危険判定フラグ=1)。一方、危険運転抽出部124は、いずれの条件も満たさないと判定した場合には危険運転でないと判断し、その“危険運転候補区間”に対する危険判定フラグを“0”にセットする(危険判定フラグ=0)。条件の組み合わせ数を多くすることで、より危険度の高い“危険運転候補区間”を抽出可能となる。   If it is determined that at least one of the conditions is met, the dangerous driving extraction unit 124 determines that the driving is dangerous driving, and sets the dangerous determination flag for the “dangerous driving candidate section” to “1” (danger determination flag = 1). On the other hand, if it is determined that none of the conditions is satisfied, the dangerous driving extraction unit 124 determines that the driving is not dangerous driving, and sets the dangerous determination flag for the “dangerous driving candidate section” to “0” (danger determination flag). = 0). By increasing the number of combinations of conditions, it is possible to extract “dangerous driving candidate sections” with a higher degree of danger.

最終的に、危険判定フラグが“1”である“危険運転候補区間”が、危険運転の区間として抽出され得る。   Finally, a “dangerous driving candidate section” having a danger determination flag of “1” can be extracted as a dangerous driving section.

ここで、相対距離Lx、LyがLxs、Lysよりも小さい場合、自車両300と対象物との距離が近く、自車両300が対象物に衝突する危険性が高い。また、TTCx、TTCyの最小値がTTCxs、TTCysよりも小さい場合には、自車両300と対象物との距離が近くなり、最終的には自車両300が対象物に衝突する危険性が高い。また、TTCx、TTCyの変化率の最大値がDTTCxs、DTTCysよりも大きい場合には、自車両300と対象物との距離が急速に近くなっており、衝突の危険性が高い。よって、このような条件を満たす区間が危険運転の区間として抽出されると、危険運転がどのような状況で発生しているかを効果的に学習させ、安全運転教育を効率良く行うことができる。   Here, when the relative distances Lx and Ly are smaller than Lxs and Lys, the distance between the host vehicle 300 and the target is close, and the risk of the host vehicle 300 colliding with the target is high. In addition, when the minimum values of TTCx and TTCy are smaller than TTCxs and TTCys, the distance between the host vehicle 300 and the target object is short, and there is a high risk that the host vehicle 300 will eventually collide with the target object. Further, when the maximum value of the rate of change of TTCx and TTCy is larger than DTTCxs and DTTCys, the distance between the host vehicle 300 and the object is rapidly approaching, and the risk of collision is high. Therefore, when a section satisfying such a condition is extracted as a section for dangerous driving, it is possible to effectively learn under what circumstances dangerous driving occurs and to perform safe driving education efficiently.

また、上記危険運転の抽出処理においては、危険運転の情報を抽出する条件として、自車両300と対象物との相対距離Lが相対距離基準値Lsよりも小さいとの条件が必須となっている。例えば、急加速に起因してTTCの最小値がTTCsよりも小さくなったとしても、自車両300と対象物とが互いに遠く離れていれば、自車両300と対象物とが衝突する危険性は低い。よって、自車両300と対象物との相対距離LがLs以上の区間は、危険運転の区間からは除外する。これにより、衝突の危険性が高い区間のみを危険運転の区間として抽出することができる。   Further, in the dangerous driving extraction process, a condition that the relative distance L between the host vehicle 300 and the target object is smaller than the relative distance reference value Ls is indispensable as a condition for extracting dangerous driving information. . For example, even if the minimum value of TTC is smaller than TTCs due to sudden acceleration, if the host vehicle 300 and the target object are far away from each other, the risk that the host vehicle 300 and the target object collide is Low. Therefore, a section in which the relative distance L between the host vehicle 300 and the object is Ls or more is excluded from the dangerous driving section. Thereby, only a section with high risk of collision can be extracted as a section of dangerous driving.

また、上記危険運転の抽出処理においては、危険運転抽出部124は、“対象物有区間”から、相対距離LがLsよりも小さい“接近区間”をまず抽出した後、上記基準(ii)及び(iii)に基づいた判定を行う。このようにまず“接近区間”が抽出されることで、衝突の危険性が高い区間が絞り込まれ、上記基準(ii)及び(iii)に基づいた判定が行われるデータが絞り込まれる。よって、危険運転の抽出に係る演算を効率良く行うことができる。   In the dangerous driving extraction process, the dangerous driving extracting unit 124 first extracts an “approaching section” having a relative distance L smaller than Ls from the “object existence section”, and then extracts the reference (ii) and The determination based on (iii) is performed. In this way, by first extracting the “approach section”, the section having a high risk of collision is narrowed down, and the data to be determined based on the above criteria (ii) and (iii) is narrowed down. Therefore, the calculation related to the extraction of dangerous driving can be performed efficiently.

(b)危険運転情報DBの一例
危険運転抽出部124は、上述の抽出結果及び判定結果などを危険運転情報DB130に格納する。図11は、危険運転情報DBの危険運転情報の一例である。
(B) Example of Dangerous Driving Information DB The dangerous driving extraction unit 124 stores the above extraction results and determination results in the dangerous driving information DB 130. FIG. 11 is an example of dangerous driving information in the dangerous driving information DB.

危険運転情報DB130は、“危険運転候補区間”毎に、“危険運転候補番号”、“危険運転候補区間”のフレーム範囲、危険運転パターン、危険認知の有無、対象物番号、対象物種類、危険判定フラグ、“接近区間”のフレーム範囲、TTCの最小値及びTTCの変化率(DTTC)の最大値などを記憶している。   The dangerous driving information DB 130 stores, for each “dangerous driving candidate section”, a “dangerous driving candidate number”, a frame range of the “dangerous driving candidate section”, a dangerous driving pattern, presence / absence of dangerous recognition, an object number, an object type, a danger The determination flag, the frame range of the “approach section”, the minimum value of TTC, the maximum value of the change rate of TTC (DTTC), and the like are stored.

各“危険運転候補区間”は、それぞれ“危険運転候補番号”が付与されており、開始フレーム及び終了フレームで定義される。対象物番号及び対象物種類は、各“危険運転候補区間”に存在する対象物を識別する情報である。危険判定フラグ、“接近区間”のフレーム範囲、TTCの最小値及びTTCの変化率(DTTC)の最大値などは、各対象物ごとに格納される。危険運転パターン及び危険認知の有無については後述する。   Each “dangerous driving candidate section” is assigned a “dangerous driving candidate number” and is defined by a start frame and an end frame. The object number and the object type are information for identifying objects existing in each “dangerous driving candidate section”. The risk determination flag, the frame range of the “approach section”, the minimum value of TTC, the maximum value of change rate of TTC (DTTC), and the like are stored for each object. The dangerous driving pattern and the presence or absence of danger recognition will be described later.

(c)危険運転抽出処理の具体例
次に、危険運転抽出処理の具体例を図12を用いて説明する。図12は、危険運転抽出処理の具体例を説明するための相対情報の一例である。
(C) Specific Example of Dangerous Driving Extraction Process Next, a specific example of the dangerous driving extraction process will be described with reference to FIG. FIG. 12 is an example of relative information for explaining a specific example of the dangerous driving extraction process.

図12において、フレーム番号=1〜7のフレームでは対象物フラグ=1であり、図示しないフレーム番号=8のフレームでは対象物フラグ=0であるとする。よって、危険運転抽出部124は、図12の相対情報を参照し、まず“対象物有区間”としてフレーム番号=1〜7の連続フレームを抽出する。   In FIG. 12, it is assumed that the object flag = 1 in the frames with the frame numbers = 1 to 7 and the object flag = 0 in the frame with the frame number = 8 (not shown). Therefore, the dangerous driving extraction unit 124 refers to the relative information in FIG. 12 and first extracts the continuous frames with the frame numbers = 1 to 7 as the “object existence section”.

次に、危険運転抽出部124は、“対象物有区間”内の各フレームに存在する各対象物について、相対距離Lx及びLyとLxs及びLysとを比較し、“対象物有区間”から各対象物の“接近区間”を抽出する。   Next, the dangerous driving extraction unit 124 compares the relative distances Lx and Ly with Lxs and Lys for each object existing in each frame in the “object existence section”, Extract the “approach section” of the object.

例えば、対象物番号=1の対象物である乗用車について説明する。図12において、対象物番号=1の対象物に関して、Lxs、Lysよりも小さい相対距離Lx、Lyには斜線の網掛けがされている。フレーム番号=1のフレームでは、相対距離Lx_1(1)はLxs以上であり、かつ相対距離Ly_1(1)はLys以上であるとする。一方、フレーム番号=2のフレームでは、相対距離Lx_1(2)はLxs以上であり、相対距離Ly_1(2)はLysより小さいとする。よって、対象物番号=1の対象物の“接近区間1”は、フレーム番号=2のフレームから開始する。また、フレーム番号=3のフレームでは相対距離Ly_1(3)はLysより小さく、フレーム番号=4のフレームでは相対距離Lx_1(4)はLxsより小さく、相対距離Ly_1(4)はLysより小さい。さらに、フレーム番号=5のフレームでは相対距離Lx_1(5)はLxsより小さく、相対距離Ly_1(5)はLysより小さい。しかし、フレーム番号=6、7のフレームでは、相対距離Lx及びLyはLxs及びLys以上である。よって、“接近区間1”はフレーム番号=5のフレームで終了する。よって、危険運転抽出部124は、対象物番号=1の対象物の“接近区間1”として、フレーム番号=2〜5までのフレーム区間を抽出する。   For example, a passenger car that is an object with object number = 1 will be described. In FIG. 12, the relative distances Lx and Ly smaller than Lxs and Lys are shaded with respect to the object with the object number = 1. In the frame with frame number = 1, the relative distance Lx_1 (1) is greater than or equal to Lxs, and the relative distance Ly_1 (1) is greater than or equal to Lys. On the other hand, in the frame with frame number = 2, the relative distance Lx_1 (2) is greater than or equal to Lxs, and the relative distance Ly_1 (2) is less than Lys. Therefore, the “approach section 1” of the object with the object number = 1 starts from the frame with the frame number = 2. In the frame with frame number = 3, the relative distance Ly_1 (3) is smaller than Lys. In the frame with frame number = 4, the relative distance Lx_1 (4) is smaller than Lxs, and the relative distance Ly_1 (4) is smaller than Lys. Further, in the frame of frame number = 5, the relative distance Lx_1 (5) is smaller than Lxs, and the relative distance Ly_1 (5) is smaller than Lys. However, in the frames with frame numbers = 6 and 7, the relative distances Lx and Ly are greater than or equal to Lxs and Lys. Therefore, “approach section 1” ends with the frame of frame number = 5. Therefore, the dangerous driving extraction unit 124 extracts frame sections from frame numbers = 2 to 5 as “approach section 1” of the object having the object number = 1.

次に、対象物番号=2の対象物であるトラック/バスについて説明する。図12において、対象物番号=2の対象物に関して、Lxs、Lysよりも小さい相対距離Lx、Lyには砂模様の網掛けがされている。上述と同様の手順によって、危険運転抽出部124は、対象物番号=2の対象物の“接近区間2”として、フレーム番号=3〜6までのフレーム区間を抽出する。   Next, the track / bus that is the object with the object number = 2 will be described. In FIG. 12, with respect to the object with the object number = 2, the relative distances Lx and Ly smaller than Lxs and Lys are shaded with sand patterns. By the same procedure as described above, the dangerous driving extracting unit 124 extracts frame sections from frame numbers 3 to 6 as “approach section 2” of the object having the object number = 2.

ここで、2つの対象物の“接近区間1”及び“接近区間2”において、最初に“接近区間”が開始するのは、“接近区間1”のフレーム番号=2のフレームである。一方、最後に“接近区間”が終了するのは、“接近区間2”のフレーム番号=6のフレームである。よって、危険運転抽出部124は、フレーム番号=2〜6までの区間を“危険運転候補区間”として抽出する。ただし、図12の相対情報の場合、“接近区間”としては、“接近区間1”及び“接近区間2”のみが抽出されているとする。   Here, in the “approach section 1” and “approach section 2” of the two objects, the “approach section” starts first in the frame of the “approach section 1” with the frame number = 2. On the other hand, the “approaching section” ends last in the frame of “approaching section 2” with frame number = 6. Therefore, the dangerous driving extraction unit 124 extracts the sections with frame numbers = 2 to 6 as “dangerous driving candidate sections”. However, in the case of the relative information in FIG. 12, it is assumed that only “approach section 1” and “approach section 2” are extracted as “approach section”.

また、危険運転抽出部124は、対象物番号=1の対象物について、“接近区間1”内における、TTCx及びTTCyの最小値及びTTCx及びTTCyの変化率の最大値を算出する。同様に、危険運転抽出部124は、対象物番号=2の対象物について、“接近区間2”内における、TTCx及びTTCyの最小値及びTTCx及びTTCyの変化率の最大値を算出する。   Further, the dangerous driving extraction unit 124 calculates the minimum value of TTCx and TTCy and the maximum value of the rate of change of TTCx and TTCy in the “approach section 1” for the object with the object number = 1. Similarly, the dangerous driving extraction unit 124 calculates the minimum value of TTCx and TTCy and the maximum value of the rate of change of TTCx and TTCy in the “approach zone 2” for the object with the object number = 2.

危険運転抽出部124は、前記の算出結果を各基準値と比較し、危険運転であると判断すると、その“危険運転候補区間”に対する危険判定フラグを“1”にセットする(危険判定フラグ=1)。   When the dangerous driving extraction unit 124 compares the calculation result with each reference value and determines that it is dangerous driving, the dangerous driving extraction unit 124 sets the dangerous determination flag for the “dangerous driving candidate section” to “1” (danger determination flag = 1).

(3−2−7)走行・操作情報DB
走行・操作情報DB131は、走行情報取得機器206から自車両300の走行情報を取得し、操作情報取得機器207から自車両300の操作情報を取得して記憶する。
(3-2-7) Travel / operation information DB
The travel / operation information DB 131 acquires travel information of the host vehicle 300 from the travel information acquisition device 206, and acquires and stores operation information of the host vehicle 300 from the operation information acquisition device 207.

図13は、走行・操作情報DBの走行情報及び操作情報の一例である。走行情報には、自車両300のX方向及びY方向の速度及び加速度が含まれる。また、操作情報には、自車両300における、ブレーキ操作の有無、操舵角θs、方向指示器の操作の有無、アクセルの操作の有無などが含まれる。なお、ブレーキ操作が検出された時が“1”であり、検出されない時が“0”である。操舵角は、ハンドルが回転されていない状態を0°としている。また、方向指示器の操作に応じて、左右いずれの側への方向指示であるかが記憶されている。また、アクセル操作が検出された時が“1”であり、検出されない時が“0”である。   FIG. 13 is an example of travel information and operation information in the travel / operation information DB. The travel information includes the speed and acceleration of the host vehicle 300 in the X direction and the Y direction. The operation information includes the presence / absence of a brake operation, the steering angle θs, the presence / absence of a direction indicator, the presence / absence of an accelerator operation, etc. in the host vehicle 300. The time when the brake operation is detected is “1”, and the time when the brake operation is not detected is “0”. The steering angle is 0 ° when the steering wheel is not rotated. In addition, it stores a direction instruction to the left or right according to the operation of the direction indicator. The time when the accelerator operation is detected is “1”, and the time when the accelerator operation is not detected is “0”.

(3−2−8)認知判定部
認知判定部125は、自車両300の運転が危険運転であることを、運転者が認知しているか否かを判定する。
(3-2-8) Recognition Determination Unit The recognition determination unit 125 determines whether or not the driver recognizes that the driving of the host vehicle 300 is dangerous driving.

まず、認知判定部125は、図11に示す危険運転情報DB130を参照し、各“危険運転候補”について、危険判定フラグ=1の対象物の“接近区間”を読み出す。例えば、認知判定部125は、図11の危険運転情報DB130において、“危険運転候補番号”=1、対象物番号=1、危険判定フラグ=1のレコードにおいて、“接近区間”の開始フレームns1_1及び終了フレームne1_1を読み出す。   First, the recognition determination unit 125 refers to the dangerous driving information DB 130 illustrated in FIG. 11 and reads the “approach section” of the object with the risk determination flag = 1 for each “dangerous driving candidate”. For example, in the dangerous driving information DB 130 of FIG. 11, the recognition determining unit 125 sets the start frame ns <b> 1 </ b> _ <b> 1 of the “approach zone” in the record of “dangerous driving candidate number” = 1, object number = 1, and dangerous determination flag = 1. Read end frame ne1_1.

次に、認知判定部125は、“接近区間”内の各フレームについて走行・操作情報DB131を参照し、運転者が危険運転を認知しているか否かを判定する。なお、危険判定フラグ=0の場合は危険運転では無いため、危険運転の認知の有無を判定する必要は無い。   Next, the recognition determination unit 125 refers to the travel / operation information DB 131 for each frame in the “approach zone” and determines whether or not the driver recognizes dangerous driving. When the danger determination flag = 0, it is not dangerous driving, and it is not necessary to determine whether or not dangerous driving is recognized.

具体的には、例えば次のような判定が行われる。   Specifically, for example, the following determination is performed.

例えば、認知判定部125は、所定のフレームについて、自車両300の前進方向(Y方向)の加速度αyを参照する。認知判定部125は、加速度αyが負の加速度であり、かつ加速度αyの大きさが所定値より大きいと判断すると、運転者が危険運転を認知していると判定する。ここで、負の加速度αyの大きさが所定値より大きいとは、速度Vyの減少率が所定値より大きいことを意味し、例えば運転者が急なブレーキ操作を行った場合などが挙げられる。つまり、運転者が危険運転を認知して自発的に急なブレーキ操作を行ったため、自車両300の速度の減少率が所定値より大きくなったと判断できる。X方向の加速度αxについても同様の判断を行うことが可能である。   For example, the recognition determination unit 125 refers to the acceleration αy in the forward direction (Y direction) of the host vehicle 300 for a predetermined frame. When determining that the acceleration αy is a negative acceleration and the magnitude of the acceleration αy is greater than a predetermined value, the recognition determination unit 125 determines that the driver recognizes the dangerous driving. Here, the magnitude of the negative acceleration αy being larger than the predetermined value means that the rate of decrease of the speed Vy is larger than the predetermined value, for example, when the driver performs a sudden braking operation. That is, since the driver recognizes dangerous driving and spontaneously performs a sudden braking operation, it can be determined that the rate of decrease in the speed of the host vehicle 300 is greater than a predetermined value. A similar determination can be made for the acceleration αx in the X direction.

また、認知判定部125は、走行・操作情報DB131を参照し、自車両300のブレーキ操作が行われていると判断すると、運転者が危険運転を認知していると判定しても良い。   Further, the recognition determination unit 125 may determine that the driver recognizes the dangerous driving when it is determined that the brake operation of the host vehicle 300 is performed with reference to the travel / operation information DB 131.

また、認知判定部125は、走行・操作情報DB131を参照し、ブレーキ操作及び加速度の両方に基づいて、危険運転を認知しているか否かを判定しても良い。つまり、認知判定部125は、運転者がブレーキ操作を行い、かつ負の加速度の大きさが所定値より大きい場合に、危険運転を認知していると判定しても良い。ここで、負の加速度の大きさが所定値より大きくなる現象は、ブレーキ操作が行われた場合だけでなく、例えば自車両300が急な上り坂を走行した場合などにも生じ得る。ブレーキ操作に基づいて、運転者が行った操作を確実に検出することで、危険運転に対する認知の有無を確実に検出することができる。   The recognition determination unit 125 may determine whether or not the dangerous driving is recognized based on both the brake operation and the acceleration with reference to the travel / operation information DB 131. That is, the recognition determination unit 125 may determine that dangerous driving is recognized when the driver performs a braking operation and the magnitude of the negative acceleration is greater than a predetermined value. Here, the phenomenon that the magnitude of the negative acceleration becomes larger than a predetermined value may occur not only when the brake operation is performed, but also when the host vehicle 300 travels on a steep uphill, for example. By reliably detecting the operation performed by the driver based on the brake operation, it is possible to reliably detect the presence or absence of recognition for dangerous driving.

また、認知判定部125は、走行・操作情報DB131を参照し、操舵角の変化率が大きいと判断した場合には、運転者が危険運転を認知していると判定しても良い。操舵角の変化率が大きい場合とは、対象物との衝突を避けるために運転者がハンドルを急激に操作した場合などが考えられ、運転者が危険運転を認知していると推測できる。   Further, the recognition determination unit 125 may determine that the driver recognizes the dangerous driving when the driving / operation information DB 131 is referred to and the change rate of the steering angle is determined to be large. The case where the rate of change of the steering angle is large may be a case where the driver suddenly operates the steering wheel to avoid a collision with an object, and it can be assumed that the driver recognizes the dangerous driving.

その他、認知判定部125は、対象物が存在しない方向に自車両300が進行していると判断すると、運転者が危険運転を認知していると判定する。例えば、認知判定部125は、図8の相対情報DBを参照し、前述の危険判定フラグ=1の“接近区間”における対象物の相対位置Qを取得し、対象物が自車両300に対してどの位置に存在するかを把握する。また、認知判定部125は、図13の走行・操作情報DB131から、前記“接近区間”における自車両300の速度、加速度及び操舵角などを取得し、対象物の相対位置Qに対して、自車両300がどの方向に進んでいるかを判断する。最終的に、認知判定部125は、自車両300が対象物から離れる方向に進行していると判断すると、運転者が危険運転を認知していると判定する。   In addition, if the recognition determination unit 125 determines that the host vehicle 300 is traveling in a direction in which the object does not exist, the recognition determination unit 125 determines that the driver recognizes dangerous driving. For example, the recognition determination unit 125 refers to the relative information DB of FIG. 8, acquires the relative position Q of the target object in the “approach section” with the above-described risk determination flag = 1, and the target object is relative to the host vehicle 300. Know where it is. In addition, the recognition determination unit 125 acquires the speed, acceleration, steering angle, and the like of the host vehicle 300 in the “approach section” from the travel / operation information DB 131 of FIG. It is determined in which direction the vehicle 300 is traveling. Finally, when the recognition determination unit 125 determines that the host vehicle 300 is traveling in a direction away from the object, the recognition determination unit 125 determines that the driver recognizes dangerous driving.

認知判定部125は、図11の危険運転情報DBに判定結果を格納する。図11の場合、危険認知の項目に各“危険運転候補番号”ごとに判定結果が格納されており、例えば危険運転を認知している場合には“有り”が、認知していない場合には“無し”が格納されている。   The recognition determination unit 125 stores the determination result in the dangerous driving information DB of FIG. In the case of FIG. 11, a determination result is stored for each “dangerous driving candidate number” in the item of dangerous recognition. For example, “Yes” is recognized when dangerous driving is recognized, and “No” is recognized when dangerous driving is not recognized. “None” is stored.

なお、認知判定部125は、危険運転であることの認知の有無だけでなく、危険運転をどの程度認知しているかを示す認知度を判定しても良い。例えば、認知判定部125は、加速度が瞬間的に増加したり、ブレーキ操作が瞬間的に行われたことなどの状態に基づいて認知度を判定する。なお、加速度の変化率及びブレーキ操作に要した時間などと認知度の対応表が予め用意されており、認知判定部125は、これらの対応表に基づいて加速度の変化率及びブレーキ操作に要した時間などに応じて認知度を判定する。   In addition, the recognition determination part 125 may determine not only the presence or absence of recognition that it is dangerous driving, but the recognition degree which shows how much dangerous driving is recognized. For example, the recognition determination unit 125 determines the degree of recognition based on a state in which acceleration increases instantaneously or a braking operation is performed instantaneously. A correspondence table of the rate of change of acceleration and the time required for the brake operation and the degree of recognition is prepared in advance, and the recognition determination unit 125 required the rate of change of acceleration and the brake operation based on these correspondence tables. The degree of recognition is determined according to time.

(3−2−9)位置情報DB
位置情報DB132は、位置情報取得機器208から地図上における自車両300の位置情報を取得し記憶する。
(3-2-9) Location information DB
The position information DB 132 acquires the position information of the host vehicle 300 on the map from the position information acquisition device 208 and stores it.

図14は、位置情報DBの位置情報の一例である。例えば、道路地図上に定義されたグローバル座標において、自車両300の位置がXg、Ygの座標により特定される。これらの位置情報及び後述の道路地図情報に基づいて、自車両300が交差点、直進道路などどのような場所に位置しているかを把握可能である。   FIG. 14 is an example of position information in the position information DB. For example, in the global coordinates defined on the road map, the position of the host vehicle 300 is specified by the coordinates of Xg and Yg. Based on these position information and road map information described later, it is possible to grasp where the host vehicle 300 is located such as an intersection or a straight road.

(3−2−10)危険運転パターンDB
図15は、危険運転パターンDBの一例である。危険運転パターンDB133は、危険運転パターンIDごとに、危険運転パターンを記憶している。危険運転パターンとは、危険運転を分類するための定義であり、例えば、各危険運転がどのような場所でどのような対象物に対して発生したのかなどを分類するための定義である。
(3-2-10) Dangerous driving pattern DB
FIG. 15 is an example of a dangerous driving pattern DB. The dangerous driving pattern DB 133 stores a dangerous driving pattern for each dangerous driving pattern ID. The dangerous driving pattern is a definition for classifying the dangerous driving, for example, a classification for classifying what kind of object the dangerous driving has occurred at what place.

(3−2−11)危険運転分類部
危険運転分類部126は、危険運転情報DB130内の各“危険運転候補”に対して、危険運転パターンの分類を行う。
(3-2-11) Dangerous Driving Classification Unit The dangerous driving classification unit 126 classifies the dangerous driving pattern for each “dangerous driving candidate” in the dangerous driving information DB 130.

まず、危険運転分類部126は、各“危険運転候補”に対するフレーム範囲ついて、位置情報DB132内の自車両300の位置情報と、各種対応表DB134内の道路地図情報と、を読み出す。また、危険運転分類部126は、これらの位置情報及び道路地図情報に基づいて、自車両300が交差点、直進道路など地図上のどの位置を走行しているかを特定する。   First, the dangerous driving classification unit 126 reads out the position information of the host vehicle 300 in the position information DB 132 and the road map information in the various correspondence tables DB 134 for the frame range for each “dangerous driving candidate”. In addition, the dangerous driving classification unit 126 identifies which position on the map the host vehicle 300 is traveling on such as an intersection or a straight road based on the position information and the road map information.

次に、危険運転分類部126は、各“危険運転候補”に対応するフレーム範囲について、走行・操作情報DB131から、自車両の走行情報及び操作情報を読み出す。危険運転分類部126は、自車両の走行情報及び操作情報に基づいて、自車両が直進状態にあるのか、右折・左折状態にあるのか、停止状態にあるのかなどの走行状態を判断する。例えば、方向指示器が“右”であり、操舵角θsが右方向へのハンドルの動きを示しており、速度Vが“0”ではない場合には、危険運転分類部126は、自車両300が右折していると判断する。   Next, the dangerous driving classification unit 126 reads the traveling information and the operation information of the host vehicle from the traveling / operation information DB 131 for the frame range corresponding to each “dangerous driving candidate”. The dangerous driving classification unit 126 determines a traveling state such as whether the own vehicle is in a straight traveling state, a right turn / left turn state, or a stopped state based on the traveling information and operation information of the own vehicle. For example, when the direction indicator is “right”, the steering angle θs indicates the movement of the steering wheel in the right direction, and the speed V is not “0”, the dangerous driving classification unit 126 determines that the host vehicle 300 Is determined to be turning right.

次に、危険運転分類部126は、危険運転情報DB130から、各“危険運転候補”について危険判定フラグ=1の対象物種類を読み出す。危険運転分類部126は、前述で判断した地図上の位置及び走行状態と、危険判定フラグ=1の対象物種類と、に基づいて、危険運転パターンDB133を参照し、各“危険運転候補”の危険運転パターンを特定する。   Next, the dangerous driving classification unit 126 reads out the object type of the danger determination flag = 1 for each “dangerous driving candidate” from the dangerous driving information DB 130. The dangerous driving classification unit 126 refers to the dangerous driving pattern DB 133 based on the position and traveling state on the map determined as described above and the object type of the danger determination flag = 1, and sets each “dangerous driving candidate”. Identify dangerous driving patterns.

例えば、図11の危険運転情報DB130において、“危険運転候補番号”=1及び危険判定フラグ=1である対象物種類は、乗用車である。このとき、走行・操作情報DB131によると、自車両300が交差点を右折しようとしているとする。危険運転分類部126は、“交差点を右折”及び“乗用車”の組み合わせに基づいて、最も適合する危険運転パターンを選択する。ここでは、“交差点右折時に乗用車と遭遇”が選択され、危険運転情報DB130の“危険運転候補番号”=1の危険運転パターンとして格納されている。   For example, in the dangerous driving information DB 130 of FIG. 11, the object type for which “dangerous driving candidate number” = 1 and the danger determination flag = 1 is a passenger car. At this time, according to the travel / operation information DB 131, it is assumed that the host vehicle 300 is going to turn right at the intersection. The dangerous driving classification unit 126 selects the most suitable dangerous driving pattern based on the combination of “turn right at the intersection” and “passenger car”. Here, “Meeting with a passenger car when turning right at the intersection” is selected and stored as a dangerous driving pattern of “dangerous driving candidate number” = 1 in the dangerous driving information DB 130.

(3−2−12)表示映像生成部
表示映像生成部127は、運転教育用端末250からの指示に応じた危険運転の表示映像を生成する。
(3-2-12) Display Video Generation Unit The display video generation unit 127 generates a display image of dangerous driving according to an instruction from the driving education terminal 250.

例えば、運転教育用端末250から、“危険運転を表示”との指示を受けると、表示映像生成部127は、危険運転情報DB130から危険判定フラグ=1である“危険運転候補”を選択し、選択した“危険運転候補”のフレーム範囲を特定する。なお、危険判定フラグ=0の場合、危険運転ではないと判定されている。   For example, upon receiving an instruction “display dangerous driving” from the driving education terminal 250, the display video generation unit 127 selects “dangerous driving candidate” with the risk determination flag = 1 from the dangerous driving information DB 130, The frame range of the selected “dangerous driving candidate” is specified. When the danger determination flag = 0, it is determined that the driving is not dangerous.

例えば、“危険運転候補番号”=1の“危険運転候補”は、対象物種類=乗用車に対して危険判定フラグ=1である。よって、表示映像生成部127は、“危険運転候補番号”が1のレコードを選択し、フレーム範囲として開始フレームns1及び終了フレームne1を取得する。次に、表示映像生成部127は、周辺情報DB128から該当するフレームを読み出して表示映像を生成する。   For example, “dangerous driving candidate number” of “dangerous driving candidate number” = 1 is dangerous determination flag = 1 for the object type = passenger car. Therefore, the display video generation unit 127 selects a record with “dangerous driving candidate number” being 1, and acquires the start frame ns1 and the end frame ne1 as the frame range. Next, the display video generation unit 127 reads the corresponding frame from the peripheral information DB 128 and generates a display video.

また、表示映像生成部127が運転教育用端末250から危険運転パターンを指定した表示指示を受けたとする。表示映像生成部127は、危険運転情報DB130から危険判定フラグ=1であり、かつ、指定された危険運転パターンの“危険運転候補”を選択し、周辺情報DB128を参照して該当するフレームの表示映像を生成する。   In addition, it is assumed that the display video generation unit 127 receives a display instruction specifying a dangerous driving pattern from the driving education terminal 250. The display image generation unit 127 selects the “dangerous driving candidate” with the dangerous determination flag = 1 from the dangerous driving information DB 130 and the designated dangerous driving pattern, and displays the corresponding frame with reference to the peripheral information DB 128. Generate video.

また、表示映像生成部127が運転教育用端末250から“認知されていない危険運転を表示”との指示を受けたとする。表示映像生成部127は、危険運転情報DB130から危険判定フラグ=1であり、かつ、危険認知=“無し”の“危険運転候補”を選択し、周辺情報DB128を参照して該当するフレームの表示映像を生成する。   Further, it is assumed that the display video generation unit 127 receives an instruction “display unrecognized dangerous driving” from the driving education terminal 250. The display video generation unit 127 selects the “dangerous driving candidate” with the danger determination flag = 1 and the danger recognition = “none” from the dangerous driving information DB 130, and displays the corresponding frame with reference to the surrounding information DB 128. Generate video.

なお、表示映像生成部127は、危険運転の表示映像を周辺情報DB128のデータだけでなく、例えば走行・操作情報DB131及び位置情報DB132などのデータもさらに含めて生成しても良い。これにより、危険運転の映像だけでなく、危険運転がどのような位置で発生し、そのときどのような走行状態及び操作状態にあったかを把握可能である。   The display video generation unit 127 may generate a display image of the dangerous driving not only including the data in the peripheral information DB 128 but also including data such as the travel / operation information DB 131 and the position information DB 132, for example. As a result, it is possible to grasp not only the dangerous driving image, but also at what position the dangerous driving occurred and what kind of running state and operating state at that time.

表示映像生成部127は、このように生成した表示映像を運転教育用端末250に出力する。   The display video generation unit 127 outputs the display video generated in this way to the driving education terminal 250.

周辺情報DB128の周辺情報は、自車両の例えば360°全周囲の周辺情報である。よって、表示映像生成部127は、危険運転の表示映像を全周囲の周辺情報に基づいて生成することができる。そのため、危険運転の視聴者は、自車両300の全周囲に亘る危険運転を視聴することができる。例えば、自車両300の運転中において視認困難な死角において危険運転の原因が発生していても、危険運転の視聴者は、そのような危険運転を表示映像により振り返ることができる。   The peripheral information in the peripheral information DB 128 is peripheral information around the entire 360 ° of the host vehicle, for example. Therefore, the display video generation unit 127 can generate a display image of dangerous driving based on the surrounding information of the entire periphery. Therefore, a viewer of dangerous driving can watch dangerous driving over the entire periphery of the host vehicle 300. For example, even if the cause of dangerous driving occurs in a blind spot that is difficult to visually recognize while driving the host vehicle 300, a viewer of dangerous driving can look back on such dangerous driving with a display image.

また、表示映像生成部127は、自車両300の運転者の視点に基づいて表示映像を生成することもできるが、自車両300に対して後方の他車両500からの視点に基づいて表示映像を生成することもできる。図16は自車両と他車両との関係を示す説明図であり、図17は自車両に対して後方の他車両からの視点に基づいた表示映像の一例である。   In addition, the display video generation unit 127 can generate a display video based on the viewpoint of the driver of the host vehicle 300, but the display video is generated based on the viewpoint from the other vehicle 500 behind the host vehicle 300. It can also be generated. FIG. 16 is an explanatory diagram showing the relationship between the host vehicle and the other vehicle, and FIG. 17 is an example of a display image based on the viewpoint from the other vehicle behind the host vehicle.

図16を参照すると、自車両300に対して他車両500a及び500bが前方斜め前方及び後方を走行している。例えば、表示映像生成部127は、後方の他車両500aの視点及び視線方向に基づいて周辺情報DB128のデータを演算処理して、危険運転の表示映像を生成する。これにより、自車両300に対して後方の他車両500aからの視点に基づいた、図17に示す表示映像が生成される。他車両の視点から客観的に自車両300の危険運転を視聴させることで、安全運転教育を効果的に行うことができる。なお、所定の視点及び視線方向に基づいたデータの演算処理は、例えばアフィン変換などを用いて行われる。   Referring to FIG. 16, other vehicles 500 a and 500 b are traveling diagonally forward and rearward with respect to the host vehicle 300. For example, the display image generation unit 127 calculates the data of the peripheral information DB 128 based on the viewpoint and the line-of-sight direction of the other vehicle 500a behind to generate a display image of dangerous driving. Thereby, the display image shown in FIG. 17 based on the viewpoint from the other vehicle 500a behind the host vehicle 300 is generated. Safe driving education can be effectively performed by objectively viewing the dangerous driving of the host vehicle 300 from the viewpoint of another vehicle. Note that data calculation processing based on a predetermined viewpoint and line-of-sight direction is performed using, for example, affine transformation.

(3−2−13)各種対応表DB
各種対応表DB134は、危険運転解析装置100が演算及び判定に用いるあらゆるデータを記憶している。その一例を以下に説明する。
(3-2-13) Various correspondence table DB
Various correspondence table DB134 has memorize | stored all the data which dangerous driving | running analysis apparatus 100 uses for a calculation and determination. One example will be described below.

例えば、各種対応表DB134は、各カメラ205a〜205dの各画素と、三次元投影面400の各座標と、の対応関係を記憶している。   For example, the various correspondence table DB 134 stores a correspondence relationship between each pixel of each of the cameras 205a to 205d and each coordinate of the three-dimensional projection plane 400.

各種対応表DB134は、対象物の各種特徴を記憶したパターンデータを記憶している。   The various correspondence table DB 134 stores pattern data that stores various characteristics of the object.

各種対応表DB134は、安全運転基準など各種の基準値を記憶している。   The various correspondence tables DB 134 stores various reference values such as safe driving standards.

各種対応表DB134は、地図上のグローバル座標の位置情報と、交差点、直進道路、三車線道路及びT字路などの自車両300が位置している状況を示す情報と、を対応付けた道路地図情報を記憶している。   The various correspondence tables DB 134 is a road map in which global coordinate position information on the map is associated with information indicating the situation where the vehicle 300 is located such as an intersection, a straight road, a three-lane road, and a T-junction. I remember information.

(3−3)運転教育用端末
図4の運転教育用端末250の機能部には、例えば送受信部270及び表示制御部271が含まれる。運転教育用端末250は、マウス256及びキーボード257を介して、視聴者から所望の危険運転の表示指示を受け付ける。送受信部270は、所望の危険運転の表示指示を危険運転解析装置100の表示映像生成部127に出力する。また、送受信部270は、表示映像生成部127から所望の危険運転に基づいた表示映像を受信し、表示制御部271は前記表示映像をディスプレイ255に表示する。
(3-3) Driving Education Terminal Functional units of the driving education terminal 250 in FIG. 4 include, for example, a transmission / reception unit 270 and a display control unit 271. The driving education terminal 250 receives a display instruction of a desired dangerous driving from the viewer via the mouse 256 and the keyboard 257. The transmission / reception unit 270 outputs a display instruction for a desired dangerous driving to the display video generation unit 127 of the dangerous driving analysis device 100. The transmission / reception unit 270 receives a display video based on a desired dangerous driving from the display video generation unit 127, and the display control unit 271 displays the display video on the display 255.

(4)処理の流れ
以下に、第1実施形態例にかかる危険運転解析装置100が実行する処理の流れを説明する。まず全体の処理の流れを説明し、次に全体処理を構成する各処理の流れについて説明する。
(4) Process Flow The process flow executed by the dangerous driving analysis apparatus 100 according to the first embodiment will be described below. First, the flow of the entire process will be described, and then the flow of each process constituting the overall process will be described.

(4−1)全体処理
図18は、第1実施形態例にかかる危険運転解析装置が実行する全体処理の流れの一例を示すフローチャートである。全体処理は各フレームごとに実行される。
(4-1) Overall Processing FIG. 18 is a flowchart illustrating an example of the flow of overall processing executed by the dangerous driving analysis apparatus according to the first embodiment. The entire process is executed for each frame.

ステップS1、S2:危険運転解析装置100は、情報取得装置200からフレームごとにデータを取得して読み込む。これにより、危険運転解析装置100の各DBにデータが取り込まれる。   Steps S <b> 1 and S <b> 2: The dangerous driving analysis device 100 acquires and reads data from the information acquisition device 200 for each frame. Thereby, data is taken into each DB of the dangerous driving analysis device 100.

ステップS3:危険運転解析装置100は、自車両300周辺の対象物を抽出するために、対象物抽出処理を実行する。   Step S3: The dangerous driving analysis apparatus 100 performs an object extraction process in order to extract objects around the host vehicle 300.

ステップS4:危険運転解析装置100は、各対象物について相対情報を算出するために、相対情報算出処理を実行する。   Step S4: The dangerous driving analysis apparatus 100 executes a relative information calculation process in order to calculate relative information for each object.

ステップS5:危険運転解析装置100は、全てのフレームについてステップS1〜S3の処理が終了すると、ステップS6に進む。そうでない場合にはステップS1に戻る。   Step S5: The dangerous driving analyzing apparatus 100 proceeds to step S6 when the processes of steps S1 to S3 are completed for all the frames. Otherwise, the process returns to step S1.

ステップS6:危険運転解析装置100は、運転情報から危険運転を抽出するために、危険運転抽出処理を実行する。   Step S6: The dangerous driving analysis device 100 executes dangerous driving extraction processing in order to extract dangerous driving from the driving information.

ステップS7:危険運転解析装置100は、危険運転を認知しているか否かを判定するために、認知判定処理を実行する。   Step S7: The dangerous driving analysis apparatus 100 executes a recognition determination process to determine whether or not dangerous driving is recognized.

ステップS8:危険運転解析装置100は、危険運転を分類するために、危険運転分類処理を実行する。   Step S8: The dangerous driving analysis device 100 executes dangerous driving classification processing to classify dangerous driving.

以下に、全体処理を構成する各処理について説明する。   Below, each process which comprises the whole process is demonstrated.

(4−2)対象物抽出処理
図19は、第1実施形態例にかかる対象物抽出処理の流れの一例を示すフローチャートである。
(4-2) Object Extraction Processing FIG. 19 is a flowchart illustrating an example of the flow of object extraction processing according to the first embodiment.

ステップS3a:映像処理部121は、現フレームについて、各カメラ205a〜205dの映像データを三次元投影面400に投影し、周辺映像を生成する。   Step S3a: The video processing unit 121 projects the video data of each of the cameras 205a to 205d on the three-dimensional projection plane 400 for the current frame to generate a peripheral video.

ステップS3b、S3c:対象物抽出部122は、映像処理部121が生成した周辺映像においてエッジを抽出し(S3b)、車線表示ライン602a〜602dを検出する(S3c)。   Steps S3b, S3c: The object extraction unit 122 extracts edges in the peripheral video generated by the video processing unit 121 (S3b), and detects the lane display lines 602a to 602d (S3c).

ステップS3d、S3e:次に、対象物抽出部122は、車線表示ライン602a〜602dの交点から消失点Dを検出し(S3d)、消失点Dに基づいて対象物の検索範囲を確定する(S3e)。   Steps S3d, S3e: Next, the object extraction unit 122 detects the vanishing point D from the intersection of the lane display lines 602a to 602d (S3d), and determines the search range of the object based on the vanishing point D (S3e). ).

ステップS3f:対象物抽出部122は、検索範囲内から対象物候補を抽出する。   Step S3f: The object extraction unit 122 extracts object candidates from the search range.

ステップS3g、S3h:対象物抽出部122は、対象物候補についてパターンマッチングを行い(S3g)、対象物を抽出し、対象物種類を決定する(S3h)。   Steps S3g, S3h: The object extraction unit 122 performs pattern matching on the object candidates (S3g), extracts the objects, and determines the object type (S3h).

ステップS3i:対象物が抽出された場合はステップS3jに進み、対象物が抽出されなかった場合はステップS3mに進む。   Step S3i: If an object is extracted, the process proceeds to step S3j. If an object is not extracted, the process proceeds to step S3m.

ステップS3j:対象物抽出部122は、1フレーム前の対象物との同一性を確認し、対象物番号を付与する。同一性は例えば次のようにして確認する。対象物抽出部122は、1フレーム前と現フレームとの映像を比較して、類似性の高い対象物はフレーム間で同一の対象物であると判断する。また、対象物抽出部122は、1フレーム前に検出された対象物について、速度、距離及び進行方向などに基づいて現フレームでの位置を予測する。対象物抽出部122は、現フレームにおいて前記予測された位置に存在する対象物は、1フレーム前の対象物と同一であると判断する。   Step S3j: The object extraction unit 122 confirms the identity with the object one frame before and assigns an object number. For example, the identity is confirmed as follows. The object extraction unit 122 compares the images of the previous frame and the current frame, and determines that objects with high similarity are the same object between frames. In addition, the object extraction unit 122 predicts the position in the current frame based on the speed, distance, traveling direction, and the like for the object detected one frame before. The object extraction unit 122 determines that the object existing at the predicted position in the current frame is the same as the object one frame before.

ステップS3k:対象物抽出部122は、自車両300に対する各対象物のそれぞれの相対位置Qを取得する。   Step S3k: The target object extraction unit 122 acquires the relative position Q of each target object with respect to the host vehicle 300.

ステップS3l:対象物抽出部122は、現フレームに対象物が存在するため、対象物フラグを“1”にセットする。   Step S31: The object extraction unit 122 sets the object flag to “1” because the object exists in the current frame.

ステップS3m:対象物抽出部122は、現フレームに対象物が存在しないため、対象物フラグを“0”にセットする。   Step S3m: The object extraction unit 122 sets the object flag to “0” because there is no object in the current frame.

(4−3)相対情報算出処理
図20は、第1実施形態例にかかる相対情報算出処理の流れの一例を示すフローチャートである。
(4-3) Relative Information Calculation Processing FIG. 20 is a flowchart illustrating an example of the flow of relative information calculation processing according to the first embodiment.

ステップS4a、S4b:相対情報算出部123は、現フレームにおいて最初の対象物番号nを取得し(S4a)、相対情報DB129から該当する対象物の相対位置Qを取得する(S4b)。   Steps S4a and S4b: The relative information calculation unit 123 acquires the first object number n in the current frame (S4a), and acquires the relative position Q of the corresponding object from the relative information DB 129 (S4b).

ステップS4c、S4d:相対情報算出部123は、自車両300の中心点Oと対象物の相対位置Qとの距離に基づいて、Y方向の相対距離Lyを算出し(S4c)、X方向の相対距離Lx算出する(S4d)。   Steps S4c, S4d: The relative information calculation unit 123 calculates the relative distance Ly in the Y direction based on the distance between the center point O of the host vehicle 300 and the relative position Q of the object (S4c), and the relative information in the X direction. The distance Lx is calculated (S4d).

ステップS4e:次に、相対情報算出部123は、前フレームにおいて、対象物の相対距離Ly及び相対距離Lxを取得する。   Step S4e: Next, the relative information calculation unit 123 acquires the relative distance Ly and the relative distance Lx of the object in the previous frame.

ステップS4f、S4g:相対情報算出部123は、現フレームと前フレームとの相対距離Lの差分と、フレーム間の時間と、に基づいてY方向の相対速度Vy及びX方向の相対速度Vxを算出する。   Steps S4f and S4g: The relative information calculation unit 123 calculates the relative velocity Vy in the Y direction and the relative velocity Vx in the X direction based on the difference in the relative distance L between the current frame and the previous frame and the time between frames. To do.

ステップS4h、S4i:相対情報算出部123は、X方向のTTCx及びY方向のTTCyを、相対距離Lx、Ly及び相対速度Vx、Vyに基づいて算出する。   Steps S4h, S4i: The relative information calculation unit 123 calculates the TTCx in the X direction and the TTCy in the Y direction based on the relative distances Lx and Ly and the relative velocities Vx and Vy.

ステップS4j、S4k:相対情報算出部123は、現フレームの全ての対象物について相対情報を算出していれば、処理を終了する。そうでない場合は、次の対象物を選択してステップS4aに戻る。例えば、相対情報算出部123は、次の対象物番号n=n+1を算出し、次の対象物番号n=n+1の対象物が存在する場合には、ステップS4aから処理を開始する。次の対象物番号n=n+1の対象物が存在しないが、まだ他に対象物が存在する場合には、相対情報算出部123は、次の対象物が存在するまでさらに対象物番号n=n+1を加算する。また、相対情報算出部123は、現在着目している対象物が現フレームで最終の対象物である場合には、処理を終了する。   Steps S4j, S4k: If the relative information calculation unit 123 has calculated the relative information for all the objects in the current frame, the process ends. Otherwise, the next object is selected and the process returns to step S4a. For example, the relative information calculation unit 123 calculates the next object number n = n + 1, and if there is an object with the next object number n = n + 1, the process starts from step S4a. When there is no target object with the next target number n = n + 1, but there are still other target objects, the relative information calculation unit 123 further increases the target number n = n + 1 until the next target object exists. Is added. In addition, the relative information calculation unit 123 ends the process when the target object currently focused on is the final target object in the current frame.

(4−4)危険運転抽出処理
図21A、図21Bは、第1実施形態例にかかる危険運転抽出処理の流れの一例を示すフローチャートである。
(4-4) Dangerous Driving Extraction Processing FIGS. 21A and 21B are flowcharts illustrating an example of the flow of dangerous driving extraction processing according to the first embodiment.

ステップS6a、6b:危険運転抽出部124は、現フレームi(i=i+1)の相対情報DB129を読み込む。   Steps S6a and 6b: The dangerous driving extraction unit 124 reads the relative information DB 129 of the current frame i (i = i + 1).

ステップS6c:危険運転抽出部124は、現フレームの対象物フラグが“1”であるか否かを判定する。対象物フラグ=1の場合ステップS6dに進み、対象物フラグ=0の場合ステップS6qに進む。   Step S6c: The dangerous driving extraction unit 124 determines whether or not the object flag of the current frame is “1”. If the object flag = 1, the process proceeds to step S6d. If the object flag = 0, the process proceeds to step S6q.

ステップS6d:危険運転抽出部124は、前フレームについて、対象物フラグが“1”であるか否かを判定する。対象物フラグ=1の場合はステップS6fに進み、対象物フラグ=0の場合はステップS6eに進む。   Step S6d: The dangerous driving extracting unit 124 determines whether or not the object flag is “1” for the previous frame. If the object flag = 1, the process proceeds to step S6f. If the object flag = 0, the process proceeds to step S6e.

ステップS6e:前フレームにおいて対象物フラグ=0であり、現フレームから対象物フラグ=1となっているので、危険運転抽出部124は、現フレームを“対象物有区間”の開始フレームに設定する。   Step S6e: Since the object flag = 0 in the previous frame and the object flag = 1 from the current frame, the dangerous driving extraction unit 124 sets the current frame as the start frame of the “object existence section”. .

ステップS6f:前フレーム及び現フレームにおいて対象物フラグ=1であるので、危険運転抽出部124は、現フレームを“対象物有区間”の暫定の終了フレームに設定する。これらの処理により、対象物フラグ=1のフレームが連続する“対象物有区間”が抽出される。なお、次に対象物フラグ=1のフレームが現れるまで“対象物有区間”の終了フレームは更新され、次に対象物フラグ=0のフレームが現れると“対象物有区間”の終了フレームは確定する。   Step S6f: Since the object flag = 1 in the previous frame and the current frame, the dangerous driving extracting unit 124 sets the current frame as a provisional end frame of the “object existence section”. By these processes, “object existence section” in which frames with the object flag = 1 continue is extracted. Note that the end frame of the “object existence section” is updated until the next frame with the object flag = 1 appears, and when the next frame with the object flag = 0 appears, the end frame of the “object existence section” is determined. To do.

ステップS6g:危険運転抽出部124は、現フレームにおいて最初の対象物番号nを取得し、その対象物番号nの対象物に着目する。   Step S6g: The dangerous driving extracting unit 124 acquires the first object number n in the current frame, and pays attention to the object having the object number n.

ステップS6h:危険運転抽出部124は、現フレームにおいて、着目している対象物の相対距離LxがLxsよりも小さいか否か、あるいは、対象物の相対距離LyがLysよりも小さいか否かを判定する。ここでは、危険運転抽出部124は、前記のいずれかの条件を満たす場合にはステップS6iに進み、そうでない場合にはステップS6nに進む。   Step S6h: The dangerous driving extracting unit 124 determines whether or not the relative distance Lx of the target object is smaller than Lxs or whether the relative distance Ly of the target object is smaller than Lys in the current frame. judge. Here, the dangerous driving extraction unit 124 proceeds to step S6i if any of the above conditions is satisfied, and proceeds to step S6n otherwise.

ステップS6i:さらに、危険運転抽出部124は、前フレームにおいて、着目している対象物の相対距離LxがLxsよりも小さいか否か、あるいは、対象物の相対距離LyがLysよりも小さいか否かを判定する。いずれかの条件を満たす場合はステップS6kに進み、そうでない場合はステップS6jに進む。   Step S6i: Further, the dangerous driving extraction unit 124 determines whether or not the relative distance Lx of the target object is smaller than Lxs or whether the relative distance Ly of the target object is smaller than Lys in the previous frame. Determine whether. If any one of the conditions is satisfied, the process proceeds to step S6k. Otherwise, the process proceeds to step S6j.

ステップS6j:前フレームではいずれかの前記条件も満たさず、現フレームからいずれかの前記条件を満たすようになっている。つまり、自車両と対象物との距離が現フレームから接近している。よって、危険運転抽出部124は、現フレームを“接近区間”の開始フレームに設定する。   Step S6j: Any of the above conditions is not satisfied in the previous frame, and any of the above conditions is satisfied from the current frame. That is, the distance between the host vehicle and the object is approaching from the current frame. Therefore, the dangerous driving extraction unit 124 sets the current frame as the start frame of the “approach zone”.

ステップS6k:前フレーム及び現フレームにおいて、いずれかの前記条件を満たす。つまり、前フレーム及び現フレームともに、自車両と対象物との距離が接近している。よって、危険運転抽出部124は、現フレームを“接近区間”の暫定の終了フレームに設定する。これらの処理により、自車両300と対象物との相対距離が短い“接近区間”が“対象物有区間”から抽出される。なお、“接近区間”の暫定の終了フレームは、ステップS6iにおいて前記条件が満たされる間は更新され続ける。   Step S6k: Any of the above conditions is satisfied in the previous frame and the current frame. That is, the distance between the host vehicle and the object is close in both the front frame and the current frame. Therefore, the dangerous driving extraction unit 124 sets the current frame as a provisional end frame of the “approach section”. By these processes, an “approach section” having a short relative distance between the host vehicle 300 and the target object is extracted from the “target section”. Note that the provisional end frame of the “approach section” continues to be updated while the condition is satisfied in step S6i.

ステップS6l:危険運転抽出部124は、相対情報DB129を参照し、各対象物の“接近区間”におけるTTCx及びTTCyの最小値を算出する。   Step S61: The dangerous driving extraction unit 124 refers to the relative information DB 129 and calculates the minimum values of TTCx and TTCy in the “approach section” of each object.

ステップS6m:危険運転抽出部124は、相対情報DB129を参照し、各対象物の“接近区間”におけるTTCx及びTTCyの変化率の最大値を算出する。   Step S6m: The dangerous driving extraction unit 124 refers to the relative information DB 129, and calculates the maximum value of the rate of change of TTCx and TTCy in the “approach section” of each object.

ステップS6n:危険運転抽出部124は、現フレームの全ての対象物についてステップS6h〜S6mの処理を行う。そのため、危険運転抽出部124は、対象物番号nが最後の対象物番号ではない場合はステップS6oに進み、対象物番号nが最後の対象物番号である場合はステップ6qに進む。   Step S6n: The dangerous driving extraction unit 124 performs the processes of steps S6h to S6m for all objects in the current frame. Therefore, the dangerous driving extraction unit 124 proceeds to step S6o when the object number n is not the last object number, and proceeds to step 6q when the object number n is the last object number.

ステップS6o、S6p:危険運転抽出部124は、次の対象物番号n=n+1を算出し、次の対象物番号n=n+1の対象物が存在する場合には、ステップS6hから処理を開始する。次の対象物番号n=n+1の対象物が存在しない場合には、危険運転抽出部124は、対象物が存在するまでさらに対象物番号n=n+1を加算する。   Steps S6o, S6p: The dangerous driving extraction unit 124 calculates the next object number n = n + 1, and if there is an object with the next object number n = n + 1, the process starts from step S6h. When the next object number n = n + 1 does not exist, the dangerous driving extraction unit 124 further adds the object number n = n + 1 until the object exists.

ステップS6q:危険運転抽出部124は、全てのフレームについてステップS6b〜S6pの処理を行うため、現フレームが最後のフレームではない場合にはステップS6bに戻る。   Step S6q: The dangerous driving extraction unit 124 performs the processing of Steps S6b to S6p for all the frames, and thus returns to Step S6b when the current frame is not the last frame.

ステップS6r:前述までの処理により、“対象物有区間”及び“接近区間”が抽出されている。危険運転抽出部124は、それぞれの“対象物有区間”での“接近区間”の最小値及び最大値に基づいて、“危険運転候補区間”を抽出する。例えば、自車両300と複数の対象物との相対距離が短く、1の“対象物有区間”に複数の“接近区間”が含まれているとする。“接近区間”の最小値とは、複数の“接近区間”のうち最初に“接近区間”が開始する開始フレームである。“接近区間”の最大値とは、複数の“接近区間”のうち最後に“接近区間”が終了する終了フレームである。“危険運転候補区間”は、これらの開始フレーム及び終了フレームにより定義される。   Step S6r: The “object existence section” and the “approach section” are extracted by the processing described above. The dangerous driving extraction unit 124 extracts the “dangerous driving candidate section” based on the minimum value and the maximum value of the “approaching section” in each “target existence section”. For example, it is assumed that the relative distance between the host vehicle 300 and a plurality of objects is short, and one “object existence section” includes a plurality of “approach sections”. The minimum value of the “approach section” is a start frame in which the “approach section” starts first among a plurality of “approach sections”. The maximum value of the “approach section” is an end frame in which the “approach section” ends at the end of a plurality of “approach sections”. The “dangerous driving candidate section” is defined by these start frame and end frame.

ステップS6s:危険運転抽出部124は、“危険運転候補区間”のフレーム範囲、対象物番号、“接近区間”のフレーム範囲、TTCの最小値及びTTCの変化率(DTTC)の最大値などを危険運転情報DB130に格納し、“危険運転候補区間”ごとに“危険運転候補番号”を付与する。   Step S6s: The dangerous driving extraction unit 124 uses the frame range of the “dangerous driving candidate section”, the object number, the frame range of the “approaching section”, the TTC minimum value, the TTC change rate (DTTC) maximum value, and the like. It is stored in the driving information DB 130 and a “dangerous driving candidate number” is assigned to each “dangerous driving candidate section”.

ステップS6t:次に、危険運転抽出部124は、危険運転情報DB130を参照し、“危険運転候補番号”=kのデータを読み込む。   Step S6t: Next, the dangerous driving extraction unit 124 refers to the dangerous driving information DB 130 and reads data of “dangerous driving candidate number” = k.

ステップS6u:危険運転抽出部124は、該当の“危険運転候補区間”について、各対象物のTTCx及びTTCyの最小値、TTCx及びTTCyの変化率の最大値に基づいて、危険判定フラグをセットする。   Step S6u: The dangerous driving extraction unit 124 sets a danger determination flag for the relevant “dangerous driving candidate section” based on the minimum values of TTCx and TTCy and the maximum change rate of TTCx and TTCy of each target object. .

ステップS6v:“危険運転候補番号”=kが最後の番号でない場合にはステップS6W進み、最後の番号である場合には終了する。   Step S6v: If “dangerous driving candidate number” = k is not the last number, the process proceeds to step S6W, and if it is the last number, the process is terminated.

ステップS6w:危険運転抽出部124は、次の“危険運転候補番号”=k+1を算出し、ステップS6tから処理を開始する。   Step S6w: The dangerous driving extraction unit 124 calculates the next “dangerous driving candidate number” = k + 1, and starts the process from step S6t.

(4−5)認知判定抽出処理
図22は、第1実施形態例にかかる認知判定抽出処理の流れの一例を示すフローチャートである。
(4-5) Recognition determination extraction process FIG. 22 is a flowchart illustrating an example of the flow of the recognition determination extraction process according to the first embodiment.

ステップS7a、S7b:認知判定部125は、各“危険運転候補”について、危険運転情報DB130を参照する。   Steps S7a, S7b: The recognition determination unit 125 refers to the dangerous driving information DB 130 for each “dangerous driving candidate”.

ステップS7c:また、認知判定部125は、着目している“危険運転候補”について、危険判定フラグ=1の対象物の“接近区間”の開始フレーム及び終了フレームを読み出す。次に、認知判定部125は、“接近区間”内の各フレームについて走行・操作情報DB131内の走行情報及び操作情報を読み込む。   Step S7c: Further, the recognition determination unit 125 reads out the start frame and the end frame of the “approach section” of the target with the risk determination flag = 1 for the “dangerous driving candidate” of interest. Next, the recognition determination unit 125 reads travel information and operation information in the travel / operation information DB 131 for each frame in the “approach section”.

ステップS7d:次に、認知判定部125は、走行情報及び操作情報に基づいて、運転者が危険運転を認知しているか否かを判定する。   Step S7d: Next, the recognition determination unit 125 determines whether or not the driver recognizes dangerous driving based on the traveling information and the operation information.

ステップS7e:“危険運転候補番号”=kが最後の番号でない場合にはステップS7b進み、最後の番号である場合には終了する。   Step S7e: If “dangerous driving candidate number” = k is not the last number, the process proceeds to step S7b, and if it is the last number, the process is terminated.

(4−6)危険運転分類処理
図23は、第1実施形態例にかかる危険運転分類処理の流れの一例を示すフローチャートである。
(4-6) Dangerous Driving Classification Processing FIG. 23 is a flowchart illustrating an example of the flow of dangerous driving classification processing according to the first embodiment.

ステップS8a、S8b:危険運転分類部126は、各“危険運転候補”(“危険運転候補番号”=k+1)に対して危険運転分類処理を行う。   Steps S8a, S8b: The dangerous driving classification unit 126 performs dangerous driving classification processing for each “dangerous driving candidate” (“dangerous driving candidate number” = k + 1).

ステップS8c:危険運転分類部126は、着目している“危険運転候補”に対するフレーム範囲について、位置情報DB132内の自車両300の位置情報を読み出す。また、危険運転分類部126は、各種対応表DB134内の道路地図情報を読み出し、前述の位置情報に基づいて自車両300の地図上の位置を特定する。   Step S8c: The dangerous driving classification unit 126 reads the position information of the host vehicle 300 in the position information DB 132 for the frame range for the “dangerous driving candidate” of interest. Further, the dangerous driving classification unit 126 reads road map information in the various correspondence table DB 134, and specifies the position of the host vehicle 300 on the map based on the position information.

ステップS8d:次に、危険運転分類部126は、着目している“危険運転候補”に対するフレーム範囲について、走行・操作情報DB131から自車両の走行情報及び操作情報を読み出し、自車両300の走行状態を判断する。   Step S8d: Next, the dangerous driving classification unit 126 reads the driving information and operation information of the host vehicle from the driving / operation information DB 131 for the frame range for the “dangerous driving candidate” of interest, and the driving state of the host vehicle 300 Judging.

ステップS8e:危険運転分類部126は、着目している“危険運転候補”について、危険判定フラグ=1の対象物種類を読み出す。   Step S8e: The dangerous driving classification unit 126 reads out the object type of the danger determination flag = 1 for the “dangerous driving candidate” of interest.

ステップS8f:危険運転分類部126は、対象物種類、地図上の位置及び走行状態に基づいて、各“危険運転候補”の危険運転パターンを特定する。   Step S8f: The dangerous driving classification unit 126 identifies the dangerous driving pattern of each “dangerous driving candidate” based on the object type, the position on the map, and the driving state.

ステップS8g:“危険運転候補番号”=kが最後の番号でない場合にはステップS8b進み、最後の番号である場合には終了する。   Step S8g: If “dangerous driving candidate number” = k is not the last number, the process proceeds to step S8b, and if it is the last number, the process is terminated.

(5)作用効果
上記危険運転解析装置100は、自車両300の運転情報から、客観的な安全運転基準に基づいて危険運転を抽出する。よって、自車両300の運転者が認知している危険運転だけでなく、自車両300の運転者が認知していない危険運転も抽出することができる。
(5) Effects The dangerous driving analysis apparatus 100 extracts dangerous driving from driving information of the host vehicle 300 based on an objective safe driving standard. Therefore, not only dangerous driving recognized by the driver of the host vehicle 300 but also dangerous driving not recognized by the driver of the host vehicle 300 can be extracted.

また、上記危険運転解析装置100を用いれば、人手によらず、効率的に、客観的に及び迅速に危険運転を抽出することができる。このように抽出された危険運転の映像等を運転者に視聴させることで、危険運転がどのような状況で発生しているかを効果的に学習させ、安全運転教育を効率良く行うことができる。   Further, if the dangerous driving analysis apparatus 100 is used, it is possible to extract dangerous driving efficiently, objectively, and quickly without depending on human hands. By letting the driver view the dangerous driving image and the like extracted in this way, it is possible to effectively learn under what circumstances dangerous driving occurs and to efficiently perform safe driving education.

また、上記危険運転解析装置100は、運転者が危険運転を認知しているか否かを判定している。よって、図11に示すように安全運転基準を満たさない“危険運転候補”を抽出することができるだけでなく、“危険運転候補”の中からさらに運転者が認知できていない危険運転を抽出することができる。このような認知できていない危険運転を運転者に視聴させて、どのような危険運転を認知できなかったのかを運転者に示すことで、安全運転教育を効果的に行うことができる。   Further, the dangerous driving analysis apparatus 100 determines whether or not the driver recognizes dangerous driving. Therefore, as shown in FIG. 11, not only “dangerous driving candidates” that do not satisfy the safe driving standard can be extracted, but also dangerous driving that the driver cannot recognize is extracted from “dangerous driving candidates”. Can do. Safe driving education can be effectively performed by having the driver watch dangerous driving that cannot be recognized and showing the driver what kind of dangerous driving has not been recognized.

また、上記危険運転解析装置100は、抽出した“危険運転候補”を、所定の分類項目により分類する。よって、“危険運転候補”の中から所望のデータを即座に検索することができる。また、“危険運転候補”を上記分類項目により分類して傾向を調査することで、運転者がどのような状況で危険運転に陥りやすいかを分析することもできる。   Further, the dangerous driving analysis apparatus 100 classifies the extracted “dangerous driving candidates” according to a predetermined classification item. Therefore, desired data can be immediately searched from “dangerous driving candidates”. Further, by classifying “dangerous driving candidates” according to the above classification items and investigating the tendency, it is possible to analyze under what circumstances the driver is likely to fall into dangerous driving.

(6)変形例
(6−1)変形例1
上記第1実施形態例では、危険運転抽出部124は、周辺情報から“対象物有区間”を抽出し、さらに“対象物有区間”から各対象物の“接近区間”を抽出する。また、危険運転抽出部124は、各対象物の“接近区間”に基づいて“危険運転候補区間”を定義する。次に、危険運転抽出部124は、各対象物の各“接近区間”でのTTCx及びTTCyの最小値、及び/又は、TTCx及びTTCyの変化率の最大値に基づいて危険判定フラグを設定する。そして、危険運転抽出部124は、危険判定フラグが“1”である“危険運転候補区間”を、危険運転の区間として抽出する。
(6) Modification (6-1) Modification 1
In the first embodiment described above, the dangerous driving extraction unit 124 extracts the “object existence section” from the peripheral information, and further extracts the “approach section” of each object from the “object existence section”. Further, the dangerous driving extraction unit 124 defines a “dangerous driving candidate section” based on the “approaching section” of each object. Next, the dangerous driving extraction unit 124 sets a danger determination flag based on the minimum value of TTCx and TTCy and / or the maximum value of the change rate of TTCx and TTCy in each “approach section” of each object. . Then, the dangerous driving extraction unit 124 extracts the “dangerous driving candidate section” having the danger determination flag “1” as the dangerous driving section.

しかし、危険運転の区間の抽出方法は種々考えられ、例えば次の方法により抽出することができる。   However, various methods of extracting the dangerous driving section are conceivable. For example, the extraction can be performed by the following method.

ここで、安全運転基準には、例えば、前述の(i)〜(iii)の基準に加えて(iv)、(v)の基準が含まれる。   Here, the safe driving criteria include, for example, the criteria (iv) and (v) in addition to the criteria (i) to (iii) described above.

(i)相対距離基準値Lxs及びLys。   (I) Relative distance reference values Lxs and Lys.

(ii)TTC基準値TTCxs及びTTCys。   (Ii) TTC reference values TTCxs and TTCys.

(iii)TTC変化率基準値DTTCxs及びDTTCys。   (Iii) TTC change rate reference values DTTCxs and DTTCys.

(iv)加速度αに対する加速度基準値αxs及びαys(αs:α standard)。   (Iv) Acceleration reference values αxs and αys (αs: α standard) for the acceleration α.

(v)所定の単位時間あたりの操舵角θs変化率に対する操舵角変化率基準値(θsDs:θs Deviation rate standard)。   (V) Steering angle change rate reference value (θsDs: θs Deviation rate standard) with respect to the steering angle θs change rate per predetermined unit time.

(a)抽出方法の一例
危険運転抽出部124は、第1実施形態例と同様に、まず基準(i)に基づいて“対象物有区間”から各対象物の“接近区間”を抽出し、“接近区間”に基づいて“危険運転候補区間”を定義する。その後、危険運転抽出部124は、“危険運転候補区間”のうち、基準(ii)〜(v)のうち少なくとも1の基準を満たす“危険運転候補区間”を、危険運転の区間として抽出する。
(A) Example of Extraction Method Like the first embodiment, the dangerous driving extraction unit 124 first extracts the “approach section” of each object from the “object-containing section” based on the criterion (i), Based on the “approaching section”, the “dangerous driving candidate section” is defined. After that, the dangerous driving extraction unit 124 extracts “dangerous driving candidate sections” that satisfy at least one of the criteria (ii) to (v) from the “dangerous driving candidate sections” as dangerous driving sections.

例えば、基準(iv)を用いる場合、危険運転抽出部124は、“危険運転候補区間”に含まれる各対象物の各“接近区間”において、各対象物の加速度αx及びαyの最大値を算出する。例えば“危険運転候補区間”に、第1の対象物の“接近区間1”及び第2の対象物の“接近区間2”が含まれるとする。危険運転抽出部124は、“接近区間1”における第1の対象物の加速度α1x及びα1yの最大値を算出する。同様に、危険運転抽出部124は、“接近区間2”における第2の対象物の加速度α2x及びα2yの最大値を算出する。次に、危険運転抽出部124は、加速度α1x及び/又はα2xの最大値がαxsよりも大きいか、及び/又は加速度α1y及びα2yの最大値がαysよりも大きいかを、判定する。危険運転抽出部124は、前記条件を満たす場合には、“接近区間1”及び“接近区間2”を含む“危険運転候補区間”を危険運転の区間として抽出する。   For example, when using the reference (iv), the dangerous driving extraction unit 124 calculates the maximum values of the accelerations αx and αy of each object in each “approach section” of each object included in the “dangerous driving candidate section”. To do. For example, it is assumed that the “dangerous driving candidate section” includes “approach section 1” of the first object and “approach section 2” of the second object. The dangerous driving extraction unit 124 calculates the maximum values of the accelerations α1x and α1y of the first object in the “approach zone 1”. Similarly, the dangerous driving extraction unit 124 calculates the maximum values of the accelerations α2x and α2y of the second object in the “approach zone 2”. Next, the dangerous driving extraction unit 124 determines whether the maximum value of the acceleration α1x and / or α2x is larger than αxs and / or whether the maximum value of the accelerations α1y and α2y is larger than αys. When the condition is satisfied, the dangerous driving extraction unit 124 extracts “dangerous driving candidate sections” including “approaching section 1” and “approaching section 2” as sections of the dangerous driving.

また、基準(v)を用いる場合、危険運転抽出部124は、“危険運転候補区間”に含まれる各対象物の各“接近区間”において、各対象物の操舵角変化率の最大値を算出する。次に、危険運転抽出部124は、各対象物の各“接近区間”における操舵角変化率の最大値がθsDsよりも大きい場合には、当該“接近区間”を含む“危険運転候補区間”を危険運転の区間として抽出する。   Further, when the reference (v) is used, the dangerous driving extraction unit 124 calculates the maximum value of the steering angle change rate of each target object in each “approach section” of each target object included in the “dangerous driving candidate section”. To do. Next, when the maximum value of the steering angle change rate in each “approaching section” of each object is larger than θsDs, the dangerous driving extracting unit 124 selects a “dangerous driving candidate section” including the “approaching section”. Extract as dangerous driving section.

(b)抽出方法の一例
図24は、危険運転抽出処理の他の一例を示す説明図である。図24では、まず基準(i)に基づいて“対象物有区間”から各対象物の各“接近区間”が抽出され、“接近区間”に基づいて“危険運転候補区間”が定義される。その後、基準(ii)〜(v)に基づいた判定により、“危険運転候補区間”の中からさらに危険運転の区間が抽出される。具体的には次のような処理が行われる。
(B) Example of Extraction Method FIG. 24 is an explanatory diagram illustrating another example of the dangerous driving extraction process. In FIG. 24, first, each “approach section” of each object is extracted from the “object-presented section” based on the criterion (i), and “dangerous driving candidate section” is defined based on the “approach section”. Thereafter, further dangerous driving sections are extracted from the “dangerous driving candidate sections” based on the determinations based on the criteria (ii) to (v). Specifically, the following processing is performed.

まず、危険運転抽出部124は、前述と同様に、相対情報DB129を参照し、周辺情報の時間軸において自車両300周辺に対象物が存在するフレーム区間を、対象物フラグ=1に基づいて抽出する。図24に示すように、周辺情報の時間軸において、開始フレームA及び終了フレームAで定義される“対象物有区間”が抽出される。   First, the dangerous driving extracting unit 124 refers to the relative information DB 129 in the same manner as described above, and extracts the frame section in which the target object exists around the host vehicle 300 on the time axis of the peripheral information based on the target flag = 1. To do. As shown in FIG. 24, “object existence section” defined by the start frame A and the end frame A is extracted on the time axis of the peripheral information.

次に、危険運転抽出部124は、前述と同様に、上記基準(i)に基づいて、相対距離LxがLxsよりも小さい、又は、相対距離LyがLysよりも小さい“接近区間”を“対象物有区間”から抽出する。また、危険運転抽出部124は、“接近区間”に基づいて“危険運転候補区間”を定義する。ここで、図24では、“対象物有区間”に1の対象物のみが存在し、その対象物の“接近区間”が開始フレームB及び終了フレームBで定義されている。よって、“危険運転候補区間”は、開始フレームB及び終了フレームBで定義される。   Next, similarly to the above, the dangerous driving extraction unit 124, based on the above-mentioned criterion (i), sets the “approach section” whose relative distance Lx is smaller than Lxs or whose relative distance Ly is smaller than Lys as “target”. Extract from “Property section”. Further, the dangerous driving extraction unit 124 defines a “dangerous driving candidate section” based on the “approaching section”. Here, in FIG. 24, there is only one object in the “object existence section”, and the “approach section” of the object is defined by the start frame B and the end frame B. Therefore, the “dangerous driving candidate section” is defined by the start frame B and the end frame B.

さらに、危険運転抽出部124は、“危険運転候補区間”内の各フレームにおいて存在する各対象物について、上記基準(ii)〜(v)のうち少なくとも1の基準に基づいた判定を行う。例えば、図24に示すように、危険運転抽出部124は、“危険運転候補区間”内の各フレームの各対象物について、TTCxがTTCxsよりも小さいとの条件、及び/又は、TTCyがTTCysよりも小さいとの条件を満たすか否かを判定する。   Further, the dangerous driving extraction unit 124 performs determination based on at least one of the above-described standards (ii) to (v) for each object existing in each frame in the “dangerous driving candidate section”. For example, as illustrated in FIG. 24, the dangerous driving extraction unit 124 may have a condition that TTCx is smaller than TTCxs and / or TTCy is smaller than TTCys for each object in each frame in the “dangerous driving candidate section”. It is determined whether or not the condition of “small” is satisfied.

危険運転抽出部124は、少なくともいずれかの条件を満たすと判定した区間を危険運転の区間として抽出し、危険判定フラグを“1”にセットする(危険判定フラグ=1)。図24の場合、危険運転の区間は、開始フレームC及び終了フレームCで定義される。一方、危険運転抽出部124は、いずれの条件も満たさないと判定した場合には、当該“対象物有区間”は危険運転の区間ではないと判定し、危険判定フラグを“0”にセットする(危険判定フラグ=0)。   The dangerous driving extraction unit 124 extracts a section determined to satisfy at least one of the conditions as a dangerous driving section, and sets a danger determination flag to “1” (danger determination flag = 1). In the case of FIG. 24, the dangerous driving section is defined by a start frame C and an end frame C. On the other hand, if the dangerous driving extraction unit 124 determines that none of the conditions is satisfied, the dangerous driving extracting unit 124 determines that the “object existence section” is not a dangerous driving section, and sets the risk determination flag to “0”. (Danger determination flag = 0).

(c)抽出方法の一例
図25は、危険運転抽出処理の他の一例を示す説明図である。
(C) Example of Extraction Method FIG. 25 is an explanatory diagram illustrating another example of the dangerous driving extraction process.

上記図25では、上記図24とは判定の順序が異なる。つまり、“対象物有区間”において、まず基準(ii)〜(v)に基づいた判定により区間が抽出され、抽出された区間から基準(i)に基づいた判定により“接近区間”が抽出される。この“接近区間”が危険運転の区間となる。具体的には次のような処理が行われる。   FIG. 25 is different from FIG. 24 in the order of determination. That is, in the “object existence section”, the section is first extracted by the determination based on the criteria (ii) to (v), and the “approach section” is extracted from the extracted section by the determination based on the reference (i). The This “approach section” is a dangerous driving section. Specifically, the following processing is performed.

まず、危険運転抽出部124は、前述と同様に、相対情報DB129を参照し、開始フレームA及び終了フレームAで定義される“対象物有区間”を抽出する。   First, the dangerous driving extraction unit 124 refers to the relative information DB 129 as described above, and extracts the “target existence section” defined by the start frame A and the end frame A.

次に、危険運転抽出部124は、“対象物有区間”内の各フレームに存在する各対象物について、上記基準(ii)〜(v)のうち少なくとも1の基準に基づいた判定を行う。これにより、危険運転抽出部124は、少なくともいずれかの基準を満たすと判定した区間として、開始フレームC及び終了フレームCで定義される区間を抽出する。この例では、この区間が“危険運転候補区間”となり得る。   Next, the dangerous driving extraction unit 124 makes a determination based on at least one of the above-mentioned criteria (ii) to (v) for each object existing in each frame in the “object-containing section”. Thereby, the dangerous driving extraction unit 124 extracts a section defined by the start frame C and the end frame C as a section determined to satisfy at least one of the criteria. In this example, this section can be a “dangerous driving candidate section”.

次に、危険運転抽出部124は、“危険運転候補区間”内の各フレームに存在する各対象物について、上記基準(i)に基づいた判定を行う。つまり、危険運転抽出部124は、各対象物の相対距離LxがLxsよりも小さい、又は、相対距離LyがLysよりも小さいか否かを判定する。危険運転抽出部124は、前記条件を満たすと判定した場合には、開始フレームB及び終了フレームBで定義される“接近区間”を危険運転の区間として抽出し、危険判定フラグを“1”にセットする(危険判定フラグ=1)。一方、危険運転抽出部124は、前記条件を満たさないと判定した場合には、当該“対象物有区間”は危険運転の区間ではないと判定し、危険判定フラグを“0”にセットする(危険判定フラグ=0)。   Next, the dangerous driving extraction unit 124 performs a determination based on the criterion (i) for each object existing in each frame in the “dangerous driving candidate section”. That is, the dangerous driving extraction unit 124 determines whether the relative distance Lx of each object is smaller than Lxs or whether the relative distance Ly is smaller than Lys. If it is determined that the condition is satisfied, the dangerous driving extraction unit 124 extracts the “approach section” defined by the start frame B and the end frame B as a dangerous driving section, and sets the risk determination flag to “1”. Set (danger determination flag = 1). On the other hand, when it is determined that the condition is not satisfied, the dangerous driving extraction unit 124 determines that the “object existence section” is not a dangerous driving section, and sets the risk determination flag to “0” ( Risk determination flag = 0).

(d)抽出方法の一例
上記第1実施形態例、上記変形例1の(a)〜(d)では、上記基準(i)に基づいた判定に加えて、基準(ii)〜(v)に基づいた判定により危険運転の区間が抽出される。しかし、危険運転抽出部124は、上記基準(i)〜(v)のいずれか1つの基準のみに基づいた判定により危険運転の区間を抽出しても良い。また、危険運転抽出部124は、上記基準(i)〜(v)のいずれかを2つ以上組み合わせた判定により危険運転の区間を抽出しても良い。
(D) An example of extraction method In (a) to (d) of the first embodiment and the first modification, in addition to the determination based on the reference (i), the reference (ii) to (v) A dangerous driving section is extracted based on the determination. However, the dangerous driving extraction unit 124 may extract a dangerous driving section by determination based on only one of the above criteria (i) to (v). Further, the dangerous driving extraction unit 124 may extract a dangerous driving section based on a combination of two or more of the criteria (i) to (v).

なお、相対距離Lx、LyがLxs、Lysよりも小さい場合、自車両300と対象物との距離が近く、自車両300が対象物に衝突する危険性が高い。また、TTCx、TTCyがTTCxs、TTCysよりも小さい場合には、自車両300と対象物との距離が近くなり、最終的には自車両300が対象物に衝突する危険性が高い。また、TTCx、TTCyの変化率がDTTCxs、DTTCysよりも大きい場合には、自車両300と対象物との距離が急速に近くなっており、衝突の危険性が高い。また、自車両300の加速度の大きさが大きい場合には自車両300が急加速又は急減速しており、また、操舵角の変化率が大きい場合には自車両300が蛇行運転しており、自車両が安全に走行していないと判断できる。よって、このような条件を満たす区間が危険運転の区間として抽出されると、危険運転がどのような状況で発生しているかを効果的に学習させ、安全運転教育を効率良く行うことができる。   When the relative distances Lx and Ly are smaller than Lxs and Lys, the distance between the host vehicle 300 and the target object is short, and the risk of the host vehicle 300 colliding with the target object is high. In addition, when TTCx and TTCy are smaller than TTCxs and TTCys, the distance between the host vehicle 300 and the target object is short, and there is a high risk that the host vehicle 300 will eventually collide with the target object. Further, when the rate of change of TTCx and TTCy is larger than DTTCxs and DTTCys, the distance between the host vehicle 300 and the object is rapidly approaching, and the risk of collision is high. When the acceleration of the host vehicle 300 is large, the host vehicle 300 is rapidly accelerating or decelerating. When the rate of change of the steering angle is large, the host vehicle 300 is meandering. It can be determined that the host vehicle is not traveling safely. Therefore, when a section satisfying such a condition is extracted as a section for dangerous driving, it is possible to effectively learn under what circumstances dangerous driving occurs and to perform safe driving education efficiently.

なお、安全運転基準は上述のものに限定されず、運転情報から危険運転を抽出することが可能な基準であれば安全運転基準に含むことができる。   The safe driving standard is not limited to the above, and any standard that can extract dangerous driving from driving information can be included in the safe driving standard.

(6−2)変形例2
上記実施形態例では、認知判定部125は、自車両300の走行情報及び操作情報に基づいて、運転者が危険運転を認知しているか否かを判定する。しかし、認知判定部125は、運転者の視線に基づいて危険運転の認知の有無を判断しても良い。以下では、上記第1実施形態例と異なる構成について説明する。
(6-2) Modification 2
In the above embodiment example, the recognition determination unit 125 determines whether or not the driver recognizes dangerous driving based on the traveling information and operation information of the host vehicle 300. However, the recognition determination unit 125 may determine whether or not dangerous driving is recognized based on the driver's line of sight. Hereinafter, a configuration different from that of the first embodiment will be described.

(6−2−1)ハードウェア構成
図26は、変形例2に係る各装置の接続関係及びハードウェア構成を示すブロック図の一例である。図26のハードウェア構成に示すように、情報取得装置200は、上記第1実施形態例に比べてさらに視線検出機器215を備えている。視線検出機器215は、運転者の顔、眼球、虹彩などの視線情報を検出する。
(6-2-1) Hardware Configuration FIG. 26 is an example of a block diagram showing a connection relationship and hardware configuration of each device according to Modification 2. As shown in the hardware configuration of FIG. 26, the information acquisition apparatus 200 further includes a line-of-sight detection device 215 as compared with the first embodiment. The line-of-sight detection device 215 detects line-of-sight information such as the driver's face, eyeball, and iris.

図27及び図28は、視線検出機器の取付位置を示す説明図である。視線検出機器215は、運転者の視線情報を取得可能な例えばCCDカメラ、CMOSカメラ、赤外線カメラなどの撮像装置からなる。   27 and 28 are explanatory diagrams showing the attachment position of the line-of-sight detection device. The line-of-sight detection device 215 includes an imaging device such as a CCD camera, a CMOS camera, or an infrared camera that can acquire driver's line-of-sight information.

視線検出機器215は、図27、図28に示すように、例えば車両300のダッシュボード301上に設けられる。このとき、視線検出機器215は、運転者の顔及び目等を前方から検出可能なように、またハンドル302により遮られずに顔及び目等を撮影可能なように、例えばハンドル302近傍のダッシュボード301上に所定の角度で取り付けられる。ただし、運転者の顔及び目等を検出可能であれは、取付位置及び取付角度等は限定されない。   The line-of-sight detection device 215 is provided on the dashboard 301 of the vehicle 300, for example, as shown in FIGS. At this time, the line-of-sight detection device 215 can detect the face and eyes of the driver from the front, and can capture the face and eyes without being blocked by the handle 302, for example, a dash near the handle 302. It is mounted on the board 301 at a predetermined angle. However, as long as the driver's face and eyes can be detected, the attachment position and the attachment angle are not limited.

なお、視線検出機器215の取付位置、取付角度などの視線検出機器の特性は、車両300の中心点Oを原点とする空間座標系に適合可能なように補正、いわゆるキャリブレーションされる。   Note that the characteristics of the line-of-sight detection device such as the mounting position and the mounting angle of the line-of-sight detection device 215 are corrected, so-called calibrated, so as to be compatible with the spatial coordinate system with the center point O of the vehicle 300 as the origin.

また、視線検出機器215は、例えば1秒当たり30枚の映像フレームを撮影し、撮影された映像データは、入出力機器I/F204を介してRAM203に記憶される。   The line-of-sight detection device 215 captures, for example, 30 video frames per second, and the captured video data is stored in the RAM 203 via the input / output device I / F 204.

視線検出機器215が検出した運転者の顔、眼球、虹彩などの映像に基づいて視線150を検出することが可能である。運転者の視線150が検出されると、視線150の方向により運転者がどの方向を視認していたのかが分かる。例えば、視線150の方向が前方であれば、運転者は前方を視認していたと推測できる。また、視線150の方向がミラー303に向かっていれば、ミラー303を介して車両300の後方及び後側方などを視認していたと推測できる。   The line of sight 150 can be detected based on the driver's face, eyeball, iris, and other images detected by the line-of-sight detection device 215. When the driver's line of sight 150 is detected, the direction of the line of sight 150 indicates which direction the driver is viewing. For example, if the direction of the line of sight 150 is forward, it can be estimated that the driver has visually recognized the front. Further, if the direction of the line of sight 150 is toward the mirror 303, it can be assumed that the rear side and the rear side of the vehicle 300 are visually recognized via the mirror 303.

なお、車両300に設けられるミラー303には、図28に示すように車両300の左右のドア付近に設けられるドアミラー303L、303R、車両300内部に設けられるバックミラー303B、車両300のボンネット上に設けられるフェンダーミラー等が挙げられる。図29は、ミラーにより確認可能な領域の一例を示す説明図である。車両300の運転者は、左のドアミラー303L、右のドアミラー303R及びバックミラー303Bによって、それぞれ左ミラー領域304L、右ミラー領域304R及びバックミラー領域304Bを視認可能である。   As shown in FIG. 28, the mirror 303 provided in the vehicle 300 includes door mirrors 303L and 303R provided near the left and right doors of the vehicle 300, a rearview mirror 303B provided in the vehicle 300, and a hood of the vehicle 300. And a fender mirror. FIG. 29 is an explanatory diagram illustrating an example of a region that can be confirmed by a mirror. The driver of the vehicle 300 can visually recognize the left mirror region 304L, the right mirror region 304R, and the rearview mirror region 304B with the left door mirror 303L, the right door mirror 303R, and the rearview mirror 303B, respectively.

(6−2−2)処理の概要
危険運転解析装置100は、視線検出機器215が取得した視線150に基づいて、自車両300の運転者が危険運転の対象である対象物を視認していたか否かを判断する。図30を用いて危険運転解析装置100による処理の概要を説明する。
(6-2-2) Outline of Processing Whether the driver of the host vehicle 300 has visually recognized an object that is a target of dangerous driving based on the line of sight 150 acquired by the line-of-sight detection device 215. Judge whether or not. The outline of the process performed by the dangerous driving analysis apparatus 100 will be described with reference to FIG.

図30は、自車両と他車両との関係を示す斜視図である。他車両500は、自車両300が走行する車線600に対して、左に隣接する車線601上を走行している。また、自車両300の運転者の視線ベクトル150aが他車両500に向かっているため、危険運転解析装置100は自車両300の運転者が他車両500を視認していると判定することができる。具体的には、例えば、危険運転解析装置100は、自車両300の運転者の視線150を中心とした視線空間151を設定し、視線空間151内に対象物である他車両500の少なくとも一領域が含まれるか否かに基づいて視認しているか否かを判定する。より具体的には後述するが、危険運転解析装置100は、視線ベクトル150aと、自車両300から他車両500への対象物ベクトル160aと、の成す角Δθに基づいて判定する。ここで、視線空間151とは、視線原点Pを始点とし、視線ベクトル150aとの成す角θaが所定の閾値θth以下である視線空間線151aの集合が構成する空間を言う。   FIG. 30 is a perspective view showing the relationship between the host vehicle and another vehicle. The other vehicle 500 is traveling on the lane 601 adjacent to the left with respect to the lane 600 on which the host vehicle 300 travels. Further, since the line-of-sight vector 150a of the driver of the host vehicle 300 is directed toward the other vehicle 500, the dangerous driving analysis apparatus 100 can determine that the driver of the host vehicle 300 is viewing the other vehicle 500. Specifically, for example, the dangerous driving analysis apparatus 100 sets a line-of-sight space 151 centered on the line of sight 150 of the driver of the host vehicle 300, and at least one area of the other vehicle 500 that is the target object in the line-of-sight space 151. It is judged whether it is visually recognizing based on whether or not is included. Although more specifically described later, the dangerous driving analysis apparatus 100 makes a determination based on an angle Δθ formed by the line-of-sight vector 150a and the object vector 160a from the host vehicle 300 to the other vehicle 500. Here, the line-of-sight space 151 refers to a space formed by a set of line-of-sight space lines 151a whose starting point is the line-of-sight origin P and whose angle θa formed with the line-of-sight vector 150a is equal to or smaller than a predetermined threshold θth.

(6−2−3)機能構成
次に危険運転解析装置100の機能構成について説明する。
(6-2-3) Functional Configuration Next, the functional configuration of the dangerous driving analysis apparatus 100 will be described.

図31は、変形例2にかかる各装置の機能構成を示すブロック図の一例である。第1実施形態例の機能構成に加えて、情報取得装置200の視線検出部226、危険運転解析装置100の視線データDB135及び視線判定部136が設けられている。以下に各機能構成について説明する。以下に説明する構成以外の構成は第1実施形態例と同様である。   FIG. 31 is an example of a block diagram illustrating a functional configuration of each device according to the second modification. In addition to the functional configuration of the first embodiment, a line-of-sight detection unit 226 of the information acquisition device 200, a line-of-sight data DB 135 of the dangerous driving analysis device 100, and a line-of-sight determination unit 136 are provided. Each functional configuration will be described below. Configurations other than those described below are the same as those in the first embodiment.

(a)情報取得装置の視線検出部
情報取得装置200の視線検出部226は、視線検出機器215が検出した運転者の顔、眼球、虹彩などの映像に基づいて、視線原点P及び視線150の方向を示す視線ベクトル150aを算出する。
(A) Gaze Detection Unit of Information Acquisition Device The gaze detection unit 226 of the information acquisition device 200 detects the gaze origin P and the gaze 150 based on the driver's face, eyeball, iris, and other images detected by the gaze detection device 215. A line-of-sight vector 150a indicating the direction is calculated.

図32は視線原点P及び視線ベクトルの算出方法の一例を示す説明図である。例えば、視線検出部226は、顔、眼球、虹彩などの映像に基づいて顔の特徴点を算出し、予め記憶している運転者の顔の特徴量と比較する。次に、視線検出部226は、比較結果及び顔、眼球、虹彩の映像などに基づいて顔の向きを抽出するとともに、同図(a)に示す左の眼球152Lと右の眼球152Rとの中心位置を視線原点Pとして検出する。さらに、視線検出部226は、虹彩153aの中心位置、つまり瞳孔153bの中心位置を算出する。最後に、視線検出部226は、視線原点P及び瞳孔153bの中心位置に基づいて視線ベクトル150aを算出する。なお、運転者は頭を前後左右及び上下などに変更し得るため、空間座標系の中心点Oに対する視線原点Pの位置は頭の位置及び向き等に応じて変更される。   FIG. 32 is an explanatory diagram showing an example of a method of calculating the line-of-sight origin P and the line-of-sight vector. For example, the line-of-sight detection unit 226 calculates facial feature points based on images such as faces, eyeballs, and irises, and compares the feature points with driver feature values stored in advance. Next, the line-of-sight detection unit 226 extracts the orientation of the face based on the comparison result and the image of the face, eyeball, iris, etc., and the center of the left eyeball 152L and the right eyeball 152R shown in FIG. The position is detected as the line-of-sight origin P. Furthermore, the line-of-sight detection unit 226 calculates the center position of the iris 153a, that is, the center position of the pupil 153b. Finally, the line-of-sight detection unit 226 calculates the line-of-sight vector 150a based on the line-of-sight origin P and the center position of the pupil 153b. Since the driver can change the head forward / backward / left / right and up / down, the position of the line-of-sight origin P with respect to the center point O of the spatial coordinate system is changed according to the position and orientation of the head.

視線ベクトル150aは、車両300の任意の中心点Oを原点とする空間座標系内の座標により定義され得る。その他、視線ベクトル150aは、同図(b)及び(c)に示すように、視線ベクトル150aとXY平面との成す角であるピッチ角156aと、視線ベクトル150aとYZ平面との成す角である方位角156bと、により定義されても良い。   The line-of-sight vector 150a can be defined by coordinates in a spatial coordinate system with an arbitrary center point O of the vehicle 300 as the origin. In addition, the line-of-sight vector 150a is an angle formed by a pitch angle 156a that is an angle formed between the line-of-sight vector 150a and the XY plane and a line-of-sight vector 150a and the YZ plane, as shown in FIGS. And azimuth angle 156b.

視線検出部226は、視線原点P及び視線ベクトル150aを取得データDB225に格納する。   The line-of-sight detection unit 226 stores the line-of-sight origin P and the line-of-sight vector 150a in the acquisition data DB 225.

(b)危険運転解析装置の視線データDB
視線データDB135は、自車両の運転者の視線原点P及び視線ベクトル150aを情報取得装置200から取得し記憶する。また、視線データDB135は、視線判定部136が判定した、ミラー303の視認の有無、ミラー視線原点R及びミラー視線ベクトル155aなども記憶する。
(B) Line-of-sight data DB of the dangerous driving analysis device
The line-of-sight data DB 135 acquires the line-of-sight origin P and the line-of-sight vector 150a of the driver of the host vehicle from the information acquisition apparatus 200 and stores them. The line-of-sight data DB 135 also stores the presence / absence of visual recognition of the mirror 303, the mirror line-of-sight origin R, the mirror line-of-sight vector 155a, and the like determined by the line-of-sight determination unit 136.

なお、ミラー視線原点Rとは、視線ベクトル150aとミラー303のミラー面の領域との交点の座標を言うものとする。また、運転者からの視線150はミラー303により反射され、ミラー視線155となる。ミラー視線ベクトル155aとは、ミラー視線155の方向を示すベクトルである。なお、ミラー視線原点R及びミラー視線ベクトル155aは、自車両300の任意の中心点Oを中心とする空間座標系により定義される。   The mirror line-of-sight origin R refers to the coordinates of the intersection of the line-of-sight vector 150a and the mirror surface area of the mirror 303. Further, the line of sight 150 from the driver is reflected by the mirror 303 to become a mirror line of sight 155. The mirror line-of-sight vector 155a is a vector indicating the direction of the mirror line-of-sight 155. The mirror line-of-sight origin R and the mirror line-of-sight vector 155a are defined by a spatial coordinate system centered on an arbitrary center point O of the host vehicle 300.

図33は、視線データDBの視線データの一例である。視線データDB135は、各フレームごとに、フレーム番号、視線原点P、視線ベクトル150a、ミラー視認のYes/NO、ミラー視線原点R及びミラー視線ベクトル155aを記憶する。例えば、視線データDB135は、フレーム番号=1のレコードにおいて、視線原点P(Xv0、Yv0、Zv0)、視線ベクトルVisual_1、ミラー305を視認していないことを示す“NO”を記憶している。また、視線データDB135は、フレーム番号=6のレコードにおいて、視線原点P(Xv1、Yv1、Zv1)、視線ベクトルVisual_6、ミラー303を視認していることを示す“YES”、ミラー視線原点R(Xm1、Ym1、Zm1)、ミラー視線ベクトルVmirror_6を記憶している。   FIG. 33 is an example of line-of-sight data in the line-of-sight data DB. The line-of-sight data DB 135 stores a frame number, a line-of-sight origin P, a line-of-sight vector 150a, mirror viewing Yes / NO, a mirror line-of-sight origin R, and a mirror line-of-sight vector 155a for each frame. For example, the line-of-sight data DB 135 stores “NO” indicating that the line-of-sight origin P (Xv0, Yv0, Zv0), the line-of-sight vector Visual_1, and the mirror 305 are not visually recognized in the record of frame number = 1. In the line-of-sight data DB 135, in the record of frame number = 6, the line-of-sight origin P (Xv1, Yv1, Zv1), the line-of-sight vector Visual_6, “YES” indicating that the mirror 303 is visually recognized, and the mirror line-of-sight origin R (Xm1) , Ym1, Zm1), and the mirror line-of-sight vector Vmirror_6.

(d)危険運転解析装置の相対情報算出部、相対情報DB
相対情報算出部123は、相対距離L、相対速度V、TTCに加えて、さらに対象物ベクトルを算出する。対象物ベクトルは、視線原点P又はミラー視線原点Rから対象物への方向を示すベクトルである。
(D) Relative information calculation unit of dangerous driving analysis device, relative information DB
The relative information calculation unit 123 further calculates an object vector in addition to the relative distance L, the relative speed V, and TTC. The object vector is a vector indicating the direction from the line-of-sight origin P or the mirror line-of-sight origin R to the object.

相対情報算出部123は、視線データDB135から視線原点P又はミラー視線原点Rを取得する。具体的には、相対情報算出部123は、視線データDB135においてミラー視認の結果が“NO”であれば視線原点Pを取得し、ミラー視認の結果が“YES”であればミラー視線原点Rを取得する。また、相対情報算出部123は、相対情報DB129から、対象物ベクトルの算出対象である対象物の相対位置Qを取得する。次に、相対情報算出部123は、視線原点P又はミラー視線原点Rから対象物への方向160を示す対象物ベクトル160aを算出する。   The relative information calculation unit 123 acquires the line-of-sight origin P or the mirror line-of-sight origin R from the line-of-sight data DB 135. Specifically, the relative information calculation unit 123 acquires the line-of-sight origin P if the result of mirror viewing in the line-of-sight data DB 135 is “NO”, and determines the mirror line-of-sight origin R if the result of mirror viewing is “YES”. get. In addition, the relative information calculation unit 123 acquires the relative position Q of the target object for which the target object vector is calculated from the relative information DB 129. Next, the relative information calculation unit 123 calculates an object vector 160a indicating the direction 160 from the line-of-sight origin P or the mirror line-of-sight origin R to the object.

フレーム番号=1及び対象物番号=2の対象物について、対象物ベクトル160aは次のように算出される。相対情報算出部123は、視線データDB135において、フレーム番号=1のミラー視認の結果が“NO”であるので視線原点P(Xv0、Yv0、Zv0)を取得する。また、相対情報算出部123は、相対情報DB129から相対位置Q(X_21、Y_21、Z_21)を取得する。次に、相対情報算出部123は、視線原点Pと相対位置Qとに基づいて対象物ベクトルVobject_21を算出する。   For the object with frame number = 1 and object number = 2, the object vector 160a is calculated as follows. The relative information calculation unit 123 acquires the line-of-sight origin P (Xv0, Yv0, Zv0) because the result of the mirror viewing of the frame number = 1 is “NO” in the line-of-sight data DB 135. Further, the relative information calculation unit 123 acquires the relative position Q (X_21, Y_21, Z_21) from the relative information DB 129. Next, the relative information calculation unit 123 calculates the object vector Vobject_21 based on the line-of-sight origin P and the relative position Q.

また、フレーム番号=6及び対象物番号=2の対象物について、対象物ベクトル160aは次のように算出される。相対情報算出部123は、視線データDB135において、フレーム番号=6のミラー視認の結果が“YES”であるのでミラー視線原点R(Xm1、Ym1、Zm1)を取得する。ここで、対象物の相対位置Qが(X_26、Y_26、Z_26)であるとする。相対情報算出部123は、ミラー視線原点Rと相対位置Qとに基づいて対象物ベクトルVobject_26を算出する。   Further, the object vector 160a is calculated as follows for the object of frame number = 6 and object number = 2. The relative information calculation unit 123 acquires the mirror line-of-sight origin R (Xm1, Ym1, Zm1) because the result of the mirror viewing of the frame number = 6 is “YES” in the line-of-sight data DB 135. Here, it is assumed that the relative position Q of the object is (X_26, Y_26, Z_26). The relative information calculation unit 123 calculates the object vector Vobject_26 based on the mirror line-of-sight origin R and the relative position Q.

なお、対象物ベクトル160aは、空間座標系内の座標により定義されても良いし、対象物ベクトル160aとXY平面及びYZ平面との成す角によって定義されても良い。   The object vector 160a may be defined by coordinates in the space coordinate system, or may be defined by an angle formed by the object vector 160a, the XY plane, and the YZ plane.

相対情報算出部123は、上記の算出結果を相対情報DB129に格納する。   The relative information calculation unit 123 stores the calculation result in the relative information DB 129.

図34は、相対情報DBの相対情報の一例である。相対情報DB129は、例えば、フレーム番号、対象物番号、対象物種類、相対位置Q、相対距離L、相対速度V、対象物ベクトル160a及び後述の成す角を記憶している。   FIG. 34 is an example of relative information in the relative information DB. The relative information DB 129 stores, for example, a frame number, an object number, an object type, a relative position Q, a relative distance L, a relative speed V, an object vector 160a, and an angle formed later.

(e)危険運転解析装置の視線判定部
視線判定部136は、認知判定部125が危険運転の認知の有無を判定可能なように、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、の成す角を算出する。
(E) Line of sight determination unit of dangerous driving analysis device The line of sight determination unit 136 includes a line of sight vector 150a or a mirror line of sight vector 155a, and an object vector 160a so that the recognition determination unit 125 can determine whether or not dangerous driving is recognized. The angle formed by, is calculated.

まず、ミラー視線ベクトルの算出方法について説明する。   First, a method for calculating the mirror line-of-sight vector will be described.

視線判定部136は、視線データDB135の視線原点P及び視線ベクトル150aに基づいて、視線ベクトル150aがミラー303上にあるか否かを判定する。ここで、視線判定部136は、自車両300に設けられた左右のドアミラー303L、303R及びバックミラー303Bなどの各ミラー面の領域を例えば情報取得装置200から取得するなどして把握しているものとする。ミラー面の領域とは、入射光を反射する反射面の領域であり、例えば空間座標系を基準とした座標の集合により定義される。視線判定部136は、視線原点Pから延在する視線ベクトル150aと、ミラー面の領域と、が交差するか否かに基づいて、視線ベクトル150aがミラー303上にあるか否かを判定する。   The line-of-sight determination unit 136 determines whether or not the line-of-sight vector 150a is on the mirror 303 based on the line-of-sight origin P and the line-of-sight vector 150a of the line-of-sight data DB 135. Here, the line-of-sight determination unit 136 grasps the area of each mirror surface such as the left and right door mirrors 303L and 303R and the rearview mirror 303B provided in the host vehicle 300 by, for example, acquiring from the information acquisition device 200. And The region of the mirror surface is a region of the reflecting surface that reflects incident light, and is defined by a set of coordinates based on a spatial coordinate system, for example. The line-of-sight determination unit 136 determines whether or not the line-of-sight vector 150a is on the mirror 303 based on whether or not the line-of-sight vector 150a extending from the line-of-sight origin P intersects with the region of the mirror surface.

視線判定部136は、視線ベクトル150aとミラー面の領域とが交差する場合には、その交点をミラー視線原点Rに設定する。さらに、視線判定部136は、視線ベクトル150aをミラー視線原点Rを起点としてミラー303により反射させてミラー視線ベクトル155aを求める。視線判定部136は、これらのミラー303の視認の有無、ミラー視線原点R及びミラー視線ベクトル155aを、前述の図33に示すように視線データDB135に格納する。なお、各ミラー303が微調整されるなどして位置が変更された場合には、視線判定部136は、変更後のミラー面の領域を例えば情報取得装置200から取得するものとする。   When the line-of-sight vector 150a and the mirror surface region intersect, the line-of-sight determination unit 136 sets the intersection point as the mirror line-of-sight origin R. Further, the line-of-sight determination unit 136 obtains the mirror line-of-sight vector 155a by reflecting the line-of-sight vector 150a from the mirror line-of-sight origin R with the mirror 303. The line-of-sight determination unit 136 stores the presence / absence of viewing of the mirror 303, the mirror line-of-sight origin R, and the mirror line-of-sight vector 155a in the line-of-sight data DB 135 as shown in FIG. When the position is changed by finely adjusting each mirror 303 or the like, the line-of-sight determination unit 136 acquires the area of the mirror surface after the change from the information acquisition apparatus 200, for example.

次に、視線判定部136は、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、の成す角を算出する。算出方法について以下に図35、図36を用いて説明する。   Next, the line-of-sight determination unit 136 calculates an angle formed by the line-of-sight vector 150a or the mirror line-of-sight vector 155a and the object vector 160a. The calculation method will be described below with reference to FIGS. 35 and 36.

図35は視線ベクトルと対象物ベクトルとの成す角Δθの算出方法の一例を示す説明図である。自車両300は車線600上を走行しており、対象物である他車両500は、車線600の左に隣接する車線601上を走行しており、自車両300に対して左前方に位置している。視線判定部136は、視線データDB135を参照し、判定対象のフレームにおいてミラー視認がNOであると判断すると、視線原点P及び視線ベクトル150aを読み出す。また、視線判定部136は、相対情報DB129を参照し、判定対象のフレーム及び判定対象の対象物について、対象物ベクトル160aを読み出す。次に、視線判定部136は、視線原点Pを起点とする運転者の視線ベクトル150aと、視線原点Pを起点とする対象物ベクトル160aと、の成す角Δθを算出する。ここでは、視線判定部136は、同図(a)に示すように、XY平面内での視線ベクトル150aと対象物ベクトル160aとの成す角ΔθHを算出する。さらに、視線判定部136は、同図(b)に示すように、YZ平面内での視線ベクトル150aと対象物ベクトル160aとの成す角ΔθVを算出する。   FIG. 35 is an explanatory diagram showing an example of a method for calculating the angle Δθ formed by the line-of-sight vector and the object vector. The host vehicle 300 is traveling on the lane 600, and the other vehicle 500 that is the object is traveling on the lane 601 adjacent to the left of the lane 600, and is located on the left front side with respect to the host vehicle 300. Yes. The line-of-sight determination unit 136 reads the line-of-sight origin P and the line-of-sight vector 150a when referring to the line-of-sight data DB 135 and determining that the mirror view is NO in the determination target frame. In addition, the line-of-sight determination unit 136 reads the object vector 160a for the determination target frame and the determination target object with reference to the relative information DB 129. Next, the line-of-sight determination unit 136 calculates an angle Δθ formed by the driver's line-of-sight vector 150a starting from the line-of-sight origin P and the object vector 160a starting from the line-of-sight origin P. Here, the line-of-sight determination unit 136 calculates an angle ΔθH formed by the line-of-sight vector 150a and the object vector 160a in the XY plane, as shown in FIG. Further, the line-of-sight determination unit 136 calculates an angle ΔθV formed by the line-of-sight vector 150a and the object vector 160a in the YZ plane, as shown in FIG.

図36はミラー視線ベクトルと対象物ベクトルとの成す角Δθの算出方法の一例を示す説明図である。自車両300は車線600上を走行しており、対象物である他車両500は、車線600の右に隣接する車線603上を走行しており、自車両300に対して右後方に位置している。視線判定部136は、視線データDB135を参照し、判定対象のフレームにおいてミラー視認がYESであると判断すると、ミラー視線原点R及びミラー視線ベクトル155aを読み出す。例えば、運転者は、自車両300の右のドアミラー303Rを視認しているものとする。よって、図36に示すように、視線原点Pを起点とする視線ベクトル150aは、ミラー303Rにより反射され、ミラー視線原点Rを起点とするミラー視線ベクトル155aとなっている。また、視線判定部136は、相対情報DB129を参照し、判定対象のフレーム及び判定対象の対象物について、対象物ベクトル160aを読み出す。視線判定部136は、ミラー視線原点Rを起点とするミラー視線ベクトル155aと、ミラー視線原点Rを起点とする対象物ベクトル160aと、の成す角Δθを算出する。つまり、視線判定部136は、同図(a)、(b)に示すように、XY平面内でのミラー視線ベクトル155aと対象物ベクトル160aとの成す角ΔθH、及びYZ平面内でのミラー視線ベクトル155aと対象物ベクトル160aとの成す角ΔθVを算出する。   FIG. 36 is an explanatory diagram showing an example of a method for calculating the angle Δθ formed by the mirror line-of-sight vector and the object vector. The own vehicle 300 is traveling on the lane 600, and the other vehicle 500 that is the object is traveling on the lane 603 adjacent to the right of the lane 600, and is located on the right rear side with respect to the own vehicle 300. Yes. The line-of-sight determination unit 136 refers to the line-of-sight data DB 135 and reads the mirror line-of-sight origin R and the mirror line-of-sight vector 155a when determining that the mirror viewing is YES in the determination target frame. For example, it is assumed that the driver is viewing the right door mirror 303R of the host vehicle 300. Therefore, as shown in FIG. 36, the line-of-sight vector 150a starting from the line-of-sight origin P is reflected by the mirror 303R and becomes the mirror line-of-sight vector 155a starting from the mirror line-of-sight origin R. In addition, the line-of-sight determination unit 136 reads the object vector 160a for the determination target frame and the determination target object with reference to the relative information DB 129. The line-of-sight determination unit 136 calculates an angle Δθ formed by the mirror line-of-sight vector 155a starting from the mirror line-of-sight origin R and the object vector 160a starting from the mirror line-of-sight origin R. That is, the line-of-sight determination unit 136, as shown in FIGS. 6A and 6B, shows the angle ΔθH formed by the mirror line-of-sight vector 155a and the object vector 160a in the XY plane, and the mirror line-of-sight in the YZ plane. An angle ΔθV formed by the vector 155a and the object vector 160a is calculated.

視線判定部136は、判定結果として、成す角ΔθH及びΔθVを相対情報DB129に格納する。   The line-of-sight determination unit 136 stores the formed angles ΔθH and ΔθV in the relative information DB 129 as determination results.

(f)危険運転解析装置の認知判定部
認知判定部125は、自車両300の運転が危険運転であることを、運転者が認知しているか否かを判定する。ここでは、認知判定部125は、危険運転の対象となった対象物を自車両300の運転者が認知しているか否かを判定する。
(F) Recognition determination unit of dangerous driving analysis device The recognition determination unit 125 determines whether or not the driver recognizes that driving of the host vehicle 300 is dangerous driving. Here, the recognition determination unit 125 determines whether or not the driver of the host vehicle 300 recognizes an object that is a target of dangerous driving.

例えば、認知判定部125は、図30に示す視線空間151と対象物である他車両500との位置関係に基づいて認知の有無を判定する。例えば、認知判定部125は、対象物が視線空間151の中央部に位置しているか否かを判断し、対象物が視線空間の中央部に位置していれば視線150と対象物とが交差しており、対象物を認知していると判定する。また、認知判定部125は、対象物のうち何%が視線空間151を占有しているかを判断し、対象物領域が視線空間151を占有している程度に応じて、その対象物認知の有無を判定しても良い。判定方法をさらに詳細に説明する。   For example, the recognition determination unit 125 determines the presence or absence of recognition based on the positional relationship between the line-of-sight space 151 illustrated in FIG. 30 and the other vehicle 500 that is the target. For example, the recognition determination unit 125 determines whether or not the object is located in the center of the line-of-sight space 151. If the object is located in the center of the line-of-sight space, the line of sight 150 and the object intersect. It is determined that the object is recognized. In addition, the recognition determination unit 125 determines what percentage of the object occupies the line-of-sight space 151, and the presence or absence of the object recognition according to the degree to which the object area occupies the line-of-sight space 151. May be determined. The determination method will be described in more detail.

まず、認知判定部125は、第1実施形態例と同様に、図11に示す危険運転情報DB130を参照し、各“危険運転候補”について、危険判定フラグ=1の対象物の“接近区間”を読み出す。例えば、認知判定部125は、図11の危険運転情報DB130において、“危険運転候補番号”=1、対象物番号=1、危険判定フラグ=1のレコードにおいて、“接近区間”の開始フレームns1_1及び終了フレームne1_1を読み出す。   First, similarly to the first embodiment, the recognition determination unit 125 refers to the dangerous driving information DB 130 illustrated in FIG. 11, and for each “dangerous driving candidate”, the “approach section” of the object with the risk determination flag = 1. Is read. For example, in the dangerous driving information DB 130 of FIG. 11, the recognition determining unit 125 sets the start frame ns <b> 1 </ b> _ <b> 1 of the “approach zone” in the record of “dangerous driving candidate number” = 1, object number = 1, and dangerous determination flag = 1. Read end frame ne1_1.

次に、認知判定部125は、“接近区間”内の各フレームについて、図34の相対情報DB129を参照し、運転者が危険運転を認知しているか否かを判定する。まず、認知判定部125は、着目している対象物の“接近区間”内の各フレームについて、成す角ΔθH及びΔθVを読み出す。   Next, the recognition determination unit 125 refers to the relative information DB 129 of FIG. 34 for each frame in the “approach section” and determines whether or not the driver recognizes dangerous driving. First, the recognition determination unit 125 reads the angles ΔθH and ΔθV formed for each frame in the “approach section” of the target object.

次に、認知判定部125は、危険運転を認知しているか否かを判定するための所定の閾値θHth及びθVthと、成す角ΔθH及びΔθVと、を比較し、運転者が対象物を視認しているか否かを判断する。なお、閾値θthには、XY面内での成す角ΔθHを判定するための所定の閾値θHthと、YZ面内での成す角ΔθVを判定するための所定の閾値θVthと、がある。よって、認知判定部125は、成す角ΔθHが所定の閾値θHth以下か否かを判定し、さらに成す角ΔθVが所定の閾値θVth以下か否かを判定する。認知判定部125は、成す角ΔθHが所定の閾値θHth以下であり、かつ、成す角ΔθVが所定の閾値θVth以下である場合は、自車両300の運転者が対象物を視認していたと判断し、危険運転を認知していたと判定する。一方、認知判定部125は、成す角ΔθHが所定の閾値θHthより大きいか、あるいは、成す角ΔθVが所定の閾値θVthより大きい場合は、運転者が対象物を視認していなかったと判断し、危険運転を認知していなかったと判定する。   Next, the recognition determination unit 125 compares predetermined threshold values θHth and θVth for determining whether or not dangerous driving is recognized with the formed angles ΔθH and ΔθV, and the driver visually recognizes the object. Judge whether or not. The threshold θth includes a predetermined threshold θHth for determining an angle ΔθH formed in the XY plane and a predetermined threshold θVth for determining an angle ΔθV formed in the YZ plane. Therefore, the recognition determination unit 125 determines whether or not the formed angle ΔθH is equal to or smaller than the predetermined threshold θHth, and further determines whether or not the formed angle ΔθV is equal to or smaller than the predetermined threshold θVth. When the formed angle ΔθH is equal to or smaller than the predetermined threshold value θHth and the formed angle ΔθV is equal to or smaller than the predetermined threshold value θVth, the recognition determining unit 125 determines that the driver of the host vehicle 300 has visually recognized the object. It is determined that he was aware of dangerous driving. On the other hand, when the formed angle ΔθH is larger than the predetermined threshold θHth or the formed angle ΔθV is larger than the predetermined threshold θVth, the recognition determining unit 125 determines that the driver has not visually recognized the object, and is dangerous. It is determined that driving was not recognized.

なお、上記では、認知判定部125は、成す角ΔθH及びΔθVの両方に基づいて認知の有無を判定しているが、例えば成す角ΔθH及びΔθVのいずれか一方の成す角に基づいて認知の有無を判定することもできる。   In the above description, the recognition determination unit 125 determines the presence / absence of recognition based on both the formed angles ΔθH and ΔθV, but for example, the presence / absence of recognition based on the angle formed by one of the angles ΔθH and ΔθV. Can also be determined.

その他、認知判定部125は、対象物に対する視認時間を算出し、算出した視認時間に基づいて、対象物を認知しているか、否かを判定しても良い。例えば、認知判定部125は、視認時間が所定値以上である場合は、対象物を認知していると判断する。一方、認知判定部125は、視認時間が所定値未満である場合は、対象物を認知していないと判断する。   In addition, the recognition determination unit 125 may calculate the visual recognition time for the object and determine whether or not the object is recognized based on the calculated visual recognition time. For example, the recognition determination unit 125 determines that the object is recognized when the viewing time is equal to or greater than a predetermined value. On the other hand, the recognition determination unit 125 determines that the object is not recognized when the viewing time is less than the predetermined value.

認知判定部125は、前述の図11と同様に危険運転情報DBに判定結果を格納する。   The recognition determination unit 125 stores the determination result in the dangerous driving information DB as in FIG. 11 described above.

なお、認知判定部125は、危険運転の認知の有無のみを判定しているが、運転者がどの程度、危険運転を認知しているかを示す認知度を判定しても良い。これにより、認知度に応じた危険運転を抽出することができる。例えば、認知判定部125は、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、の成す角の大きさに応じて認知度を診断しても良い。例えば、なす角の大きさが小さいほど認知度を高く判定する。また、認知判定部125は、視認時間の長さに応じて認知度を診断しても良い。例えば、視認時間が長いほど認知度を高く判定する。   In addition, although the recognition determination part 125 determines only the presence or absence of recognition of dangerous driving, you may determine the recognition degree which shows how much the driver has recognized dangerous driving. Thereby, dangerous driving according to the degree of recognition can be extracted. For example, the recognition determination unit 125 may diagnose the degree of recognition according to the size of the angle formed by the line-of-sight vector 150a or the mirror line-of-sight vector 155a and the object vector 160a. For example, the degree of recognition is determined higher as the angle formed is smaller. Moreover, the recognition determination part 125 may diagnose a recognition degree according to the length of visual recognition time. For example, the recognition degree is determined to be higher as the viewing time is longer.

(6−3)変形例3
上記実施形態例では、危険運転解析装置100は、映像処理部121が生成した周辺映像から、自車両300周辺に存在する一又は複数の対象物を抽出する。しかし、危険運転解析装置100は、例えば自車両300に取り付けた障害物検出センサにより対象物を検出しても良い。障害物検出センサは、障害物との距離を検出するものであって、光学センサ、超音波センサなどで構成することができる。
(6-3) Modification 3
In the above embodiment example, the dangerous driving analysis apparatus 100 extracts one or more objects existing around the host vehicle 300 from the surrounding video generated by the video processing unit 121. However, the dangerous driving analysis apparatus 100 may detect an object using an obstacle detection sensor attached to the host vehicle 300, for example. The obstacle detection sensor detects a distance from the obstacle, and can be constituted by an optical sensor, an ultrasonic sensor, or the like.

図37は、障害物検出センサが設けられた車両の一例である。例えば、障害物検出センサ216a〜216hは、自車両300の前部バンパの3箇所、車体の両側面、後部バンパの3箇所などに埋め込まれている。危険運転解析装置100の対象物抽出部122は、これらの障害物検出センサが検出したセンサ信号に基づいて自車両300周辺の対象物を検出し、対象物の自車両300に対する相対位置Q等を取得する。また、相対情報算出部123は、センサ信号に基づいて、相対距離L及び相対速度Vなどを算出する。   FIG. 37 is an example of a vehicle provided with an obstacle detection sensor. For example, the obstacle detection sensors 216a to 216h are embedded at three locations on the front bumper of the host vehicle 300, both side surfaces of the vehicle body, three locations on the rear bumper, and the like. The object extraction unit 122 of the dangerous driving analysis apparatus 100 detects an object around the host vehicle 300 based on the sensor signals detected by these obstacle detection sensors, and determines the relative position Q of the object to the host vehicle 300 and the like. get. Further, the relative information calculation unit 123 calculates the relative distance L, the relative speed V, and the like based on the sensor signal.

また、危険運転解析装置100は、2眼レンズのステレオカメラを用いて、対象物の検出及び相対距離L及び相対速度Vなどの算出を行うこともできる。   The dangerous driving analysis apparatus 100 can also detect a target and calculate the relative distance L and the relative speed V using a stereo camera with a twin lens.

また、危険運転解析装置100は、自車両300と対象物との間の通信に基づいて、対象物を検出しても良い。前記通信には、例えば車両間の通信である車車間通信が挙げられる。   Further, the dangerous driving analysis apparatus 100 may detect the object based on communication between the host vehicle 300 and the object. Examples of the communication include inter-vehicle communication, which is communication between vehicles.

<第2実施形態例>
図38は、第2実施形態例にかかる各装置の機能構成を示すブロック図の一例である。
<Second Embodiment>
FIG. 38 is an example of a block diagram illustrating a functional configuration of each device according to the second embodiment.

危険運転解析装置100は、危険運転を抽出することが出きれば良く、上記第1実施形態例の危険運転分類部126などは必須の構成要素ではない。第2実施形態例の危険運転解析装置100には、第1実施形態例の危険運転分類部126及び危険運転パターンDB133などは含まれていない。その他の構成は第1実施形態例と同様であり、第1実施形態例の変形例も第2実施形態例に適用可能である。   The dangerous driving analysis device 100 only needs to be able to extract dangerous driving, and the dangerous driving classification unit 126 and the like of the first embodiment are not essential components. The dangerous driving analysis apparatus 100 according to the second embodiment does not include the dangerous driving classification unit 126 and the dangerous driving pattern DB 133 according to the first embodiment. Other configurations are the same as those of the first embodiment, and modifications of the first embodiment can also be applied to the second embodiment.

<第3実施形態例>
第1実施形態例の危険運転解析装置100は、自車両周辺の周辺情報、自車両300の走行情報、操作情報及び位置情報を外部の情報取得装置200から取得する。一方、第3実施形態例の危険運転解析装置100は、これらの情報を自ら取得する。以下に、第1実施形態例と異なる点について説明する。
<Third Embodiment>
The dangerous driving analysis device 100 according to the first embodiment obtains peripheral information around the host vehicle, travel information, operation information, and position information of the host vehicle 300 from an external information acquisition device 200. On the other hand, the dangerous driving analysis apparatus 100 of the third embodiment obtains such information by itself. Hereinafter, differences from the first embodiment will be described.

第3実施形態例の危険運転解析装置100の構成について以下に説明する。図39は、第3実施形態例に係る、危険運転解析装置のハードウェア構成を示すブロック図の一例である。   The configuration of the dangerous driving analysis apparatus 100 of the third embodiment will be described below. FIG. 39 is an example of a block diagram illustrating a hardware configuration of the dangerous driving analysis apparatus according to the third embodiment.

危険運転解析装置170は、例えば、CPU101、ROM102、RAM103、入出力機器I/F104、通信I/F108を有している。これらは、バス109を介して互いに接続されている。   The dangerous driving analysis device 170 includes, for example, a CPU 101, a ROM 102, a RAM 103, an input / output device I / F 104, and a communication I / F 108. These are connected to each other via a bus 109.

入出力機器I/F104は、ディスプレイ105、マウス106、キーボード107、周辺情報取得機器205、走行情報取得機器206、操作情報取得機器207及び位置情報取得機器208などの入出力機器と接続されている。   The input / output device I / F 104 is connected to input / output devices such as the display 105, mouse 106, keyboard 107, peripheral information acquisition device 205, travel information acquisition device 206, operation information acquisition device 207, and position information acquisition device 208. .

次に危険運転解析装置100の機能構成について説明する。図40は、第3実施形態例にかかる危険運転解析装置の機能構成を示すブロック図の一例である。第3実施形態例にかかる危険運転解析装置100は、第1実施形態例にかかる危険運転解析装置100に加えて、周辺情報取得部220、走行情報取得部221、操作情報取得部222、位置情報取得部223を備える。また、第3実施形態例に係る危険運転解析装置100は、情報取得装置200とのデータ、コマンドなどの送受信は不要であるため、送受信部120、224及び取得データDB225は省略した。各機能の処理は第1実施形態例と同様である。   Next, the functional configuration of the dangerous driving analysis apparatus 100 will be described. FIG. 40 is an example of a block diagram illustrating a functional configuration of the dangerous driving analysis apparatus according to the third embodiment. The dangerous driving analysis apparatus 100 according to the third embodiment includes, in addition to the dangerous driving analysis apparatus 100 according to the first embodiment, a surrounding information acquisition unit 220, a travel information acquisition unit 221, an operation information acquisition unit 222, and position information. An acquisition unit 223 is provided. Further, since the dangerous driving analysis apparatus 100 according to the third embodiment does not require transmission / reception of data, commands, and the like with the information acquisition apparatus 200, the transmission / reception units 120 and 224 and the acquisition data DB 225 are omitted. The processing of each function is the same as in the first embodiment.

その他の構成は第1実施形態例と同様である。また、第2実施形態例においても、第3実施形態例を適用可能である。   Other configurations are the same as those of the first embodiment. Also, the third embodiment can be applied to the second embodiment.

<その他の実施形態例>
また、前述の方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM(Compact Disc−Read Only Memory)、MO(Magneto Optical disk)、DVD、DVD−ROM、DVD−RAM(DVD−Random Access Memory)、BD(Blue-ray Disc)、USBメモリ、半導体メモリなどを挙げることができる。前記コンピュータプログラムは、前記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
<Other embodiment examples>
Further, a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention. Here, as a computer-readable recording medium, for example, a flexible disk, a hard disk, a CD-ROM (Compact Disc-Read Only Memory), an MO (Magneto Optical disk), a DVD, a DVD-ROM, a DVD-RAM (DVD-RAM). Random Access Memory), BD (Blue-ray Disc), USB memory, semiconductor memory, and the like. The computer program is not limited to the one recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.

以上の実施形態及びその他の実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiment and other embodiments, the following additional notes are disclosed.

<付記>
(付記1)
自車両の周辺情報を含む運転情報を取得する取得ステップと、前記周辺情報から得られる周囲の対象物を検出する検出ステップと、前記自車両と前記対象物との相対関係から安全運転基準を満たすか否かを判断する判定値を演算する演算ステップと、前記判定値と、前記演算に対する基準値とを比較して、前記安全運転基準を満たさない危険運転を判定する判定ステップと、前記判定ステップで危険運転と判定された時間の前記周辺情報を抽出する危険運転抽出ステップと、を含む、情報処理方法。
<Appendix>
(Appendix 1)
An acquisition step of acquiring driving information including surrounding information of the own vehicle, a detecting step of detecting surrounding objects obtained from the surrounding information, and a safe driving standard from the relative relationship between the own vehicle and the objects are satisfied. A calculation step for calculating a determination value for determining whether or not, a determination step for comparing the determination value with a reference value for the calculation to determine dangerous driving that does not satisfy the safe driving criterion, and the determination step And a dangerous driving extraction step of extracting the peripheral information of the time determined as dangerous driving in (1).

自車両に関連する運転情報には、少なくとも自車両周辺の映像が含まれる。その他、自車両に関連する運転情報には、自車両周辺に存在する対象物と自車両との相対距離及び相対速度、自車両の速度及び加速度など各種情報が含まれていても良い。また、自車両に関連する運転情報は、自車両の運転者が急ブレーキ及び急なハンドル操作を行った時など危険運転を認知した時だけではなく、自車両が運転状態にある場合に記憶される。   The driving information related to the host vehicle includes at least a video around the host vehicle. In addition, the driving information related to the host vehicle may include various types of information such as the relative distance and relative speed between an object existing around the host vehicle and the host vehicle, and the speed and acceleration of the host vehicle. In addition, the driving information related to the host vehicle is stored not only when the driver of the host vehicle recognizes dangerous driving such as when sudden braking and sudden steering operation is performed, but also when the host vehicle is in a driving state. The

上記情報処理方法は、このような自車両の運転情報から、客観的な安全運転基準に基づいて危険運転を抽出する。よって、自車両の運転者が認知している危険運転だけでなく、自車両の運転者が認知していない危険運転も抽出することができる。また、上記情報処理方法を用いれば、人手によらず、効率的に、客観的に及び迅速に危険運転を抽出することができる。このように抽出された危険運転の映像等を運転者に視聴させることで、危険運転がどのような状況で発生しているかを効果的に学習させ、安全運転教育を効率良く行うことができる。   The information processing method extracts dangerous driving based on objective safe driving standards from the driving information of the own vehicle. Therefore, not only dangerous driving recognized by the driver of the host vehicle but also dangerous driving not recognized by the driver of the host vehicle can be extracted. Further, if the information processing method is used, it is possible to extract dangerous driving efficiently, objectively, and quickly without depending on human hands. By letting the driver view the dangerous driving image and the like extracted in this way, it is possible to effectively learn under what circumstances dangerous driving occurs and to efficiently perform safe driving education.

(付記2)
前記安全運転基準には、
前記自車両と前記対象物との相対距離に対する相対距離基準値、前記自車両と前記自車両の周辺に存在する各対象物とが衝突するまでの衝突予想時間であるTTC(Time to collision)に対するTTC基準値、所定の単位時間あたりの前記TTCの変化率に対するTTC変化率基準値、前記自車両の加速度に対する加速度基準値及び/又は所定の単位時間あたりの操舵角変化率に対する操舵角変化率基準値が含まれ、
前記危険運転抽出ステップでは、
前記相対距離が前記相対距離基準値よりも小さいとの条件、前記TTCが前記TTC基準値よりも小さいとの条件、前記TTCの変化率が前記TTC変化率基準値よりも大きいとの条件、前記自車両の加速度の大きさが前記加速度基準値よりも大きいとの条件、及び前記自車両の操舵角変化率が前記操舵角変化率基準値よりも大きいとの条件において、少なくとも1の条件を満たす前記運転情報を、前記危険運転の情報として抽出する、付記1に記載の情報処理方法。
(Appendix 2)
The safe driving standards include
Relative distance reference value relative to the relative distance between the host vehicle and the object, and TTC (Time to collision) which is a predicted collision time until the host vehicle and each object existing around the host vehicle collide with each other. TTC reference value, TTC change rate reference value with respect to the change rate of the TTC per predetermined unit time, acceleration reference value with respect to the acceleration of the host vehicle, and / or steering angle change rate reference with respect to the steering angle change rate per predetermined unit time Value,
In the dangerous driving extraction step,
A condition that the relative distance is smaller than the relative distance reference value; a condition that the TTC is smaller than the TTC reference value; a condition that the rate of change of the TTC is larger than the TTC change rate reference value; At least one condition is satisfied under the condition that the magnitude of the acceleration of the host vehicle is greater than the acceleration reference value and the condition that the steering angle change rate of the host vehicle is greater than the steering angle change rate reference value. The information processing method according to attachment 1, wherein the driving information is extracted as information on the dangerous driving.

相対距離が相対距離基準値よりも小さい場合、自車両と対象物との距離が近く、自車両が対象物に衝突する危険性が高い。また、TTCがTTC基準値よりも小さい場合には、自車両と対象物との距離が近くなり、最終的には自車両が対象物に衝突する危険性が高い。また、TTCの変化率がTTC変化率基準値よりも大きい場合には、自車両と対象物との距離が急速に近くなっており、衝突の危険性が高い。また、自車両の加速度の大きさが大きい場合には自車両が急加速又は急減速しており、また、操舵角の変化率が大きい場合には自車両が蛇行運転しており、自車両が安全に走行していないと判断できる。よって、上記情報処理方法では、このような運転状態を、危険運転として運転情報から抽出する。より具体的には、運転情報は時間軸上に沿って構成されているため、前述のような運転状態の区間を、危険運転の区間として運転情報から抽出する。   When the relative distance is smaller than the relative distance reference value, the distance between the host vehicle and the target is close, and the risk of the host vehicle colliding with the target is high. Further, when TTC is smaller than the TTC reference value, the distance between the host vehicle and the object is short, and there is a high risk that the host vehicle will eventually collide with the object. When the TTC change rate is larger than the TTC change rate reference value, the distance between the host vehicle and the object is rapidly approaching, and the risk of collision is high. When the acceleration of the host vehicle is large, the host vehicle suddenly accelerates or decelerates. When the rate of change of the steering angle is large, the host vehicle is meandering. You can judge that you are not driving safely. Therefore, in the information processing method, such a driving state is extracted from driving information as dangerous driving. More specifically, since the driving information is configured along the time axis, the section in the driving state as described above is extracted from the driving information as the dangerous driving section.

なお、対象物の抽出方法としては、まず、周辺情報取得ステップにおいて自車両周辺に存在する一又は複数の対象物を含む周辺情報を取得し、次に、前記周辺情報から前記一又は複数の対象物を抽出する方法が挙げられる。   As a method for extracting an object, first, peripheral information including one or more objects existing around the host vehicle is acquired in the peripheral information acquisition step, and then, the one or more objects are acquired from the peripheral information. The method of extracting a thing is mentioned.

より具体的には、周辺情報を取得する周辺情報取得手段は、自車両の周辺を撮像する1又は複数の撮像装置を含む。映像処理手段は、前記撮像装置で撮影された映像から前記自車両の周辺映像を生成し、対象物抽出手段が、前記周辺映像から前記一又は複数の対象物を抽出する。   More specifically, the peripheral information acquisition unit that acquires the peripheral information includes one or a plurality of imaging devices that capture the periphery of the host vehicle. The image processing means generates a surrounding image of the host vehicle from the image taken by the imaging device, and the object extracting means extracts the one or more objects from the surrounding image.

また、別の方法として、対象物抽出手段は、自車両周辺に存在する一又は複数の対象物を検知する対象物センサから検知結果を取得し、前記検知結果にもとづいて前記一又は複数の対象物を抽出する方法が挙げられる。   As another method, the object extracting means obtains a detection result from an object sensor that detects one or more objects existing around the host vehicle, and the one or more objects are detected based on the detection result. The method of extracting a thing is mentioned.

さらに別の方法として、対象物抽出手段は、前記自車両周辺に存在する一又は複数の対象物から送信される、前記対象物の位置、速度、加速度及び/又は進行方向を含む対象物情報を取得し、前記対象物情報にもとづいて前記一又は複数の対象物を抽出する方法が挙げられる。   As yet another method, the object extracting means transmits object information including the position, speed, acceleration and / or traveling direction of the object transmitted from one or more objects existing around the host vehicle. There is a method of acquiring and extracting the one or more objects based on the object information.

(付記3)
前記危険運転抽出ステップでは、
前記相対距離が前記相対距離基準値よりも小さいとの条件を満たし、かつ、前記TTCが前記TTC基準値よりも小さいとの条件、前記TTCの変化率が前記TTC変化率基準値よりも大きいとの条件、前記自車両の加速度の大きさが前記加速度基準値よりも大きいとの条件、前記自車両の操舵角変化率が前記操舵角変化率基準値よりも大きいとの条件において、少なくとも1の条件を満たす前記運転情報を、前記危険運転の情報として抽出する、付記2に記載の情報処理方法。
(Appendix 3)
In the dangerous driving extraction step,
When the condition that the relative distance is smaller than the relative distance reference value is satisfied and the TTC is smaller than the TTC reference value, the change rate of the TTC is larger than the TTC change rate reference value. The condition that the magnitude of the acceleration of the host vehicle is greater than the acceleration reference value, and the condition that the steering angle change rate of the host vehicle is greater than the steering angle change rate reference value. The information processing method according to appendix 2, wherein the driving information that satisfies a condition is extracted as information on the dangerous driving.

上記構成では、危険運転の情報を抽出する条件として、自車両と対象物との相対距離が相対距離基準値よりも小さいとの条件が必須となっている。例えば、急加速に起因してTTCがTTC基準値よりも小さくなったとしても、自車両と対象物とが互いに遠く離れていれば、自車両と対象物とが衝突する危険性は低い。よって、時間軸上に沿って構成される運転情報において、自車両と対象物との相対距離が相対距離基準値以上の区間は、危険運転の区間からは除外する。これにより、衝突の危険性が高い区間のみを危険運転の区間として抽出することができる。   In the above configuration, the condition that the relative distance between the host vehicle and the target object is smaller than the relative distance reference value is essential as a condition for extracting information on dangerous driving. For example, even if TTC becomes smaller than the TTC reference value due to sudden acceleration, if the host vehicle and the object are far away from each other, the risk of collision between the host vehicle and the object is low. Therefore, in the driving information configured along the time axis, a section in which the relative distance between the host vehicle and the object is equal to or greater than the relative distance reference value is excluded from the dangerous driving section. Thereby, only a section with high risk of collision can be extracted as a section of dangerous driving.

(付記4)
前記危険運転抽出ステップは、
時間軸上の前記運転情報から、前記相対距離が前記相対距離基準値よりも小さいとの条件を満たす各接近区間を抽出する第1ステップと、
各接近区間の運転情報に基づいて、前記TTCの最小値、前記TTCの変化率の最大値、前記加速度の最大値、及び/又は、前記操舵角変化率の最大値を算出する第2ステップと、
各接近区間の中から、前記TTCの最小値が前記TTC基準値よりも小さいとの条件、前記TTCの変化率の最大値が前記TTC変化率基準値よりも大きいとの条件、前記加速度の大きさの最大値が前記加速度基準値よりも大きいとの条件、及び前記操舵角変化率の最大値が前記操舵角変化率基準値よりも大きいとの条件において、少なくとも1の条件を満たす接近区間を抽出し、前記抽出された接近区間の運転情報を前記危険運転の情報として抽出する第3ステップと、
を有する、付記2に記載の情報処理方法。
(Appendix 4)
The dangerous driving extraction step includes:
A first step of extracting each approach section that satisfies a condition that the relative distance is smaller than the relative distance reference value from the driving information on the time axis;
A second step of calculating a minimum value of the TTC, a maximum value of the rate of change of the TTC, a maximum value of the acceleration, and / or a maximum value of the rate of change of the steering angle based on driving information of each approach section; ,
Among each approaching section, a condition that the minimum value of the TTC is smaller than the TTC reference value, a condition that the maximum value of the change rate of the TTC is larger than the TTC change rate reference value, and the magnitude of the acceleration An approach section that satisfies at least one condition under the condition that the maximum value of the steering angle is greater than the acceleration reference value and the condition that the maximum value of the steering angle change rate is greater than the steering angle change rate reference value. A third step of extracting and extracting driving information of the extracted approaching section as information on the dangerous driving;
The information processing method according to attachment 2, further comprising:

まず、相対距離が前記相対距離基準値よりも小さい接近区間を運転情報から抽出する。次に、抽出された接近区間のうち、上記の各条件を満たす接近区間を危険運転の区間として抽出する。よって、上記付記3と同様の効果を奏する。   First, an approach section whose relative distance is smaller than the relative distance reference value is extracted from the driving information. Next, of the extracted approaching sections, an approaching section that satisfies the above conditions is extracted as a dangerous driving section. Therefore, the same effect as the above supplementary note 3 is achieved.

(付記5)
前記自車両の運転が危険運転であることを、前記自車両の運転者が認知しているか否かを判定する認知判定ステップをさらに有し、
前記危険運転抽出ステップでは、前記安全運転基準を満たさない危険運転の中から、前記認知判定ステップにおいて前記自車両の運転者が認知していないと判定された危険運転を、さらに抽出する、付記1〜4のいずれかに記載の情報処理方法。
(Appendix 5)
A recognition determination step of determining whether or not the driver of the host vehicle recognizes that the driving of the host vehicle is dangerous driving;
In the dangerous driving extraction step, the dangerous driving determined to be not recognized by the driver of the host vehicle in the recognition determining step is further extracted from the dangerous driving that does not satisfy the safe driving standard. The information processing method in any one of -4.

これにより、安全運転基準を満たさない危険運転の中でも、運転者が認知できていない危険運転を抽出することができる。このような認知できていない危険運転を運転者に視聴させて、どのような危険運転を認知できなかったのかを運転者に示すことで、安全運転教育を効果的に行うことができる。   As a result, it is possible to extract dangerous driving that the driver cannot recognize among dangerous driving that does not satisfy the safe driving standard. Safe driving education can be effectively performed by having the driver watch dangerous driving that cannot be recognized and showing the driver what kind of dangerous driving has not been recognized.

なお、認知判定ステップでは、危険運転であることの認知の有無だけでなく、危険運転をどの程度認知しているかを示す認知度を判定しても良い。   In the recognition determination step, not only the presence / absence of recognition of dangerous driving, but also the degree of recognition indicating how much dangerous driving is recognized may be determined.

(付記6)
前記認知判定ステップでは、前記自車両の負の加速度の大きさが所定値より大きいと判断すると、前記自車両の運転者が、前記自車両の運転が危険運転であることを認知していると判定する、付記5に記載の情報処理方法。
(Appendix 6)
In the recognition determination step, when it is determined that the negative acceleration of the host vehicle is greater than a predetermined value, the driver of the host vehicle recognizes that the driving of the host vehicle is dangerous driving. The information processing method according to attachment 5, wherein the information is determined.

自車両の負の加速度の大きさが所定値より大きいとは、速度の減少率が所定値より大きいことを意味し、例えば運転者が急なブレーキ操作を行った場合などが挙げられる。つまり、運転者が危険運転を認知して自発的に急なブレーキ操作を行ったため、自車両の速度の減少率が所定値より大きくなったと判断できる。   That the magnitude of the negative acceleration of the host vehicle is greater than a predetermined value means that the rate of decrease in speed is greater than a predetermined value, for example, when the driver performs a sudden braking operation. That is, since the driver recognizes dangerous driving and spontaneously performs a sudden braking operation, it can be determined that the rate of decrease in the speed of the host vehicle has become greater than a predetermined value.

(付記7)
前記認知判定ステップでは、さらに前記自車両のブレーキ操作が行われた判断すると、前記自車両の運転者が、前記自車両の運転が危険運転であることを認知していると判定する、付記6に記載の情報処理方法。
(Appendix 7)
In the recognition determination step, when it is further determined that the braking operation of the host vehicle is performed, it is determined that the driver of the host vehicle recognizes that the driving of the host vehicle is a dangerous driving. Information processing method described in 1.

認知判定ステップでは、ブレーキ操作及び加速度の両方に基づいて、危険運転に対する認知の有無を判定しても良い。つまり、認知判定ステップでは、運転者がブレーキ操作を行い、かつ負の加速度の大きさが所定値より大きい場合に、危険運転を認知していると判定する。ここで、負の加速度の大きさが所定値より大きくなる現象は、ブレーキ操作が行われた場合だけでなく、例えば自車両が急な上り坂を走行した場合にも生じ得る。ブレーキ操作に基づいて、運転者が行った操作を確実に検出することで、危険運転に対する認知の有無を確実に検出することができる。   In the recognition determination step, presence / absence of recognition for dangerous driving may be determined based on both the brake operation and the acceleration. That is, in the recognition determination step, it is determined that dangerous driving is recognized when the driver performs a braking operation and the magnitude of the negative acceleration is greater than a predetermined value. Here, the phenomenon that the magnitude of the negative acceleration becomes larger than a predetermined value may occur not only when the brake operation is performed, but also when the host vehicle travels on a steep uphill, for example. By reliably detecting the operation performed by the driver based on the brake operation, it is possible to reliably detect the presence or absence of recognition for dangerous driving.

その他、操舵角の変化率が大きい場合は、対象物との衝突を避けるために運転者がハンドルを急激に操作した場合などが考えられ、危険運転を認知していると判定できる。   In addition, when the rate of change of the steering angle is large, a case where the driver suddenly operates the steering wheel in order to avoid a collision with an object can be considered, and it can be determined that dangerous driving is recognized.

(付記8)
前記危険運転抽出ステップにおいて抽出された前記危険運転を、前記自車両の位置情報、前記自車両の走行情報、前記自車両の操作情報及び前記自車両の周辺に存在する対象物に関する情報を含む分類項目により分類する危険運転分類ステップをさらに含む、付記1〜7のいずれかに記載の情報処理方法。
(Appendix 8)
The dangerous driving extracted in the dangerous driving extraction step is a classification including position information of the own vehicle, traveling information of the own vehicle, operation information of the own vehicle, and information on an object existing around the own vehicle. The information processing method according to any one of appendices 1 to 7, further including a dangerous driving classification step of classifying by item.

自車両の位置情報とは、自車両がどこにいるのかを特定するための情報であり、例えば交差点、直進道路、三車線道路及びT字路などの自車両が位置している状況を示す情報である。自車両の走行情報とは、例えば自車両の速度及び加速度などである。自車両の操作情報とは、例えば、ブレーキ操作の有無、操舵角、方向指示器の操作の有無、アクセルの操作の有無などを含む情報などである。自車両の周辺に存在する対象物に関する情報とは、例えば、対象物がトラック、人、バイクであるなど、対象物を特定するための情報である。抽出された危険運転をこれらの分類項目により分類することで、危険運転の中から所望のデータを即座に検索することができる。また、危険運転を上記分類項目により分類して傾向を調査することで、運転者がどのような状況で危険運転に陥りやすいかを分析することもできる。   The position information of the own vehicle is information for specifying where the own vehicle is, and is information indicating a situation where the own vehicle is located such as an intersection, a straight road, a three-lane road, and a T-junction. is there. The traveling information of the host vehicle is, for example, the speed and acceleration of the host vehicle. The operation information of the host vehicle is information including the presence / absence of a brake operation, the steering angle, the presence / absence of a turn indicator, the presence / absence of an accelerator operation, and the like. The information related to the object existing around the host vehicle is information for specifying the object, for example, the object is a truck, a person, or a motorcycle. By classifying the extracted dangerous driving according to these classification items, it is possible to immediately retrieve desired data from the dangerous driving. Further, by classifying dangerous driving according to the above classification items and investigating the tendency, it is possible to analyze under what circumstances the driver is likely to fall into dangerous driving.

(付記9)
前記運転情報は、前記自車両周辺の周辺情報に基づいて生成されており、
前記運転情報から抽出された危険運転を表示するための表示映像を、前記周辺情報に基づいて生成する表示映像生成ステップをさらに含む、付記1に記載の情報処理方法。
(Appendix 9)
The driving information is generated based on peripheral information around the host vehicle,
The information processing method according to claim 1, further comprising a display video generation step of generating a display video for displaying a dangerous driving extracted from the driving information based on the peripheral information.

自車両周辺の周辺情報とは、自車両の例えば360°全周囲の周辺情報である。表示映像生成ステップでは、危険運転の表示映像を全周囲の周辺情報に基づいて生成することができる。よって、危険運転の視聴者は、自車両の全周囲に亘る危険運転を視聴することができる。例えば、自車両の運転中において視認困難な死角において危険運転の原因が発生していても、危険運転の視聴者は、そのような危険運転を表示映像により振り返ることができる。   The peripheral information around the host vehicle is peripheral information around the entire 360 ° of the host vehicle, for example. In the display image generation step, a display image of dangerous driving can be generated based on the surrounding information of the entire periphery. Therefore, the viewer of dangerous driving can watch dangerous driving over the entire periphery of the host vehicle. For example, even if a cause of dangerous driving occurs in a blind spot that is difficult to visually recognize while driving the host vehicle, a viewer of dangerous driving can look back on such dangerous driving with a display image.

(付記10)
前記表示映像生成ステップでは、視点と前記視点を原点とする視線方向とを受け付け、前記視点及び前記視線方向に基づいて、前記周辺情報から前記危険運転の表示映像を生成する、付記9に記載の情報処理方法。
(Appendix 10)
The display image generation step receives a viewpoint and a gaze direction with the viewpoint as an origin, and generates a display image of the dangerous driving from the peripheral information based on the viewpoint and the gaze direction. Information processing method.

表示映像生成ステップでは、視点及び視線方向が指定されれば、様々な視点に基づいた危険運転の表示映像を生成することができる。例えば、自車両の後方車両に視点が設定され、後方車両から自車両に向かう視線方向が設定されれば、表示映像生成ステップでは、後方車両を視点とした自車両の危険運転の表示映像を生成することができる。よって、危険運転を行った自車両の運転者などは、他車両から見た自車両の危険運転を客観的に振り返ることができ、安全運転教育を効果的に行うことができる。   In the display video generation step, if a viewpoint and a line-of-sight direction are designated, a display image of dangerous driving based on various viewpoints can be generated. For example, if a viewpoint is set for the vehicle behind the host vehicle and a line-of-sight direction from the vehicle behind the host vehicle is set, the display image generation step generates a display image of the dangerous driving of the host vehicle from the viewpoint of the rear vehicle. can do. Therefore, the driver of the own vehicle who performed dangerous driving can look back at dangerous driving of the own vehicle seen from other vehicles objectively, and can perform safe driving education effectively.

(付記11)
自車両の周辺情報を含む運転情報を取得する取得手段、前記周辺情報から得られる周囲の対象物を検出する検出手段、前記自車両と前記対象物との相対関係から安全運転基準を満たすか否かを判断する判定値を演算する演算手段、前記判定値と、前記演算に対する基準値とを比較して、前記安全運転基準を満たさない危険運転を判定する判定手段、及び前記判定手段で危険運転と判定された時間の前記周辺情報を抽出する危険運転抽出手段としてコンピュータを機能させる情報処理プログラム。
(Appendix 11)
Acquisition means for acquiring driving information including surrounding information of the own vehicle, detecting means for detecting surrounding objects obtained from the surrounding information, and whether or not a safe driving standard is satisfied from a relative relationship between the own vehicle and the objects A computing means for computing a judgment value for judging whether the judgment value is compared with a reference value for the computation, a judgment means for judging a dangerous driving that does not satisfy the safe driving standard, and a dangerous driving by the judgment means An information processing program for causing a computer to function as dangerous driving extraction means for extracting the peripheral information of the time determined to be.

(付記12)
自車両の周辺情報を含む運転情報を取得する取得手段と、前記周辺情報から得られる周囲の対象物を検出する検出手段と、前記自車両と前記対象物との相対関係から安全運転基準を満たすか否かを判断する判定値を演算する演算手段と、前記判定値と、前記演算に対する基準値とを比較して、前記安全運転基準を満たさない危険運転を判定する判定手段と、前記判定手段で危険運転と判定された時間の前記周辺情報を抽出する危険運転抽出手段と、を含む、情報処理装置。
(Appendix 12)
Satisfy safe driving standards from the relative relationship between the acquisition means for acquiring driving information including the surrounding information of the own vehicle, the detecting means for detecting surrounding objects obtained from the surrounding information, and the own vehicle and the objects A calculation means for calculating a determination value for determining whether or not, a determination means for comparing the determination value with a reference value for the calculation to determine dangerous driving that does not satisfy the safe driving standard, and the determination means And an unsafe driving extraction means for extracting the peripheral information of the time determined as unsafe driving.

100:危険運転解析装置
121:映像処理部
122:対象物抽出部
123:相対情報算出部
124:危険運転抽出部
125:認知判定部
126:危険運転分類部
127:表示映像生成部
128:周辺情報DB
129:相対情報DB
130:危険運転情報DB
131:走行・操作情報DB
132:位置情報DB
133:危険運転パターンDB
134:各種対応表DB
135:視線データDB
136:視線判定部
150a:視線ベクトル
150:視線
151:視線空間
155a:ミラー視線ベクトル
155:ミラー視線
160a:対象物ベクトル
200:情報取得装置
250:運転教育用端末
300:自車両
400:三次元投影面
500:他車両
100: Dangerous driving analysis device
121: Video processing unit
122: Object extraction unit
123: Relative information calculation unit
124: Dangerous driving extraction unit
125: Recognition determination unit
126: Dangerous driving classification section
127: Display video generation unit
128: Peripheral information DB
129: Relative information DB
130: Dangerous driving information DB
131: Driving / operation information DB
132: Location information DB
133: Dangerous driving pattern DB
134: Various correspondence table DB
135: Gaze data DB
136: Gaze determination unit
150a: eye vector
150: Line of sight
151: Gaze space
155a: Mirror line of sight vector 155: Mirror line of sight
160a: object vector
200: Information acquisition device
250: Terminal for driving education
300: own vehicle 400: three-dimensional projection plane
500: Other vehicle

Claims (10)

自車両の周辺情報を含む運転情報を取得する取得ステップと、
前記周辺情報から得られる周囲の対象物を検出する検出ステップと、
前記自車両と前記対象物との相対関係から安全運転基準を満たすか否かを判断する判定値を演算する演算ステップと、
前記判定値と、前記演算に対する基準値とを比較して、前記安全運転基準を満たさない危険運転を判定する判定ステップと、
前記判定ステップで危険運転と判定された時間の前記周辺情報を抽出する危険運転抽出ステップと、を含む、情報処理方法。
An acquisition step of acquiring driving information including surrounding information of the own vehicle;
A detection step of detecting a surrounding object obtained from the surrounding information;
A calculation step of calculating a determination value for determining whether or not a safe driving standard is satisfied from a relative relationship between the host vehicle and the object;
A determination step of comparing the determination value with a reference value for the calculation to determine dangerous driving that does not satisfy the safe driving criterion;
A dangerous driving extraction step of extracting the peripheral information of the time determined to be dangerous driving in the determination step.
前記安全運転基準には、
前記自車両と前記対象物との相対距離に対する相対距離基準値、前記自車両と前記自車両の周辺に存在する各対象物とが衝突するまでの衝突予想時間であるTTC(Time to collision)に対するTTC基準値、単位時間あたりの前記TTCの変化率に対するTTC変化率基準値、前記自車両の加速度に対する加速度基準値及び/又は単位時間あたりの操舵角変化率に対する操舵角変化率基準値が含まれ、
前記危険運転抽出ステップでは、
前記相対距離が前記相対距離基準値よりも小さいとの条件、前記TTCが前記TTC基準値よりも小さいとの条件、前記TTCの変化率が前記TTC変化率基準値よりも大きいとの条件、前記自車両の加速度の大きさが前記加速度基準値よりも大きいとの条件、及び前記自車両の操舵角変化率が前記操舵角変化率基準値よりも大きいとの条件において、少なくとも1の条件を満たす前記運転情報から、前記危険運転の周辺情報を抽出する、請求項1に記載の情報処理方法。
The safe driving standards include
Relative distance reference value relative to the relative distance between the host vehicle and the object, and TTC (Time to collision) which is a predicted collision time until the host vehicle and each object existing around the host vehicle collide with each other. TTC reference value, TTC change rate reference value for the change rate of the TTC per unit time, acceleration reference value for the acceleration of the host vehicle and / or steering angle change rate reference value for the steering angle change rate per unit time are included. ,
In the dangerous driving extraction step,
A condition that the relative distance is smaller than the relative distance reference value; a condition that the TTC is smaller than the TTC reference value; a condition that the rate of change of the TTC is larger than the TTC change rate reference value; At least one condition is satisfied under the condition that the magnitude of the acceleration of the host vehicle is greater than the acceleration reference value and the condition that the steering angle change rate of the host vehicle is greater than the steering angle change rate reference value. The information processing method according to claim 1, wherein peripheral information about the dangerous driving is extracted from the driving information.
前記危険運転抽出ステップでは、
前記相対距離が前記相対距離基準値よりも小さいとの条件を満たし、かつ、前記TTCが前記TTC基準値よりも小さいとの条件、前記TTCの変化率が前記TTC変化率基準値よりも大きいとの条件、前記自車両の加速度の大きさが前記加速度基準値よりも大きいとの条件、前記自車両の操舵角変化率が前記操舵角変化率基準値よりも大きいとの条件において、少なくとも1の条件を満たす前記運転情報を、前記危険運転の情報として抽出する、請求項2に記載の情報処理方法。
In the dangerous driving extraction step,
When the condition that the relative distance is smaller than the relative distance reference value is satisfied and the TTC is smaller than the TTC reference value, the change rate of the TTC is larger than the TTC change rate reference value. The condition that the magnitude of the acceleration of the host vehicle is greater than the acceleration reference value, and the condition that the steering angle change rate of the host vehicle is greater than the steering angle change rate reference value. The information processing method according to claim 2, wherein the driving information that satisfies a condition is extracted as information on the dangerous driving.
前記危険運転抽出ステップは、
時間軸上の前記運転情報から、前記相対距離が前記相対距離基準値よりも小さいとの条件を満たす各接近区間を抽出する第1ステップと、
各接近区間の運転情報に基づいて、前記TTCの最小値、前記TTCの変化率の最大値、前記加速度の最大値、及び/又は、前記操舵角変化率の最大値を算出する第2ステップと、
各接近区間の中から、前記TTCの最小値が前記TTC基準値よりも小さいとの条件、前記TTCの変化率の最大値が前記TTC変化率基準値よりも大きいとの条件、前記加速度の大きさの最大値が前記加速度基準値よりも大きいとの条件、及び前記操舵角変化率の最大値が前記操舵角変化率基準値よりも大きいとの条件において、少なくとも1の条件を満たす接近区間を抽出し、前記抽出された接近区間の運転情報を前記危険運転の情報として抽出する第3ステップと、
を有する、請求項2に記載の情報処理方法。
The dangerous driving extraction step includes:
A first step of extracting each approach section that satisfies a condition that the relative distance is smaller than the relative distance reference value from the driving information on the time axis;
A second step of calculating a minimum value of the TTC, a maximum value of the rate of change of the TTC, a maximum value of the acceleration, and / or a maximum value of the rate of change of the steering angle based on driving information of each approach section; ,
Among each approaching section, a condition that the minimum value of the TTC is smaller than the TTC reference value, a condition that the maximum value of the change rate of the TTC is larger than the TTC change rate reference value, and the magnitude of the acceleration An approach section that satisfies at least one condition under the condition that the maximum value of the steering angle is greater than the acceleration reference value and the condition that the maximum value of the steering angle change rate is greater than the steering angle change rate reference value. A third step of extracting and extracting driving information of the extracted approaching section as information on the dangerous driving;
The information processing method according to claim 2, further comprising:
前記自車両の運転が危険運転であることを、前記自車両の運転者が認知しているか否かを判定する認知判定ステップをさらに有し、
前記危険運転抽出ステップでは、前記安全運転基準を満たさない危険運転の中から、前記認知判定ステップにおいて前記自車両の運転者が認知していないと判定された危険運転を、さらに抽出する、請求項1〜4のいずれかに記載の情報処理方法。
A recognition determination step of determining whether or not the driver of the host vehicle recognizes that the driving of the host vehicle is dangerous driving;
The dangerous driving extraction step further extracts dangerous driving determined as not recognized by the driver of the host vehicle in the recognition determination step from dangerous driving that does not satisfy the safe driving standard. The information processing method in any one of 1-4.
前記危険運転抽出ステップにおいて抽出された前記危険運転を、前記自車両の位置情報、前記自車両の走行情報、前記自車両の操作情報及び前記自車両の周辺に存在する対象物に関する情報を含む分類項目により分類する危険運転分類ステップをさらに含む、請求項1〜5のいずれかに記載の情報処理方法。   The dangerous driving extracted in the dangerous driving extraction step is a classification including position information of the own vehicle, traveling information of the own vehicle, operation information of the own vehicle, and information on an object existing around the own vehicle. The information processing method according to claim 1, further comprising a dangerous driving classification step of classifying by item. 前記運転情報は、前記自車両周辺の周辺情報に基づいて生成されており、
前記運転情報から抽出された危険運転を表示するための表示映像を、前記周辺情報に基づいて生成する表示映像生成ステップをさらに含む、請求項1に記載の情報処理方法。
The driving information is generated based on peripheral information around the host vehicle,
The information processing method according to claim 1, further comprising a display video generation step of generating a display video for displaying a dangerous driving extracted from the driving information based on the peripheral information.
前記表示映像生成ステップでは、視点と前記視点を原点とする視線方向とを受け付け、前記視点及び前記視線方向に基づいて、前記周辺情報から前記危険運転の表示映像を生成する、請求項7に記載の情報処理方法。   The display video generation step receives a viewpoint and a gaze direction with the viewpoint as an origin, and generates a display video of the dangerous driving from the peripheral information based on the viewpoint and the gaze direction. Information processing method. 自車両の周辺情報を含む運転情報を取得する取得手段、
前記周辺情報から得られる周囲の対象物を検出する検出手段、
前記自車両と前記対象物との相対関係から安全運転基準を満たすか否かを判断する判定値を演算する演算手段、
前記判定値と、前記演算に対する基準値とを比較して、前記安全運転基準を満たさない危険運転を判定する判定手段、及び
前記判定手段で危険運転と判定された時間の前記周辺情報を抽出する危険運転抽出手段としてコンピュータを機能させる情報処理プログラム。
Acquisition means for acquiring driving information including surrounding information of the host vehicle;
Detecting means for detecting a surrounding object obtained from the surrounding information;
A calculation means for calculating a determination value for determining whether or not a safe driving standard is satisfied from a relative relationship between the host vehicle and the object;
The determination value is compared with a reference value for the calculation, and determination means for determining dangerous driving that does not satisfy the safe driving standard, and the surrounding information of the time determined as dangerous driving by the determination means are extracted. An information processing program that causes a computer to function as dangerous driving extraction means.
自車両の周辺情報を含む運転情報を取得する取得手段と、
前記周辺情報から得られる周囲の対象物を検出する検出手段と、
前記自車両と前記対象物との相対関係から安全運転基準を満たすか否かを判断する判定値を演算する演算手段と、
前記判定値と、前記演算に対する基準値とを比較して、前記安全運転基準を満たさない危険運転を判定する判定手段と、
前記判定手段で危険運転と判定された時間の前記周辺情報を抽出する危険運転抽出手段と、を含む、情報処理装置。
Obtaining means for obtaining driving information including surrounding information of the own vehicle;
Detecting means for detecting a surrounding object obtained from the surrounding information;
A calculation means for calculating a determination value for determining whether or not a safe driving standard is satisfied from a relative relationship between the host vehicle and the object;
A determination unit that compares the determination value with a reference value for the calculation to determine dangerous driving that does not satisfy the safe driving standard;
An information processing apparatus comprising: dangerous driving extraction means for extracting the peripheral information at a time determined as dangerous driving by the determination means.
JP2010094154A 2010-04-15 2010-04-15 Information processing method, information processing program, and information processing apparatus Pending JP2011227571A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010094154A JP2011227571A (en) 2010-04-15 2010-04-15 Information processing method, information processing program, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010094154A JP2011227571A (en) 2010-04-15 2010-04-15 Information processing method, information processing program, and information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014218366A Division JP6160594B2 (en) 2014-10-27 2014-10-27 Dangerous driving recording method, dangerous driving recording program, and dangerous driving recording device

Publications (1)

Publication Number Publication Date
JP2011227571A true JP2011227571A (en) 2011-11-10

Family

ID=45042866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010094154A Pending JP2011227571A (en) 2010-04-15 2010-04-15 Information processing method, information processing program, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP2011227571A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127754A (en) * 2011-12-19 2013-06-27 Fujitsu Ltd Recording device, recording program and recording method
JP2015038773A (en) * 2014-10-27 2015-02-26 富士通株式会社 Dangerous driving recording method, dangerous driving recording program, and dangerous driving recording device
JP2016085326A (en) * 2014-10-24 2016-05-19 三菱プレシジョン株式会社 Vehicle driving simulation device
JP2017511907A (en) * 2013-12-17 2017-04-27 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited Method and system for recording vehicle data
JP2018031878A (en) * 2016-08-24 2018-03-01 トヨタ自動車株式会社 Driving evaluation device
JP2018045620A (en) * 2016-09-16 2018-03-22 株式会社東芝 Travel speed calculation apparatus and travel speed calculation method
JP2018045303A (en) * 2016-09-12 2018-03-22 株式会社デンソー Driving assist system
JP2020024580A (en) * 2018-08-07 2020-02-13 矢崎エナジーシステム株式会社 Driving evaluation device and vehicle-mounted device
WO2020208696A1 (en) * 2019-04-09 2020-10-15 三菱電機株式会社 Information recording control device and information recording control method
CN112164225A (en) * 2020-10-14 2021-01-01 腾讯科技(深圳)有限公司 Information processing method, device, equipment and storage medium
JP2021086342A (en) * 2019-11-27 2021-06-03 株式会社デンソーテン Information processing device and information processing method
CN112955937A (en) * 2019-02-27 2021-06-11 Jvc建伍株式会社 Recording/reproducing device, recording/reproducing method, and program
CN116153121A (en) * 2021-11-19 2023-05-23 北京万集科技股份有限公司 Violation parking warning method, device, system and storage medium
WO2024142433A1 (en) * 2022-12-26 2024-07-04 株式会社Jvcケンウッド Image recording system
WO2025057368A1 (en) * 2023-09-14 2025-03-20 本田技研工業株式会社 Information providing system, information processing device, information providing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268297A (en) * 1999-03-16 2000-09-29 Nissan Motor Co Ltd Safe driving evaluation device
JP2004302902A (en) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd Driving support system
JP2005242526A (en) * 2004-02-25 2005-09-08 Yamaha Corp Danger information presentation system for vehicle and display device thereof
JP2007047914A (en) * 2005-08-08 2007-02-22 Denso Corp Dangerous reaction point recording system and driving support system
JP2009035245A (en) * 2007-07-09 2009-02-19 Honda Motor Co Ltd Vehicle operation support device
JP2009181420A (en) * 2008-01-31 2009-08-13 Yazaki Corp Peripheral situation recording device for vehicles
JP2010079724A (en) * 2008-09-26 2010-04-08 Mazda Motor Corp Drive support apparatus for vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268297A (en) * 1999-03-16 2000-09-29 Nissan Motor Co Ltd Safe driving evaluation device
JP2004302902A (en) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd Driving support system
JP2005242526A (en) * 2004-02-25 2005-09-08 Yamaha Corp Danger information presentation system for vehicle and display device thereof
JP2007047914A (en) * 2005-08-08 2007-02-22 Denso Corp Dangerous reaction point recording system and driving support system
JP2009035245A (en) * 2007-07-09 2009-02-19 Honda Motor Co Ltd Vehicle operation support device
JP2009181420A (en) * 2008-01-31 2009-08-13 Yazaki Corp Peripheral situation recording device for vehicles
JP2010079724A (en) * 2008-09-26 2010-04-08 Mazda Motor Corp Drive support apparatus for vehicle

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127754A (en) * 2011-12-19 2013-06-27 Fujitsu Ltd Recording device, recording program and recording method
JP2017511907A (en) * 2013-12-17 2017-04-27 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited Method and system for recording vehicle data
GB2521377B (en) * 2013-12-17 2018-09-19 Jaguar Land Rover Ltd A method and system for replaying a vehicle journey
JP2016085326A (en) * 2014-10-24 2016-05-19 三菱プレシジョン株式会社 Vehicle driving simulation device
JP2015038773A (en) * 2014-10-27 2015-02-26 富士通株式会社 Dangerous driving recording method, dangerous driving recording program, and dangerous driving recording device
JP2018031878A (en) * 2016-08-24 2018-03-01 トヨタ自動車株式会社 Driving evaluation device
JP2018045303A (en) * 2016-09-12 2018-03-22 株式会社デンソー Driving assist system
JP2018045620A (en) * 2016-09-16 2018-03-22 株式会社東芝 Travel speed calculation apparatus and travel speed calculation method
JP7146516B2 (en) 2018-08-07 2022-10-04 矢崎エナジーシステム株式会社 Driving evaluation device and in-vehicle device
JP2020024580A (en) * 2018-08-07 2020-02-13 矢崎エナジーシステム株式会社 Driving evaluation device and vehicle-mounted device
CN112955937A (en) * 2019-02-27 2021-06-11 Jvc建伍株式会社 Recording/reproducing device, recording/reproducing method, and program
CN112955937B (en) * 2019-02-27 2023-06-02 Jvc建伍株式会社 Recording and reproducing apparatus, recording and reproducing method, and storage medium
WO2020208696A1 (en) * 2019-04-09 2020-10-15 三菱電機株式会社 Information recording control device and information recording control method
JPWO2020208696A1 (en) * 2019-04-09 2021-09-13 三菱電機株式会社 Information record control device and information record control method
JP2021086342A (en) * 2019-11-27 2021-06-03 株式会社デンソーテン Information processing device and information processing method
WO2022078149A1 (en) * 2020-10-14 2022-04-21 腾讯科技(深圳)有限公司 Information processing method, apparatus, and device, and computer readable storage medium
CN112164225A (en) * 2020-10-14 2021-01-01 腾讯科技(深圳)有限公司 Information processing method, device, equipment and storage medium
CN112164225B (en) * 2020-10-14 2023-07-25 腾讯科技(深圳)有限公司 Information processing method, device, equipment and storage medium
US12236778B2 (en) 2020-10-14 2025-02-25 Tencent Technology (Shenzhen) Company Limited Information processing method and apparatus, device, and computer-readable storage medium
CN116153121A (en) * 2021-11-19 2023-05-23 北京万集科技股份有限公司 Violation parking warning method, device, system and storage medium
CN116153121B (en) * 2021-11-19 2025-10-28 北京万集科技股份有限公司 Illegal parking warning method, device, system and storage medium
WO2024142433A1 (en) * 2022-12-26 2024-07-04 株式会社Jvcケンウッド Image recording system
WO2025057368A1 (en) * 2023-09-14 2025-03-20 本田技研工業株式会社 Information providing system, information processing device, information providing method, and program

Similar Documents

Publication Publication Date Title
JP2011227571A (en) Information processing method, information processing program, and information processing apparatus
JP6468454B2 (en) System and method for processing traffic sound data to provide driver assistance
JP7544502B2 (en) Driving assistance device and data collection system
JP7382327B2 (en) Information processing device, mobile object, information processing method and program
JP7188394B2 (en) Image processing device and image processing method
CN109636924B (en) Vehicle Multi-mode Augmented Reality System Based on 3D Modeling of Real Road Condition Information
JP2021192303A (en) Rider support system and method
WO2011064831A1 (en) Diagnosis device and diagnosis method
JP3327255B2 (en) Safe driving support system
US9135798B2 (en) Vehicle periphery monitoring device
EP1251032A2 (en) Apparatus and method of recognizing vehicle travelling behind
US20180134285A1 (en) Autonomous driving apparatus and vehicle including the same
JPWO2019181284A1 (en) Information processing equipment, mobile devices, and methods, and programs
JP7786398B2 (en) Information processing device, information processing method, program, mobile device, and information processing system
WO2011148455A1 (en) Video processing device, video processing method, and video processing program
KR101698781B1 (en) Driver assistance apparatus and Vehicle including the same
JP6160594B2 (en) Dangerous driving recording method, dangerous driving recording program, and dangerous driving recording device
CN111052174A (en) Image processing apparatus, image processing method, and program
CN103377495A (en) Driving monitoring system and driving monitoring method
WO2022014327A1 (en) Information processing device, information processing method, and program
CN114670822A (en) Detection method based on security terminal
JP7548847B2 (en) Driving Support Devices
US20220024462A1 (en) Control device for vehicle, control method for automated driven vehicle, and nontransitory recording medium provided with computer program
CN113212451A (en) Rearview auxiliary system for intelligent driving automobile
CN118288781A (en) Method, system, equipment and medium for displaying information outside vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150421