[go: up one dir, main page]

WO2012014972A1 - Vehicle behavior analysis device and vehicle behavior analysis program - Google Patents

Vehicle behavior analysis device and vehicle behavior analysis program Download PDF

Info

Publication number
WO2012014972A1
WO2012014972A1 PCT/JP2011/067241 JP2011067241W WO2012014972A1 WO 2012014972 A1 WO2012014972 A1 WO 2012014972A1 JP 2011067241 W JP2011067241 W JP 2011067241W WO 2012014972 A1 WO2012014972 A1 WO 2012014972A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
candidate area
candidate
unit
image frame
Prior art date
Application number
PCT/JP2011/067241
Other languages
French (fr)
Japanese (ja)
Inventor
修一 榎田
Original Assignee
国立大学法人九州工業大学
株式会社ホリバアイテック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人九州工業大学, 株式会社ホリバアイテック filed Critical 国立大学法人九州工業大学
Priority to JP2011545961A priority Critical patent/JP5809980B2/en
Publication of WO2012014972A1 publication Critical patent/WO2012014972A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the candidate area generated based on the horizontal edge may include an area including only the sky and the road surface.
  • the candidate area tracking unit detects the translation and size change of the texture of the candidate area using likelihood calculation without detecting the rotational movement and the shape change of the texture of the candidate area. It is possible to prevent the candidate area including only the road surface from being tracked. Therefore, it is possible to reduce the calculation for tracking candidate areas including other vehicles. In other words, the candidate area including only the sky and the road surface cannot be kept unique by the texture feature alone, and therefore the candidate area tracking unit of the present invention has a tracking function for tracking the candidate area. No.
  • Requirement (3) is used to determine whether the candidate area W2 obtained at time t is approaching rapidly. In the condition (3), the degree of approach based on the size change history of the candidate area W2 obtained from the tracking result is observed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

The objective of the present invention is not only to reduce the burden on an operator when determining, for instance, whether or not another vehicle was included as a cause of a rear-end accident case or a risk incident case, but to allow the determination to be made accurately, or to eliminate the need for the determination. In addition, the present invention is provided with a lateral edge extraction unit (202) for extracting a lateral edge X which exists within a reference image frame Ft for a predetermined time; a candidate area generation unit (203) for generating, with the lateral edge X as a reference, candidate areas (W2) which include all or a portion of other vehicles within the reference image frame Ft; and a candidate area tracking unit (204) for tracking the candidate areas (W2) in image frames other than the reference image frame Ft. Furthermore, the candidate area tracking unit (204) uses likelihood calculations to detect horizontal translation and resizing of textures of the candidate areas (W2) in tracking the candidate areas (W2).

Description

車両挙動解析装置及び車両挙動解析プログラムVehicle behavior analysis apparatus and vehicle behavior analysis program
 本発明は、ドライブレコーダ等の車載カメラにより得られた動画像を用いて車両の挙動を解析する車両挙動解析装置及びこの装置に用いられる車両挙動解析プログラムに関するものである。 The present invention relates to a vehicle behavior analysis apparatus that analyzes the behavior of a vehicle using a moving image obtained by an in-vehicle camera such as a drive recorder, and a vehicle behavior analysis program used in this apparatus.
 近年、運転中の自車両(自動車)の外部や内部の映像を自動的に記録して、事故やヒヤリハット等の際の客観的な状況を事後分析できるようにした車両搭載型のドライブレコーダが開発されてきている。例えばタクシーなどでは、日常運転の事後分析による事故予防対策や、事故予防に関わる知見の蓄積、事故が起こったときにはその原因の客観的な証拠、究明等のために、この種のドライブレコーダを搭載する動きも出てきている。 In recent years, vehicle-mounted drive recorders have been developed that automatically record images of the outside and inside of your vehicle (automobile) while driving, allowing you to analyze the objective situation in the event of an accident or near-miss event. Has been. For example, in a taxi, this type of drive recorder is installed for accident prevention measures through post-mortem analysis of daily driving, accumulation of knowledge related to accident prevention, objective evidence of the cause of an accident, investigation, etc. There is also a movement to do.
 このドライブレコーダは、(1)自車両の前方動画像(前方映像)、(2)自車両の加速度(前後又は左右方向)、(3)車速パルス、(4)ブレーキ信号、(5)ウィンカー信号、(6)GPS位置信号等が取得可能である。そして、これらの情報全てを利用することにより、事故やヒヤリハット等の際の自車両の挙動がある程度正確に解析可能となる。 This drive recorder is composed of (1) a forward moving image of the own vehicle (front image), (2) acceleration of the own vehicle (front / rear or left / right direction), (3) vehicle speed pulse, (4) brake signal, and (5) winker signal. (6) A GPS position signal or the like can be acquired. By using all of this information, it becomes possible to analyze the behavior of the host vehicle in the event of an accident, a near-miss, etc. to a certain degree of accuracy.
 一方で、自車両と周囲環境(例えば急接近する先行車両を含む。)との相対位置関係は、ドライブレコーダに内蔵されたカメラが取得した前方動画像から得ることが一般的である。そして、事故やヒヤリハット等の際の自車両と周囲環境との相対位置関係は、記録された前方動画像をオペレータが目視によって解析することで推定するようにしている。 On the other hand, the relative positional relationship between the host vehicle and the surrounding environment (including a preceding vehicle that approaches quickly) is generally obtained from a front moving image acquired by a camera built in the drive recorder. Then, the relative positional relationship between the host vehicle and the surrounding environment in the event of an accident or near-miss is estimated by the operator analyzing the recorded forward moving image by visual observation.
 具体的には非特許文献1に示すように、収集された前方動画像群からオペレータの目視により追突事故事例やヒヤリハット事例等を抽出する。そして、記録された画像1フレームずつに映る先行車両のリヤエンド幅をオペレータが指定し、車間距離を推定することで事故解析を行うようにしている。 Specifically, as shown in Non-Patent Document 1, a rear-end collision case, a near-miss case, and the like are extracted from the collected forward moving image group by an operator's visual observation. Then, the operator designates the rear end width of the preceding vehicle shown in each frame of the recorded image, and the accident analysis is performed by estimating the inter-vehicle distance.
 しかしながら、収集された多数の前方動画像1つ1つを目視により確認して、追突事故事例又はヒヤリハット事例を抽出する作業は、極めて煩雑且つ作業負担が大きいという問題がある。また、追突事故事例又はヒヤリハット事例の判断基準が、オペレータによって様々であり、上記事例の抽出漏れや錯誤が生じ易いという問題もある。このようなことから、抽出された前方動画像が、客観的に追突事故事例又はヒヤリハット事例ではないことがあり、この前方動画像を用いた上記の事故予防対策等が不正確になる。 However, there is a problem that the task of visually checking each of a large number of collected forward moving images and extracting a rear-end collision case or a near-miss case is extremely complicated and burdensome. In addition, there are various judgment criteria for rear-end collision cases or near-miss cases, depending on the operator, and there is a problem that extraction of the cases and mistakes are likely to occur. For this reason, the extracted forward moving image may not be objectively a rear-end collision case or a near-miss case, and the above accident prevention measures using the forward moving image become inaccurate.
 そこで本発明は、上記問題点を一挙に解決すべくなされたものであり、ドライブレコーダ等の車載カメラから得られた動画像内に、例えば追突事故事例又はヒヤリハット事例等の原因となる所定の挙動を示す他車両が含まれるか否かを判断するにあたり、オペレータの負担を軽減するだけでなく、その判断を正確に行えるようにすること、或いはその判断を不要にすることをその主たる所期課題とするものである。 Accordingly, the present invention has been made to solve the above-mentioned problems all at once, and in a moving image obtained from an in-vehicle camera such as a drive recorder, a predetermined behavior that causes, for example, a rear-end collision case or a near-miss case, etc. In order to determine whether or not other vehicles are included, the main objective is not only to reduce the burden on the operator, but also to make the determination accurately or to make the determination unnecessary. It is what.
 すなわち本発明に係る車両挙動解析装置は、車載カメラにより自車両の前方又は後方を撮影して得られた動画像が、自車両に対して所定の挙動を示す他車両を含むか否かを判断するものであり、前記動画像を構成する所定時刻の基準画像フレーム内に存在する横エッジを抽出する横エッジ抽出部と、前記横エッジ抽出部により得られた横エッジを基準として、前記基準画像フレーム内に前記他車両の全部又は一部を含む候補領域を生成する候補領域生成部と、前記基準画像フレーム以外の画像フレームにおいて前記候補領域を追跡する候補領域追跡部とを備え、前記候補領域追跡部が、尤度計算を用いたものであり、前記候補領域のテクスチャの回転移動及び形態変化を検出せず、前記候補領域のテクスチャの平行移動及びサイズ変更を検出して、前記候補領域を追跡するものであることを特徴とする。 That is, the vehicle behavior analysis apparatus according to the present invention determines whether or not a moving image obtained by photographing the front or rear of the host vehicle with an in-vehicle camera includes another vehicle exhibiting a predetermined behavior with respect to the host vehicle. A horizontal edge extraction unit for extracting a horizontal edge existing in a reference image frame at a predetermined time constituting the moving image, and the reference image based on the horizontal edge obtained by the horizontal edge extraction unit. A candidate area generating unit that generates a candidate area that includes all or part of the other vehicle in a frame; and a candidate area tracking unit that tracks the candidate area in an image frame other than the reference image frame. The tracking unit uses likelihood calculation and does not detect the rotational movement and shape change of the texture of the candidate area, but detects the parallel movement and size change of the texture of the candidate area. And characterized in that it is intended to track the candidate region.
 このようなものであれば、他車両の最上部(ルーフ)、最下部(リヤバンパ又は接地部)、もしくは中央部(リヤガラスの下辺又はトランク上部)等により横エッジが生じやすいことから、この横エッジにより候補領域を設定して、当該候補領域を追跡することにより、他車両を自動的に追跡できるようになる。これにより、オペレータが、候補領域追跡部の追跡結果を用いて、所定挙動を示す他車両を含むか否かを容易に判断できるようになる。したがって、オペレータの負担を軽減することができるだけでなく、オペレータの判断を正確に行うこと、或いはその判断を不要にすることができるようになる。 In such a case, a horizontal edge is likely to occur at the uppermost part (roof), the lowermost part (rear bumper or grounding part), or the central part (lower side of rear glass or upper trunk) of other vehicles. By setting a candidate area and tracking the candidate area, other vehicles can be automatically tracked. As a result, the operator can easily determine whether or not the vehicle includes another vehicle exhibiting a predetermined behavior using the tracking result of the candidate area tracking unit. Therefore, not only can the burden on the operator be reduced, but also the operator's judgment can be made accurately, or the judgment can be made unnecessary.
 また、横エッジを基準に生成された候補領域には、空や路面のみが含まれる領域が含まれる可能性がある。ここで候補領域追跡部が、候補領域のテクスチャの回転移動及び形態変化を検出せずに、尤度計算を用いて候補領域のテクスチャの平行移動及びサイズ変更を検出するものであるから、空又は路面のみが含まれる候補領域を追跡することを防止できる。したがって、他車両を含む候補領域を追跡するための計算を少なくすることができる。つまり、空や路面のみが含まれる候補領域は、そのテクスチャ特徴のみでは領域内での独自性が保たれないことから、本発明の候補領域追跡部は、その候補領域を追跡する追跡機能を有さない。一方で、基準画像フレームに含まれる他車両は後面又は前面を映し近づくため、基準画像フレーム中では同一テクスチャの平行移動とサイズ変更のみにより車両画像の変化が捉えられる。また、テクスチャ特徴も近傍内での独自性を十分に保有するほど複雑であり、本発明の候補領域追跡部は、他車両を含む候補領域のテクスチャ特徴に対しては追跡可能である。 In addition, the candidate area generated based on the horizontal edge may include an area including only the sky and the road surface. Here, the candidate area tracking unit detects the translation and size change of the texture of the candidate area using likelihood calculation without detecting the rotational movement and the shape change of the texture of the candidate area. It is possible to prevent the candidate area including only the road surface from being tracked. Therefore, it is possible to reduce the calculation for tracking candidate areas including other vehicles. In other words, the candidate area including only the sky and the road surface cannot be kept unique by the texture feature alone, and therefore the candidate area tracking unit of the present invention has a tracking function for tracking the candidate area. No. On the other hand, since other vehicles included in the reference image frame are projected and approach the rear surface or the front surface, a change in the vehicle image can be captured only by parallel movement and size change of the same texture in the reference image frame. In addition, the texture features are complex enough to have uniqueness in the vicinity, and the candidate region tracking unit of the present invention can track the texture features of candidate regions including other vehicles.
 前記候補領域追跡部の具体的な実施の態様としては、前記候補領域追跡部が、パーティクルフィルタを用いたものであることが考えられる。 As a specific embodiment of the candidate area tracking unit, it is conceivable that the candidate area tracking unit uses a particle filter.
 他車両が存在し得ない位置に生じる横エッジを排除し、当該横エッジにより生成される候補領域を排除して、候補領域生成部及び候補領域追跡部での計算量を軽減するためには、前記横エッジ検出部が、前記基準画像フレーム内に存在する横エッジの位置に基づいて、前記候補領域生成部に出力する横エッジを決定することが望ましい。 In order to reduce the amount of calculation in the candidate area generation unit and the candidate area tracking unit by eliminating the horizontal edge that occurs at a position where no other vehicle can exist, eliminating the candidate area generated by the horizontal edge, It is preferable that the horizontal edge detection unit determines a horizontal edge to be output to the candidate area generation unit based on a position of the horizontal edge existing in the reference image frame.
 特に車載カメラが自車両の前方又は後方を撮像するものであり、自車両に対して他車両の位置がある程度定まることから、前記横エッジ抽出部が、前記基準画像フレーム内において、先行又は後続の他車両が走行し得ない領域を除外してなる指定領域内に位置する横エッジ又は当該指定領域と所定値以上の重なり率を有する横エッジを候補領域生成部に出力することが望ましい。 In particular, the in-vehicle camera captures the front or rear of the host vehicle, and the position of the other vehicle is determined to some extent with respect to the host vehicle. Therefore, the lateral edge extraction unit performs the preceding or following in the reference image frame. It is desirable to output to the candidate area generation unit a horizontal edge located in a designated area that excludes areas where other vehicles cannot travel, or a lateral edge that has an overlap rate equal to or greater than a predetermined value.
 横エッジの主な発生要因となるのが、他車両の最上部(ルーフ)、最下部(リヤバンパ(フロントバンパ)又は接地部)、もしくは中央部(リヤガラス(フロントガラス)の下辺又はトランク上部)であることから、当該横エッジを基準として他車両を含むように候補領域を生成するためには、前記候補領域生成部が、1つの横エッジを含むように上下方向に複数の矩形状の候補領域を生成するものであることが望ましい。ここで横エッジを含むように候補領域を生成するとは、候補領域内に横エッジが含まれることの他、横エッジが候補領域の横辺となることも含む。 The main cause of horizontal edges is the top (roof), bottom (rear bumper (front bumper) or grounding part), or center (lower side of rear glass (front glass) or upper trunk) of other vehicles. Therefore, in order to generate a candidate area so as to include other vehicles on the basis of the horizontal edge, the candidate area generation unit includes a plurality of rectangular candidate areas in the vertical direction so as to include one horizontal edge. It is desirable to generate. Here, generating the candidate area so as to include the horizontal edge includes not only that the candidate area includes the horizontal edge but also that the horizontal edge becomes the horizontal side of the candidate area.
 前記候補領域追跡部の追跡結果を用いてオペレータが、所定の挙動を示す他車両が含まれるか否かを判断することも考えられるが、オペレータの判断要素を可及的に少なくして、前記判断の客観性を高めるためには、前記候補領域追跡部の追跡結果を用いて、前記候補領域内の特徴点の移動量から、前記動画像が自車両に対して所定速度で接近する他車両を含むか否かを判断する接近車両判断部を備えることが望ましい。 Although it is conceivable for the operator to determine whether or not other vehicles exhibiting a predetermined behavior are included using the tracking result of the candidate area tracking unit, the determination factor of the operator is reduced as much as possible, In order to increase the objectivity of the determination, another vehicle in which the moving image approaches the host vehicle at a predetermined speed from the amount of movement of the feature points in the candidate region using the tracking result of the candidate region tracking unit It is desirable to provide an approaching vehicle determination unit that determines whether or not a vehicle is included.
 例えば車載カメラにより撮影された複数の動画像データを格納している格納部から、追突事例又は追突に関連するヒヤリハット事例を自動的に抽出できるようにするためには、前記接近車両判断部が、前記車載カメラにより自車両の前方又は後方を撮影して得られた動画像群から、自車両に対して所定速度で接近する他車両を含む動画像を抽出するものであることが望ましい。 For example, in order to be able to automatically extract a rear-end collision case or a near-miss case related to a rear-end collision from a storage unit that stores a plurality of moving image data photographed by an in-vehicle camera, the approaching vehicle determination unit includes: It is desirable to extract a moving image including another vehicle approaching the host vehicle at a predetermined speed from a group of moving images obtained by photographing the front or rear of the host vehicle with the in-vehicle camera.
 また、本発明に係る車両挙動解析プログラムは、車載カメラにより自車両の前方又は後方を撮影して得られた動画像が、自車両に対して所定の挙動を示す他車両を含むか否かを判断する車両挙動解析プログラムであって、前記動画像を構成する所定時刻の基準画像フレーム内に存在する横エッジを抽出する横エッジ抽出部と、前記横エッジ抽出部により得られた横エッジを基準として、前記基準画像フレーム内に前記他車両の全部又は一部を含む候補領域を生成する候補領域生成部と、前記基準画像フレーム以外の画像フレームにおいて前記候補領域を追跡する候補領域追跡部との機能をコンピュータに備えさせ、前記候補領域追跡部が、尤度計算を用いたものであり、前記候補領域のテクスチャの回転移動及び形態変化を検出せず、前記候補領域のテクスチャの平行移動及びサイズ変更を検出して、前記候補領域を追跡するものであることを特徴とする。 Further, the vehicle behavior analysis program according to the present invention determines whether or not the moving image obtained by photographing the front or rear of the own vehicle with the in-vehicle camera includes another vehicle exhibiting a predetermined behavior with respect to the own vehicle. A vehicle behavior analysis program for judging, wherein a horizontal edge extraction unit for extracting a horizontal edge existing in a reference image frame at a predetermined time constituting the moving image, and a reference to the horizontal edge obtained by the horizontal edge extraction unit A candidate area generating unit that generates a candidate area that includes all or part of the other vehicle in the reference image frame, and a candidate area tracking unit that tracks the candidate area in an image frame other than the reference image frame. The candidate area tracking unit uses a likelihood calculation, and does not detect the rotational movement and shape change of the texture of the candidate area, To detect the translation and resizing texture auxiliary regions, and characterized in that to track the candidate region.
 このように構成した本発明によれば、ドライブレコーダ等の車載カメラから得られた動画像内に、例えば追突事故事例又はヒヤリハット事例等の原因となる所定の挙動を示す他車両が含まれるか否かを判断するにあたり、オペレータの負担を軽減するだけでなく、オペレータの判断を正確に行うこと、或いはその判断を不要にすることができるようになる。 According to the present invention configured as described above, whether or not the moving image obtained from the in-vehicle camera such as the drive recorder includes another vehicle exhibiting a predetermined behavior that causes a rear-end collision case or a near-miss case, for example. In this determination, not only the burden on the operator can be reduced, but also the operator's determination can be made accurately, or the determination can be made unnecessary.
本実施形態の車両挙動解析システムを模式的に示す図である。It is a figure showing typically the vehicle behavior analysis system of this embodiment. 同形態のドライブレコーダの構成要素を示す図である。It is a figure which shows the component of the drive recorder of the same form. 同形態の車両挙動解析装置の機能構成図である。It is a functional block diagram of the vehicle behavior analysis apparatus of the same form. 同形態の車両挙動解析装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle behavior analysis apparatus of the form. 同形態の横エッジ抽出部の横エッジ検出を示す模式図である。It is a schematic diagram which shows the horizontal edge detection of the horizontal edge extraction part of the same form. 同形態の指定領域及び当該領域を考慮した横エッジ抽出を示す模式図である。It is a schematic diagram which shows the horizontal edge extraction which considered the designated area | region of the same form, and the said area | region. 同形態の候補領域生成部の候補領域生成の一例を示す模式図である。It is a schematic diagram which shows an example of the candidate area | region production | generation of the candidate area | region production | generation part of the same form. 同形態の候補領域生成部の候補領域の絞り込みを示す模式図である。It is a schematic diagram which shows narrowing down of the candidate area | region of the candidate area | region production | generation part of the same form. 同形態の候補領域追跡部の追跡態様を示す模式図である。It is a schematic diagram which shows the tracking aspect of the candidate area | region tracking part of the same form.
100・・・ドライブレコーダ(車載カメラ)
200・・・車両挙動解析装置
t   ・・基準画像フレーム
202・・・横エッジ抽出部
X  ・・・横エッジ
W1 ・・・指定領域
203・・・候補領域生成部
W2 ・・・候補領域
204・・・接近車両判断部
100: Drive recorder (vehicle camera)
200... Vehicle behavior analysis device F t ... Reference image frame 202... Horizontal edge extraction unit X... Horizontal edge W1. ... Approaching vehicle judgment section
 以下に本発明に係る車両挙動解析システムの一実施形態について図面を参照して説明する。 Hereinafter, an embodiment of a vehicle behavior analysis system according to the present invention will be described with reference to the drawings.
 <1.システム構成>
 本実施形態に係る車両挙動解析システムは、図1に示すように、自動車(自車両)Vの前方を撮像するドライブレコーダ100と、当該ドライブレコーダ100により撮像された動画像データを取得して、当該動画像データが示す動画像内に自車両Vに対して所定の挙動を示す他車両を含むか否かを判断する車両挙動解析装置200とを備える。
<1. System configuration>
As shown in FIG. 1, the vehicle behavior analysis system according to the present embodiment acquires a drive recorder 100 that captures the front of an automobile (own vehicle) V, and moving image data captured by the drive recorder 100, And a vehicle behavior analysis apparatus 200 that determines whether or not the moving image indicated by the moving image data includes another vehicle that exhibits a predetermined behavior with respect to the host vehicle V.
 <2.ドライブレコーダ>
 ドライブレコーダ100は、フロントガラスに接着して、事故発生時あるいはヒヤリハット時等の前後一定期間における自動車V1の挙動や周囲状況等を記録する車両搭載型のものであり、単一のケーシング2内に、基本構成要素、すなわち、図2に示す検知手段3、情報処理手段8、報知手段4、入力手段5、通信手段6、着脱式記録手段7等を収容した一体構成にしている。
<2. Drive recorder>
The drive recorder 100 is attached to a windshield, and is a vehicle-mounted type that records the behavior of the automobile V1 and the surrounding situation during a certain period before and after an accident or near-miss, etc. In a single casing 2 , The basic components, that is, the detection unit 3, the information processing unit 8, the notification unit 4, the input unit 5, the communication unit 6, the detachable recording unit 7 and the like shown in FIG.
 検知手段3とは、車両Vの挙動や周囲状況等に関する状態をセンシングし、その状態を示す状態データを出力するものであり、ここでは、撮像手段31、加速度センサ32、位置センサ33の3種類を少なくとも用いている。撮像手段31は、自車両前方の車外状況を撮像し、その画像を示す状態データ(動画像データ)を出力する例えばCCDカメラである。加速度センサ32は、例えばピエゾ抵抗効果を利用して構成したもので、車両に作用する1~3次元(例えば3次元であれば、前後、左右、上下)の加速度をセンシングし、その加速度を示す状態データ(加速度データ)を出力するものである。位置センサ33は、例えば複数衛星からの電波をキャッチして自動車Vの位置をセンシングし、その位置を示す状態データ(位置データ)を出力するGPS受信機である。なお、状態データには、その他、自動車Vの車速センサから送信されてくる車速データや、ドアの開閉を示すドア開閉データや、ブレーキのON/OFFを示すブレーキデータ等があって、これらは、コネクタCNを介して受信される。またこのコネクタCNは、電源用としても用いるようにしている。 The detection means 3 senses a state relating to the behavior of the vehicle V, the surrounding situation, and the like, and outputs state data indicating the state. Here, three types of imaging means 31, an acceleration sensor 32, and a position sensor 33 are provided. At least. The imaging means 31 is, for example, a CCD camera that images a situation outside the vehicle ahead of the host vehicle and outputs state data (moving image data) indicating the image. The acceleration sensor 32 is configured by using, for example, the piezoresistive effect, and senses the acceleration of 1 to 3 dimensions (for example, front and rear, left and right, and up and down in the case of 3 dimensions) acting on the vehicle, and indicates the acceleration. State data (acceleration data) is output. The position sensor 33 is, for example, a GPS receiver that detects radio waves from a plurality of satellites, senses the position of the automobile V, and outputs state data (position data) indicating the position. In addition, the status data includes vehicle speed data transmitted from the vehicle speed sensor of the vehicle V, door opening / closing data indicating opening / closing of the door, brake data indicating ON / OFF of the brake, and the like. Received via connector CN. The connector CN is also used for a power source.
 報知手段4は、ケーシング2の表面に露出させた発光体であるLED41や、ケーシング2に内蔵したブザーやスピーカ等の音声出力体(図示しない)等からなる。 The notification unit 4 includes an LED 41 that is a light emitter exposed on the surface of the casing 2, an audio output body (not shown) such as a buzzer and a speaker built in the casing 2, and the like.
 入力手段5とは、ここでは、ケーシング2の表面に設けたボタンスイッチのことである。 Here, the input means 5 is a button switch provided on the surface of the casing 2.
 通信手段6とは、ここではケーシング2に内蔵され、基地局又は後述する車両挙動解析装置200と電波を送受信する例えば無線LANや携帯電話などの通信用のハードウェアのことである。 Here, the communication means 6 is communication hardware such as a wireless LAN or a mobile phone that is built in the casing 2 and transmits and receives radio waves to and from the base station or a vehicle behavior analysis device 200 described later.
 着脱式記録手段7とは、ここでは、ケーシング2の側方に開口するスロット2bに抜脱可能に取り付けた例えばCFメモリカードやSDメモリカードのことである。 The detachable recording means 7 is, for example, a CF memory card or an SD memory card that is detachably attached to the slot 2b that opens to the side of the casing 2.
 情報処理手段8は、構造的には、CPU81、内部メモリ82(例えば不揮発性メモリ)、I/Oバッファ回路(ADコンバータ等が含まれる場合もある)83等を有したいわゆるコンピュータ回路であり、ケーシングに内蔵されている。そして前記CPU81がメモリ82の所定領域に格納したプログラムに従って動作することで前記各手段の制御や情報処理を行う。 The information processing means 8 is a so-called computer circuit having a CPU 81, an internal memory 82 (for example, a non-volatile memory), an I / O buffer circuit (which may include an AD converter) 83, etc. Built in the casing. The CPU 81 operates according to a program stored in a predetermined area of the memory 82 to perform control of each means and information processing.
 簡単に説明するとCPU81は、走行中の種々の状態データ、すなわち加速度データや位置データ、動画像データ等を、メモリ82内に設定したテンポラリ領域(以下、一時データ格納部とも言う)に常時次々と更新しながら一時的に保存していくとともに、ヒヤリハットや事故、異常発生等の発生を間接的に示す事象が生じた場合に、その前後一定期間に亘る前記状態データを、メモリ82内の正規領域(以下、正規記録データ格納部とも言う)に移送して記録する。 In brief, the CPU 81 continuously and continuously stores various state data during traveling, that is, acceleration data, position data, moving image data, and the like in a temporary area (hereinafter also referred to as a temporary data storage unit) set in the memory 82. In the event that an event that indirectly indicates the occurrence of a near miss, an accident, an abnormality, or the like occurs, the status data over a certain period before and after that is stored in a normal area in the memory 82 (Hereinafter also referred to as a regular recording data storage unit) for recording.
 前記事象とは、加速度データが示す加速度(減速度)が所定基準値を超えた場合や、その時間が一定以上続いた場合、ドアが開閉された場合、車両の電源が切れた場合などがそれに相当する。ここでは、生じた事象によっては、車速が上限速度以上の場合、車速が加減速度以下の場合、ブレーキの有無などの他の条件のいくつかが合わせて成立した場合にのみ、それをトリガとしてデータ記録を行うようにし、無駄なデータの記録ができるだけ行われないようにしている。 Examples of the event include a case where the acceleration (deceleration) indicated by the acceleration data exceeds a predetermined reference value, a case where the time continues for a certain period, a case where the door is opened and closed, a case where the vehicle is turned off, etc. It corresponds to it. Here, depending on the event that occurred, data was triggered only when the vehicle speed was higher than the upper limit speed, when the vehicle speed was lower than the acceleration / deceleration, or when some other conditions such as the presence or absence of braking were met. Recording is performed so that useless data is recorded as little as possible.
 また、無駄なデータ記録の防止という観点から言えば、学習機能も備えている。すなわち、データ記録を行う前には、ヒヤリハットや事故等であったかどうかを、前記報知手段によって、必ずドライバーに報知手段によって報知し、ドライバーからの正否入力(例えば前記ボタンスイッチ5のON/OFF)を受けつけるようにしている。これを繰り返すことにより、ある程度ドライバーの運転傾向を把握し、例えば、加速度の所定基準値を変更するなどして、事故等を間接的に示す、そのドライバー特有の事象を学習する。 Also, from the viewpoint of preventing useless data recording, it also has a learning function. In other words, before performing data recording, whether or not a near-miss or an accident has occurred is always notified to the driver by the notification means, and correct / incorrect input from the driver (for example, ON / OFF of the button switch 5) is made. I try to accept it. By repeating this, the driver's driving tendency is grasped to some extent, and for example, the driver's unique phenomenon that indirectly indicates an accident or the like is learned by changing a predetermined reference value of acceleration.
 さらに、記録された状態データは、その記録されたときの状況から重み付けがなされて、記録すべき重要度に応じて分類される。そして、メモリ容量が一杯になった場合などでは、重要度の低いものから削除されて新たな状態データが記録されるように構成している。 Furthermore, the recorded status data is weighted according to the situation at the time of recording, and is classified according to the importance to be recorded. Then, when the memory capacity becomes full or the like, it is configured such that new status data is recorded after being deleted from the less important ones.
 このようにして正規に記録された状態データは、特定場所において、無線で解析センター(図示しない)に送信され、あるいは、着脱式記録手段7に移送されて抜き取られ、解析センターに運び込まれて、車両挙動解析装置200を用いた事後の解析に利用される。 The state data properly recorded in this way is transmitted to an analysis center (not shown) wirelessly at a specific place, or transferred to the removable recording means 7 and extracted, and brought to the analysis center. This is used for subsequent analysis using the vehicle behavior analysis apparatus 200.
 <3.車両挙動解析装置>
 車両挙動解析装置200は、複数の自動車に搭載されたドライブレコーダ100によって得られた動画像群から、自車両に対して所定速度で急接近する他車両(以下、事故対象車ともいう。)を含む動画像を抽出して事後の解析を支援するものである。この車両挙動解析装置200の具体的な機器構成としては、CPU、メモリ、入出力インタフェース、AD変換器等を備えた汎用乃至専用のコンピュータであり、前記メモリの所定領域に記憶させた車両挙動解析プログラムにしたがってCPU、周辺機器等を協働させることにより、図3に示すように、データ受付部201、動画像データ格納部D1、横エッジ抽出部202、候補領域生成部203、候補領域追跡部としての機能を有する接近車両判断部204、解析データ格納部D2等としての機能を発揮する。
<3. Vehicle Behavior Analysis Device>
The vehicle behavior analysis apparatus 200 refers to another vehicle (hereinafter also referred to as an accident target vehicle) that rapidly approaches the host vehicle at a predetermined speed from a group of moving images obtained by the drive recorder 100 mounted on a plurality of automobiles. It extracts moving images that contain them and supports post-mortem analysis. The specific device configuration of the vehicle behavior analysis apparatus 200 is a general purpose or dedicated computer equipped with a CPU, a memory, an input / output interface, an AD converter, etc., and a vehicle behavior analysis stored in a predetermined area of the memory. By cooperating the CPU and peripheral devices according to the program, as shown in FIG. 3, a data receiving unit 201, a moving image data storage unit D1, a horizontal edge extracting unit 202, a candidate region generating unit 203, a candidate region tracking unit The functions of the approaching vehicle determination unit 204, the analysis data storage unit D2, and the like having the functions of
 以下に、各部D1、D2、201~204について図4~図11を用いて動作とともに詳述する。 Hereinafter, each part D1, D2, 201 to 204 will be described in detail together with the operation with reference to FIGS.
 データ受付部201は、ドライブレコーダ100の正規記録データ格納部に格納された動画像データである状態データを受け付けて、その状態データを動画像データ格納部D1に格納する(図4、ステップS1)。データ受付部201は、ドライブレコーダ100に設けられた通信手段(送信機)6により無線LAN等を用いて送信される状態データを受信する受信機により構成しても良いし、ドライブレコーダ100に設けられた着脱式記録手段7である例えばCFカードを介して状態データを取得するものであっても良い。 The data receiving unit 201 receives state data that is moving image data stored in the regular recording data storage unit of the drive recorder 100, and stores the state data in the moving image data storage unit D1 (FIG. 4, step S1). . The data receiving unit 201 may be configured by a receiver that receives status data transmitted by using a wireless LAN or the like by the communication means (transmitter) 6 provided in the drive recorder 100, or provided in the drive recorder 100. For example, the state data may be acquired via a CF card which is the detachable recording means 7 provided.
 動画像データ格納部D1は、前記ドライブレコーダ100により撮像された動画像データである状態データを格納して蓄積するものである(図4、ステップS2)。なお、本実施形態では、動画像データ格納部D1は、複数台の自動車Vにより得られた複数の動画像データを体系的に格納するように構成している。 The moving image data storage unit D1 stores and accumulates state data that is moving image data captured by the drive recorder 100 (FIG. 4, step S2). In the present embodiment, the moving image data storage unit D1 is configured to systematically store a plurality of moving image data obtained by a plurality of automobiles V.
 横エッジ抽出部202は、動画像データ格納部D1に格納されている各動画像データを取得し、その動画像データが示す動画像の基準画像フレームF内に存在する横エッジXを抽出する(図4、ステップS3)。ここで基準画像フレームFとは、動画像を構成する所定時刻tの画像フレームであり、具体的には、例えば運転者がブレーキを踏み、所定値以上の加速度を生じさせた時点の画像フレームである。 Horizontal edge detection section 202 acquires the moving image data stored in the moving image data storage unit D1, extracts the horizontal edge X existing in the reference image frame F t of the moving image indicated by the video data (FIG. 4, step S3). Here, the reference image frame Ft is an image frame at a predetermined time t constituting a moving image. Specifically, for example, an image frame at a time when the driver steps on the brake to generate an acceleration of a predetermined value or more. It is.
 そして、横エッジ抽出部202は、図5に示すように、前記基準画像フレームFtを輝度画像ととらえて、例えば以下の(1)~(3)の3段階(3つの条件)で横エッジXを抽出する。
(1)Cannyフィルタによるエッジ検出、(2)オリジナルフィルタ畳み込み演算による横エッジ抽出、(3)ラベリング処理後の長さ・勾配・場所による閾値処理
 なお、横エッジXを抽出する方法は種々の手法が考えられる。
Then, as shown in FIG. 5, the horizontal edge extraction unit 202 regards the reference image frame Ft as a luminance image, and, for example, the horizontal edge X in the following three stages ( 1) to (3) (three conditions). To extract.
(1) Edge detection by Canny filter, (2) Horizontal edge extraction by original filter convolution operation, (3) Threshold processing by length / gradient / location after labeling processing. Can be considered.
 このような手法で抽出した横エッジの長さをlID、指定された前方領域W1とその横エッジXが重なる面積をlinとして、lin/lID>thのとき、前方領域W1に存在するとみなす。一方で、lin/lID≦thのとき、その横エッジXは前方領域W1に存在しないとして、候補領域W2を生成する横エッジXから外す。なお、th は、予め定めた定数である。ここで、前方領域(指定領域)W1とは、事故対象車が走行し得ない領域を除外してなる領域であり、図6に示すように、画像フレームの中心軸に関して対称であり、フレーム上部から所定位置までは一定幅を有し、当該所定位置から下方は徐々に拡開する領域であり、概略逆漏斗形状をなす。なお、前方領域W1は逆漏斗形状に限られずその他の形状であっても良い。 When the length of the horizontal edge extracted by such a method is l ID , and the area where the designated front area W1 overlaps the horizontal edge X is l in , when l in / l ID > th S , the front area W1 It is considered to exist. On the other hand, when l in / l ID ≦ th S , the horizontal edge X does not exist in the front area W1, and is excluded from the horizontal edge X that generates the candidate area W2. Note that th S is a predetermined constant. Here, the front area (designated area) W1 is an area excluding an area where the accident target vehicle cannot travel, and is symmetrical with respect to the central axis of the image frame as shown in FIG. From the predetermined position to the predetermined position, and the area below the predetermined position gradually expands to form a generally inverted funnel shape. The front region W1 is not limited to the reverse funnel shape, and may have other shapes.
 候補領域生成部203は、図7に示すように、上記3つの条件により横エッジ抽出部202が抽出した横エッジデータを取得して、当該横エッジXを基準として、基準画像フレームFt内に他車両の全部又は一部を含む候補領域W2を生成する(図4、ステップS4)。具体的に候補領域生成部203は、1つの横エッジXを含むように上下方向に複数の矩形状の候補領域W2を生成する。なお、横エッジデータには、横エッジXを構成する画素、およびラベリング処理により割り当てられたラベルIDが含まれる。 As shown in FIG. 7, the candidate area generation unit 203 acquires the horizontal edge data extracted by the horizontal edge extraction unit 202 based on the above three conditions, and uses the horizontal edge X as a reference in the other image frame Ft. A candidate area W2 including all or part of the vehicle is generated (FIG. 4, step S4). Specifically, the candidate area generation unit 203 generates a plurality of rectangular candidate areas W2 in the vertical direction so as to include one horizontal edge X. Note that the horizontal edge data includes the pixels constituting the horizontal edge X and the label ID assigned by the labeling process.
 詳細に候補領域生成部203は、横エッジ抽出部202により抽出された横エッジXから、以下の線分を作り出す。 In detail, the candidate area generation unit 203 creates the following line segment from the horizontal edge X extracted by the horizontal edge extraction unit 202.
Figure JPOXMLDOC01-appb-M000001
ここで0≦t≦1である。またPは線分上の点であり、
Figure JPOXMLDOC01-appb-M000001
Here, 0 ≦ t 1 ≦ 1. P is a point on the line segment,
Figure JPOXMLDOC01-appb-M000002
である。ここでの0≦α≦1は横エッジXに適用したオリジナルフィルタの効果で横エッジ線分の両端が縮んでいることを考慮するための定数であり、0≦t≦1は水平線分のy座標を{ymin、ymax}間で取るための定数である。
Figure JPOXMLDOC01-appb-M000002
It is. Here, 0 ≦ α ≦ 1 is a constant for considering that both ends of the horizontal edge line segment are contracted due to the effect of the original filter applied to the horizontal edge X, and 0 ≦ t 2 ≦ 1 is a horizontal line segment. It is a constant for taking the y coordinate between {y min , y max }.
 そして候補領域生成部203は、前記水平線分が事故対象車の最上部(ルーフ)、最下部(リヤバンパ・接地部)、もしくは中央部(リヤガラスの下辺・トランク上部)と仮定して候補領域W2を生成する。具体的に候補領域生成部203は、図7に示すように、上記の水平線分(横エッジX)を上辺として持つ正方形、下辺として持つ正方形、および右辺の中点と左辺の中点を結ぶ線として持つ正方形を基準画像フレームF内に生成する。つまり、1つの水平線分より3つの正方形の領域(候補領域W2)が生成されることとなる。なお、各辺について画像面(基準画像フレームF)からはみ出す場合は、画像フレームの縁にあたる座標を与え対応する。 The candidate area generation unit 203 assumes that the horizontal line segment is the uppermost part (roof), the lowermost part (rear bumper / grounding part), or the central part (lower side of rear glass / upper trunk) of the target vehicle. Generate. Specifically, as shown in FIG. 7, the candidate area generation unit 203 has a square having the above horizontal line segment (horizontal edge X) as the upper side, a square having the lower side, and a line connecting the midpoint of the right side and the midpoint of the left side. generating a square reference image frame F t having as. That is, three square areas (candidate areas W2) are generated from one horizontal line segment. When each side protrudes from the image plane (reference image frame F t ), the coordinates corresponding to the edge of the image frame are given.
 次に、候補領域生成部203は、図8に示すように、生成した候補領域W2の位置として条件の悪いものをふるい落とす処理を行う。具体的に候補領域生成部203は、先の処理により多数生成された候補領域W2について、射影幾何学的に矛盾が生じる候補領域W2を除外する。 Next, as shown in FIG. 8, the candidate area generation unit 203 performs a process of screening out the poor candidate condition as the position of the generated candidate area W2. Specifically, the candidate area generation unit 203 excludes candidate areas W2 in which there is a contradiction in projective geometry from a large number of candidate areas W2 generated by the previous processing.
 詳細に候補領域生成部203は、候補領域W2の下辺を接地点と見なすと、接地点が基準画像フレームFの下方に存在するとき(つまり、自車両Vに十分近いとき)に候補領域W2が小さすぎる場合には、矛盾が発生していると見なす。一方、接地点が基準画像フレームFの上方に存在するとき(つまり、自車両Vに十分遠いとき)に候補領域W2が大きすぎる場合には、矛盾が発生していると見なす。 Detail candidate area generation unit 203, when considered the lower side of the candidate area W2 and the ground point, when the ground point is present below the reference image frame F t (that is, when sufficiently close to the host vehicle V) candidate region W2 If is too small, it is considered that a contradiction has occurred. On the other hand, when the ground point is present above the reference image frame F t (that is, when sufficiently far into the vehicle V) when the candidate area W2 is too large, regarded as inconsistent is occurring.
 そこで、候補領域W2の下辺が持つy座標yをもとに、評価基準値lBaseを与える。 Therefore, the evaluation reference value l Base is given based on the y coordinate y b of the lower side of the candidate area W2.
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000003
 ここで、heightは前方画像の高さ[単位:画素]であり、画像平面において左上原点、x軸は右方向が正、y軸は下方向が正としている。σは上方向に行くときに評価基準値lBaseを縮める係数を制御する定数である。このように本実施形態の候補領域生成部203は、評価基準値lBaseを用い、各候補領域W2の下辺の長さが以下の条件を満たさないものは削除する。 Here, height is the height [unit: pixel] of the front image, and the upper left origin in the image plane, the right direction of the x axis is positive, and the lower direction of the y axis is positive. σ l is a constant that controls a coefficient for reducing the evaluation reference value l Base when going upward. As described above, the candidate area generation unit 203 of the present embodiment uses the evaluation reference value l Base and deletes the case where the length of the lower side of each candidate area W2 does not satisfy the following conditions.
Figure JPOXMLDOC01-appb-M000004
 ここで、β、γは受け入れる候補領域W2のサイズの自由度であり、β≦γとなる。
Figure JPOXMLDOC01-appb-M000004
Here, β and γ are degrees of freedom of the size of the candidate area W2 to be accepted, and β ≦ γ.
 その他にも、候補領域生成部203は、上辺のy座標yが時刻tの時点で下方に偏りすぎている場合(下記式(6))や下辺のy座標yが時刻tの時点で上方に偏りすぎている場合(下記式(7))等の簡単な矛盾についても検査する。 In addition, the candidate area generation unit 203 determines that the upper side y coordinate y t is too biased downward at the time t (the following equation (6)) or the lower side y coordinate y b is the time t. If there is too much bias upward (Equation (7) below), a simple contradiction is also inspected.
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000005
 以上により、候補領域生成部203は、時刻tにおける基準画像フレームF内に複数の候補領域W2を生成し、その候補領域データを接近車両判断部204に出力する。 As described above, the candidate area generation unit 203 generates a plurality of candidate areas W2 in the reference image frame F t at time t, and outputs the candidate area data to the approaching vehicle determination unit 204.
 接近車両判断部204は、前記候補領域生成部203により得られたそれぞれの候補領域W2について、動画像を構成する複数の画像フレームを過去に遡ることにより、候補領域W2内に事故対象車が含まれるか否かを示す信頼度を算出する(図4、ステップS5)。ここで過去に遡る画像フレームは、基準画像フレームFを始点とした過去に遡る複数の画像フレームである。本実施形態では、基準画像フレームFを始点とした過去に遡る時系列的に連続する40フレームである。また、信頼度は、事故対象車が持つ特性に関する条件を検査することで算出される。つまり本実施形態で定めた条件は、以下のとおりである. The approaching vehicle determination unit 204 includes an accident target vehicle in the candidate region W2 by tracing back a plurality of image frames constituting the moving image for each candidate region W2 obtained by the candidate region generation unit 203. The reliability indicating whether or not to be used is calculated (FIG. 4, step S5). Here, the image frame traced back in the past, a plurality of image frames back in reference image frame F t in the past was the starting point. In the present embodiment, there are 40 frames that are continuous in time series, starting from the reference image frame Ft as the starting point. In addition, the reliability is calculated by inspecting conditions regarding characteristics of the accident target vehicle. In other words, the conditions defined in this embodiment are as follows.
  (1)テクスチャの回転移動及び形態変化を考慮しない追跡機能で追跡可能
  (2)候補領域W2内に十分なコーナーを含む
  (3)追跡した候補領域W2が時刻を遡るごとに小さくなる
(1) Tracking is possible with a tracking function that does not take into account rotational movement of textures and changes in shape. (2) Sufficient corners are included in candidate area W2. (3) The tracked candidate area W2 becomes smaller each time the time goes back.
 条件(1)は、事故対象車は後背面のみが動画像に映されて近寄るため、候補領域W2中では同一テクスチャの変動が平行移動とサイズ変化のみにより記述可能であることから定められる。また、テクスチャ特徴も近傍内での独自性を十分保有するほど複雑であるので、弱い追跡機能で十分に追跡が可能となる。本実施形態では候補領域W2として、空や路面のみが含まれる候補領域W2が選出される可能性があるが、それらの候補領域W2はテクスチャ特徴のみでは近傍内での独自性が保たれず、弱い追跡機能では追跡結果が容易に破たんする。 Requirement (1) is determined because the vehicle subject to the accident is approached with only the rear and rear surfaces reflected in the moving image, and therefore, the variation of the same texture can be described only by translation and size change in the candidate area W2. In addition, since the texture feature is complex enough to have uniqueness in the vicinity, it can be sufficiently tracked with a weak tracking function. In the present embodiment, there is a possibility that a candidate area W2 including only the sky and the road surface is selected as the candidate area W2, but these candidate areas W2 are not unique in the neighborhood only by texture features, With the weak tracking function, the tracking result is easily broken.
 条件(2)については、候補領域W2が十分複雑なテクスチャを有しているかを確認するために設定している。車の後背面には十分なコーナーが観測されるが、一方、先にも述べた路面や空の領域については十分なコーナーが観測されないことが多い。 Condition (2) is set in order to confirm whether the candidate area W2 has a sufficiently complex texture. Sufficient corners are observed at the back of the car, but on the other hand, sufficient corners are often not observed on the road surface and the sky area described above.
 条件(3)については、時刻tで得られた候補領域W2が急速に近づいているかを判断するために利用する。条件(3)では追跡結果から得られる候補領域W2のサイズ変更履歴による接近度合いを観測する。 Requirement (3) is used to determine whether the candidate area W2 obtained at time t is approaching rapidly. In the condition (3), the degree of approach based on the size change history of the candidate area W2 obtained from the tracking result is observed.
 それぞれの条件について検査するために、本実施形態の接近車両判断部204は、パーティクルフィルタによる追跡(条件(1)(3)に利用)、Harrisオペレータによる領域内コーナーの検出(条件(2)に利用)、及びコーナーの移動量の算出(条件(2)に利用)を実行して、その結果を用いて信頼度の算出し、事故対象車の検出を行う。 In order to inspect for each condition, the approaching vehicle determination unit 204 of the present embodiment performs tracking by the particle filter (used for the conditions (1) and (3)), and detection of the corner in the area by the Harris operator (for the condition (2)). Use) and the calculation of the amount of movement of the corner (use for condition (2)), the reliability is calculated using the result, and the accident target vehicle is detected.
 接近車両判断部204は、候補領域追跡部としての機能を有しており、図9に示すように、候補領域W2を時刻tからnフレーム(例えばn=40)にかけてパーティクルフィルタにより追跡した結果、任意の時刻t-iの候補領域W2の左上頂点の座標(x(t-i),y(t-i))およびスケール情報(一辺の長さ)s(t-i)を得る(図4、ステップS5-1)。ただし、図9においては、基準画像フレームFの1フレーム前の画像フレームFt-1及び2フレーム前の画像フレームFt-2のみを示している。なお、パーティクルフィルタは、尤度計算を用いたものであり、候補領域W2のテクスチャの回転移動及び形態変化を検出せず、候補領域W2のテクスチャの平行移動及びサイズ変更を検出して、候補領域W2を追跡するものである。 The approaching vehicle determination unit 204 has a function as a candidate region tracking unit, and as shown in FIG. 9, as a result of tracking the candidate region W2 from time t to n frames (for example, n = 40) by the particle filter, The coordinates (x (ti), y (ti)) and scale information (length of one side) s (ti) of the candidate area W2 at an arbitrary time ti are obtained (FIG. 4). Step S5-1). However, FIG. 9 shows only the image frame F t-1 one frame before the reference image frame F t and the image frame F t-2 two frames before. The particle filter uses likelihood calculation, does not detect the rotational movement and shape change of the texture of the candidate area W2, detects the parallel movement and size change of the texture of the candidate area W2, and detects the candidate area. W2 is tracked.
 このとき接近車両判断部204は、以下の2つの条件を満たす候補領域W2についてのみ残し、次の評価を行う。 At this time, the approaching vehicle determination unit 204 leaves only the candidate area W2 that satisfies the following two conditions and performs the next evaluation.
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000006
 条件(a)は、候補領域W2の面積が縮小し続けているかを判断するものであり、条件(b)は、画像フレームの中心付近で候補領域W2が移動しているかを判断するものである。 Condition (a) is for determining whether the area of the candidate area W2 continues to shrink, and condition (b) is for determining whether the candidate area W2 is moving near the center of the image frame. .
 次に、接近車両判断部204は、全ての時刻でHarrisオペレータによるコーナー抽出を実行し、候補領域W2内の特徴点であるコーナーの総和、コーナーの移動量又はコーナーの移動量の総和等から追跡の信頼度を評価する。ここで、「信頼度」とは、候補領域W2内に車両が存在する否か、つまり候補領域W2が他車両を追跡しているか否か、又はその他車両が自車両に対して接近しているか否かを判断する1つの指標である。 Next, the approaching vehicle determination unit 204 performs corner extraction by the Harris operator at all times, and tracks from the sum of corners, the amount of movement of the corners, or the sum of the amounts of movement of the corners, which are feature points in the candidate area W2. Assess the reliability of Here, “reliability” means whether or not there is a vehicle in the candidate area W2, that is, whether or not the candidate area W2 is tracking another vehicle, or is the other vehicle approaching the host vehicle? It is one index for determining whether or not.
 候補領域W2毎に算出される信頼度が接近車両判断部204の最終出力であり、最大の信頼度が閾値以上であるときは,接近車両判断部204は、その候補領域W2を事故対象車領域と判断し、その事故対象車領域を示す事故対象車領域データをディスプレイなどの出力手段に出力する(図4、ステップS5-3)。また接近車両判断部204は、上記の判断結果を示す解析データを解析データ格納部D2に格納する。 When the reliability calculated for each candidate area W2 is the final output of the approaching vehicle determination unit 204, and the maximum reliability is greater than or equal to the threshold, the approaching vehicle determination unit 204 uses the candidate area W2 as the accident target vehicle area. The accident target vehicle area data indicating the accident target vehicle area is output to output means such as a display (FIG. 4, step S5-3). Further, the approaching vehicle determination unit 204 stores analysis data indicating the determination result in the analysis data storage unit D2.
 <本実施形態の効果>
 このように構成した本実施形態に係る車両挙動解析システムによれば、他車両の最上部(ルーフ)、最下部(リヤバンパ又は接地部)、もしくは中央部(リヤガラスの下辺又はトランク上部)等により横エッジXが生じやすいことから、この横エッジXにより候補領域W2を設定して、当該候補領域W2を追跡することにより、他車両を自動的に追跡できるようになる。これにより、オペレータが、候補領域追跡部としての機能を有する車両接近判断部204の追跡結果を用いて、所定挙動を示す他車両を含むか否かを容易に判断できるようになる。したがって、オペレータの負担を軽減することができるだけでなく、オペレータの判断を不要にすることができる。
<Effect of this embodiment>
According to the vehicle behavior analysis system according to the present embodiment configured as described above, the vehicle is laterally moved by the uppermost part (roof), the lowermost part (rear bumper or grounding part), or the central part (lower side of rear glass or upper trunk) of other vehicles. Since the edge X is likely to occur, by setting the candidate area W2 with the horizontal edge X and tracking the candidate area W2, it becomes possible to automatically track other vehicles. As a result, the operator can easily determine whether or not the vehicle includes an other vehicle exhibiting a predetermined behavior, using the tracking result of the vehicle approach determination unit 204 having a function as a candidate area tracking unit. Therefore, not only can the burden on the operator be reduced, but the operator's judgment can be made unnecessary.
 また、候補領域追跡部としての機能を有する車両接近判断部204が、候補領域W2のテクスチャの回転移動及び形態変化を検出せずに、尤度計算を用いて候補領域W2のテクスチャの平行移動及びサイズ変更を検出するものであるから、空又は路面のみが含まれる候補領域W2を追跡することを防止できる。 In addition, the vehicle approach determination unit 204 having a function as a candidate region tracking unit may detect the parallel movement of the texture of the candidate region W2 using likelihood calculation without detecting the rotational movement and the shape change of the texture of the candidate region W2. Since the size change is detected, it is possible to prevent the candidate area W2 including only the sky or the road surface from being tracked.
 <その他の変形実施形態>
 なお、本発明は前記実施形態に限られるものではない。
<Other modified embodiments>
The present invention is not limited to the above embodiment.
 例えば、先行車両tの車間距離を推定できるように構成しても良い。このときカメラモデルにおける幾何学的関係を用いて例えば以下の手順で行う。但し前提条件として、焦点距離f(pixel)、取付高h(cm)、画像中心y(pixel)(画像平面の原点は左上とし、y軸は下向きが正方向とする。)、取付角度θ(°)(取付角度は俯角方向が正、仰角方向が負であり、0°は路面と水平のときである。)、接地点の画像座標中のy座標yin(pixel)(候補領域W2の下辺が持つy座標を用いる。)が分かっているとする。 For example, the inter-vehicle distance of the preceding vehicle t may be estimated. At this time, for example, the following procedure is performed using the geometric relationship in the camera model. However, as preconditions, the focal length f (pixel), the mounting height h (cm), the image center y c (pixel) (the origin of the image plane is the upper left, and the y axis is the downward direction in the positive direction), and the mounting angle θ. (°) (The mounting angle is positive in the depression direction and negative in the elevation direction, and 0 ° is horizontal with the road surface.), Y coordinate y in (pixel) in the image coordinates of the contact point (candidate area W2 Is used).
 このとき、まず無限遠線と画像中心yのずれyoffをyoff=f×tan(|θ|)から求める。次に接地点が無限遠線以下に有るかを判定するため、消失点が持つy座標yinfを以下の式から求める。 At this time, first, a deviation y off between the infinity line and the image center y c is obtained from y off = f × tan (| θ |). Next, in order to determine whether the ground point is below the infinity line, the y coordinate y inf of the vanishing point is obtained from the following equation.
Figure JPOXMLDOC01-appb-M000007
 但し、signは符号関数であり、yinf<yinの場合に接地点が無限遠線より下にあり、yinf>yinの場合に接地点が無限遠線より上にあるとする。
Figure JPOXMLDOC01-appb-M000007
However, sign is a sign function, and when y inf <y in , the ground point is below the infinity line, and when y inf > y in , the ground point is above the infinity line.
 そして、接地点が無限遠線以下であれば車間距離distを以下の式から求める。 And, if the grounding point is below the infinity line, the inter-vehicle distance dist is obtained from the following formula.
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000008
 また、前記実施形態では候補領域生成部が横エッジXに基づき3つの候補領域W2を生成するものであったが、これに限られず、2つの候補領域W2を上下方向に生成するようにしても良いし、4つ以上の候補領域W2を生成するものであっても良い。このようにして求めた車間距離と自車両の加速度等とから追突危険度を算出することで、ドライバーの運転評価や運転技術向上のための資料に用いることができる。 In the above-described embodiment, the candidate area generation unit generates three candidate areas W2 based on the horizontal edge X. However, the present invention is not limited to this, and the two candidate areas W2 may be generated in the vertical direction. It is also possible to generate four or more candidate regions W2. By calculating the rear-end collision risk from the inter-vehicle distance and the acceleration of the host vehicle thus obtained, it can be used as data for driver's driving evaluation and driving technique improvement.
 さらに、前記実施形態の車両接近判断部は、候補領域W2のサイズ変更履歴のみによって事故対象車の急接近を判断するようにしても良い。 Furthermore, the vehicle approach determination unit of the above embodiment may determine the sudden approach of the accident target vehicle based only on the size change history of the candidate area W2.
 その上、前記実施形態では、車両接近判断部が候補領域追跡部としての機能を有するものであったが、車両接近判断部と候補領域追跡部とを別々に設け、候補領域追跡部の追跡結果を用いて車両接近判断部が事項対象車両の急接近を判断するように構成しても良い。 In addition, in the embodiment, the vehicle approach determination unit has a function as a candidate region tracking unit. However, the vehicle approach determination unit and the candidate region tracking unit are provided separately, and the tracking result of the candidate region tracking unit is provided. It may be configured such that the vehicle approach determination unit determines the rapid approach of the subject object vehicle using.
 加えて、車両挙動解析装置は、車両接近判断部を有さず、候補領域追跡部の追跡結果を画面上に表示して、オペレータに事故対象車の急接近であるか否かを判断させるように構成しても良い。 In addition, the vehicle behavior analysis device does not have the vehicle approach determination unit, and displays the tracking result of the candidate area tracking unit on the screen so that the operator can determine whether or not the target vehicle is a sudden approach. You may comprise.
 さらに加えて、前記実施形態では、ドライブレコーダをフロントガラスに設けて自車両の前方を撮像して所定挙動を示す先行車両の有無を判断するものであったが、ドライブレコーダやその他の車載カメラをリアガラス等の自車両の後部に設けて後方を撮像し、所定挙動を示す後続車両の有無を判断するものであっても良い。 In addition, in the above embodiment, the drive recorder is provided on the windshield and the front of the host vehicle is imaged to determine the presence or absence of a preceding vehicle that exhibits a predetermined behavior. It may be provided in the rear part of the host vehicle such as rear glass, and the rear side may be imaged to determine the presence or absence of a following vehicle exhibiting a predetermined behavior.
 その他、本発明は前記実施形態に限られず、その趣旨を逸脱しない範囲で種々の変形が可能であるのは言うまでもない。 In addition, it goes without saying that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.
 本発明により、ドライブレコーダ等の車載カメラから得られた動画像内に、例えば追突事故事例又はヒヤリハット事例等の原因となる所定の挙動を示す他車両が含まれるか否かを判断するにあたり、オペレータの負担を軽減するだけでなく、その判断を正確に行えるようにすること、或いはその判断を不要にすることができる。 According to the present invention, in determining whether or not a moving image obtained from an in-vehicle camera such as a drive recorder includes another vehicle that exhibits a predetermined behavior that causes, for example, a rear-end collision case or a near-miss case, the operator In addition to reducing the burden, it is possible to make the determination accurately, or to make the determination unnecessary.

Claims (8)

  1.  車載カメラにより自車両の前方又は後方を撮影して得られた動画像が、自車両に対して所定の挙動を示す他車両を含むか否かを判断するものであり、
     前記動画像を構成する所定時刻の基準画像フレーム内に存在する横エッジを抽出する横エッジ抽出部と、
     前記横エッジ抽出部により得られた横エッジを基準として、前記基準画像フレーム内に前記他車両の全部又は一部を含む候補領域を生成する候補領域生成部と、
     前記基準画像フレーム以外の画像フレームにおいて前記候補領域を追跡する候補領域追跡部とを備え、
     前記候補領域追跡部が、尤度計算を用いたものであり、前記候補領域のテクスチャの回転移動及び形態変化を検出せず、前記候補領域のテクスチャの平行移動及びサイズ変更を検出して、前記候補領域を追跡するものである車両挙動解析装置。
    It is determined whether or not the moving image obtained by photographing the front or rear of the host vehicle with the in-vehicle camera includes another vehicle that exhibits a predetermined behavior with respect to the host vehicle.
    A horizontal edge extracting unit that extracts a horizontal edge existing in a reference image frame at a predetermined time constituting the moving image;
    A candidate area generation unit that generates a candidate area including all or part of the other vehicle in the reference image frame with reference to the horizontal edge obtained by the horizontal edge extraction unit;
    A candidate area tracking unit that tracks the candidate area in an image frame other than the reference image frame,
    The candidate area tracking unit uses likelihood calculation, does not detect the rotational movement and shape change of the texture of the candidate area, detects the parallel movement and size change of the texture of the candidate area, A vehicle behavior analysis apparatus that tracks candidate areas.
  2.  前記横エッジ検出部が、前記基準画像フレーム内に存在する横エッジの位置に基づいて、前記候補領域生成部に出力する横エッジを決定する請求項1記載の車両挙動解析装置。 The vehicle behavior analysis device according to claim 1, wherein the lateral edge detection unit determines a lateral edge to be output to the candidate region generation unit based on a position of a lateral edge existing in the reference image frame.
  3.  前記横エッジ抽出部が、前記基準画像フレーム内において、先行又は後続の他車両が走行し得ない領域を除外してなる指定領域内に位置する横エッジ又は当該指定領域と所定値以上の重なり率を有する横エッジを候補領域生成部に出力する請求項1記載の車両挙動解析装置。 In the reference image frame, the horizontal edge extraction unit excludes a region where a preceding or subsequent other vehicle cannot travel, and is located in a specified region or an overlap rate of a predetermined value or more with the specified region. The vehicle behavior analysis apparatus according to claim 1, wherein a lateral edge having a value is output to the candidate area generation unit.
  4.  前記候補領域生成部が、1つの横エッジを含むように上下方向に複数の矩形状の候補領域を生成する請求項1記載の車両挙動解析装置。 The vehicle behavior analysis device according to claim 1, wherein the candidate region generation unit generates a plurality of rectangular candidate regions in the vertical direction so as to include one horizontal edge.
  5.  前記候補領域追跡部の追跡結果を用いて、前記候補領域内の特徴点の移動量から、前記動画像が自車両に対して所定速度で接近する他車両を含むか否かを判断する接近車両判断部を備える請求項1記載の車両挙動解析装置。 An approaching vehicle that uses the tracking result of the candidate region tracking unit to determine whether or not the moving image includes another vehicle that approaches the host vehicle at a predetermined speed from the movement amount of the feature point in the candidate region The vehicle behavior analysis apparatus according to claim 1, further comprising a determination unit.
  6.  前記接近車両判断部が、前記車載カメラにより自車両の前方又は後方を撮影して得られた動画像群から、自車両に対して所定速度で接近する他車両を含む動画像を抽出するものである請求項5記載の車両挙動解析装置。 The approaching vehicle determination unit extracts a moving image including another vehicle approaching the host vehicle at a predetermined speed from a group of moving images obtained by photographing the front or rear of the host vehicle with the in-vehicle camera. The vehicle behavior analysis apparatus according to claim 5.
  7.  前記接近車両判断部が、前記抽出された動画像から、自車両及び他車両の車間距離を算出し、当該車間距離と自車両の加速度とから衝突危険度を算出可能である請求項6記載の車両挙動解析装置。 The said approaching vehicle judgment part can calculate the inter-vehicle distance of the own vehicle and another vehicle from the extracted moving image, and can calculate the collision risk from the inter-vehicle distance and the acceleration of the own vehicle. Vehicle behavior analysis device.
  8.  車載カメラにより自車両の前方又は後方を撮影して得られた動画像が、自車両に対して所定の挙動を示す他車両を含むか否かを判断する車両挙動解析プログラムであって、
     前記動画像を構成する所定時刻の基準画像フレーム内に存在する横エッジを抽出する横エッジ抽出部と、
     前記横エッジ抽出部により得られた横エッジを基準として、前記基準画像フレーム内に前記他車両の全部又は一部を含む候補領域を生成する候補領域生成部と、
     前記基準画像フレーム以外の画像フレームにおいて前記候補領域を追跡する候補領域追跡部との機能をコンピュータに備えさせ、
     前記候補領域追跡部が、尤度計算を用いたものであり、前記候補領域のテクスチャの回転移動及び形態変化を検出せず、前記候補領域のテクスチャの平行移動及びサイズ変更を検出して、前記候補領域を追跡するものである車両挙動解析プログラム。
     
    A vehicle behavior analysis program for determining whether or not a moving image obtained by photographing the front or rear of the host vehicle with an in-vehicle camera includes another vehicle exhibiting a predetermined behavior with respect to the host vehicle,
    A horizontal edge extracting unit that extracts a horizontal edge existing in a reference image frame at a predetermined time constituting the moving image;
    A candidate area generation unit that generates a candidate area including all or part of the other vehicle in the reference image frame with reference to the horizontal edge obtained by the horizontal edge extraction unit;
    A computer is provided with a function with a candidate area tracking unit that tracks the candidate area in an image frame other than the reference image frame,
    The candidate area tracking unit uses likelihood calculation, does not detect the rotational movement and shape change of the texture of the candidate area, detects the parallel movement and size change of the texture of the candidate area, A vehicle behavior analysis program for tracking candidate areas.
PCT/JP2011/067241 2010-07-30 2011-07-28 Vehicle behavior analysis device and vehicle behavior analysis program WO2012014972A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011545961A JP5809980B2 (en) 2010-07-30 2011-07-28 Vehicle behavior analysis apparatus and vehicle behavior analysis program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010172695 2010-07-30
JP2010-172695 2010-07-30

Publications (1)

Publication Number Publication Date
WO2012014972A1 true WO2012014972A1 (en) 2012-02-02

Family

ID=45530172

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/067241 WO2012014972A1 (en) 2010-07-30 2011-07-28 Vehicle behavior analysis device and vehicle behavior analysis program

Country Status (3)

Country Link
JP (1) JP5809980B2 (en)
TW (1) TW201211941A (en)
WO (1) WO2012014972A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014146289A (en) * 2013-01-30 2014-08-14 Denso Corp Vehicle information collection device, vehicle information collection method, information storage method and information integration system
US10185857B2 (en) 2017-06-14 2019-01-22 Canon Information And Imaging Solutions, Inc. Devices, systems, and methods for reading barcodes
JP2020532811A (en) * 2017-08-04 2020-11-12 トゥルーモーション,インコーポレイテッド Methods and systems for accident detection using contextual data
EP4081982A4 (en) * 2019-12-23 2023-08-16 A^3 By Airbus, LLC SYSTEMS AND PROCEDURES FOR EFFECTIVE DETECTION OF COLLISION HAZARDS

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201522914A (en) * 2013-12-06 2015-06-16 Univ Ming Chi Technology Probability index system for vehicle crash
US11383733B2 (en) * 2020-01-31 2022-07-12 Mitac Digital Technology Corporation Method and system for detecting a dangerous driving condition for a vehicle, and non-transitory computer readable medium storing program for implementing the method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003660A (en) * 2006-06-20 2008-01-10 Nissan Motor Co Ltd Approaching vehicle detection device
JP2008282409A (en) * 2008-05-30 2008-11-20 Honda Motor Co Ltd Object recognition device
JP2008293122A (en) * 2007-05-22 2008-12-04 Fujitsu Ten Ltd Obstacle monitoring device
JP2008293504A (en) * 2008-05-30 2008-12-04 Honda Motor Co Ltd Object recognition device
JP2009199363A (en) * 2008-02-21 2009-09-03 Toshiba Corp Tracking system using particle filtering
JP2010517139A (en) * 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting and tracking a vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6760061B1 (en) * 1997-04-14 2004-07-06 Nestor Traffic Systems, Inc. Traffic sensor
JP4835109B2 (en) * 2005-10-31 2011-12-14 アイシン精機株式会社 Parking target position setting device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003660A (en) * 2006-06-20 2008-01-10 Nissan Motor Co Ltd Approaching vehicle detection device
JP2010517139A (en) * 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting and tracking a vehicle
JP2008293122A (en) * 2007-05-22 2008-12-04 Fujitsu Ten Ltd Obstacle monitoring device
JP2009199363A (en) * 2008-02-21 2009-09-03 Toshiba Corp Tracking system using particle filtering
JP2008282409A (en) * 2008-05-30 2008-11-20 Honda Motor Co Ltd Object recognition device
JP2008293504A (en) * 2008-05-30 2008-12-04 Honda Motor Co Ltd Object recognition device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014146289A (en) * 2013-01-30 2014-08-14 Denso Corp Vehicle information collection device, vehicle information collection method, information storage method and information integration system
US10185857B2 (en) 2017-06-14 2019-01-22 Canon Information And Imaging Solutions, Inc. Devices, systems, and methods for reading barcodes
JP2020532811A (en) * 2017-08-04 2020-11-12 トゥルーモーション,インコーポレイテッド Methods and systems for accident detection using contextual data
US11587368B2 (en) 2017-08-04 2023-02-21 Cambridge Mobile Telematics Inc. Method and system for accident detection using contextual data
US11961340B2 (en) 2017-08-04 2024-04-16 Cambridge Mobile Telematics Inc. Method and system for accident detection using contextual data
JP7470486B2 (en) 2017-08-04 2024-04-18 ケンブリッジ モバイル テレマティクス,インク. How to Generate an Incident Report
US12300042B2 (en) 2017-08-04 2025-05-13 Cambridge Mobile Telematics Inc. Method and system for accident detection using contextual data
EP4081982A4 (en) * 2019-12-23 2023-08-16 A^3 By Airbus, LLC SYSTEMS AND PROCEDURES FOR EFFECTIVE DETECTION OF COLLISION HAZARDS

Also Published As

Publication number Publication date
JPWO2012014972A1 (en) 2013-09-12
JP5809980B2 (en) 2015-11-11
TW201211941A (en) 2012-03-16

Similar Documents

Publication Publication Date Title
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
US9047518B2 (en) Method for the detection and tracking of lane markings
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
CN104616502B (en) Car license recognition and alignment system based on combination type bus or train route video network
JP5809980B2 (en) Vehicle behavior analysis apparatus and vehicle behavior analysis program
US20170154241A1 (en) Detecting visual information corresponding to an animal
CN109263557B (en) Vehicle blind area detection method
JP2015007953A (en) Apparatus, method, and computer readable medium for monitoring the number of passengers in automobile
JP6818626B2 (en) Vehicle type discrimination device, vehicle type discrimination method, and vehicle type discrimination system
KR101264282B1 (en) detection method vehicle in road using Region of Interest
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
CN105336217A (en) Driving safety prewarning system based on machine vision and Android platform
JP5077088B2 (en) Image processing apparatus and image processing method
CN110991264A (en) Front vehicle detection method and device
CN107097794A (en) System and method for detecting lane line of road
JP2015090679A (en) Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
EP2741234B1 (en) Object localization using vertical symmetry
JP2009245042A (en) Traffic flow measurement device and program
TWI531499B (en) Anti-collision warning method and device for tracking moving object
US20220101025A1 (en) Temporary stop detection device, temporary stop detection system, and recording medium
CN108629225B (en) Vehicle detection method based on multiple sub-images and image significance analysis
CN114898325A (en) Vehicle dangerous lane change detection method and device and electronic equipment
Cualain et al. Multiple-camera lane departure warning system for the automotive environment
JP5957182B2 (en) Road surface pattern recognition method and vehicle information recording apparatus

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2011545961

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11812561

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11812561

Country of ref document: EP

Kind code of ref document: A1