JP2019175372A - Danger prediction device, method for predicting dangers, and program - Google Patents
Danger prediction device, method for predicting dangers, and program Download PDFInfo
- Publication number
- JP2019175372A JP2019175372A JP2018066045A JP2018066045A JP2019175372A JP 2019175372 A JP2019175372 A JP 2019175372A JP 2018066045 A JP2018066045 A JP 2018066045A JP 2018066045 A JP2018066045 A JP 2018066045A JP 2019175372 A JP2019175372 A JP 2019175372A
- Authority
- JP
- Japan
- Prior art keywords
- data
- vehicle
- moving
- image data
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】車両の運転者の死角となる後方部及び側方部において、車両と交通弱者との交通事故を未然に防ぐための情報を運転者に提供すること。【解決手段】距離データ生成部111は距離データを生成する。反射データ表示部311は距離データを時間軸の方向に蓄積させた時空間データを含む入力データに基づいて、反射物21の時空間上の距離変化を示す第1画像データを生成し、生成された第1画像データ上に、反射物21の反射データを表示させる。第1識別部312は反射データUを移動体反射データと、固定体反射データとに識別する。移動体データ生成部313は移動体データを生成する。撮像部102は車両10の周囲を撮像する。第2画像データ生成部122は第2画像データを生成する。第2識別部103は第2画像データに含まれる移動体のうち、車両10に接近する移動体31を識別する。【選択図】図3The present invention provides a driver with information for preventing a traffic accident between a vehicle and a vulnerable person in a rear part and a side part which is a blind spot of a driver of the vehicle. A distance data generation unit generates distance data. The reflection data display unit 311 generates first image data indicating a spatio-temporal distance change of the reflection object 21 based on input data including spatio-temporal data in which distance data is accumulated in the direction of the time axis. The reflection data of the reflection object 21 is displayed on the first image data. The first identification unit 312 identifies the reflection data U into moving object reflection data and fixed object reflection data. The mobile data generation unit 313 generates mobile data. The imaging unit 102 captures an image around the vehicle 10. The second image data generator 122 generates second image data. The second identification unit 103 identifies the moving object 31 approaching the vehicle 10 among the moving objects included in the second image data. [Selection diagram] FIG.
Description
本発明は、危険予測装置、危険予測方法、及びプログラムに関する。 The present invention relates to a risk prediction device, a risk prediction method, and a program.
事業用貨物自動車による死亡事故者数が減少傾向にある中、事業用大型車による死亡事故者数については減少傾向が鈍化している。また、事業用大型車が関係する死亡事故のうち、対「人」の比率が4割近くを占め、そのうち7割近くが、人の横断中に発生し、その事故原因の約9割が運転者に起因するとされている。 While the number of fatalities caused by commercial trucks is decreasing, the number of fatalities caused by large commercial vehicles is decreasing. In addition, the ratio of “people” to fatal accidents involving large commercial vehicles accounted for nearly 40%, of which nearly 70% occurred during the crossing of people, and about 90% of the causes of the accident were driving. Attributed to the
事業用大型車が関係する事故は、乗用車の事故に比べて社会的な損失が大きい傾向にある。これは、事故そのものの悲惨さはもとより、運転者はその地位を失い、事業者は損害保険料の増加が経営を圧迫し、さらに社会的な企業責任を厳しく追及されるからである。
しかしながら、事業用大型車が関係する事故のうち、事業用大型車が左折する際の巻き込み事故に関しては、運転者からの視認が困難な領域で発生する事故である。このため、運転者がどんなに注意を払ったとしても、巻き込み事故を完全に撲滅することは困難である。特に、自転車や二輪車などが後方から事業用大型車の側方に進入してくるケースでは、運転者がこれらを視認することは極めて困難であるとともに、重大な事故につながるおそれがある。このような状況の下、事業用大型車を製造するメーカに対しては、従来から、右左折時における車両側方や車両後方の領域に存在する人を検知できる運転者支援システムの導入が求められている。
Accidents involving large commercial vehicles tend to have more social losses than passenger car accidents. This is because, in addition to the misery of the accident itself, the driver loses its position, and the operator is forced to manage due to the increase in non-life insurance premiums, and the social corporate responsibility is strictly pursued.
However, among the accidents involving large business vehicles, the accident involving the business large vehicle turning left is an accident that occurs in a region that is difficult for the driver to see. For this reason, it is difficult to completely eradicate the entrainment accidents, no matter how careful the driver is. In particular, in a case where a bicycle, a motorcycle, or the like enters the side of a large business vehicle from behind, it is extremely difficult for the driver to visually recognize them, and a serious accident may occur. Under these circumstances, manufacturers who manufacture large commercial vehicles are conventionally required to introduce driver assistance systems that can detect people in the side of the vehicle and the area behind the vehicle when turning left or right. It has been.
しかしながら、事業用大型車を製造する各メーカにおいて、運転者支援システムの開発は進んでいない。その主な要因としては、(1)事業用大型車の市場規模が、普通自動車市場の約128分の1と小さいこと、(2)事業用大型車の車両サイズが積載量毎に異なるためセンサの共用化が難しく、小ロット・多品種での供給に対応できないこと、(3)普通自動車市場のように、多大な開発費を投入することができないため、柔軟に機種対応を行うことが困難であること、がある。すなわち、これらの供給条件が求められる事業用大型車の市場は、大量生産を得意とする大手企業にとって不向きな市場となる。これが、技術開発が進まない主な要因となっている。 However, the development of driver support systems has not progressed in each manufacturer that manufactures large commercial vehicles. The main factors are: (1) the market size of large business vehicles is as small as about 1/128 of the ordinary automobile market; and (2) the size of commercial large vehicles varies depending on the loading capacity. Is difficult to share, and cannot be supplied in small lots / multiple varieties, and (3) it is difficult to flexibly support models as it cannot invest a large amount of development costs as in the ordinary automobile market. There is. In other words, the market for business large vehicles requiring these supply conditions is unsuitable for large companies that are good at mass production. This is the main reason why technological development does not progress.
運転者支援システムの分野における従来技術としては、(1)全周囲モニタ技術と、(2)前方障害物検知技術とがある。このうち、(1)の全周囲モニタ技術は、表示機能にすぎないため障害物を検知することができない。また、(2)の前方障害物検知技術は、前方の障害物を検知することに特化した技術であるため、事業用大型車に求められる、側方や後方の障害物検知の技術に転用することは困難である。 Conventional technologies in the field of driver assistance systems include (1) an all-around monitoring technology and (2) a front obstacle detection technology. Of these, the all-around monitoring technique (1) is merely a display function and cannot detect an obstacle. In addition, because the front obstacle detection technology (2) is a technology specialized in detecting front obstacles, it is diverted to the side and rear obstacle detection technology required for large commercial vehicles. It is difficult to do.
事業用大型車の運転者が危険を予測するためには、対象物(人、自転車、二輪車等)の種別を早期に認識し、かつ、対象物の位置や移動方向等に基づいて、事業用大型車への衝突可能性を推定する必要がある。一般的に用いられている車載カメラの画像から対象物の種別を認識することは可能ではあるが、対象物の位置や移動方向等に基づいて、対象物が事業用大型車に衝突する可能性を推定することは困難である。 In order for a driver of a large business vehicle to predict the danger, the type of the object (person, bicycle, motorcycle, etc.) must be recognized at an early stage, and based on the position and direction of movement of the object, It is necessary to estimate the possibility of collision with a large vehicle. Although it is possible to recognize the type of an object from the image of a commonly used in-vehicle camera, there is a possibility that the object will collide with a large business vehicle based on the position, moving direction, etc. of the object Is difficult to estimate.
例えば、特許文献1には、自車の周辺の物体の相対位置や相対速度を計測するセンサと、単眼カメラとを用いる場合にも、障害物を認識することができる、とされる車両用障害物認識装置が提案されている。 For example, Patent Document 1 discloses a vehicle obstacle that can recognize an obstacle even when a sensor that measures the relative position or relative speed of an object around the host vehicle and a monocular camera are used. An object recognition device has been proposed.
しかしながら、特許文献1で提案されている技術を含め、従来の技術には少なくとも以下の(1)〜(3)の問題がある。すなわち、(1)接近物と離反物との双方からのレーダ反射波を検出する場合、両者を判別することができないことがある。具体的には例えば、車両側方後ろ向きにレーダを設置した場合に、道路上に存在する電柱や樹木等の安全物からのレーダ反射波と、接近する二輪車等の危険物からのレーダ反射波とがすれ違うと、レーダ反射波がクロスしてしまい、区別することができなくなる。また、(2)接近物が急に停止したり、接近物が急に加速したりするなど、接近物に急激な速度変化が生じると、接近物を追従することができない。具体的には例えば、後方の車両と並行して走っていた二輪車が、急加速で追い抜きをかけると、レーダのみの1次元の場合には、二輪車の挙動(速度変化)を得ることが困難となる。さらに、(3)「人」のレーダ反射波を検出するのが困難である。具体的には、人体の形状は複雑であるため、「人」のレーダ反射波のレベルは、ばらつきが大きいデータとなる。このため、レーダ反射波の形状が細切れの状態になり、有効な反射物として検出することができない。 However, the conventional techniques including the technique proposed in Patent Document 1 have at least the following problems (1) to (3). That is, (1) when radar reflected waves from both an approaching object and a separating object are detected, it may not be possible to distinguish both. Specifically, for example, when a radar is installed in the rear side of the vehicle, the radar reflected wave from a safety object such as a utility pole or tree existing on the road, and the radar reflected wave from a dangerous object such as an approaching motorcycle If they pass each other, the radar reflected waves cross and cannot be distinguished. In addition, (2) If the approaching object suddenly stops or the approaching object suddenly accelerates, the approaching object cannot follow the approaching object. Specifically, for example, if a two-wheeled vehicle running in parallel with the vehicle behind it is overtaken by rapid acceleration, it is difficult to obtain the behavior (speed change) of the two-wheeled vehicle in the case of one-dimensional radar only. Become. Furthermore, (3) it is difficult to detect the radar reflected wave of “human”. Specifically, since the shape of the human body is complicated, the level of the radar reflected wave of “human” is data having a large variation. For this reason, the shape of the radar reflected wave is chopped and cannot be detected as an effective reflector.
本発明は、このような状況に鑑みてなされたものであり、車両の運転者の死角となる後方部及び側方部において、接近物と離反物とを的確に判別し、接近物の急激な速度変化に的確に対応し、「人」を的確に判別することで、車両と交通弱者との交通事故を未然に防ぐための情報を運転者に提供することを目的とする。 The present invention has been made in view of such a situation. In the rear part and the side part, which are blind spots of the driver of the vehicle, the approaching object and the separation object are accurately discriminated, and the approaching object rapidly An object is to provide a driver with information to prevent a traffic accident between a vehicle and a vulnerable person by accurately responding to a speed change and accurately discriminating a “person”.
上記目的を達成するため、本発明の一態様である危険予測装置は、
車両に搭載される危険予測装置であって、
前記車両の周囲の領域のうち測定可能領域に存在する反射物までの距離を計測し、当該計測の結果に基づいた距離データを生成する距離データ生成手段と、
前記距離データを時間軸の方向に蓄積させた時空間データを含む入力データに基づいて、前記反射物の時空間上の距離変化を示す第1画像データを生成し、生成された前記第1画像データ上に、前記反射物の反射データを表示させる反射データ表示手段と、
前記第1画像データ上に表示された、1又は2以上の前記反射データを、移動体を示す移動体反射データと、固定体を示す固定体反射データとにそれぞれ識別する第1識別手段と、
前記移動体反射データにより示される前記移動体の、移動速度、加速度、及び移動方向を含む移動体データを生成する移動体データ生成手段と、
前記車両の周囲を撮像する撮像手段と、
撮像された画像に基づく第2画像データを生成する第2画像データ生成手段と、
生成された前記第2画像データと、前記移動体データとを少なくとも含む情報に基づいて、前記第2画像データに含まれる前記移動体のうち、前記車両に接近する移動体を識別する第2識別手段と、
を備える。
In order to achieve the above object, a risk prediction apparatus according to an aspect of the present invention includes:
A danger prediction device mounted on a vehicle,
Distance data generating means for measuring a distance to a reflector existing in a measurable area of the surrounding area of the vehicle, and generating distance data based on a result of the measurement;
Based on input data including spatio-temporal data in which the distance data is accumulated in the direction of the time axis, first image data indicating a change in the spatio-temporal distance of the reflector is generated, and the generated first image Reflection data display means for displaying the reflection data of the reflector on the data;
First identification means for identifying one or more of the reflection data displayed on the first image data into moving object reflection data indicating a moving object and fixed object reflection data indicating a fixed body, respectively;
Moving body data generating means for generating moving body data including a moving speed, acceleration, and moving direction of the moving body indicated by the moving body reflection data;
Imaging means for imaging the periphery of the vehicle;
Second image data generating means for generating second image data based on the captured image;
Second identification for identifying a moving body approaching the vehicle among the moving bodies included in the second image data, based on the information including at least the generated second image data and the moving body data. Means,
Is provided.
この発明によれば、車両の運転者の死角となる後方部及び側方部において、接近物と離反物とを的確に判別することが可能となる。 According to the present invention, it is possible to accurately discriminate between an approaching object and a separation object at a rear part and a side part which are blind spots of the driver of the vehicle.
また、本発明の一態様の危険予測装置において、前記第1識別手段は、空間フィルタリング処理により、前記1又は2以上の前記反射データを、前記移動体を示す移動体反射データと、前記固定体反射データとにそれぞれ識別することができる、ことが好ましい。
この発明によれば、1又は2以上の反射データの中から、車両に接近する移動体反射データを識別表示させることができる。
Further, in the risk prediction device according to one aspect of the present invention, the first identification unit is configured to perform the one or more of the reflection data, the mobile object reflection data indicating the mobile object, and the fixed body by a spatial filtering process. It is preferable that each can be distinguished from reflection data.
According to the present invention, it is possible to identify and display moving object reflection data approaching the vehicle from one or more reflection data.
また、本発明の一態様の危険予測装置において、空間フィルタリング処理が、ガボールフィルタを複数段用いた処理である、ことが好ましい。
この発明によれば、時空間データにおける線分の傾き(角度)を検出することができる。
In the risk prediction device of one embodiment of the present invention, it is preferable that the spatial filtering process is a process using a plurality of Gabor filters.
According to the present invention, the inclination (angle) of a line segment in spatiotemporal data can be detected.
また、本発明の一態様の危険予測装置において、前記第2識別手段は、さらに、前記移動体の水平方向の位置の特定を行う、ことが好ましい。
また、本発明の一態様の危険予測装置において、前記第2識別手段は、さらに、識別した前記移動体の種類を特定する、ことが好ましい。
これらの発明によれば、危険予測が精度良く行われるための前提となる第2画像データの正確性を担保することができる。
In the risk prediction apparatus according to one aspect of the present invention, it is preferable that the second identification unit further specifies a horizontal position of the moving body.
In the risk prediction apparatus according to an aspect of the present invention, it is preferable that the second identification unit further specifies the type of the identified moving object.
According to these inventions, it is possible to ensure the accuracy of the second image data, which is a prerequisite for the risk prediction to be performed with high accuracy.
また、本発明の一態様の危険予測装置において、前記種類には、人間が少なくとも含まれる、ことが好ましい。
この発明によれば、接近物(移動体31)の急激な速度変化に的確に対応し、「人」を的確に判別することが可能となる。
In the risk prediction apparatus according to one aspect of the present invention, it is preferable that the type includes at least a human.
According to the present invention, it is possible to accurately respond to a sudden speed change of the approaching object (moving body 31) and accurately determine “person”.
また、本発明の一態様の危険予測装置において、
前記測定可能領域のうち、前記車両と前記移動体との間で交通事故が起きるリスクが高い領域を危険領域として予め設定する危険領域設定手段と、
前記時空間パターンに基づいて、前記車両の移動軌跡と、前記移動体の移動軌跡とを評価して、前記移動体が前記危険領域に進入するおそれがあるか否かを判断し、進入するおそれがあると判断した場合に、その旨を危険予測として前記運転者に提示する危険予測手段と、
をさらに備える、ことが好ましい。
この発明によれば、車両と交通弱者との交通事故を未然に防ぐための情報を運転者に提供することができる。
Moreover, in the risk prediction device of one aspect of the present invention,
Of the measurable area, a dangerous area setting means for preliminarily setting as a dangerous area an area where a risk of a traffic accident between the vehicle and the moving body is high,
Based on the spatio-temporal pattern, the movement trajectory of the vehicle and the movement trajectory of the moving body are evaluated to determine whether or not the moving body may enter the dangerous area, and may enter. When it is determined that there is a risk prediction means for presenting the fact to the driver as a risk prediction;
It is preferable to further comprise.
According to the present invention, it is possible to provide the driver with information for preventing a traffic accident between the vehicle and the traffic weak.
また、本発明の一態様の危険予測装置において、前記第2識別手段は、前記距離データ生成手段及び前記撮像手段の設置環境に応じて、前記測定可能領域と、前記第2画像データとを調整する、ことが好ましい。
この発明によれば、危険予測が精度良く行われるための前提となる、第2画像データの正確性を担保することができる。
In the risk prediction apparatus according to the aspect of the present invention, the second identification unit adjusts the measurable region and the second image data according to an installation environment of the distance data generation unit and the imaging unit. It is preferable to do.
According to the present invention, it is possible to ensure the accuracy of the second image data, which is a premise for the risk prediction to be performed with high accuracy.
本発明の一態様の危険予測方法及びプログラムは、上述の本発明の一態様の危険予測装置に対応する方法及びプログラムである。 The risk prediction method and program of one aspect of the present invention are a method and program corresponding to the above-described risk prediction apparatus of one aspect of the present invention.
本発明によれば、車両の運転者の死角となる後方部及び側方部において、接近物と離反物とを的確に判別し、接近物の急激な速度変化に的確に対応し、「人」を的確に判別することで、車両と交通弱者との交通事故を未然に防ぐための情報を運転者に提供することができる。 According to the present invention, an approaching object and a separation object are accurately discriminated in a rear part and a side part which are blind spots of the driver of the vehicle, and a rapid response to a sudden speed change of the approaching object is accurately performed. By accurately determining the information, it is possible to provide the driver with information for preventing a traffic accident between the vehicle and the traffic weak.
以下、本発明の実施形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明に係る危険予測装置1の構成を示すイメージ図である。 FIG. 1 is an image diagram showing a configuration of a risk prediction apparatus 1 according to the present invention.
危険予測装置1は、図1に示すように、運転者Dが運転する車両10に搭載される装置である。危険予測装置1は、車両10の後方と側方とを少なくとも含む周囲の空間に存在する物体を検出し、このうち移動体31のみを抽出して、抽出された移動体31が交通弱者70であるか否かを判断する。なお、「少なくとも」とは、他の方向が含まれていてもよいことを意味する。すなわち、車両10の後方と側方に限らず、車両10の前方、上方、下方等が含まれていてもよい。危険予測装置1は、移動体31が交通弱者70であると判断した場合には、車両10を運転する運転者Dに対し、車両10と交通弱者70との位置関係を示す画像情報(以下「時空間パターン」と呼ぶ)が表示された2次元のマップ(以下「2次元マップ」と呼ぶ)と、予測される未来の危険に関する情報(以下「危険予測」と呼ぶ)とを提示する。 As shown in FIG. 1, the danger prediction device 1 is a device that is mounted on a vehicle 10 driven by a driver D. The danger prediction device 1 detects an object existing in a surrounding space including at least the rear and side of the vehicle 10, extracts only the moving body 31, and the extracted moving body 31 is a traffic weak person 70. Judge whether there is. Note that “at least” means that other directions may be included. That is, not only the rear and side of the vehicle 10 but also the front, upper, lower, etc. of the vehicle 10 may be included. When the risk prediction device 1 determines that the moving body 31 is the weak traffic person 70, the image information indicating the positional relationship between the vehicle 10 and the weak traffic person 70 (hereinafter “ A two-dimensional map (hereinafter referred to as “two-dimensional map”) on which a “time-space pattern” is displayed and information on a predicted future danger (hereinafter referred to as “danger prediction”) are presented.
ここで、「車両」とは、道路交通法上の車(例えば普通自動車、原動機付自転車、軽車両等)や、戦車、装甲車、自走砲等の軍用車両、トラックやトロリーバス等の大型自動車、建設機械のうち自走する建設車両、農業機械のうち自走する農業車両、産業機械のうち自走する産業車両等の乗り物を意味する。
「移動体」とは、空間を移動する物体のことをいう。「交通弱者」とは、移動体のうち、歩行者、自転車、バイク、及びこれらに類するものであって、主に車両10よりもサイズが小さい物体のことをいう。
Here, “vehicle” refers to a vehicle in accordance with the Road Traffic Act (for example, an ordinary vehicle, a motorbike, a light vehicle, etc.), a military vehicle such as a tank, an armored vehicle, or a self-propelled gun, a large vehicle such as a truck or a trolley bus. It means vehicles such as construction vehicles that are self-propelled among construction machinery, agricultural vehicles that are self-propelled among agricultural machinery, and industrial vehicles that are self-propelled among industrial machinery.
“Moving object” refers to an object that moves in space. The “traffic weak person” refers to a pedestrian, a bicycle, a motorcycle, and the like among moving objects, and mainly an object smaller in size than the vehicle 10.
本実施形態における危険予測装置1は、図1に示すように、主にトラック等の大型の車両10に搭載される。大型の車両10の後方部及び側方部には、運転者Dにとっての死角となる領域(以下「死角領域」と呼ぶ)Qが広く存在する。このため、運転者Dが、運転中に死角領域Qをどのように認識するかは、安全運転を行ううえで非常に重要な事項となる。 As shown in FIG. 1, the danger prediction apparatus 1 in this embodiment is mainly mounted on a large vehicle 10 such as a truck. In the rear part and the side part of the large vehicle 10, there is a wide area Q (hereinafter referred to as “dead area”) Q that becomes a blind spot for the driver D. For this reason, how the driver D recognizes the blind spot area Q during driving is a very important matter for safe driving.
危険予測装置1は、後述する手法を用いて死角領域Qの状況を的確に判断するので、例えば車両10に接近する移動体31と、車両10から離反する固定体40とがすれ違ったとしても、これらを的確に判別することができる。また、車両10に接近する移動体31に急激な速度変化が生じたとしても、危険予測装置1であれば、速度変化に追従した対応を行うことができる。さらに、危険予測装置1であれば、レーダ反射波のレベルのばらつきが大きい「人」を正確に判別することができる。
このような危険予測装置1は、運転者Dに対し、2次元マップと危険予測とを提示することができる。これにより、運転者Dは、交通弱者70との間で交通事故が起きる可能性があることを好適なタイミングで知ることができる。その結果、車両10の死角領域Qで生じ得る車両10と交通弱者70との交通事故を未然に防ぐための情報を運転者Dに提供することができる。
Since the danger prediction device 1 accurately determines the state of the blind spot area Q using a method described later, for example, even if the moving body 31 approaching the vehicle 10 and the fixed body 40 moving away from the vehicle 10 pass each other, These can be accurately determined. Even if a sudden speed change occurs in the moving body 31 approaching the vehicle 10, the danger prediction device 1 can respond to the speed change. Furthermore, the danger prediction device 1 can accurately determine “person” having a large variation in the level of radar reflected waves.
Such a risk prediction device 1 can present a two-dimensional map and a risk prediction to the driver D. Thus, the driver D can know at a suitable timing that there is a possibility that a traffic accident may occur with the traffic weak person 70. As a result, it is possible to provide the driver D with information for preventing a traffic accident between the vehicle 10 and the traffic weak person 70 that may occur in the blind spot area Q of the vehicle 10.
図2は、図1の危険予測装置1のハードウェア構成を示すブロック図である。 FIG. 2 is a block diagram showing a hardware configuration of the danger prediction apparatus 1 of FIG.
危険予測装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。 The risk prediction apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an output unit 16, and an input unit. 17, a storage unit 18, a communication unit 19, and a drive 20.
CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 18 to the RAM 13.
The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19及びドライブ20が接続されている。 The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An output unit 16, an input unit 17, a storage unit 18, a communication unit 19, and a drive 20 are connected to the input / output interface 15.
出力部16は各種液晶ディスプレイ等で構成され、各種情報を出力する。
入力部17は、各種ハードウェア鉛等で構成され、各種情報を入力する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置との間で行う通信を制御する。
The output unit 16 includes various liquid crystal displays and outputs various information.
The input unit 17 is composed of various hardware leads and the like, and inputs various information.
The storage unit 18 is configured by a DRAM (Dynamic Random Access Memory) or the like, and stores various data.
The communication unit 19 controls communication with other devices via the network N including the Internet.
ドライブ20は、必要に応じて設けられる。ドライブ20には磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。またリムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。 The drive 20 is provided as necessary. A removable medium 30 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 20. The program read from the removable medium 30 by the drive 20 is installed in the storage unit 18 as necessary. The removable medium 30 can also store various data stored in the storage unit 18 in the same manner as the storage unit 18.
次に、このようなハードウェア構成を持つ危険予測装置1の機能的構成について、図3〜図12を参照して説明する。
図3は、図1の危険予測装置1の機能的構成のうち、危険予測処理を実現するための機能的構成の一例を示す機能ブロック図である。
図4は、車両10に搭載されたレーダ120が測定可能とする最大距離(以下「測定可能距離」と呼ぶ)Lと、最大角度(以下「測定可能角度」と呼ぶ)Kとにより定まる、レーダ120が測定可能とする最大領域(以下「測定可能領域」と呼ぶ)Mを示す図である。図4(A)は、車両10を平面から見た場合における測定可能領域Mを示す図である。図4(B)は、車両10を側方から見た場合における測定可能領域Mを示す図である。
図5は、ガボールフィルタを用いて時空間解析を行う場合の処理の流れを示すフローチャートである。
図6は、ガボールフィルタを用いた時空間解析の結果を示す図である。図6(A)は、減速する車両10を、バイクが追い抜くシーンを示す図である。図6(B)は、横軸を時間とし縦軸を反射レベルとするグラフである。図6(C)は、図6(A)に示すシーンを図6(B)のグラフに基づいて時空間解析した結果を示す図であり、縦軸は時間T、横軸は距離Pを表している。
図7は、画像データ中に存在する移動体までの距離Pと同一の距離の範囲を示す領域を含む画像Sの切り出しを行う処理の流れを示す図である。
図8は、サポートベクターマシン(SVM)空間によるトラッキングアルゴリズムを用いて移動体31を認識する様子を示す図である。
図9は、円弧状の線分Wにおける水平方向から移動体の角度を算出し、車両と移動体との相対位置を特定する手法を示す図である。
図10は、レーダ120及びカメラ121を、設置環境に対応させる手法を示す図である。
図11は、2次元マップの具体例を示す図である。
図12は、危険予測の具体例を示す図である。
図13は、図3の機能的構成を有する危険予測装置1が実行する一連の処理の流れを示すフローチャートである。
Next, the functional configuration of the risk prediction apparatus 1 having such a hardware configuration will be described with reference to FIGS.
FIG. 3 is a functional block diagram illustrating an example of a functional configuration for realizing the risk prediction process among the functional configurations of the risk prediction device 1 of FIG. 1.
FIG. 4 shows a radar determined by a maximum distance (hereinafter referred to as “measurable distance”) L that can be measured by the radar 120 mounted on the vehicle 10 and a maximum angle (hereinafter referred to as “measurable angle”) K. 120 is a diagram showing a maximum area 120 that can be measured (hereinafter referred to as “measurable area”) M. FIG. FIG. 4A is a diagram showing a measurable region M when the vehicle 10 is viewed from a plane. FIG. 4B is a diagram showing a measurable region M when the vehicle 10 is viewed from the side.
FIG. 5 is a flowchart showing the flow of processing when a spatiotemporal analysis is performed using a Gabor filter.
FIG. 6 is a diagram illustrating a result of spatiotemporal analysis using a Gabor filter. FIG. 6A is a diagram showing a scene in which a motorcycle overtakes the vehicle 10 decelerating. FIG. 6B is a graph in which the horizontal axis represents time and the vertical axis represents the reflection level. 6C is a diagram showing a result of spatio-temporal analysis of the scene shown in FIG. 6A based on the graph of FIG. 6B. The vertical axis represents time T, and the horizontal axis represents distance P. ing.
FIG. 7 is a diagram showing a flow of processing for cutting out an image S including an area indicating the same distance range as the distance P to the moving object existing in the image data.
FIG. 8 is a diagram illustrating a state in which the moving object 31 is recognized using a tracking algorithm based on a support vector machine (SVM) space.
FIG. 9 is a diagram illustrating a method of calculating the angle of the moving body from the horizontal direction in the arc-shaped line segment W and specifying the relative position between the vehicle and the moving body.
FIG. 10 is a diagram illustrating a technique for causing the radar 120 and the camera 121 to correspond to the installation environment.
FIG. 11 is a diagram illustrating a specific example of a two-dimensional map.
FIG. 12 is a diagram illustrating a specific example of risk prediction.
FIG. 13 is a flowchart showing a flow of a series of processes executed by the risk prediction apparatus 1 having the functional configuration of FIG.
図3に示すように、危険予測装置1のCPU11(図2)において危険予測処理が実行される場合には、センサ部101と、撮像部102と、画像処理部103と、2次元マップ生成提示部104と、危険予測部105とが機能する。記憶部18(図2)の一領域には、距離DB401と、画像DB402と、自車DB403、時空間DB404とが設けられている。 As shown in FIG. 3, when the risk prediction process is executed in the CPU 11 (FIG. 2) of the risk prediction device 1, the sensor unit 101, the imaging unit 102, the image processing unit 103, and a two-dimensional map generation presentation The unit 104 and the risk prediction unit 105 function. In one area of the storage unit 18 (FIG. 2), a distance DB 401, an image DB 402, a host vehicle DB 403, and a space-time DB 404 are provided.
(センサ部)
センサ部101は、距離データ生成部111と、自車データ生成部112と、時空間解析部113とを含むように構成される。
(Sensor part)
The sensor unit 101 is configured to include a distance data generation unit 111, a host vehicle data generation unit 112, and a spatiotemporal analysis unit 113.
距離データ生成部111は、車両10の周囲の領域のうち、測定可能領域Mに存在する反射物21までの距離Pを計測し、この計測結果に基づいた情報(以下「距離データ」と呼ぶ)を生成する。距離データ生成部111により生成された距離データは、距離DB401に記憶されて管理される。距離データ生成部111が反射物21までの距離Pを測定する具体的な手法は特に限定されない。24GHz帯の周波数帯を利用したマイクロ波レーダ、60GHz帯及び76GHz帯の周波数帯を利用したミリ波レーダ、赤外線センサ等を用いることができる。なお、本実施形態では、マイクロ波レーダ(以下、単に「レーダ」と呼ぶ)120を採用し、周波数変調された連続波(FMCW/Frequency Modulated Continuous Wave radar)によって反射物21までの距離Pを計測して距離データを生成する。レーダ120を用いることにより、後述するカメラ121により撮像された画像に基づく画像データでは測定することができない奥行方向の正確な距離を測定することができる。 The distance data generation unit 111 measures the distance P to the reflector 21 existing in the measurable region M in the region around the vehicle 10 and information based on the measurement result (hereinafter referred to as “distance data”). Is generated. The distance data generated by the distance data generation unit 111 is stored and managed in the distance DB 401. The specific method by which the distance data generation unit 111 measures the distance P to the reflector 21 is not particularly limited. A microwave radar using a frequency band of 24 GHz band, a millimeter wave radar using a frequency band of 60 GHz band and 76 GHz band, an infrared sensor, or the like can be used. In this embodiment, a microwave radar (hereinafter simply referred to as “radar”) 120 is employed, and the distance P to the reflector 21 is measured by a frequency-modulated continuous wave (FMCW / Frequency Modulated Continuous Wave radar). To generate distance data. By using the radar 120, it is possible to measure an accurate distance in the depth direction that cannot be measured by image data based on an image captured by a camera 121 described later.
レーダ120の測定可能距離L及び測定可能角度Kは特に限定されないが、測定可能距離Lは25m以上であり、測定可能角度Kは45°以上であることが好ましい。例えば、測定可能距離Lを25mとし、測定可能角度Kを45°とするレーダ120を、車両10の右側先端部と、左側先端部と、後端中央部との3箇所に搭載した場合を想定する。この場合、車両10の全長Aが、道路運送車両法で定められた普通自動車の最大の長さと同じ12mであったとしても、例えば車両10の右側方部から右方向に5m、車両10の左側方部から左方向に5m、車両10の後端部から後方に13m(測定可能距離L(25m)−車両10の全長A(12m))で示される領域は、レーダ120の測定可能領域Mの一部に含まれることとなる。 The measurable distance L and the measurable angle K of the radar 120 are not particularly limited, but the measurable distance L is preferably 25 m or more, and the measurable angle K is preferably 45 ° or more. For example, it is assumed that the radar 120 having a measurable distance L of 25 m and a measurable angle K of 45 ° is mounted at three locations of the right front end portion, the left front end portion, and the rear end central portion of the vehicle 10. To do. In this case, even if the total length A of the vehicle 10 is 12 m, which is the same as the maximum length of an ordinary car defined by the Road Transport Vehicle Law, for example, 5 m from the right side of the vehicle 10 to the right and the left side of the vehicle 10 An area indicated by 5 m leftward from the side and 13 m backward from the rear end of the vehicle 10 (measurable distance L (25 m) −total length A (12 m) of the vehicle 10) is a measurable area M of the radar 120. It will be included in a part.
レーダ120の感度は特に限定されないが、交通弱者70に含まれる歩行者(人体)の反射断面積が0.1m2以下であっても検知することができることが好ましい。レーダ120の感度がこのレベルに達していれば、形状が複雑であるがために有効な反射物として検出することが難しいとされている「人」を判別することが可能となる。 The sensitivity of the radar 120 is not particularly limited, but it is preferable that the radar 120 can detect even if the cross-sectional area of reflection of a pedestrian (human body) included in the weak traffic person 70 is 0.1 m 2 or less. If the sensitivity of the radar 120 reaches this level, it becomes possible to discriminate a “person” that is difficult to detect as an effective reflector because of its complicated shape.
自車データ生成部112は、加速度センサで構成され、自車となる車両10の速度、加速度、及び移動する方向を算出し、算出結果に基づいた情報(以下「自車データ」と呼ぶ)を生成する。自車データ生成部112により生成された自車データは、自車DB403に記憶されて管理される。なお、自車データ生成部112による加速度の検出方式は特に限定されない。例えば、MEMS(Micro Electro Mechanical System)技術を用いたものであってもよい。 The own vehicle data generation unit 112 includes an acceleration sensor, calculates the speed, acceleration, and moving direction of the vehicle 10 that becomes the own vehicle, and uses information (hereinafter referred to as “own vehicle data”) based on the calculation result. Generate. The own vehicle data generated by the own vehicle data generation unit 112 is stored and managed in the own vehicle DB 403. In addition, the detection method of the acceleration by the own vehicle data generation part 112 is not specifically limited. For example, a technique using a MEMS (Micro Electro Mechanical System) technique may be used.
時空間解析部113は、時空間解析を行う。時空間解析とは、時空間解析部113を構成する反射データ表示部311、第1識別部312、及び移動体データ生成部313により実行される一連の処理をいう。 The spatiotemporal analysis unit 113 performs spatiotemporal analysis. The spatiotemporal analysis refers to a series of processes executed by the reflection data display unit 311, the first identification unit 312, and the moving body data generation unit 313 that constitute the spatiotemporal analysis unit 113.
反射データ表示部311は、距離データ生成部111により生成された距離データを時間軸の方向に蓄積させた情報(以下「時空間データ」と呼ぶ)を含む入力データに基づいて、反射物21の時空間上の距離変化を示す第1画像データを生成し、生成した第1画像データ上に、反射物21の反射データを表示させる。入力データには、自車データ生成部112により生成された自車データを含めることができる。 The reflection data display unit 311 is based on input data including information (hereinafter referred to as “spatio-temporal data”) obtained by accumulating the distance data generated by the distance data generation unit 111 in the direction of the time axis. First image data indicating a change in distance in space and time is generated, and the reflection data of the reflecting object 21 is displayed on the generated first image data. The input data can include the vehicle data generated by the vehicle data generation unit 112.
第1識別部312は、第1画像データ上に表示された、1又は2以上の反射データUを、移動体を示す移動体反射データと、固定体を示す固定体反射データとにそれぞれ識別する。具体的には、第1識別部312は、空間フィルタリング処理により、1又は2以上の反射データUを、移動体31を示す移動体反射データと、固定体40を示す固定体反射データとにそれぞれ識別する。すなわち、第1識別部312では、図6(B)に示すように、横軸を時間Tとし縦軸を反射データUとするグラフBにおいて反射物21を示す曲線γを、横軸を時間Tとし縦軸を距離PとするグラフCにおいて時間Tの方向に複数並べていく処理が行われる。そして、グラフC上に並べられた複数の曲線γのそれぞれのピークとなる点を結ぶ処理が行われる。この処理により描画される線分の形状が、右上がりである場合には固定体反射データとして識別され、右下がりである場合には移動体反射データとして識別される。このようにして、1又は2以上の反射データUの中から、車両10に接近する移動体反射データαを識別表示させることができる。 The first identification unit 312 identifies one or more reflection data U displayed on the first image data as moving object reflection data indicating a moving object and fixed object reflection data indicating a fixed object, respectively. . Specifically, the first identification unit 312 performs one or two or more reflection data U on the moving object reflection data indicating the moving object 31 and the fixed object reflection data indicating the fixed object 40 by spatial filtering. Identify. That is, in the first identification unit 312, as shown in FIG. 6B, the curve γ indicating the reflecting object 21 in the graph B having the horizontal axis as time T and the vertical axis as the reflection data U, and the horizontal axis as time T. And a process of arranging a plurality in the direction of time T in the graph C having the distance P as the vertical axis is performed. And the process which connects the point used as each peak of the some curve (gamma) arranged on the graph C is performed. When the shape of the line segment drawn by this processing is right-up, it is identified as fixed body reflection data, and when it is right-down, it is identified as mobile body reflection data. In this way, the mobile object reflection data α approaching the vehicle 10 can be identified and displayed from one or more reflection data U.
移動体データ生成部313は、移動体反射データにより示される移動体31の、移動速度、加速度、及び移動方向を含む移動体データを生成する。 The moving body data generation unit 313 generates moving body data including the moving speed, acceleration, and moving direction of the moving body 31 indicated by the moving body reflection data.
時空間解析部113による時空間解析の結果、入力データから、電柱やガードレールなどの固定体反射データが除去され、相対速度が異なる移動体反射データのみが抽出される。これにより、例えば、図6(C)に示すように、複数の反射物21の中から、車両10に接近する移動体31(バイク)を示す移動体反射データが、右肩下がりの線分αで識別表示される。このとき、右肩上がりの線分βは、車両10から離反する固定体40(電柱)を示す移動体反射データによって示されたものである。なお、本実施形態では、固定体反射データと移動体反射データとの違いを色の違いで示すことにより、車両10に接近する移動体31を識別表示させている。ただし、これに限定されず、模様による識別や形状による識別等、あらゆる手法を用いて識別表示させてもよい。 As a result of the spatiotemporal analysis by the spatiotemporal analysis unit 113, fixed body reflection data such as utility poles and guardrails are removed from the input data, and only mobile body reflection data having different relative velocities are extracted. Thus, for example, as shown in FIG. 6C, the moving body reflection data indicating the moving body 31 (bike) approaching the vehicle 10 from among the plurality of reflecting bodies 21 is a line segment α having a downward slope. Is displayed. At this time, the line segment β that rises to the right is indicated by the moving object reflection data indicating the fixed body 40 (electric pole) that is separated from the vehicle 10. In the present embodiment, the mobile body 31 approaching the vehicle 10 is identified and displayed by indicating the difference between the fixed body reflection data and the mobile body reflection data by the color difference. However, the present invention is not limited to this, and the identification display may be performed using any method such as pattern identification or shape identification.
複数の反射データUの中から、車両10に接近する移動体反射データを右肩下がりの線分αで識別表示させる空間フィルタリング処理の具体的な手法は特に限定されないが、本実施形態では、画像処理で用いられる空間フィルタリング処理の1つであるガボールフィルタを用いた処理が採用されている。ガボールフィルタは、特定の傾き(角度)を強調する性質を有する。本実施形態では、この性質を利用して、図5に示すように、傾き(角度)を示す値θが0°〜180°となる範囲で、合計18段のガボールフィルタを用いている。すなわち、傾き(角度)θの値の範囲が10°毎に異なるガボールフィルタを、0°≦θ<10°とするフィルタ0から170°≦θ<180°とするフィルタ17まで、合計18段のガボールフィルタを用いた解析が行われる。このように、傾き(角度)がそれぞれ異なる18段のガボールフィルタを用いた時空間解析が行われることで、時空間データにおける線分の傾き(角度)を検出することができる。 The specific method of the spatial filtering process for identifying and displaying the moving object reflection data approaching the vehicle 10 from the plurality of reflection data U with the line segment α descending to the right is not particularly limited. A process using a Gabor filter, which is one of the spatial filtering processes used in the process, is employed. The Gabor filter has a property of enhancing a specific inclination (angle). In the present embodiment, using this property, as shown in FIG. 5, a total of 18 stages of Gabor filters are used in the range where the value θ indicating the inclination (angle) is 0 ° to 180 °. That is, a total of 18 stages of Gabor filters having different values of inclination (angle) θ every 10 °, from filter 0 for 0 ° ≦ θ <10 ° to filter 17 for 170 ° ≦ θ <180 °. Analysis using a Gabor filter is performed. In this way, by performing a spatiotemporal analysis using 18-stage Gabor filters having different inclinations (angles), it is possible to detect the inclinations (angles) of line segments in the spatiotemporal data.
(撮像部)
撮像部102は、カメラ121と、第2画像データ生成部122とで構成される。カメラ121は、車両10の周囲を撮像する。第2画像データ生成部122は、撮像された画像に基づく第2画像データを生成する。生成された第2画像データは、後述する画像処理部103による画像処理に用いられる。即ち、レーダ120のみでは移動体31の水平方向の位置を特定することができないので、後述する画像処理部103が、撮像部102で生成された第2画像データを用いて、移動体31の水平方向の位置の特定を行う。
(Imaging part)
The imaging unit 102 includes a camera 121 and a second image data generation unit 122. The camera 121 images the surroundings of the vehicle 10. The second image data generation unit 122 generates second image data based on the captured image. The generated second image data is used for image processing by the image processing unit 103 described later. That is, since the position of the moving body 31 in the horizontal direction cannot be specified only by the radar 120, the image processing unit 103 described later uses the second image data generated by the imaging unit 102 to use the horizontal position of the moving body 31. Specify the position of the direction.
(第2識別部)
第2識別部103は、第2画像データ生成部122により生成された第2画像データと、移動体データ生成部313により生成された移動体データとを少なくとも含む情報に基づいて、第2画像データに含まれる移動体31のうち、車両10に接近する移動体31を識別する。なお、「少なくとも」とは、第2画像データに含まれる移動体31のうち、車両10に接近する移動体31を識別する際に用いられる情報に、移動体データ以外の情報が含まれていてもよいことを意味する。例えば、この情報に自車データが含まれていてもよい。
第2識別部103が、第2画像データに含まれる移動体31のうち、車両10に接近する移動体31を識別する具体的な手法は特に限定されない。例えば、機械学習の手法の1つであるSVM(Support Vector Machine)によってHOG(Histograms of Oriented Gradients)特徴量を学習することにより、画像データに含まれる移動体31を識別してもよい。これにより、識別表示された移動体31が交通弱者70であるか否かを判断することができる。
(Second identification part)
The second identification unit 103 generates second image data based on information including at least the second image data generated by the second image data generation unit 122 and the moving body data generated by the moving body data generation unit 313. Of the mobile bodies 31 included in the vehicle 10 is identified. Note that “at least” means that information other than the moving object data is included in the information used to identify the moving object 31 approaching the vehicle 10 among the moving objects 31 included in the second image data. Means good. For example, the vehicle data may be included in this information.
The specific method by which the second identification unit 103 identifies the moving body 31 approaching the vehicle 10 among the moving bodies 31 included in the second image data is not particularly limited. For example, the moving body 31 included in the image data may be identified by learning HOG (Histograms of Oriented Gradients) feature amounts by SVM (Support Vector Machine) which is one of machine learning methods. Thereby, it is possible to determine whether or not the mobile body 31 that is identified and displayed is the weak traffic person 70.
また、第2識別部103は、識別した移動体31の水平方向の位置の特定と、移動体31の種類の特定とを行う。第2識別部103により特定される移動体31の種類には、人間が少なくとも含まれる。なお、「少なくとも」とは、移動体31の種類として人間以外が含まれてもよいことを意味する。つまり、移動体31には、車両10の周囲の領域内を移動し得るあらゆる物体が含まれてよい。例えば、人間が運転する自転車やオートバイや、犬や猫等の動物は、いずれも移動体31の一例である。 Further, the second identification unit 103 specifies the horizontal position of the identified mobile object 31 and specifies the type of the mobile object 31. The type of the moving body 31 specified by the second identification unit 103 includes at least a human. Note that “at least” means that the type of the mobile body 31 may include a person other than a human. That is, the moving body 31 may include any object that can move in the area around the vehicle 10. For example, bicycles and motorcycles driven by humans, and animals such as dogs and cats are all examples of the moving body 31.
ここで、移動体31は、サイズが同じである場合、カメラ121から遠い位置に存在する移動体31よりも、カメラ121から近い位置に存在する移動体31の方が画像データに大きく表示される。
このため、第2識別部103は、第2画像データ上の移動体31のスケールの調整を行う。具体的には、図7に示すように、第2識別部103は、第2画像データ中に存在する移動体31までの距離Pと同一の距離の範囲を示す領域を含む画像Sの切り出しを行い、切り出した画像Sを、想定される「人」のサイズに縮小させる。画像Sを縮小させる際の縮小スケールの段数n(nは1以上の整数値)は特に限定されないが、本実施形態では12段としている。これにより、カメラ121からの距離Pが異なる位置に存在する移動体31同士のスケールの調整を行うことができる。その結果、第2識別部103は、第2画像データ上の移動体31をより正確に識別することができる。
Here, when the size of the moving body 31 is the same, the moving body 31 that is located closer to the camera 121 is displayed larger in the image data than the moving body 31 that is located far from the camera 121. .
For this reason, the second identification unit 103 adjusts the scale of the moving body 31 on the second image data. Specifically, as shown in FIG. 7, the second identification unit 103 cuts out an image S including a region indicating the same distance range as the distance P to the moving body 31 existing in the second image data. The cut-out image S is reduced to the assumed “person” size. The number n (n is an integer value of 1 or more) of the reduction scale when reducing the image S is not particularly limited, but is 12 in this embodiment. Thereby, the scale of the mobile bodies 31 existing at positions where the distance P from the camera 121 is different can be adjusted. As a result, the second identification unit 103 can more accurately identify the moving object 31 on the second image data.
第2画像データに、移動体31の全体が表示されない場合には、第2識別部103は、サポートベクターマシン(SVM)空間によるトラッキングアルゴリズムを用いて移動体31を識別する。例えば、図8は、移動体31が車両10に近寄ってくる様子を図8(A)〜(D)の順で示している。移動体31と車両10との距離が5mであるとき(図8(A))、及び移動体31と車両10との距離が3mであるとき(図8(B))は、第2画像データに移動体31の全部が表示されている。このため、画像処理部103は、HOG特徴量をSVMによって学習することで第2画像データに含まれる移動体31を識別する。図8(A)及び(B)に示される、移動体31を囲む枠線Rは、HOG特徴量をSVMによる学習によって移動体31を識別表示する枠線である。一方、移動体31と車両10との距離が2mであるとき(図8(C))、及び移動体31と車両10との距離が1mであるとき(図8(D))は、移動体31の一部が、第2画像データに表示されていない(つまり移動体31が第2画像データから切れている)。このため、画像処理部103は、サポートベクターマシン(SVM)空間によるトラッキングアルゴリズムを用いることで、第2画像データに含まれる移動体31を識別する。図8(C)及び(D)に示される、移動体31を囲む枠線Vは、HOG特徴量をSVMによる学習によって移動体31を識別表示する枠線である。これにより、図8(A)〜(D)に示すように、第2画像データに全体が表示されずに一部のみが表示されている移動体31についてもスムーズに認識することが可能となる。 When the entire moving object 31 is not displayed in the second image data, the second identifying unit 103 identifies the moving object 31 using a tracking algorithm based on a support vector machine (SVM) space. For example, FIG. 8 shows a state in which the moving body 31 approaches the vehicle 10 in the order of FIGS. When the distance between the moving body 31 and the vehicle 10 is 5 m (FIG. 8A), and when the distance between the moving body 31 and the vehicle 10 is 3 m (FIG. 8B), the second image data. The entire moving body 31 is displayed on the screen. For this reason, the image processing unit 103 identifies the moving object 31 included in the second image data by learning the HOG feature value by SVM. 8A and 8B, a frame line R surrounding the mobile body 31 is a frame line for identifying and displaying the mobile body 31 by learning the HOG feature value by SVM. On the other hand, when the distance between the moving body 31 and the vehicle 10 is 2 m (FIG. 8C) and when the distance between the moving body 31 and the vehicle 10 is 1 m (FIG. 8D), the moving body A part of 31 is not displayed in the second image data (that is, the moving body 31 is cut off from the second image data). For this reason, the image processing unit 103 identifies the moving body 31 included in the second image data by using a tracking algorithm based on a support vector machine (SVM) space. A frame V surrounding the moving body 31 shown in FIGS. 8C and 8D is a frame line for identifying and displaying the moving body 31 by learning the HOG feature value by SVM. As a result, as shown in FIGS. 8A to 8D, it is possible to smoothly recognize the moving body 31 in which only the part is displayed without being entirely displayed in the second image data. .
第2識別部103は、上述したように、第2画像データ中に存在する移動体31までの距離Pと同一の距離の範囲を示す領域を含んだ画像Sを切り出す処理を行うことにより、移動体31を識別する画像処理を行う範囲を限定することができる。すなわち、画像処理部103は、第2画像データのうち、画像処理の対象となる移動体31の大きさと、画像処理を行う位置とを限定した画像処理を行うことができる。これにより、画像処理に伴う計算量を減らすことができる。これにより、カメラ121の高解像度化に伴い増加傾向にある演算コストの低減化を図ることができる。 As described above, the second identification unit 103 performs the processing by cutting out the image S including the area indicating the same distance range as the distance P to the moving body 31 existing in the second image data. The range in which image processing for identifying the body 31 is performed can be limited. That is, the image processing unit 103 can perform image processing in the second image data in which the size of the moving body 31 that is the target of image processing and the position where image processing is performed are limited. Thereby, the calculation amount accompanying image processing can be reduced. As a result, it is possible to reduce the calculation cost that tends to increase as the resolution of the camera 121 increases.
第2識別部103は、第2画像データ中に存在する移動体31を識別する画像処理を行う範囲を限定し、図9に示すように、第2画像データ中に存在する移動体31までの距離Pと同一の距離の範囲を示す領域を円弧状の線分Wで表示する。そして、線分Wに重畳して表示させた枠線Rの水平方向の向きに基づいて、移動体31の角度を算出する。これにより、自車(車両10)と移動体31との相対位置を特定することができる。 The second identification unit 103 limits the range of image processing for identifying the moving object 31 present in the second image data, and as shown in FIG. 9, the second identification unit 103 extends to the moving object 31 present in the second image data. A region indicating the same distance range as the distance P is displayed as an arc-shaped line segment W. Then, the angle of the moving body 31 is calculated based on the horizontal direction of the frame line R displayed superimposed on the line segment W. Thereby, the relative position of the own vehicle (vehicle 10) and the mobile body 31 can be specified.
ところで、車両10の両側方にレーダ120及びカメラ121を搭載する場合、具体的な設置場所は、サイドミラーのアーム部分となる。しかしながら、サイドミラーのアーム部分は、車両10の種類によって大きく位置が異なる。例えば、車両10が大型トラックの場合、サイドミラーのアームの部分は、地面から約180cm程度の高さに配置される。また、車両10が中型トラックの場合、サイドミラーのアームの部分は、地面から約155cm程度の高さに配置される。また、車両10がトレーラの場合、サイドミラーのアームの部分は、地面から約200cm程度の高さに配置される。このため、車両10に搭載されるレーダ120及びカメラ121は、実際に設置する場所の地面からの高さや角度(以下「設置環境」と呼ぶ)の違いに対応可能できるようにする必要がある。 By the way, when the radar 120 and the camera 121 are mounted on both sides of the vehicle 10, the specific installation location is the arm portion of the side mirror. However, the position of the arm portion of the side mirror varies greatly depending on the type of the vehicle 10. For example, when the vehicle 10 is a large truck, the arm portion of the side mirror is disposed at a height of about 180 cm from the ground. Further, when the vehicle 10 is a medium truck, the arm portion of the side mirror is disposed at a height of about 155 cm from the ground. When the vehicle 10 is a trailer, the arm portion of the side mirror is disposed at a height of about 200 cm from the ground. For this reason, the radar 120 and the camera 121 mounted on the vehicle 10 need to be able to cope with the difference in height and angle (hereinafter referred to as “installation environment”) from the ground of the place where the vehicle is actually installed.
画像処理部103は、レーダ120及びカメラ121の設置環境に応じて、測定可能距離Lを含む測定可能領域Mと、カメラ121の第2画像データ上の位置とを調整する。これにより、レーダ120及びカメラ121は、設置環境の違いに容易に対応させることができる。具体的には、画像処理部103は、図10(A)に示すように、アームに設置されたレーダ120及びカメラ121の設置環境(地面からの高さaや角度b)に応じて、第2画像データとして表示される映像の角度、反射物21までの距離P、反射物21を囲む枠線R及びVの縦の長さdや横の長さe等について、キャリブレーションを実行する。例えば、画像処理部103は、図10(B)に示すように、第2画像データに、車両10(すなわちレーダ120及びカメラ121)からの距離Pや車両10との相対的な角度を示すメッシュ状の線分Yを重畳的に表示させて、キャリブレーションを実行してもよい。これにより、後述する危険予測部105による危険予測が精度良く行われるための前提となる、第2画像データの正確性を担保することができる。 The image processing unit 103 adjusts the measurable area M including the measurable distance L and the position of the camera 121 on the second image data according to the installation environment of the radar 120 and the camera 121. Thereby, the radar 120 and the camera 121 can easily cope with the difference in the installation environment. Specifically, as shown in FIG. 10 (A), the image processing unit 103 performs the operation according to the installation environment (the height a and the angle b from the ground) of the radar 120 and the camera 121 installed on the arm. Calibration is executed for the angle of the image displayed as the two-image data, the distance P to the reflector 21, the vertical length d and the horizontal length e of the frame lines R and V surrounding the reflector 21, and the like. For example, as illustrated in FIG. 10B, the image processing unit 103 uses the second image data to indicate a distance P from the vehicle 10 (that is, the radar 120 and the camera 121) and a relative angle with the vehicle 10. Calibration may be executed by displaying the line segment Y in a superimposed manner. Accordingly, it is possible to ensure the accuracy of the second image data, which is a prerequisite for risk prediction performed by the risk prediction unit 105 described later with high accuracy.
(2次元マップ生成提示部)
2次元マップ生成提示部104は、車両10を運転する運転者Dに対し、車両10と移動体31との位置関係を示す時空間パターンが表示された2次元マップFを生成し、生成された2次元マップFを運転者Dに提示する。2次元マップ生成提示部104により生成される2次元マップFは、図11に示すように、車両10の長手方向を表す縦軸と、車両10の長手方向に対し垂直方向(水平方向)の距離を表す横軸とからなる2次元のマップである。2次元マップFには、中心部に車両10を配置させた時空間パターンが表示されるとともに、交通弱者70(移動体31)の過去の移動履歴に基づいた移動軌跡が表示される。2次元マップFが車両10の運転席に搭載されたモニタ(出力部16)から出力されると、車両10を運転する運転者Dは、交通弱者70(移動体31)との間で交通事故が起きる可能性があることを、視覚を通じて直感的に認識することができる。
2次元マップFの具体的な構成は特に限定されないが、本実施形態に係る2次元マップFは、サイズを横(W)480pixel×縦(H)480pixel(ピクセル)とし、解像度を横(W)50mm×縦(H)50mm(0.104mm/pixel(ピクセル))とし、移動軌跡保持期間を4秒としている。これにより、2次元マップ生成提示部104は、車両10の死角領域Qで生じ得る車両10と交通弱者70(移動体31)との交通事故を未然に防ぐための情報を運転者Dに提供することができる。その結果、運転者Dは、交通弱者70(移動体31)との間で交通事故が起きる可能性があることを好適なタイミングで知ることができる。
(2D map generation and presentation unit)
The two-dimensional map generation and presentation unit 104 generates and generates a two-dimensional map F on which a spatio-temporal pattern indicating the positional relationship between the vehicle 10 and the moving body 31 is displayed for the driver D who drives the vehicle 10. A two-dimensional map F is presented to the driver D. As shown in FIG. 11, the two-dimensional map F generated by the two-dimensional map generation / presentation unit 104 includes a vertical axis representing the longitudinal direction of the vehicle 10 and a distance in the vertical direction (horizontal direction) with respect to the longitudinal direction of the vehicle 10. Is a two-dimensional map composed of a horizontal axis. In the two-dimensional map F, a spatio-temporal pattern in which the vehicle 10 is arranged in the center is displayed, and a movement trajectory based on the past movement history of the traffic weak 70 (the moving body 31) is displayed. When the two-dimensional map F is output from the monitor (output unit 16) mounted on the driver's seat of the vehicle 10, the driver D who drives the vehicle 10 has a traffic accident with the traffic weak 70 (the moving body 31). It is possible to intuitively recognize that there is a possibility of occurrence of
Although the specific configuration of the two-dimensional map F is not particularly limited, the two-dimensional map F according to the present embodiment has a size of horizontal (W) 480 pixels × vertical (H) 480 pixels (pixels) and a resolution of horizontal (W). 50 mm × length (H) 50 mm (0.104 mm / pixel (pixel)), and the movement trajectory holding period is 4 seconds. Accordingly, the two-dimensional map generation / presentation unit 104 provides the driver D with information for preventing a traffic accident between the vehicle 10 and the traffic weak 70 (the moving body 31) that may occur in the blind spot area Q of the vehicle 10. be able to. As a result, the driver D can know at a suitable timing that a traffic accident may occur with the traffic weak 70 (the mobile body 31).
(危険予測部)
危険予測部105は、測定可能領域Mのうち、車両10と移動体31との間で交通事故が起きるリスクが高い領域を危険領域Xとして予め設定する。危険予測部105は、2次元マップFに表示される時空間パターンに基づいて、車両10の移動軌跡と、移動体31の移動軌跡とを評価して、移動体31が危険領域Xに進入するおそれがあるか否かを判断し、進入するおそれがあると判断した場合に、その旨を危険予測として運転者Dに提示する。例えば図12には、車両10と、車両10の測定可能領域Mに存在する移動体31(バイク)との相対速度が25km/hで、0.8秒後に移動体31(バイク)が危険領域Xに進入するおそれがある旨を危険予測する例が示されている。
この例において危険予測部105は、車両10の移動軌跡と、測定可能領域Mに存在する移動体31(バイク)の直近1秒間(1.0S)の移動軌跡とを評価し、移動体31(バイク)が、今から0.8秒後に5.6m離れた危険領域Xに進入するおそれがあると判断して、その旨を危険予測として運転者Dに提示する。運転者Dが警報を受けてハンドルを操作するまでの時間は、通常0.5秒程度とされている。このため、危険予測を提示するタイミングを、危険領域Xに進入する0.8秒前とすることにより、運転者Dとしてみれば、余裕を持った対応が可能となる。
(Danger Prediction Department)
The danger prediction unit 105 presets, as the danger area X, an area in the measurable area M where the risk of a traffic accident between the vehicle 10 and the moving body 31 is high. The danger prediction unit 105 evaluates the movement locus of the vehicle 10 and the movement locus of the moving body 31 based on the spatiotemporal pattern displayed on the two-dimensional map F, and the moving body 31 enters the danger area X. When it is determined whether or not there is a possibility of entering the vehicle, it is indicated to the driver D as a risk prediction when it is determined that there is a risk of entering. For example, in FIG. 12, the relative speed between the vehicle 10 and the moving body 31 (bike) existing in the measurable area M of the vehicle 10 is 25 km / h, and after 0.8 seconds, the moving body 31 (bike) is in the dangerous area. An example of risk prediction that there is a risk of entering X is shown.
In this example, the danger prediction unit 105 evaluates the movement trajectory of the vehicle 10 and the movement trajectory of the moving body 31 (bike) existing in the measurable region M in the latest 1 second (1.0 S), and the moving body 31 ( The motorcycle) determines that there is a risk of entering the dangerous area X that is 5.6 m away 0.8 seconds from now, and presents this to the driver D as a risk prediction. The time until the driver D receives the warning and operates the steering wheel is normally about 0.5 seconds. For this reason, if the timing of presenting the danger prediction is set to 0.8 seconds before entering the danger area X, the driver D can cope with the margin.
運転者Dに危険予測を提示する具体的な手法は特に限定されないが、本実施形態では、車両10の運転席に搭載されたモニタ(出力部16)と、エンジンの運転制御を電気的に制御する車両エンジンコントロールユニット(ECU)とに出力することにより危険予測を提示する。この場合、車両エンジンコントロールユニット(ECU)は、提示された危険予測に基づいて、車両制御、舵制御、警報の出力等を行ってもよい。 Although the specific method of presenting the risk prediction to the driver D is not particularly limited, in this embodiment, the monitor (output unit 16) mounted in the driver's seat of the vehicle 10 and the engine operation control are electrically controlled. The danger prediction is presented by outputting to the vehicle engine control unit (ECU). In this case, the vehicle engine control unit (ECU) may perform vehicle control, rudder control, alarm output, and the like based on the presented risk prediction.
危険予測部105が、危険領域Xを予め設定する際の具体的手法は特に限定されない。例えば、時空間DB404に記憶されている時空間パターンに基づいて機械学習による回帰分析を行ってもよい。この場合、危険予測部105は、車両10と移動体31との間で交通事故が起きるリスクを数値化して、測定可能領域M内のあらゆる場所における危険度を複数段階(例えば危険度が高い順に高中低の3段階)で設定してもよい。 The specific method used when the risk prediction unit 105 sets the risk area X in advance is not particularly limited. For example, regression analysis by machine learning may be performed based on the spatiotemporal pattern stored in the spatiotemporal DB 404. In this case, the risk predicting unit 105 quantifies the risk of a traffic accident between the vehicle 10 and the moving body 31, and calculates the risk level at any location within the measurable region M in multiple stages (for example, in descending order of risk level). It may be set in three stages (high, medium and low).
次に、図13を参照して、図3の機能的構成を有する危険予測装置1が実行する一連の処理の流れについて説明する。
図13は、図3の危険予測装置1が実行する危険予測処理の流れを説明するフローチャートである。
Next, a flow of a series of processes executed by the risk prediction device 1 having the functional configuration of FIG. 3 will be described with reference to FIG.
FIG. 13 is a flowchart for explaining the flow of the risk prediction process executed by the risk prediction device 1 of FIG.
図13に示すように、危険予測装置1では、次のような一連の処理が実行される。
ステップS1において、距離データ生成部111(レーダ120)は、車両10の周囲の領域のうち測定可能領域Mに存在する反射物21までの距離Pを計測し、この計測結果に基づいた距離データを生成する。
As shown in FIG. 13, the risk prediction apparatus 1 executes the following series of processes.
In step S <b> 1, the distance data generation unit 111 (radar 120) measures the distance P to the reflector 21 existing in the measurable area M in the area around the vehicle 10, and obtains distance data based on the measurement result. Generate.
ステップS2において、反射データ表示部311は、ステップS1で生成された距離データを時間軸の方向に蓄積させた時空間データを含む入力データに基づいて、反射物21の時空間上の距離変化を示す第1画像データを生成し、生成された第1画像データ上に、反射物21の反射データを表示させる。
ステップS3において、第1識別部312は、第1画像データ上に表示された、1又は2以上の反射データUを、移動体31を示す移動体反射データと、固定体を示す固定体反射データとにそれぞれ識別する。
ステップS4において、移動体データ生成部313は、移動体反射データにより示される移動体31の、移動速度、加速度、及び移動方向を含む移動体データを生成する。
In step S <b> 2, the reflection data display unit 311 changes the distance change in the spatio-temporal of the reflector 21 based on the input data including the spatiotemporal data in which the distance data generated in step S <b> 1 is accumulated in the direction of the time axis. First image data to be shown is generated, and reflection data of the reflecting object 21 is displayed on the generated first image data.
In step S <b> 3, the first identification unit 312 displays one or more reflection data U displayed on the first image data, the moving object reflection data indicating the moving object 31, and the fixed object reflection data indicating the fixed object. And identify each.
In step S4, the moving body data generation unit 313 generates moving body data including the moving speed, acceleration, and moving direction of the moving body 31 indicated by the moving body reflection data.
ステップS5において、撮像部102は、車両の周囲を撮像する。
ステップS6において、第2画像データ生成部122は、撮像された画像に基づく第2画像データを生成する。
In step S5, the imaging unit 102 images the surroundings of the vehicle.
In step S6, the second image data generation unit 122 generates second image data based on the captured image.
ステップS7において、2次元マップ生成提示部104は、車両10を運転する運転者Dに対し、車両10と移動体31との位置関係を示す時空間パターンが表示された2次元マップFを生成し、生成された2次元マップFを運転者Dに提示する。
ステップS8において、危険予測部105は、測定可能領域Mのうち、車両10と移動体31との間で交通事故が起きるリスクが高い領域を危険領域Xとして予め設定する。
ステップS9において、危険予測部105は、時空間パターンに基づいて、車両10の移動軌跡と、移動体31の移動軌跡とを評価して、移動体31が危険領域Xに進入するおそれがあるか否かを判断し、進入するおそれがあると判断した場合に、その旨を危険予測として運転者Dに提示する。これにより処理は終了する。
In step S <b> 7, the two-dimensional map generation / presentation unit 104 generates a two-dimensional map F on which a spatio-temporal pattern indicating the positional relationship between the vehicle 10 and the moving body 31 is displayed for the driver D driving the vehicle 10. The generated two-dimensional map F is presented to the driver D.
In step S <b> 8, the danger prediction unit 105 presets an area in the measurable area M where the risk of a traffic accident between the vehicle 10 and the moving body 31 is high as the danger area X.
In step S <b> 9, the danger prediction unit 105 evaluates the movement locus of the vehicle 10 and the movement locus of the moving body 31 based on the spatiotemporal pattern, and is there a possibility that the moving body 31 may enter the danger area X? If it is determined that there is a risk of entering, the driver D is informed of this as a risk prediction. Thus, the process ends.
以上のような一連の処理が実行されることにより、車両10の運転者Dの死角領域Qにおいて、移動体31と固定体40とを的確に判別し、移動体31の急激な速度変化に的確に対応し、また、「人」を的確に判別する。その結果、車両10と交通弱者70(移動体31)との交通事故を未然に防ぐための情報を運転者Dに提供することができる。 By executing the series of processes as described above, the moving body 31 and the fixed body 40 are accurately discriminated in the blind spot region Q of the driver D of the vehicle 10, and the moving body 31 can be accurately detected for a rapid speed change. In addition, the “person” is accurately identified. As a result, it is possible to provide the driver D with information for preventing a traffic accident between the vehicle 10 and the traffic weak 70 (the moving body 31).
以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention. It is.
例えば、本実施形態における車両10は、トラック等の大型の車両としているが、これは例示であり、普通車等であってもよい。 For example, although the vehicle 10 in the present embodiment is a large vehicle such as a truck, this is merely an example and may be a normal vehicle or the like.
また、図2に示す各ハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Each hardware configuration shown in FIG. 2 is merely an example for achieving the object of the present invention, and is not particularly limited.
また、図3に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行出来る機能が危険予測装置に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図3の例に限定されない。 Further, the functional block diagram shown in FIG. 3 is merely an example, and is not particularly limited. That is, it suffices if the risk prediction apparatus has a function capable of executing the above-described series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. .
また、機能ブロックの存在場所も、図3に示す場所に限定されず、任意でよい。
そして、1つの機能ブロックは、ハードウェア単体で構成しても良いし、ソフトウェア単体との組み合わせで構成しても良い。
Also, the location of the functional block is not limited to the location shown in FIG. 3, and may be arbitrary.
One functional block may be constituted by hardware alone or in combination with software alone.
各機能ブロックの処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When the processing of each functional block is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or personal computer other than a server.
このようなプログラムを含む記録媒体は、各ユーザにプログラムを提供するために装置本体とは別に配布される、リムーバブルメディアにより構成されるだけではなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。 A recording medium including such a program is not only constituted by a removable medium distributed separately from the apparatus main body in order to provide the program to each user, but also provided to each user in a state of being incorporated in the apparatus main body in advance. It is composed of a provided recording medium or the like.
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に添って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the steps for describing the program recorded on the recording medium are not limited to the processing performed in time series according to the order, but may be performed in parallel or individually even if not necessarily performed in time series. The process to be executed is also included.
以上まとめると、本発明が適用される危険予測装置(例えば図3の危険予測装置1)は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される危険予測装置は、
車両(例えば図1の車両10)に搭載される危険予測装置であって、
前記車両の周囲の領域のうち測定可能領域(例えば図4の測定可能領域M)に存在する反射物(例えば図10の反射物21)までの距離(例えば図10の距離P)を計測し、当該計測の結果に基づいた距離データを生成する距離データ生成手段(例えば図3の距離データ生成部111)と、
前記距離データを時間軸の方向に蓄積させた時空間データを含む入力データに基づいて、前記反射物の時空間上の距離変化を示す第1画像データを生成し、生成された前記第1画像データ上に、前記反射物の反射データを表示させる反射データ表示手段(例えば図3の反射データ表示部311)と、
前記第1画像データ上に表示された、1又は2以上の前記反射データを、移動体を示す移動体反射データと、固定体を示す固定体反射データとにそれぞれ識別する第1識別手段(例えば図3の第1識別部312)と、
前記移動体反射データにより示される前記移動体の、移動速度、加速度、及び移動方向を含む移動体データを生成する移動体データ生成手段(例えば図3の移動体データ生成部313)と、
前記車両の周囲を撮像する撮像手段(例えば図3の撮像部102)と、
撮像された画像に基づく第2画像データを生成する第2画像データ生成手段(例えば図3の第2画像データ生成部122)と、
生成された前記第2画像データと、前記移動体データとを少なくとも含む情報に基づいて、前記第2画像データに含まれる前記移動体のうち、前記車両に接近する移動体を識別する第2識別手段(例えば図3の第2識別部103)と、
を備える。
これにより、車両(例えば図1の車両10)の運転者(例えば図1の運転者D)の死角となる後方部及び側方部において、接近物(例えば移動体31)と離反物(例えば固定体40)とを的確に判別することが可能となる。
In summary, the risk prediction apparatus (for example, the risk prediction apparatus 1 in FIG. 3) to which the present invention is applied only needs to have the following configuration, and can take various embodiments.
That is, the danger prediction device to which the present invention is applied is
A risk prediction device mounted on a vehicle (for example, the vehicle 10 in FIG. 1),
Measure the distance (for example, distance P in FIG. 10) to the reflector (for example, reflector 21 in FIG. 10) present in the measurable area (for example, measurable area M in FIG. 4) of the surrounding area of the vehicle, Distance data generating means (for example, the distance data generating unit 111 in FIG. 3) for generating distance data based on the measurement result;
Based on input data including spatio-temporal data in which the distance data is accumulated in the direction of the time axis, first image data indicating a change in the spatio-temporal distance of the reflector is generated, and the generated first image Reflection data display means (for example, the reflection data display unit 311 in FIG. 3) for displaying the reflection data of the reflector on the data;
First identifying means for identifying one or more of the reflection data displayed on the first image data into moving object reflection data indicating a moving object and fixed object reflection data indicating a fixed object, respectively (for example, The first identification unit 312) of FIG.
Mobile object data generation means (for example, a mobile object data generation unit 313 in FIG. 3) for generating mobile object data including the moving speed, acceleration, and moving direction of the moving object indicated by the moving object reflection data;
Imaging means for imaging the surroundings of the vehicle (for example, the imaging unit 102 in FIG. 3);
Second image data generation means (for example, the second image data generation unit 122 in FIG. 3) for generating second image data based on the captured image;
Second identification for identifying a moving body approaching the vehicle among the moving bodies included in the second image data, based on the information including at least the generated second image data and the moving body data. Means (for example, the second identification unit 103 in FIG. 3);
Is provided.
As a result, an approaching object (for example, the moving body 31) and a separation object (for example, a fixed object) are formed at the rear and side portions that are blind spots of the driver (for example, the driver D of FIG. 1) of the vehicle (for example, the vehicle 10 in FIG. 1). It is possible to accurately determine the body 40).
また、本発明の一態様の危険予測装置において、前記第1識別手段は、空間フィルタリング処理により、前記1又は2以上の前記反射データを、前記移動体を示す移動体反射データと、前記固定体反射データとにそれぞれ識別することができる、ことが好ましい。
この発明によれば、1又は2以上の反射データの中から、車両に接近する移動体反射データを識別表示させることができる。
Further, in the risk prediction device according to one aspect of the present invention, the first identification unit is configured to perform the one or more of the reflection data, the mobile object reflection data indicating the mobile object, and the fixed body by a spatial filtering process. It is preferable that each can be distinguished from reflection data.
According to the present invention, it is possible to identify and display moving object reflection data approaching the vehicle from one or more reflection data.
また、本発明の一態様の危険予測装置において、空間フィルタリング処理が、ガボールフィルタを複数段用いた処理である、ことが好ましい。
この発明によれば、時空間データにおける線分の傾き(角度)を検出することができる。
In the risk prediction device of one embodiment of the present invention, it is preferable that the spatial filtering process is a process using a plurality of Gabor filters.
According to the present invention, the inclination (angle) of a line segment in spatiotemporal data can be detected.
また、本発明の一態様の危険予測装置において、前記第2識別手段は、さらに、前記移動体の水平方向の位置の特定を行う、ことが好ましい。
また、本発明の一態様の危険予測装置において、前記第2識別手段は、さらに、識別した前記移動体の種類を特定する、ことが好ましい。
この発明によれば、危険予測が精度良く行われるための前提となる第2画像データの正確性を担保することができる。
In the risk prediction apparatus according to one aspect of the present invention, it is preferable that the second identification unit further specifies a horizontal position of the moving body.
In the risk prediction apparatus according to an aspect of the present invention, it is preferable that the second identification unit further specifies the type of the identified moving object.
According to the present invention, it is possible to ensure the accuracy of the second image data, which is a prerequisite for the risk prediction to be accurately performed.
また、本発明の一態様の危険予測装置において、前記種類には、人間が少なくとも含まれる、ことが好ましい。
この発明によれば、接近物(移動体31)の急激な速度変化に的確に対応し、「人」を的確に判別することが可能となる。
In the risk prediction apparatus according to one aspect of the present invention, it is preferable that the type includes at least a human.
According to the present invention, it is possible to accurately respond to a sudden speed change of the approaching object (moving body 31) and accurately determine “person”.
また、本発明の一態様の危険予測装置において、
前記測定可能領域のうち、前記車両と前記移動体との間で交通事故が起きるリスクが高い領域を危険領域として予め設定する危険領域設定手段と、
前記時空間パターンに基づいて、前記車両の移動軌跡と、前記移動体の移動軌跡とを評価して、前記移動体が前記危険領域に進入するおそれがあるか否かを判断し、進入するおそれがあると判断した場合に、その旨を危険予測として前記運転者に提示する危険予測手段と、
をさらに備える、ことが好ましい。
この発明によれば、車両10と交通弱者70(移動体31)との交通事故を未然に防ぐための情報を運転者Dに提供することができる。
Moreover, in the risk prediction device of one aspect of the present invention,
Of the measurable area, a dangerous area setting means for preliminarily setting as a dangerous area an area where a risk of a traffic accident between the vehicle and the moving body is high,
Based on the spatio-temporal pattern, the movement trajectory of the vehicle and the movement trajectory of the moving body are evaluated to determine whether or not the moving body may enter the dangerous area, and may enter. When it is determined that there is a risk prediction means for presenting the fact to the driver as a risk prediction;
It is preferable to further comprise.
According to the present invention, information for preventing a traffic accident between the vehicle 10 and the weak traffic person 70 (the moving body 31) can be provided to the driver D.
また、本発明の一態様の危険予測装置において、前記第2識別手段は、前記距離データ生成手段及び前記撮像手段の設置環境に応じて、前記測定可能領域と、前記第2画像データとを調整する、ことが好ましい。
この発明によれば、危険予測が精度良く行われるための前提となる、第2画像データの正確性を担保することができる。
In the risk prediction apparatus according to the aspect of the present invention, the second identification unit adjusts the measurable region and the second image data according to an installation environment of the distance data generation unit and the imaging unit. It is preferable to do.
According to the present invention, it is possible to ensure the accuracy of the second image data, which is a premise for the risk prediction to be performed with high accuracy.
1:危険予測装置
10:車両
11:CPU
12:ROM
13:RAM
14:バス
15:入出力インターフェース
16:表示部
17:入力部
18:記憶部
19:通信部
20:ドライブ
21:反射物
30:リムーバブルメディア
31:移動体
40:固定体
70:交通弱者
101:センサ部
102:撮像部
103:第2識別部
104:2次元マップ生成部
105:危険予測部
111:距離データ生成部
112:自車データ生成部
113:時空間解析部
120:レーダ
121:カメラ
122:第2画像データ生成部
311:反射データ表示部
312:第1識別部
313:移動体データ生成部
401:距離DB
402:画像DB
403:自車DB
404:時空間DB
A:車両の全長
B:グラフ
C:グラフ
D:運転者
F:2次元マップ
K:測定可能角度
L:測定可能距離
M:測定可能領域
n:段数
P:距離
Q:死角領域
R:枠線
S:画像
T:時間
U:反射レベル
V:枠線
W:線分
X:危険領域
Y:線分
α:線分
β:線分
γ:曲線
1: Danger prediction device 10: Vehicle 11: CPU
12: ROM
13: RAM
14: Bus 15: Input / output interface 16: Display unit 17: Input unit 18: Storage unit 19: Communication unit 20: Drive 21: Reflected object 30: Removable media 31: Mobile body 40: Fixed body 70: Traffic weak person 101: Sensor Unit 102: imaging unit 103: second identification unit 104: two-dimensional map generation unit 105: danger prediction unit 111: distance data generation unit 112: own vehicle data generation unit 113: spatio-temporal analysis unit 120: radar 121: camera 122: 2nd image data generation part 311: Reflection data display part 312: 1st identification part 313: Mobile body data generation part 401: Distance DB
402: Image DB
403: Own car DB
404: Spatio-temporal DB
A: Total length of vehicle B: Graph C: Graph D: Driver F: Two-dimensional map K: Measurable angle L: Measurable distance M: Measurable area n: Number of steps P: Distance Q: Blind spot area R: Border line S : Image T: Time U: Reflection level V: Frame line W: Line segment X: Dangerous area Y: Line segment α: Line segment β: Line segment γ: Curve
Claims (11)
前記車両の周囲の領域のうち測定可能領域に存在する反射物までの距離を計測し、当該計測の結果に基づいた距離データを生成する距離データ生成手段と、
生成された前記距離データを時間軸の方向に蓄積させた時空間データを含む入力データに基づいて、前記反射物の時空間上の距離変化を示す第1画像データを生成し、生成した第1画像データ上に、前記反射物の反射データを表示させる反射データ表示手段と、
前記第1画像データ上に表示された、1又は2以上の前記反射データを、移動体を示す移動体反射データと、固定体を示す固定体反射データとにそれぞれ識別する第1識別手段と、
前記移動体反射データにより示される前記移動体の、移動速度、加速度、及び移動方向を含む移動体データを生成する移動体データ生成手段と、
前記車両の周囲を撮像する撮像手段と、
撮像された画像に基づく第2画像データを生成する第2画像データ生成手段と、
生成された前記第2画像データと、前記移動体データとを少なくとも含む情報に基づいて、前記第2画像データに含まれる前記移動体のうち、前記車両に接近する移動体を識別する第2識別手段と、
を備える危険予測装置。 A danger prediction device mounted on a vehicle,
Distance data generating means for measuring a distance to a reflector existing in a measurable area of the surrounding area of the vehicle, and generating distance data based on a result of the measurement;
Based on the input data including the spatio-temporal data in which the generated distance data is accumulated in the direction of the time axis, first image data indicating a change in the spatio-temporal distance of the reflector is generated, and the generated first Reflection data display means for displaying the reflection data of the reflector on the image data;
First identification means for identifying one or more of the reflection data displayed on the first image data into moving object reflection data indicating a moving object and fixed object reflection data indicating a fixed body, respectively;
Moving body data generating means for generating moving body data including a moving speed, acceleration, and moving direction of the moving body indicated by the moving body reflection data;
Imaging means for imaging the periphery of the vehicle;
Second image data generating means for generating second image data based on the captured image;
Second identification for identifying a moving body approaching the vehicle among the moving bodies included in the second image data, based on the information including at least the generated second image data and the moving body data. Means,
A risk prediction device comprising:
空間フィルタリング処理により、前記1又は2以上の前記反射データを、前記移動体を示す移動体反射データと、前記固定体を示す固定体反射データとにそれぞれ識別する、
請求項1に記載の危険予測装置。 The first identification means includes
The spatial filtering process identifies the one or more reflection data as moving object reflection data indicating the moving object and fixed object reflection data indicating the fixed body, respectively.
The danger prediction device according to claim 1.
請求項2に記載の危険予測装置。 The spatial filtering process is a process using a plurality of Gabor filters.
The danger prediction device according to claim 2.
識別した前記移動体の水平方向の位置の特定を行う、
請求項1〜3のうちいずれか1項に記載の危険予測装置。 The second identification means further includes
Identifying the horizontal position of the identified mobile object;
The danger prediction apparatus of any one of Claims 1-3.
識別した前記移動体の種類を特定する、
請求項1〜4のうちいずれか1項に記載の危険予測装置。 The second identification means further includes
Identify the type of the identified moving object;
The danger prediction apparatus of any one of Claims 1-4.
請求項5に記載の危険予測装置。 The type includes at least a human,
The danger prediction device according to claim 5.
請求項1〜6のうちいずれか1項に記載の危険予測装置。 2D map generation / presentation means for generating a 2D map on which a spatiotemporal pattern indicating a positional relationship between the vehicle and the moving body is displayed, and presenting the 2D map to a driver driving the vehicle. In addition,
The danger prediction device according to any one of claims 1 to 6.
前記時空間パターンに基づいて、前記車両の移動軌跡と、前記移動体の移動軌跡とを評価して、前記移動体が前記危険領域に進入するおそれがあるか否かを判断し、進入するおそれがあると判断した場合に、その旨を危険予測として前記運転者に提示する危険予測手段と、
をさらに備える、
請求項7に記載の危険予測装置。 Of the measurable area, a dangerous area setting means for preliminarily setting as a dangerous area an area where a risk of a traffic accident between the vehicle and the moving body is high,
Based on the spatio-temporal pattern, the movement trajectory of the vehicle and the movement trajectory of the moving body are evaluated to determine whether or not the moving body may enter the dangerous area, and may enter. When it is determined that there is a risk prediction means for presenting the fact to the driver as a risk prediction;
Further comprising
The risk prediction apparatus according to claim 7.
請求項1〜8のうちいずれか1項に記載の危険予測装置。 The second identification unit adjusts the measurable area and the second image data according to an installation environment of the distance data generation unit and the imaging unit.
The danger prediction device according to any one of claims 1 to 8.
前記車両の周囲の領域のうち測定可能領域に存在する反射物までの距離を計測し、当該計測の結果に基づいた距離データを生成する距離データ生成ステップと、
前記距離データを時間軸の方向に蓄積させた時空間データを含む入力データに基づいて、前記反射物の時空間上の距離変化を示す第1画像データを生成し、生成された前記第1画像データ上に、前記反射物の反射データを表示させる反射データ表示ステップと、
前記第1画像データ上に表示された、1又は2以上の前記反射データを、移動体を示す移動体反射データと、固定体を示す固定体反射データとにそれぞれ識別する第1識別ステップと、
前記移動体反射データにより示される前記移動体の、移動速度、加速度、及び移動方向を含む移動体データを生成する移動体データ生成ステップと、
前記車両の周囲を撮像する撮像ステップと、
撮像された画像に基づく第2画像データを生成する第2画像データ生成ステップと、
生成された前記第2画像データと、前記移動体データとを少なくとも含む情報に基づいて、前記第2画像データに含まれる前記移動体のうち、前記車両に接近する移動体を識別する第2識別ステップと、
を含む危険予測方法。 A method used for risk prediction in a vehicle,
A distance data generation step of measuring a distance to a reflector existing in a measurable area of the area around the vehicle, and generating distance data based on the measurement result;
Based on input data including spatio-temporal data in which the distance data is accumulated in the direction of the time axis, first image data indicating a change in the spatio-temporal distance of the reflector is generated, and the generated first image A reflection data display step for displaying the reflection data of the reflector on the data;
A first identification step for identifying one or more of the reflection data displayed on the first image data into moving object reflection data indicating a moving object and fixed object reflection data indicating a fixed body;
A moving object data generating step for generating moving object data including moving speed, acceleration, and moving direction of the moving object indicated by the moving object reflection data;
An imaging step of imaging the surroundings of the vehicle;
A second image data generation step of generating second image data based on the captured image;
Second identification for identifying a moving body approaching the vehicle among the moving bodies included in the second image data, based on the information including at least the generated second image data and the moving body data. Steps,
Risk prediction method including
車両の周囲の領域のうち測定可能領域に存在する反射物までの距離を計測し、当該計測の結果に基づいた距離データを生成する距離データ生成ステップと、
前記距離データを時間軸の方向に蓄積させた時空間データを含む入力データに基づいて、前記反射物の時空間上の距離変化を示す第1画像データを生成し、生成された前記第1画像データ上に、前記反射物の反射データを表示させる反射データ表示ステップと、
前記第1画像データ上に表示された、1又は2以上の前記反射データを、移動体を示す移動体反射データと、固定体を示す固定体反射データとにそれぞれ識別する第1識別ステップと、
前記移動体反射データにより示される前記移動体の、移動速度、加速度、及び移動方向を含む移動体データを生成する移動体データ生成ステップと、
前記車両の周囲を撮像する撮像ステップと、
撮像された画像に基づく第2画像データを生成する第2画像データ生成ステップと、
生成された前記第2画像データと、前記移動体データとを少なくとも含む情報に基づいて、前記第2画像データに含まれる前記移動体のうち、前記車両に接近する移動体を識別する第2識別ステップと、
を含む制御処理を実行させるプログラム。 In the computer that controls the danger prediction device,
A distance data generation step of measuring a distance to a reflector existing in a measurable area of the surrounding area of the vehicle, and generating distance data based on a result of the measurement;
Based on input data including spatio-temporal data in which the distance data is accumulated in the direction of the time axis, first image data indicating a change in the spatio-temporal distance of the reflector is generated, and the generated first image A reflection data display step for displaying the reflection data of the reflector on the data;
A first identification step for identifying one or more of the reflection data displayed on the first image data into moving object reflection data indicating a moving object and fixed object reflection data indicating a fixed body;
A moving object data generating step for generating moving object data including moving speed, acceleration, and moving direction of the moving object indicated by the moving object reflection data;
An imaging step of imaging the surroundings of the vehicle;
A second image data generation step of generating second image data based on the captured image;
Second identification for identifying a moving body approaching the vehicle among the moving bodies included in the second image data, based on the information including at least the generated second image data and the moving body data. Steps,
A program that executes control processing including
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018066045A JP7033308B2 (en) | 2018-03-29 | 2018-03-29 | Hazard Predictors, Hazard Prediction Methods, and Programs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018066045A JP7033308B2 (en) | 2018-03-29 | 2018-03-29 | Hazard Predictors, Hazard Prediction Methods, and Programs |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019175372A true JP2019175372A (en) | 2019-10-10 |
| JP7033308B2 JP7033308B2 (en) | 2022-03-10 |
Family
ID=68166956
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018066045A Active JP7033308B2 (en) | 2018-03-29 | 2018-03-29 | Hazard Predictors, Hazard Prediction Methods, and Programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7033308B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021171874A1 (en) * | 2020-02-27 | 2021-09-02 | ||
| CN113392723A (en) * | 2021-05-25 | 2021-09-14 | 珠海市亿点科技有限公司 | Unmanned aerial vehicle forced landing area screening method, device and equipment based on artificial intelligence |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004361155A (en) * | 2003-06-03 | 2004-12-24 | Fujitsu Ten Ltd | Target object determination device, target object determination device, and determination auxiliary device |
| JP2009217495A (en) * | 2008-03-10 | 2009-09-24 | Toyota Central R&D Labs Inc | Hazard warning device |
| JP2009230390A (en) * | 2008-03-21 | 2009-10-08 | Denso Corp | Recognition system |
| JP2011238161A (en) * | 2010-05-13 | 2011-11-24 | Yupiteru Corp | Alarm device |
| JP2012194784A (en) * | 2011-03-16 | 2012-10-11 | Fujitsu Ltd | Mobile body information measuring device and mobile body information measuring method |
| WO2014033957A1 (en) * | 2012-09-03 | 2014-03-06 | トヨタ自動車株式会社 | Collision determination device and collision determination method |
-
2018
- 2018-03-29 JP JP2018066045A patent/JP7033308B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004361155A (en) * | 2003-06-03 | 2004-12-24 | Fujitsu Ten Ltd | Target object determination device, target object determination device, and determination auxiliary device |
| JP2009217495A (en) * | 2008-03-10 | 2009-09-24 | Toyota Central R&D Labs Inc | Hazard warning device |
| JP2009230390A (en) * | 2008-03-21 | 2009-10-08 | Denso Corp | Recognition system |
| JP2011238161A (en) * | 2010-05-13 | 2011-11-24 | Yupiteru Corp | Alarm device |
| JP2012194784A (en) * | 2011-03-16 | 2012-10-11 | Fujitsu Ltd | Mobile body information measuring device and mobile body information measuring method |
| WO2014033957A1 (en) * | 2012-09-03 | 2014-03-06 | トヨタ自動車株式会社 | Collision determination device and collision determination method |
| US20150234044A1 (en) * | 2012-09-03 | 2015-08-20 | Toyota Jidosha Kabushiki Kaisha | Collision determination device and collision determination method |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021171874A1 (en) * | 2020-02-27 | 2021-09-02 | ||
| WO2021171874A1 (en) * | 2020-02-27 | 2021-09-02 | パナソニックIpマネジメント株式会社 | Control system and control method |
| JP7630087B2 (en) | 2020-02-27 | 2025-02-17 | パナソニックIpマネジメント株式会社 | Control system and control method |
| CN113392723A (en) * | 2021-05-25 | 2021-09-14 | 珠海市亿点科技有限公司 | Unmanned aerial vehicle forced landing area screening method, device and equipment based on artificial intelligence |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7033308B2 (en) | 2022-03-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11798290B2 (en) | Obstacle detection and notification for motorcycles | |
| US12067880B2 (en) | Safety system for a vehicle to detect and warn of a potential collision | |
| JP7397807B2 (en) | Rider assistance system and method | |
| US7633383B2 (en) | Systems and arrangements for providing situational awareness to an operator of a vehicle | |
| EP3343438B1 (en) | Automatic parking system and automatic parking method | |
| RU2724935C1 (en) | METHOD AND SYSTEM OF NOTIFICATION OF A LOAD CAR DRIVER | |
| EP2896029B1 (en) | Backward movement indicator apparatus for a vehicle | |
| CN113276770A (en) | Commercial vehicle total blind area monitoring system and method based on safety and low cost requirements | |
| KR20180065527A (en) | Vehicle side-rear warning device and method using the same | |
| CN118991811A (en) | Blind area obstacle early warning method, system, vehicle and storage medium | |
| JP5003473B2 (en) | Warning device | |
| CN114822058A (en) | Driving specification driving prompting monitoring method and system based on signal lamp intersection, vehicle-mounted terminal and storage medium | |
| JP7033308B2 (en) | Hazard Predictors, Hazard Prediction Methods, and Programs | |
| US12030512B2 (en) | Collision warning system for a motor vehicle having an augmented reality head up display | |
| CN119541269B (en) | Intelligent driving safety assistance management method and system | |
| JP4751894B2 (en) | A system to detect obstacles in front of a car | |
| KR102824943B1 (en) | Side Collision Warning System For Vehicle | |
| CN120817176B (en) | Two-wheeled vehicles and their blind spot warning methods | |
| CN119840610B (en) | Rider-oriented method, device, equipment and storage medium for preventing AEB false triggering | |
| US20250058712A1 (en) | Augmented vehicle blind spot detection with transparent trailer | |
| JP3222638U (en) | Safe driving support device | |
| CN121084376A (en) | Vehicle braking control method, medium and vehicle | |
| KR101683677B1 (en) | Apparatus and method for controlling around view of vehicle | |
| CN120108223A (en) | Blind spot warning method, device, vehicle and storage medium based on surround view system | |
| CN120853345A (en) | Vehicle early warning method, system, equipment and medium based on cloud control basic platform |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180424 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210210 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210210 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210210 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220117 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220218 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7033308 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |