JP2018101295A - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP2018101295A JP2018101295A JP2016246988A JP2016246988A JP2018101295A JP 2018101295 A JP2018101295 A JP 2018101295A JP 2016246988 A JP2016246988 A JP 2016246988A JP 2016246988 A JP2016246988 A JP 2016246988A JP 2018101295 A JP2018101295 A JP 2018101295A
- Authority
- JP
- Japan
- Prior art keywords
- blind spot
- spot area
- area
- target
- current time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】物体が死角領域から退出する場合と、物体が死角領域に留まる場合の双方において、死角領域内の物体の有無を確実に判断することができる物体検知装置を提供する。【解決手段】時刻t−1にて死角領域DBLを囲む死角周辺領域ABに物体が位置し、物体の時刻t−1の相対速度の向きが死角領域DBLの方向である場合、死角領域DBLを時刻tにて物体が侵入する死角領域の候補とする。そして、候補とされた死角領域DBLを囲む死角周辺領域ALB,AB内に、時刻tにて物体が存在しない場合、死角領域DBLに物体が侵入したと判断する。また、物体が存在すると判断された死角領域DBLを囲む死角周辺領域ALB,AB内に、時刻t+αにおいて物体が存在する場合、死角領域DBLから物体が退出したと判断する。【選択図】図1PROBLEM TO BE SOLVED: To provide an object detection device capable of reliably determining the presence or absence of an object in a blind spot region both when the object exits the blind spot region and when the object stays in the blind spot region. When an object is located in a blind spot peripheral region AB surrounding a blind spot region DBL at time t-1, and the direction of the relative velocity of the object at time t-1 is the direction of the blind spot region DBL, the blind spot region DBL is set. It is a candidate for a blind spot area where an object invades at time t. Then, when the object does not exist in the blind spot peripheral areas ALB and AB surrounding the candidate blind spot area DBL at time t, it is determined that the object has invaded the blind spot area DBL. Further, when the object exists in the blind spot peripheral areas ALB and AB surrounding the blind spot area DBL where the object is determined to exist at time t + α, it is determined that the object has exited from the blind spot area DBL. [Selection diagram] Fig. 1
Description
本発明は、自動運転システムに用いて好適な物体検知装置に関する。 The present invention relates to an object detection device suitable for use in an automatic driving system.
特許文献1には、複数のレーダーを用いて自車両の周辺に存在する物体を検知することによって、自車両と物体との接触を回避する技術が開示されている。この技術によれば、前回までに制御対象物体であると認識されていた物体と同一物体であると判定される物体がレーダーの不検知領域(死角領域)に入った場合、自車両と物体との相対位置及び相対速度に基づいて不検知領域内に制御対象物体が外挿される。そして、外挿された制御対象物体が不検知領域に存在する場合には、外挿された制御対象物体が不検知領域以外に存在する場合の作動内容よりも、接触回避効果の高い作動内容が設定される。 Patent Document 1 discloses a technique for avoiding contact between the host vehicle and the object by detecting an object existing around the host vehicle using a plurality of radars. According to this technique, when an object that is determined to be the same object as the object that has been recognized as the control target object by the previous time enters the radar non-detection area (dead angle area), The object to be controlled is extrapolated in the non-detection area based on the relative position and the relative speed of. When the extrapolated control target object exists in the non-detection region, the operation content having a higher contact avoidance effect than the operation content when the extrapolated control target object exists outside the non-detection region. Is set.
しかしながら、上記従来技術では、実物体が死角領域から退出した後も、精度の低い外挿物体が長時間死角領域に留まるために、死角領域に実物体がとどまっていると誤判断されるおそれがある。また、実物体が死角領域に留まっているのに、精度の低い外挿物体が死角領域から退出してしまったために、死角領域に実物体がいないと誤判断されるおそれもある。 However, in the above-described prior art, even after the real object has left the blind spot area, the extrapolated object with low accuracy remains in the blind spot area for a long time, so there is a risk that it is erroneously determined that the real object remains in the blind spot area. is there. Further, since the extrapolated object with low accuracy has left the blind spot area even though the real object remains in the blind spot area, it may be erroneously determined that there is no real object in the blind spot area.
本発明は、上述のような課題に鑑みてなされたものであり、物体が死角領域から退出する場合と、物体が死角領域に留まる場合の双方において、死角領域内の物体の有無を確実に判断することができる物体検知装置を提供することを目的とする。 The present invention has been made in view of the above-described problems, and reliably determines whether there is an object in the blind spot area both when the object leaves the blind spot area and when the object remains in the blind spot area. It is an object of the present invention to provide an object detection device that can do this.
上記の目的を達成するため、本発明に係る物体検知装置は、
複数のセンサによって自車両の周辺に存在する物体を検出する物体検出手段と、
前記物体検出手段によって検出された物体の現時刻の相対位置及び相対速度を取得する現時刻物体情報取得手段と、
前記物体検出手段によって検出された物体の前時刻の相対位置及び相対速度を取得する前時刻物体情報取得手段と、
前記物体検出手段の検出範囲から外れる死角領域のうち、前時刻にて当該死角領域を囲む死角周辺領域に物体が位置し、当該物体の前時刻の相対速度の向きが当該死角領域の方向であるものを、現時刻にて当該物体が侵入する死角領域の候補として出力する侵入候補死角領域判断手段と、
前記侵入候補死角領域判断手段により候補とされた死角領域を囲む死角周辺領域内に、現時刻にて物体が存在しない場合、当該死角領域に当該物体が侵入したと判断する死角領域侵入判断手段と、
前時刻にて物体が存在すると判断された死角領域を囲む死角周辺領域内に、現時刻において物体が存在する場合、当該死角領域から当該物体が退出したと判断する死角領域退出判断手段と、
前時刻にて物体の存在する死角領域と、現時刻にて物体が侵入した死角領域と、現時刻にて物体が退出した死角領域とを統合し、現時刻にて物体が存在する死角領域を判断する判断統合手段と、
を備えることを特徴とする。
In order to achieve the above object, an object detection device according to the present invention includes:
Object detection means for detecting an object existing around the host vehicle by a plurality of sensors;
Current time object information acquisition means for acquiring the relative position and relative speed of the object detected by the object detection means;
Previous time object information acquisition means for acquiring the relative position and relative speed of the object detected by the object detection means at the previous time;
Of the blind spot area outside the detection range of the object detection means, the object is located in the blind spot surrounding area surrounding the blind spot area at the previous time, and the direction of the relative speed of the previous time of the object is the direction of the blind spot area. Intruding candidate blind spot area judging means for outputting the object as a candidate for the blind spot area into which the object enters at the current time,
A blind spot area intrusion judging means for judging that the object has entered the blind spot area when there is no object at the current time in the blind spot surrounding area surrounding the blind spot area made a candidate by the intrusion candidate blind spot area judging means; ,
In the blind spot surrounding area surrounding the blind spot area where it is determined that the object exists at the previous time, if there is an object at the current time, a blind spot area exit determining means for determining that the object has exited from the blind spot area;
The blind spot area where the object exists at the previous time, the blind spot area where the object entered at the current time, and the blind spot area where the object exited at the current time are integrated, and the blind spot area where the object exists at the current time is integrated. A judgment integration means for judging;
It is characterized by providing.
本発明に係る物体検知装置によれば、死角領域を囲む死角周辺領域において物体の検出状態を監視することで、物体が死角領域から退出する場合と、物体が死角領域に留まる場合の双方において、死角領域内の物体の有無を確実に判断できる。 According to the object detection device of the present invention, by monitoring the detection state of the object in the blind spot surrounding area surrounding the blind spot area, both when the object leaves the blind spot area and when the object stays in the blind spot area, The presence or absence of an object in the blind spot area can be reliably determined.
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。 Embodiments of the present invention will be described below with reference to the drawings. However, in the embodiment shown below, when referring to the number of each element, quantity, quantity, range, etc., unless otherwise specified or clearly specified in principle, the reference However, the present invention is not limited to these numbers. Further, the structures described in the embodiments described below are not necessarily essential to the present invention unless otherwise specified or clearly specified in principle.
まず、図1を用いて、実施の形態に係る物体検知処理の概要について説明する。図1(a)に示す例では、自車両を中心にして複数のセンサによる検出範囲SF,SB,SL,SRが前後左右に扇状に広がっている。そして、この例では、前方検出範囲SFと左側方検出範囲SLとの間、前方検出範囲SFと右側方検出範囲SRとの間、後方検出範囲SBと左側方検出範囲SLとの間、及び後方検出範囲SBと右側方検出範囲SRとの間に、センサの検出範囲から外れる死角領域DFL,DFR,DBL,DBRができている。 First, the outline of the object detection process according to the embodiment will be described with reference to FIG. In the example shown in FIG. 1A, detection ranges SF, SB, SL, SR by a plurality of sensors are fanned out in the front-rear and left-right directions with the host vehicle as the center. In this example, between the front detection range SF and the left side detection range SL, between the front detection range SF and the right side detection range SR, between the rear detection range SB and the left side detection range SL, and behind Between the detection range SB and the right side detection range SR, blind spot areas DFL, DFR, DBL, DBR deviating from the detection range of the sensor are formed.
本物体検知処理には、死角周辺領域という概念が導入されている。死角周辺領域は死角領域を囲む領域であり、センサ検出範囲や死角領域のような物理的に決まる範囲ではなく、任意に設定できる範囲である。死角周辺領域の具体的な設定方法については後述する。図1(a)に示す例では、例えば、左後方死角領域DBLを囲むように死角周辺領域ALB,ABが設定され、右後方死角領域DBRを囲むように死角周辺領域ARB,ABが設定されている。左前方死角領域DFLや右前方死角領域DFRの周囲にも死角周辺領域が設定されているが、それらについての図示は省略する。 This object detection process introduces the concept of a blind spot peripheral area. The blind spot peripheral area is an area surrounding the blind spot area, and is not a physically determined range such as a sensor detection range or a blind spot area but a range that can be arbitrarily set. A specific method for setting the blind spot peripheral area will be described later. In the example shown in FIG. 1A, for example, blind spot peripheral areas ALB and AB are set so as to surround the left rear blind spot area DBL, and blind spot peripheral areas ARB and AB are set so as to surround the right rear blind spot area DBR. Yes. Although the blind spot peripheral area is also set around the left front blind spot area DFL and the right front blind spot area DFR, illustration of these is omitted.
さて、本物体検知処理は、一定の周期で実行される。複数のセンサにより自車両の周辺に存在する物体が毎時刻検出され、その検出結果が記憶される。検出対象となる物体は移動体であって、自動車、オートバイ、自転車等の車両や歩行者が含まれる。物体の検出結果には、検出された物体の自車両に対する相対位置及び相対速度が含まれる。ここでは、図1(a)に示すように、前時刻t−1において死角周辺領域ABに物体が検出されたとする。現時刻tでは、検出された物体の前時刻t−1の相対位置及び相対速度が取得され、物体が向かう方向にあった死角領域DBLが特定される。そして、図1(b)に示すように、現時刻tにおいて死角領域DBLを囲んでいる死角周辺領域AB又はALBに物体が検出されない場合、その物体は死角領域DBLに存在するとの判断がなされる。その後、ある時刻t+αにおいて死角領域DBLを囲んでいる死角周辺領域ALBに物体が再度検出されるまで、死角領域DBLに物体が存在するとの判断が継続される。 Now, the object detection process is executed at a constant cycle. Objects existing around the host vehicle are detected every time by a plurality of sensors, and the detection results are stored. The object to be detected is a moving body, and includes vehicles such as automobiles, motorcycles, bicycles, and pedestrians. The detection result of the object includes a relative position and a relative speed of the detected object with respect to the own vehicle. Here, as shown in FIG. 1A, it is assumed that an object is detected in the blind spot peripheral area AB at the previous time t-1. At the current time t, the relative position and relative speed of the detected object at the previous time t−1 are acquired, and the blind spot area DBL that is in the direction in which the object is heading is specified. Then, as shown in FIG. 1B, when no object is detected in the blind spot surrounding area AB or ALB surrounding the blind spot area DBL at the current time t, it is determined that the object exists in the blind spot area DBL. . Thereafter, the determination that the object is present in the blind spot area DBL is continued until an object is detected again in the blind spot peripheral area ALB surrounding the blind spot area DBL at a certain time t + α.
以上の概要から分かるように、本物体検知処理は、死角周辺領域の物体の検出状態を監視することで、物体が死角から退出する場合と、物体が死角に留まる場合の双方において、死角領域内の物体の有無を確実に判断できる。以下、本物体検知処理が適用された自動運転システムの構成と本物体検知処理の詳細について説明する。 As can be seen from the above outline, this object detection process monitors the detection state of the object in the blind spot peripheral area, so that the object detection process is performed in the blind spot area both when the object leaves the blind spot and when the object stays in the blind spot. The presence or absence of an object can be determined with certainty. Hereinafter, the configuration of the automatic driving system to which the object detection process is applied and the details of the object detection process will be described.
図2は、実施の形態に係る自動運転システムの構成を示す図である。自動運転システムは、それが搭載される車両の自動運転を実行する。自動運転システム1は、物体検知装置として機能する制御装置10と、自律認識センサであるライダー(LIDAR:Laser Imaging Detection and Ranging)2、レーダー3、ステレオカメラ4、ソナー21、及び赤外線センサ22を備える。これらの自律認識センサは、直接、或いは、車両内に構築されたCAN(Controller Area Network)等の通信ネットワークを介して制御装置10に接続されている。制御装置10は、自律認識センサで得られた物体情報より、車両の略全周囲の状況を把握することができる。
FIG. 2 is a diagram illustrating a configuration of the automatic driving system according to the embodiment. The automatic driving system performs automatic driving of a vehicle on which the automatic driving system is mounted. The automatic driving system 1 includes a
自動運転システム1は、さらに、GPS(Global Positioning System)受信機5、地図データベース6、ナビゲーションシステム7、HMI(Human Machine Interface)8及びアクチュエータ9を備える。GPS受信機5は、GPS衛星が発信する信号に基づいて自車両の位置を示す位置情報を取得する手段である。地図データベース6は、例えば、車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース6が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。ナビゲーションシステム7は、GPS受信機5によって測定された自車両の位置情報と地図データベース6の地図情報とに基づいて、自車両の走行するルートを算出し、算出したルートの情報をHMI8を介して運転者に伝達するとともに、制御装置10へ出力する。HMI8は、乗員と制御装置10との間で情報の出力及び入力をするためのインターフェイスである。アクチュエータ9は、制御装置10からの操作信号に応じて動作し、その動作によって車両の走行状態を変化させる装置である。アクチュエータ9は、例えば、駆動系、制動系、操舵系のそれぞれに設けられている。これら以外にも、例えば、車速センサや加速度センサ等の自車両の走行状態に関する情報を得るための内部センサが自動運転システム1には備えられる。
The automatic driving system 1 further includes a GPS (Global Positioning System)
制御装置10は、少なくとも1つのプロセッサ、少なくとも1つのROM、少なくとも1つのRAMを有するECU(Electronic Control Unit)である。プロセッサはレジスタとキャッシュメモリを含む。ROMには、自動運転のための各種のプログラムやマップを含む各種のデータが記憶されている。ROMに記憶されているプログラムがRAMにロードされ、プロセッサで実行されることで、制御装置10には様々な機能が実現される。なお、制御装置10は、複数のECUから構成されていてもよい。
The
図2には、制御装置10が有する自動運転のための機能のうち、特に、物体検知に関係する機能がブロックで表現されている。制御装置10が有する自動運転のためのその他の機能についての図示は省略されている。
In FIG. 2, among functions for automatic driving that the
自動運転システム1は、ライダー2、レーダー3、ステレオカメラ4、ソナー21及び赤外線センサ22によって自車両の周辺に存在する物体を検知している。しかし、自車両の周囲には、これらのセンサ2,3,4,21,22の検出範囲から外れる死角領域が存在する。制御装置10は、センサ2,3,4,21,22の検出範囲内の物体だけでなく、検出範囲から外れた死角領域内の物体を検知する機能を有する。この機能は、制御装置10が備える物体検出部11、現時刻物標情報取得部12、前時刻物標情報取得部13、侵入候補死角領域判断部14、死角領域侵入判断部15、死角領域退出判断部16、及び判断統合部17により実現される。ただし、これらの部11,12,13,14,15,16,17は、制御装置10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがプロセッサで実行されたときにソフトウェア的に実現される。
In the automatic driving system 1, an object existing around the host vehicle is detected by a
物体検出部11は、自車両周辺の物体の計測データをセンサ2,3,4,21,22より取得する。計測データには、計測点までの距離に関する情報、計測点の高さに関する情報、及び計測点の方向に関する情報が含まれる。また、センサによっては、計測点の速度に関する情報が含まれる。物体検出部11は、ライダー2で得た情報を用いること、レーダー3で得た情報を用いること、ステレオカメラ4で得た情報を用いること、ソナー21で得た情報を用いること、赤外線センサ22で得た情報を用いること、センサフュージョンによって複数種類のセンサ2,3,4,21,22の情報を組み合わせて用いること、のうち少なくとも1つの方法による計測データの取得が可能である。物体検出部11は、取得した計測データをクラスタリングする。クラスタリングは、自車両を中心として自車両の前後方向にX軸(縦軸)をとり左右方向にY軸(横軸)をとった基準座標系上での各計測点の位置と高さとに基づいて行われる。また、速度情報を持つ計測データについては、速度に基づいてクラスタリングが行われてもよい。クラスタリングの具体的な方法には特に限定はなく、公知のクラスタリング方法を用いることができる。クラスタリングされた計測点群は、基準座標系において長方形の枠で囲まれて1つの物標とされる。基準座標系における物標の位置は検出された物体の自車両に対する相対位置を示し、物標の枠の範囲は検出された物体の平面上での範囲を示している。物体検出部11は、請求項1に記載されている物体検出手段に相当する。
The
現時刻物標情報取得部12は、基準座標系上での物標の現時刻の相対位置及び相対速度を取得する。基準座標系上での物標の相対位置及び相対速度は、実空間での物体の相対位置及び相対速度に対応している。ゆえに、現時刻物標情報取得部12は、請求項1に記載されている現時刻物体情報取得手段に相当する。物標の現時刻の相対位置は物体検出部11から得られる。物標の現時刻の相対速度は、前時刻から現時刻までの物標の相対位置の変化量と変化の方向とから計算される。現時刻物標情報取得部12は、取得した現時刻の物標の相対位置及び相対速度をキャッシュメモリやレジスタ等の一時記憶手段に一時的に記憶する。また、現時刻物標情報取得部12は、取得した物標の現時刻の相対位置及び相対速度を死角領域侵入判断部15と死角領域退出判断部16とに入力する。
The current time target
前時刻物標情報取得部13は、基準座標系上での物標の前時刻の相対位置及び相対速度を取得する。詳しくは、前時刻において現時刻物標情報取得部12により一時記憶手段に記憶されていた物標の相対位置及び相対速度を読み出す。前時刻物標情報取得部13は、取得した物標の前時刻の相対位置及び相対速度を侵入候補死角領域判断部14に入力する。前時刻物標情報取得部13は、請求項1に記載されている前時刻物体情報取得手段に相当する。
The previous time target
侵入候補死角領域判断部14は、前時刻物標情報取得部13から入力された前時刻の物標の相対位置と相対速度とに基づき、現時刻にて物標が侵入する死角領域の候補を判断する。侵入候補死角領域判断部14は、請求項1に記載されている侵入候補死角領域判断手段に相当する。詳しくは、侵入候補死角領域判断部14は以下の処理を行う。
Based on the relative position and relative speed of the target at the previous time input from the previous time target
基準座標系上には、自車両の周囲にできる全ての死角領域が設定されるとともに、各死角領域を囲む死角周辺領域が設定されている。侵入候補死角領域判断部14は、死角領域のそれぞれについて、それを囲む死角周辺領域に前時刻において物標が位置していたか判定する。対応する死角周辺領域に前時刻において物標が位置していた死角領域については、前時刻の物標の相対速度の向きが当該死角領域の方向であるか判定する。そして、前時刻の物標の相対速度の向きが当該死角領域の方向である場合、当該死角領域を現時刻にて物標が侵入する死角領域の候補として決定する。侵入候補死角領域判断部14は、決定した死角領域の候補を死角領域侵入判断部15に入力する。
On the reference coordinate system, all blind spot areas formed around the host vehicle are set, and blind spot surrounding areas surrounding each blind spot area are set. The invasion candidate blind spot
死角領域侵入判断部15は、侵入候補死角領域判断部14により候補とされた死角領域を囲む死角周辺領域を特定する。そして、現時刻物標情報取得部12から入力された現時刻の物標の相対位置が、特定した死角周辺領域に含まれるかどうか判定する。死角領域侵入判断部15は、特定した死角周辺領域内に現時刻において物標が存在しない場合、候補とされた死角領域に物標が侵入したと判断する。死角領域侵入判断部15は、現時刻にて物標が侵入したと判断した死角領域を判断統合部17に入力する。死角領域侵入判断部15は、請求項1に記載されている死角領域侵入判断手段に相当する。
The blind spot area
死角領域退出判断部16は、後述する判断統合部17により前時刻にて物標が存在すると判断された死角領域を囲む死角周辺領域を特定する。そして、現時刻物標情報取得部12から入力された現時刻の物標の相対位置が、特定した死角周辺領域に含まれるかどうか判定する。死角領域退出判断部16は、特定した死角周辺領域内に現時刻において物標が存在する場合、前時刻にて物標が存在すると判断された死角領域から当該物標が退出したと判断する。死角領域退出判断部16は、現時刻にて物標が退出したと判断した死角領域を判断統合部17に入力する。死角領域退出判断部16は、請求項1に記載されている死角領域退出判断手段に相当する。
The blind spot area
判断統合部17は、前時刻にて物標が存在した死角領域と、現時刻にて物標が侵入した死角領域と、現時刻にて物標が退出した死角領域とを統合し、現時刻にて物標が存在する死角領域を出力する。判断統合部17は、請求項1に記載されている判断統合手段に相当する。判断統合部17から出力された現時刻にて物標が存在する死角領域に関する情報は、例えば、自動運転における車線変更制御において利用される。 The judgment integration unit 17 integrates the blind spot area where the target existed at the previous time, the blind spot area where the target entered at the current time, and the blind spot area where the target exited at the current time. The blind spot area where the target exists is output. The judgment integration unit 17 corresponds to a judgment integration unit described in claim 1. The information regarding the blind spot area where the target exists at the current time output from the judgment integration unit 17 is used, for example, in lane change control in automatic driving.
上記の各部11,12,13,14,15,16,17の機能により、制御装置10は物体検知装置として機能する。図3は、本実施の形態に係る物体検知処理の流れを示すフローチャートである。物体検知処理としての制御装置10は、このフローチャートに示す処理を所定の周期で繰り返し実施している。このフローチャートでは、現時刻をtで表し前時刻をt−1で表す。
The
ステップS1は、前時刻t−1における物標情報を取得する処理である。制御装置10は、前時刻t−1における基準座標系上での全ての物標の相対位置及び相対速度を取得する。取得した情報はステップS3にて利用される。具体的には、一時記憶手段に保持されていた前時刻t−1でのステップS5の処理の結果が、本処理にて読み込まれる。
Step S1 is a process of acquiring target information at the previous time t-1. The
ステップS2は、死角周辺領域を設定する処理である。制御装置10は、基準座標系上において各死角領域の周辺に死角周辺領域を設定する。設定した死角周辺領域は、ステップS3,S6,S7にて利用される。死角周辺領域は様々な方法で設定することができる。図4は、死角周辺領域の設定方法の例を示す図である。図4(A)に示す例では、物標が時刻t−1から時刻tまでの間に死角領域DBLに移動する可能性の範囲を基準として死角周辺領域ALB,ABが設定されている。この場合の死角周辺領域ALB,ABの範囲は、物標の相対速度の大きさと方向に応じて変更される。図4(B)に示す例では、死角領域DBLの縁から一定距離の範囲を基準として死角周辺領域ALB,ABLが設定されている。図4(C)に示す例では、死角領域DBLの縁から一定角度の範囲を基準として死角周辺領域ALB,ABLが設定されている。
Step S2 is a process of setting a blind spot peripheral region. The
ステップS3は、侵入候補死角領域を判断する処理である。制御装置10は、現時刻tにて物標が侵入する可能性の高い死角領域を侵入候補死角領域として選択する。選択した侵入候補死角領域は、ステップS6にて利用される。具体的には、ステップS3の侵入候補死角領域判断処理は、次のステップS3−1、ステップS3−2及びステップS3−3からなる。
Step S3 is a process of determining the invasion candidate blind spot area. The
ステップS3−1では、ステップS1で取得した情報に基づき、基準座標系上にある全ての物標について、現時刻tでの相対位置がステップS2で設定した死角周辺領域に含まれるか判定する。ステップS3−1では、相対位置の誤差を考慮するため、前時刻t−1より過去の相対位置の履歴も用いて判定してもよい。物標が死角周辺領域に含まれると判定された場合、次に、ステップS3−2を実行する。 In step S3-1, it is determined based on the information acquired in step S1 whether the relative position at the current time t is included in the blind spot surrounding area set in step S2 for all the targets on the reference coordinate system. In step S3-1, in order to consider the error of the relative position, the determination may be made using the past relative position history from the previous time t-1. When it is determined that the target is included in the blind spot peripheral area, next, Step S3-2 is executed.
ステップS3−2では、死角周辺領域に含まれると判定された物標(以下、判定対象物標)の進行方向に、死角領域が存在するか判定する。判定対象物標の進行方向を特定する場合、判定対象物標の相対速度を参照する。参照する相対速度は相対縦速度でもよいし、相対横速度でもよいし、相対縦速度と相対横速度の合成速度でもよい。ステップS3−2では、相対速度の誤差を考慮するため、前時刻t−1より過去の相対速度の履歴も用いて判定対象物標の進行方向を特定してもよい。また、判定対象物標の相対位置から死角領域の重心位置へ向かうベクトルと、判定対象物標の速度ベクトルとがなす角の絶対値が閾値以下であれば、判定対象物標の進行方向に死角領域が存在すると判定してもよい。そして、判定対象物標の進行方向に死角領域が存在すると判定された場合、次に、ステップS3−3を実行する。 In step S <b> 3-2, it is determined whether a blind spot area exists in the traveling direction of a target determined to be included in the blind spot peripheral area (hereinafter, a determination target target). When the traveling direction of the determination target is specified, the relative speed of the determination target is referred to. The relative speed to be referenced may be a relative longitudinal speed, a relative lateral speed, or a combined speed of the relative longitudinal speed and the relative lateral speed. In step S <b> 3-2, the traveling direction of the determination target may be specified using a history of relative speeds past from the previous time t−1 in order to take into account errors in relative speeds. Further, if the absolute value of the angle formed by the vector from the relative position of the determination target to the center of gravity of the blind spot area and the velocity vector of the determination target is equal to or less than the threshold value, the blind spot in the traveling direction of the determination target It may be determined that the region exists. And when it determines with a blind spot area | region existing in the advancing direction of a determination target, next, step S3-3 is performed.
ステップS3−3では、判定対象物標の進行方向に存在すると判定された死角領域を物標侵入候補死角領域の一つとして選択する。なお、ステップS3の判断に判定対象物標のサイズ又は識別結果を用いてもよい。例えば、判定対象物標が大型のバスやトラックの場合、死角領域の広さとの関係によっては、判定対象物標の一部は死角領域からはみ出ることになる。このような場合、判定対象物標の進行方向に死角領域が存在しているとしても、判定対象物標は死角領域には入らないと判断してよい。さらに、判定対象物標のサイズの誤差や識別結果の誤りを考慮するため、前時刻t−1より過去の判定対象物標のサイズ又は識別結果の履歴も用いて判断してもよい。 In step S3-3, the blind spot area determined to exist in the traveling direction of the determination target is selected as one of the target intrusion candidate blind spot areas. Note that the size of the determination target or the identification result may be used for the determination in step S3. For example, when the determination target is a large bus or truck, a part of the determination target protrudes from the blind area depending on the relationship with the size of the blind area. In such a case, even if a blind spot area exists in the traveling direction of the determination target, it may be determined that the determination target does not enter the blind spot area. Furthermore, in order to consider an error in the size of the determination target and an error in the identification result, the determination may be made using the size of the determination target in the past from the previous time t-1 or the history of the identification result.
ステップS4は、物標が存在する死角領域に関する前時刻t−1での判断を取得する処理である。制御装置10は、ステップS2で設定した死角領域のうち前時刻t−1に物標が存在した死角領域に関する情報を取得する。取得した情報はステップS7にて利用される。具体的には、一時記憶手段に保持されていた前時刻t−1でのステップS8の処理の結果が、本処理にて読み込まれる。
Step S4 is a process of acquiring a determination at the previous time t-1 regarding the blind spot area where the target exists. The
ステップS5は、現時刻tにおける物標情報を取得する処理である。制御装置10は、現時刻tにおける基準座標系上での全ての物標の相対位置及び相対速度を取得する。具体的には、ライダー2、レーダー3、ステレオカメラ4等の自律認識センサ(ソナーや赤外線センサを含んでもよい)の情報により、或いは、それらの情報の組み合わせにより得た自車両周辺の物体の計測データを物標化し、自車両を中心とする基準座標系上での物標の相対位置及び相対速度を計算する。
Step S5 is a process of acquiring target information at the current time t. The
ステップS6は、死角領域への物標の侵入を判断する処理である。制御装置10は、ステップS3で選択した侵入候補死角領域について、前時刻t−1から現時刻tまでの間に実際に物標が侵入した死角領域を判断する。侵入判断の結果はステップS8にて利用される。具体的には、ステップS6の死角領域侵入判断処理は、次のステップS6−1、ステップS6−2及びステップS6−3からなる。
Step S6 is processing for determining whether the target has entered the blind spot area. The
ステップS6−1では、ステップS2で設定した死角周辺領域の中から、ステップS3で選択した侵入候補死角領域の周囲にある死角周辺領域を選定する。 In step S6-1, a blind spot peripheral area around the intrusion candidate blind spot area selected in step S3 is selected from the blind spot peripheral areas set in step S2.
ステップS6−2では、ステップS5で取得した情報に基づき、基準座標系上にある全ての物標について、現時刻tでの相対位置がステップS6−1で選定した死角周辺領域に含まれるか判定する。 In step S6-2, based on the information acquired in step S5, it is determined whether the relative position at the current time t is included in the blind spot peripheral area selected in step S6-1 for all targets on the reference coordinate system. To do.
ステップS6−3では、ステップS6−1で選定した死角周辺領域の中に、現時刻tにおいて物標が含まれない死角周辺領域がある場合、その死角周辺領域に対応する侵入候補死角領域を、前時刻t−1から現時刻tまでの間に物標が侵入した死角領域であると判断する。 In step S6-3, if there is a blind spot peripheral area that does not include the target at the current time t in the blind spot peripheral area selected in step S6-1, an intrusion candidate blind spot area corresponding to the blind spot peripheral area is determined. It is determined that this is a blind spot area where the target has intruded between the previous time t-1 and the current time t.
ステップS7は、死角領域からの物標の退出を判断する処理である。前時刻t−1にて物標が存在すると判断した死角領域のうち、現時刻tにて物標が退出した死角領域を判断する。退出判断の結果はステップS8にて利用される。具体的には、ステップS7の死角領域退出判断処理は、次のステップS7−1、ステップS7−2及びステップS7−3からなる。 Step S7 is a process for determining whether the target has left the blind spot area. Among the blind spots where it is determined that the target exists at the previous time t−1, the blind spot area where the target has exited at the current time t is determined. The result of the exit determination is used in step S8. Specifically, the blind spot exit determination process in step S7 includes the following steps S7-1, S7-2, and S7-3.
ステップS7−1では、ステップS2で設定した死角周辺領域の中から、ステップS4で取得した前時刻t−1での物標存在死角領域の周囲にある死角周辺領域を選定する。 In step S7-1, a blind spot peripheral area around the target blind spot area at the previous time t-1 acquired in step S4 is selected from the blind spot peripheral areas set in step S2.
ステップS7−2では、ステップS5で取得した情報に基づき、基準座標系上にある全ての物標について、現時刻tでの相対位置がステップS7−1で選定した死角周辺領域に含まれるか判定する。ステップS7−2では、判定の誤りを防ぐため、現時刻tにおいて基準座標系上にある物標のうち、過去に死角周辺領域の外で検出されたものであって、ステップS7−1で選定した死角周辺領域に現時刻tにて侵入したものは除外して判定してもよい。また、相対位置の誤差を考慮するため、現時刻tより過去の相対位置の履歴も用いて判定してもよい。さらに、ステップS7−2の判断に物標のサイズ又は識別結果を用いてもよい。例えば、物標が大型のバスやトラックの場合、当該物標は死角領域に隠れないので、当該物標は死角領域から退出してきた物標から除外して判断してよい。さらに、物標のサイズの誤差や識別結果の誤りを考慮するため、現時刻tより過去の物標のサイズ又は識別結果の履歴も用いて判断してもよい。 In step S7-2, based on the information acquired in step S5, it is determined whether the relative position at the current time t is included in the blind spot peripheral region selected in step S7-1 for all targets on the reference coordinate system. To do. In step S7-2, in order to prevent an error in determination, among the targets on the reference coordinate system at the current time t, those that have been detected in the past outside the blind spot peripheral region and selected in step S7-1. It may be determined by excluding those that have entered the blind spot surrounding area at the current time t. Moreover, in order to consider the error of the relative position, the determination may be made using the history of the relative position in the past from the current time t. Furthermore, the size of the target or the identification result may be used for the determination in step S7-2. For example, when the target is a large bus or truck, since the target is not hidden in the blind spot area, the target may be excluded from the target exited from the blind spot area. Furthermore, in order to consider an error in the size of the target and an error in the identification result, the determination may be made using the target size or the history of the identification result in the past from the current time t.
ステップS7−3では、ステップS7−1で選定した死角周辺領域の中に、現時刻tにおいて物標が含まれる死角周辺領域がある場合、その死角周辺領域に対応する死角領域を、前時刻t−1から現時刻tまでの間に物標が退出した死角領域であると判断する。 In step S7-3, if there is a blind spot surrounding area including the target at the current time t in the blind spot surrounding area selected in step S7-1, the blind spot area corresponding to the blind spot surrounding area is set to the previous time t. It is determined that it is a blind spot area where the target has left between -1 and the current time t.
ステップS8は、判断統合処理である。制御装置10は、物標が存在した死角領域に関する前時刻t−1での判断と、前時刻t−1から現時刻tまでの間に物標が侵入した死角領域に関する判断と、前時刻t−1から現時刻tまでの間に物標が退出した死角領域に関する判断とを統合し、現時刻tにおいて物標が存在する死角領域を出力する。具体的には、ステップS4で取得した前時刻t−1に物標が存在した死角領域に、ステップS6で得られた現時刻tにて物標が侵入した死角領域を加え、ステップS7で得られた現時刻tにて物標が退出した死角領域を差し引く。こうして得られた死角領域を現時刻tにおいて物標が存在する死角領域として出力する。ステップS8では、複数の物標が同一死角領域に侵入或いは退出する場合に対処するため、ステップS2で設定した死角領域のそれぞれについて、ステップS4,S6,S7のそれぞれの判断の回数を加減算し、加減算の結果が1以上となる死角領域を物標が存在する死角領域として判断してもよい。
Step S8 is a judgment integration process. The
以上の手順で行われる物体検知処理によれば、基準座標系上に設定された死角領域を囲む死角周辺領域において物標の検出状態を監視することにより、実空間において物体が死角領域から退出する場合と、物体が死角領域に留まる場合の双方において、死角領域内の物体の有無を確実に判断することができる。 According to the object detection process performed in the above procedure, the object exits from the blind spot area in real space by monitoring the detection state of the target in the blind spot surrounding area surrounding the blind spot area set on the reference coordinate system. In both the case and the case where the object stays in the blind spot area, it is possible to reliably determine the presence or absence of the object in the blind spot area.
1 自動運転システム
2 ライダー
3 レーダー
4 ステレオカメラ
5 GPS受信機
6 地図データベース
7 ナビゲーションシステム
8 HMI
9 アクチュエータ
10 制御装置(物体検知装置)
11 物体検出部(物体検出手段)
12 現時刻物標情報取得部(現時刻物体情報取得手段)
13 前時刻物標情報取得部(前時刻物体情報取得手段)
14 侵入候補死角領域判断部(侵入候補死角領域判断手段)
15 死角領域侵入判断部(死角領域侵入判断手段)
16 死角領域退出判断部(死角領域退出判断手段)
17 判断統合部(判断統合手段)
21 ソナー
22 赤外線センサ
1
9
11 Object detection unit (object detection means)
12 Current time target information acquisition unit (current time object information acquisition means)
13 Previous time target information acquisition unit (Previous time object information acquisition means)
14 Invasion candidate blind spot area determination unit (invasion candidate blind spot area determination means)
15 Blind spot area intrusion determination unit (Blind spot area intrusion determination means)
16 Blind Spot Area Exit Determination Unit (Bad Spot Area Exit Determination Unit)
17 Judgment Integration Unit (Judgment Integration Unit)
21
Claims (1)
前記物体検出手段によって検出された物体の現時刻の相対位置及び相対速度を取得する現時刻物体情報取得手段と、
前記物体検出手段によって検出された物体の前時刻の相対位置及び相対速度を取得する前時刻物体情報取得手段と、
前記物体検出手段の検出範囲から外れる死角領域のうち、前時刻にて当該死角領域を囲む死角周辺領域に物体が位置し、当該物体の前時刻の相対速度の向きが当該死角領域の方向であるものを、現時刻にて当該物体が侵入する死角領域の候補として出力する侵入候補死角領域判断手段と、
前記侵入候補死角領域判断手段により候補とされた死角領域を囲む死角周辺領域内に、現時刻にて物体が存在しない場合、当該死角領域に当該物体が侵入したと判断する死角領域侵入判断手段と、
前時刻にて物体が存在すると判断された死角領域を囲む死角周辺領域内に、現時刻において物体が存在する場合、当該死角領域から当該物体が退出したと判断する死角領域退出判断手段と、
前時刻にて物体の存在する死角領域と、現時刻にて物体が侵入した死角領域と、現時刻にて物体が退出した死角領域とを統合し、現時刻にて物体が存在する死角領域を判断する判断統合手段と、
を備えることを特徴とする物体検知装置。 Object detection means for detecting an object existing around the host vehicle by a plurality of sensors;
Current time object information acquisition means for acquiring the relative position and relative speed of the object detected by the object detection means;
Previous time object information acquisition means for acquiring the relative position and relative speed of the object detected by the object detection means at the previous time;
Of the blind spot area outside the detection range of the object detection means, the object is located in the blind spot surrounding area surrounding the blind spot area at the previous time, and the direction of the relative speed of the previous time of the object is the direction of the blind spot area. Intruding candidate blind spot area judging means for outputting the object as a candidate for the blind spot area into which the object enters at the current time,
A blind spot area intrusion judging means for judging that the object has entered the blind spot area when there is no object at the current time in the blind spot surrounding area surrounding the blind spot area made a candidate by the intrusion candidate blind spot area judging means; ,
In the blind spot surrounding area surrounding the blind spot area where it is determined that the object exists at the previous time, if there is an object at the current time, a blind spot area exit determining means for determining that the object has exited from the blind spot area;
The blind spot area where the object exists at the previous time, the blind spot area where the object entered at the current time, and the blind spot area where the object exited at the current time are integrated, and the blind spot area where the object exists at the current time is integrated. A judgment integration means for judging;
An object detection apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016246988A JP6787106B2 (en) | 2016-12-20 | 2016-12-20 | Object detection device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016246988A JP6787106B2 (en) | 2016-12-20 | 2016-12-20 | Object detection device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018101295A true JP2018101295A (en) | 2018-06-28 |
| JP6787106B2 JP6787106B2 (en) | 2020-11-18 |
Family
ID=62715484
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016246988A Active JP6787106B2 (en) | 2016-12-20 | 2016-12-20 | Object detection device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6787106B2 (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020054108A1 (en) * | 2018-09-14 | 2020-03-19 | オムロン株式会社 | Sensing device, mobile body system, and sensing method |
| WO2020070908A1 (en) * | 2018-10-05 | 2020-04-09 | オムロン株式会社 | Detection device, moving body system, and detection method |
| WO2020070909A1 (en) * | 2018-10-05 | 2020-04-09 | オムロン株式会社 | Sensing device, moving body system, and sensing method |
| JP2021018181A (en) * | 2019-07-22 | 2021-02-15 | 株式会社Zmp | Automatic traveling system for travel vehicle |
| JP2021105833A (en) * | 2019-12-26 | 2021-07-26 | トヨタ自動車株式会社 | Driving support device |
| JP2021111324A (en) * | 2020-01-06 | 2021-08-02 | トヨタ自動車株式会社 | Moving entity recognition system, moving entity recognition method, and program |
| CN113853640A (en) * | 2019-05-27 | 2021-12-28 | 日立安斯泰莫株式会社 | Electronic control device |
| CN115635959A (en) * | 2021-07-20 | 2023-01-24 | 丰田自动车株式会社 | Object detection device |
| WO2023127186A1 (en) * | 2021-12-27 | 2023-07-06 | 日立Astemo株式会社 | Electronic control device, and method for managing object |
| JP2024060589A (en) * | 2022-10-19 | 2024-05-02 | コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | Blind spot detection control device and method |
| WO2025182970A1 (en) * | 2024-03-01 | 2025-09-04 | 株式会社三井E&S | Obstacle detection system and obstacle detection method |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005032063A (en) * | 2003-07-08 | 2005-02-03 | Nissan Motor Co Ltd | In-vehicle obstacle detection device |
| JP2009301400A (en) * | 2008-06-16 | 2009-12-24 | Aisin Aw Co Ltd | Driving support system, driving support method, and driving support program |
| JP2015225615A (en) * | 2014-05-29 | 2015-12-14 | トヨタ自動車株式会社 | Drive assist system |
-
2016
- 2016-12-20 JP JP2016246988A patent/JP6787106B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005032063A (en) * | 2003-07-08 | 2005-02-03 | Nissan Motor Co Ltd | In-vehicle obstacle detection device |
| JP2009301400A (en) * | 2008-06-16 | 2009-12-24 | Aisin Aw Co Ltd | Driving support system, driving support method, and driving support program |
| JP2015225615A (en) * | 2014-05-29 | 2015-12-14 | トヨタ自動車株式会社 | Drive assist system |
Cited By (33)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020054108A1 (en) * | 2018-09-14 | 2020-03-19 | オムロン株式会社 | Sensing device, mobile body system, and sensing method |
| JP2020046755A (en) * | 2018-09-14 | 2020-03-26 | オムロン株式会社 | Detection device, mobile body system, and detection method |
| JP7063208B2 (en) | 2018-09-14 | 2022-05-09 | オムロン株式会社 | Detection device, mobile system, and detection method |
| JP2020060863A (en) * | 2018-10-05 | 2020-04-16 | オムロン株式会社 | Detecting device, moving body system, and detecting method |
| JP7070307B2 (en) | 2018-10-05 | 2022-05-18 | オムロン株式会社 | Detection device, mobile system, and detection method |
| US12148303B2 (en) | 2018-10-05 | 2024-11-19 | Omron Corporation | Sensing device, moving body system and sensing method |
| WO2020070908A1 (en) * | 2018-10-05 | 2020-04-09 | オムロン株式会社 | Detection device, moving body system, and detection method |
| JP7067400B2 (en) | 2018-10-05 | 2022-05-16 | オムロン株式会社 | Detection device, mobile system, and detection method |
| JP2020060864A (en) * | 2018-10-05 | 2020-04-16 | オムロン株式会社 | Detecting device, moving body system, and detecting method |
| WO2020070909A1 (en) * | 2018-10-05 | 2020-04-09 | オムロン株式会社 | Sensing device, moving body system, and sensing method |
| CN113853640A (en) * | 2019-05-27 | 2021-12-28 | 日立安斯泰莫株式会社 | Electronic control device |
| US20220242403A1 (en) * | 2019-05-27 | 2022-08-04 | Hitachi Astemo, Ltd. | Electronic control device |
| US11794728B2 (en) | 2019-05-27 | 2023-10-24 | Hitachi Astemo, Ltd. | Electronic control device |
| CN113853640B (en) * | 2019-05-27 | 2023-10-20 | 日立安斯泰莫株式会社 | electronic control device |
| JP2021018181A (en) * | 2019-07-22 | 2021-02-15 | 株式会社Zmp | Automatic traveling system for travel vehicle |
| JP7329215B2 (en) | 2019-07-22 | 2023-08-18 | 株式会社Zmp | Automated driving system for running vehicles |
| JP2021105833A (en) * | 2019-12-26 | 2021-07-26 | トヨタ自動車株式会社 | Driving support device |
| JP7347207B2 (en) | 2019-12-26 | 2023-09-20 | トヨタ自動車株式会社 | Driving support device |
| JP2021111324A (en) * | 2020-01-06 | 2021-08-02 | トヨタ自動車株式会社 | Moving entity recognition system, moving entity recognition method, and program |
| JP7338581B2 (en) | 2020-01-06 | 2023-09-05 | トヨタ自動車株式会社 | Mobile object recognition system, mobile object recognition method, and program |
| JP7537391B2 (en) | 2021-07-20 | 2024-08-21 | トヨタ自動車株式会社 | Object detection device |
| JP2023015557A (en) * | 2021-07-20 | 2023-02-01 | トヨタ自動車株式会社 | object detector |
| CN115635959A (en) * | 2021-07-20 | 2023-01-24 | 丰田自动车株式会社 | Object detection device |
| US12258006B2 (en) | 2021-07-20 | 2025-03-25 | Toyota Jidosha Kabushiki Kaisha | Object detection device |
| JPWO2023127186A1 (en) * | 2021-12-27 | 2023-07-06 | ||
| WO2023127186A1 (en) * | 2021-12-27 | 2023-07-06 | 日立Astemo株式会社 | Electronic control device, and method for managing object |
| JP7705960B2 (en) | 2021-12-27 | 2025-07-10 | Astemo株式会社 | Electronic control device and object management method |
| JP2024060589A (en) * | 2022-10-19 | 2024-05-02 | コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | Blind spot detection control device and method |
| JP7612802B2 (en) | 2022-10-19 | 2025-01-14 | コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | Blind spot detection control device and method |
| US12528491B2 (en) | 2022-10-19 | 2026-01-20 | Aumovio Autonomous Mobility Germany Gmbh | Blind spot detection control apparatus and method |
| WO2025182970A1 (en) * | 2024-03-01 | 2025-09-04 | 株式会社三井E&S | Obstacle detection system and obstacle detection method |
| JP2025133415A (en) * | 2024-03-01 | 2025-09-11 | 株式会社三井E&S | Obstacle detection system and obstacle detection method |
| JP7766727B2 (en) | 2024-03-01 | 2025-11-10 | 株式会社三井E&S | Obstacle detection system and obstacle detection method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6787106B2 (en) | 2020-11-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6787106B2 (en) | Object detection device | |
| US12005904B2 (en) | Autonomous driving system | |
| US10453344B2 (en) | Information processing apparatus and non-transitory recording medium | |
| CN105984464B (en) | Controller of vehicle | |
| JP4420011B2 (en) | Object detection device | |
| US10481609B2 (en) | Parking-lot-navigation system and method | |
| US8615109B2 (en) | Moving object trajectory estimating device | |
| JP7255707B2 (en) | Traffic light recognition method and traffic light recognition device | |
| US20170297488A1 (en) | Surround view camera system for object detection and tracking | |
| US20170008531A1 (en) | Driving assistant for vehicles | |
| JP7413935B2 (en) | In-vehicle sensor system | |
| CN110194162B (en) | System and method for detecting an approaching cut-in vehicle based on available spatial signals | |
| TW201704067A (en) | Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system | |
| JP2018133072A (en) | Information processing apparatus and program | |
| US12024161B2 (en) | Vehicular control system | |
| US20160307026A1 (en) | Stereoscopic object detection device and stereoscopic object detection method | |
| JP2022502642A (en) | How to evaluate the effect of objects around the means of transportation on the driving operation of the means of transportation | |
| WO2019003792A1 (en) | Control device, control method, and program | |
| WO2021172535A1 (en) | Object detecting device | |
| JP2019012549A (en) | Collision avoidance device and driving support method | |
| JP7115872B2 (en) | Drive recorder and image recording method | |
| CN117734695A (en) | Vehicle control method and memory for actively avoiding large vehicle | |
| JP7226583B2 (en) | Traffic light recognition method and traffic light recognition device | |
| US20210179091A1 (en) | Adaptive object in-path detection model for automated or semi-automated vehicle operation | |
| RU2779773C1 (en) | Traffic light recognition method and traffic light recognition device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190222 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200115 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201012 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6787106 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |