JP5291524B2 - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP5291524B2 JP5291524B2 JP2009106426A JP2009106426A JP5291524B2 JP 5291524 B2 JP5291524 B2 JP 5291524B2 JP 2009106426 A JP2009106426 A JP 2009106426A JP 2009106426 A JP2009106426 A JP 2009106426A JP 5291524 B2 JP5291524 B2 JP 5291524B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- predetermined
- area
- infrared
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device.
従来、例えば前照灯の配光領域以遠に注意喚起領域を設定して、赤外線カメラにより検出される対象物の所定時間経過後の位置が注意喚起領域内に存在する場合に、音声および表示により運転者に報知を行なう車両の周辺監視装置が知られている(例えば、特許文献1参照)。 Conventionally, for example, when a warning area is set beyond the light distribution area of the headlamp, and the position of the target detected by the infrared camera is within the warning area, the voice and display are used. 2. Description of the Related Art A vehicle periphery monitoring device that notifies a driver is known (see, for example, Patent Document 1).
ところで、上記従来技術に係る車両の周辺監視装置のように、前照灯の配光領域内に存在する対象物は運転者による視認が可能であると判断して、この対象物に対して過剰な注意喚起が行なわれることを禁止することにより、運転者が報知動作に煩わしさを感じてしまうことを防止することができる。
しかしながら、単に、前照灯の配光領域内に存在する対象物に対する報知を禁止してしまうと、運転者が対象物を視認困難な場合に適切なタイミングで報知動作を行なうことができないという問題が生じる。
By the way, it is determined that the object existing in the light distribution area of the headlamp can be visually recognized by the driver as in the vehicle periphery monitoring device according to the above-described conventional technology, and the object is excessive. It is possible to prevent the driver from feeling bothered by the notification operation by prohibiting the user from being alerted.
However, simply disabling notification to the object existing in the light distribution area of the headlamps causes a problem that the driver cannot perform the notification operation at an appropriate timing when it is difficult to visually recognize the object. Occurs.
本発明は上記事情に鑑みてなされたもので、運転者が報知動作に煩わしさを感じてしまうことを防止しつつ、適切なタイミングで報知動作を行なうことが可能な車両周辺監視装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a vehicle periphery monitoring device capable of performing a notification operation at an appropriate timing while preventing a driver from feeling troublesome in the notification operation. For the purpose.
上記課題を解決して係る目的を達成するために、本発明の第1態様に係る車両周辺監視装置は、車両に搭載され、赤外線領域で撮像して得た赤外線画像を出力する赤外線撮像手段(例えば、実施の形態での赤外線カメラ12L,12R)と、前記赤外線撮像手段から出力された前記赤外線画像に基づき車両外部に存在する対象物を検出する対象物検出手段(例えば、実施の形態での対象物検出部31)と、前記対象物検出手段により検出された前記対象物が車両外部の実空間の所定領域(例えば、実施の形態での報知対象領域)である前記車両の前照灯の配光領域以遠の領域内に存在する場合に運転者に報知を行なう報知手段(例えば、実施の形態での報知制御部36)とを備える車両周辺監視装置であって、車両外部の照度変化を検出または推定により取得する外部照度取得手段(例えば、実施の形態での外部照度取得部32)と、前記外部照度取得手段により取得された前記照度変化が所定変化以上である場合に、所定期間に亘って前記所定領域を前記車両の前照灯の配光領域内に拡張する領域拡張手段(例えば、実施の形態での領域拡張部35)とを備える。
In order to solve the above problems and achieve the object, the vehicle periphery monitoring apparatus according to the first aspect of the present invention is mounted on a vehicle and outputs infrared imaging means that outputs an infrared image obtained by imaging in the infrared region ( For example, the
さらに、本発明の第2態様に係る車両周辺監視装置では、前記外部照度取得手段は、自車両に接近する対向車両を検出した場合と、前記赤外線画像上において所定輝度以上の輝度を有する熱源の出現または消失を検出した場合と、日没または日の出の時間帯を検出した場合とのうち、少なくとも何れか1つの場合に、前記所定変化以上の前記照度変化を取得する。 Furthermore, in the vehicle periphery monitoring apparatus according to the second aspect of the present invention, the external illuminance acquisition means detects a oncoming vehicle approaching the host vehicle and a heat source having a luminance equal to or higher than a predetermined luminance on the infrared image. The illuminance change greater than or equal to the predetermined change is acquired in at least any one of a case where the appearance or disappearance is detected and a case where a time zone of sunset or sunrise is detected.
本発明の第1態様に係る車両周辺監視装置によれば、車両外部の照度変化が所定変化以上である場合に、運転者に報知を行なうか否かを判定するための所定領域を、所定期間に亘って拡張する。これにより、車両外部の照度変化に起因して運転者の外界視認能力が一時的に低下した場合であっても、適切なタイミングで報知動作を行なうことができ、運転者が報知動作に煩わしさを感じてしまうことをも防止することができる。 According to the vehicle periphery monitoring device according to the first aspect of the present invention, the predetermined area for determining whether or not to notify the driver when the illuminance change outside the vehicle is equal to or greater than the predetermined change is set to the predetermined period. It extends over. As a result, even if the driver's ability to visually recognize the outside world is temporarily reduced due to a change in illuminance outside the vehicle, the notification operation can be performed at an appropriate timing, and the driver is bothered by the notification operation. Can also be prevented.
本発明の第2態様に係る車両周辺監視装置によれば、車両外部の照度変化を直接的に検出する必要無しに、所定変化以上の照度変化を取得することができる。 According to the vehicle periphery monitoring apparatus according to the second aspect of the present invention, it is possible to acquire an illuminance change that is equal to or greater than a predetermined change without the need to directly detect an illuminance change outside the vehicle.
以下、本発明の一実施形態に係る車両周辺監視装置について添付図面を参照しながら説明する。
本実施の形態による車両周辺監視装置10は、例えば図1に示すように、車両周辺監視装置10を制御するCPU(中央演算装置)を備えた処理ユニット11と、車両外部の所定撮像領域に対して赤外線を検出可能な2つの赤外線カメラ12L,12Rと、自車両のヨーレートを検出するヨーレートセンサ13と、自車両の走行速度(車速)を検出する車速センサ14と、運転者によるブレーキ操作の有無を検出するブレーキセンサ15と、車両外部の照度を検出する照度センサ16と、運転者の眼を撮像する車室内カメラ17と、スピーカ18と、表示装置19と、ナビゲーション装置20とを備えて構成されている。
Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described with reference to the accompanying drawings.
For example, as shown in FIG. 1, the vehicle
この車両周辺監視装置10の処理ユニット11は、例えば2つの赤外線カメラ12L,12Rの撮像により得られる自車両周辺の赤外線画像と、各センサ13〜16により検出される自車両の走行状態または自車両の走行環境に係る検出信号と、車室内カメラ17の撮像により得られる運転者の状態に係る信号とから、自車両の進行方向前方に存在する物体および歩行者などの対象物を検出し、検出した対象物と自車両との接触が発生する可能性があると判断したときに、スピーカ18または表示装置19により警報を出力する。
なお、表示装置19は、例えば自車両の各種走行状態量を表示する計器類と一体化された表示装置あるいはフロントウィンドウにおいて運転者の前方視界を妨げない位置に各種情報を表示するHUD(Head Up Display)19aなどを備えて構成されている。
The
The
また、処理ユニット11は、入力アナログ信号をディジタル信号に変換するA/D変換回路(図示略)と、ディジタル化した画像信号を記憶する画像メモリ(図示略)と、各種演算処理を行うCPU(中央演算装置)(図示略)と、CPUが演算処理の実行時に各種のデータを記憶するために使用するRAM(Random Access Memory)(図示略)と、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)(図示略)と、スピーカ18の駆動信号や表示装置19の表示信号などを出力する出力回路(図示略)とを備えており、赤外線カメラ12L,12Rおよび各センサ13〜16および車室内カメラ17などから出力される信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
The
なお、例えば図2に示すように、赤外線カメラ12L,12Rは、自車両Pの前部において車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ12L,12Rの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ12L,12Rは、対象物の温度が高いほど、出力信号レベルが高くなる(つまり、輝度が増大する)特性を有している。
また、表示装置19のHUD19aは、自車両Pのフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
For example, as shown in FIG. 2, the
Further, the
また、ナビゲーション装置20は、例えば表示部21と、位置測位部22と、ナビゲーション処理部23とを備えて構成されている。
位置測位部22は、例えば人工衛星を利用して車両の位置を測定するためのGPS(Global Positioning System)信号などの測位信号を受信し、この測位信号によって自車両の現在位置を算出する。
ナビゲーション処理部23は、例えば各センサ13,14などから出力される自車両のヨーレートおよび車速などの検出信号に基づく自律航法の算出処理によって、自車両の現在位置を算出する。
The
The
The
また、ナビゲーション処理部23は、表示部21に地図を表示するための地図表示用のデータおよび車両の現在位置に基づくマップマッチングの処理に必要とされる道路座標データを地図データとして備えている。さらに、ナビゲーション処理部23は、経路探索や経路誘導などの処理に必要とされるデータ、例えば交差点および分岐点などの所定位置の緯度および経度からなる点であるノードと各ノード間を結ぶ線であるリンクとからなる道路データを地図データとして備えている。そして、ノードおよびリンクには各種の情報が付加されている。
そして、ナビゲーション処理部23は、道路データに対して、測位信号および自律航法の算出処理のそれぞれ、又は、何れか一方から得られる自車両の現在位置の情報に基づいてマップマッチングを行い、位置検出の結果を補正する。
また、ナビゲーション処理部23は、例えば操作者による入力操作に応じて自車両の経路探索や経路誘導などの処理を実行し、道路データと共に、例えば目的地までの経路情報や各種の付加情報を表示部21に出力すると共に、各種の音声メッセージをスピーカ18から出力する。
In addition, the
Then, the
In addition, the
処理ユニット11は、例えば図1に示すように、対象物検出部31と、外部照度取得部32と、操作検出部33と、瞳孔状態検出部34と、領域拡張部35と、報知制御部36とを備えて構成されている。
For example, as illustrated in FIG. 1, the
対象物検出部31は、赤外線カメラ12L,12Rから出力された赤外線画像に基づき車両外部に存在する対象物を検出する。
外部照度取得部32は、照度センサ16から出力される検出信号に基づき車両外部の照度変化を検出したり、所定の推定動作により車両外部の照度変化の発生を推定する。
所定の推定動作は、例えば、対象物検出部31により自車両に接近する対向車両を検出した場合と、赤外線カメラ12L,12Rから出力された赤外線画像上において所定輝度以上の輝度を有する熱源の出現または消失を検出した場合と、日没または日の出の時間帯を検出した場合とのうち、少なくとも何れか1つの場合に、所定変化以上の照度変化が生じたと推定する。
The
The external
The predetermined estimation operation includes, for example, a case where an oncoming vehicle approaching the host vehicle is detected by the
操作検出部33は、運転者による表示装置19の操作の有無と、ナビゲーション装置20の操作の有無となどを検出する。
瞳孔状態検出部34は、運転者の眼を撮像する車室内カメラ17から出力される撮像画像に基づき、運転者の瞳孔の状態(例えば、瞳孔の大きさなどの変化が所定以上であるか否かなど)を検出する。
The operation detection unit 33 detects whether or not the driver has operated the
The pupil
領域拡張部35は、例えば、外部照度取得部32により取得された車両外部の照度変化が所定変化以上である場合と、操作検出部33により検出された所定の操作が所定時間以上に亘って行なわれた場合と、瞳孔状態検出部34により検出された瞳孔の状態の変化が所定変化以上である場合とのうち、少なくとも1つの場合に所定期間に亘って所定の報知対象領域を拡張する。
なお、報知対象領域は、通常時においては、例えば図3(A)に示すように、赤外線カメラ12L,12Rの所定撮像領域SAのうち、自車両の前照灯の所定の配光領域LA以遠の領域(通常領域)WAとされている。そして、領域拡張部35により報知対象領域の領域拡張が指示されているときには、報知対象領域は、例えば図3(B)に示すように、赤外線カメラ12L,12Rの所定撮像領域SAのうち、通常領域WAと通常領域WAから少なくとも自車両Pに向って配光領域LA内まで拡張された領域αとから構成される拡張領域EAとされている。
For example, the
In the normal time, the notification target area is farther than a predetermined light distribution area LA of the headlight of the own vehicle in a predetermined imaging area SA of the
なお、領域拡張時に通常領域WAから配光領域LA内まで拡張される領域αは、例えば図4(A)に示すように、自車両Pの車幅などに応じた所定幅xaで自車両Pに向かい拡張されて形成されてもよい。また、例えば図4(B)に示すように、自車両Pの車幅などに応じた所定幅xaが適宜の拡張幅xbまで拡張されると共に、自車両Pに向かい拡張されて形成されてもよい。 Note that the region α that is expanded from the normal region WA to the light distribution region LA when the region is expanded has a predetermined width xa corresponding to the vehicle width of the host vehicle P, for example, as shown in FIG. It may be formed to extend toward. For example, as shown in FIG. 4B, the predetermined width xa corresponding to the vehicle width of the host vehicle P may be extended to an appropriate extension width xb and extended toward the host vehicle P. Good.
報知制御部36は、対象物検出部31により検出された対象物が車両外部の実空間の所定の報知対象領域内に存在する場合に、少なくとも表示装置19により運転者に報知を行なう。
The
本実施の形態による車両周辺監視装置10は上記構成を備えており、次に、この車両周辺監視装置10の動作、特に、報知対象領域の設定処理と、他車両や歩行者などの対象物に対する報知動作とについて添付図面を参照しながら説明する。
The vehicle
まず、例えば図5に示すステップS1において、処理ユニット11は、赤外線カメラ12L,12Rの出力信号である赤外線画像を取得する。
次に、ステップS2においては、取得した赤外線画像をA/D変換する。
次に、ステップS3においては、中間階調情報を含むグレースケール画像を取得して、画像メモリに格納する。なお、この実施の形態では赤外線カメラ12Rにより右画像が得られ、赤外線カメラ12Lにより左画像が得られる。また、右画像と左画像とでは、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(つまり、視差)により自車両から対象物までの距離を算出することができる。
First, for example, in step S1 shown in FIG. 5, the
Next, in step S2, the acquired infrared image is A / D converted.
Next, in step S3, a grayscale image including halftone information is acquired and stored in the image memory. In this embodiment, the right image is obtained by the
次に、ステップS4においては、赤外線カメラ12Rにより得られた右画像を基準画像とし、この画像信号の2値化処理、すなわち所定輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。
なお、以下のステップS4〜ステップS9の処理は、2値化処理により得た基準画像(例えば、右画像)について実行する。
次に、ステップS5においては、赤外線画像に2値化処理を実行して得た画像データをランレングスデータに変換する。ランレングスデータでは、2値化処理により白となった領域を画素レベルでラインとして表示し、各ラインはy方向に1画素の幅を有し、x方向に適宜の画素数の長さを有するように設定されている
Next, in step S4, the right image obtained by the
In addition, the process of the following step S4-step S9 is performed about the reference | standard image (for example, right image) obtained by the binarization process.
Next, in step S5, image data obtained by performing binarization processing on the infrared image is converted into run-length data. In the run-length data, an area that has become white by binarization processing is displayed as a line at the pixel level, and each line has a width of one pixel in the y direction and an appropriate number of pixels in the x direction. Is set to
次に、ステップS6においては、ランレングスデータに変換された画像データにおいて、対象物のラベリングを行う。
次に、ステップS7においては、対象物のラベリングに応じて対象物を抽出する。ここでは、ランレングスデータにおける各ラインのうち、同等のx方向座標を含むライン同士がy方向で隣接する場合に、隣接するラインが単一の対象物を構成しているとみなす。
次に、ステップS8においては、抽出した対象物の重心Gと、面積Sと、外接四角形の縦横比ASPECTとを算出する。
Next, in step S6, the object is labeled in the image data converted into run-length data.
Next, in step S7, the object is extracted according to the labeling of the object. Here, among the lines in the run-length data, when the lines including the equivalent x-direction coordinates are adjacent in the y direction, the adjacent lines are regarded as constituting a single object.
Next, in step S8, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle are calculated.
ここで、面積Sは、ランレングスデータの長さを同一対象物において積算することにより算出する。重心Gの座標は、ランレングスデータの長さと、ランレングスデータの座標とを乗算して得た値を同一対象物において積算して得た値を、面積Sで除算することにより算出する。さらに、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、重心Gの座標は、外接四角形の重心座標で代用してもよい。
Here, the area S is calculated by integrating the lengths of the run length data in the same object. The coordinates of the center of gravity G are calculated by dividing the value obtained by multiplying the values obtained by multiplying the length of the run-length data by the coordinates of the run-length data in the same object by the area S. Further, the aspect ratio ASPECT is calculated as the ratio Dy / Dx between the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object.
Note that the coordinates of the center of gravity G may be replaced with the center of gravity of a circumscribed rectangle.
次に、ステップS9およびステップS10の処理と、ステップS11〜ステップS13の処理とを並行して実行する。
まず、ステップS9においては、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う。この時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出した場合、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定された場合には、対象物C、Dのラベルをそれぞれ対象物A、Bのラベルに変更する。そして、認識された各対象物の位置座標(例えば、重心等)を、時系列位置データとして適宜のメモリに格納する。
Next, the process of step S9 and step S10 and the process of step S11-step S13 are performed in parallel.
First, in step S9, tracking of a target object between times, that is, recognition of the same target object at every sampling period is performed. In this inter-time tracking, k is a time obtained by discretizing time t as an analog quantity with a sampling period. For example, when objects A and B are extracted at time k, the objects C and D extracted at time (k + 1) are extracted. And the objects A and B are determined. If it is determined that the objects A and B and the objects C and D are the same, the labels of the objects C and D are changed to the labels of the objects A and B, respectively. Then, the position coordinates (for example, the center of gravity, etc.) of each recognized object are stored in an appropriate memory as time series position data.
次に、ステップS10においては、車速センサ14により検出された車速VCARおよびヨーレートセンサ13より検出されたヨーレートYRを取得し、ヨーレートYRを時間積分して、自車両の回頭角θrを算出する。
Next, in step S10, the vehicle speed VCAR detected by the
一方、ステップS9およびステップS10の処理に並行して実行されるステップS11〜ステップS13においては、対象物と自車両との距離zを算出する。なお、このステップS11の処理は、ステップS9およびステップS10の処理よりも長い演算時間を要することから、ステップS9およびステップS10よりも長い周期(例えば、ステップS1〜ステップS10の実行周期の3倍程度の周期等)で実行されるようになっている。
先ず、ステップS11においては、基準画像(例えば、右画像)を2値化処理して得た画像データ上で追跡される複数の対象物のうちから1つの対象物を選択し、例えば選択した対象物を外接四角形で囲む領域全体を探索画像R1として基準画像(例えば、右画像)から抽出する。
On the other hand, in steps S11 to S13 executed in parallel with the processes in steps S9 and S10, a distance z between the object and the host vehicle is calculated. Since the process of step S11 requires a longer calculation time than the processes of step S9 and step S10, the cycle is longer than that of steps S9 and S10 (for example, about three times the execution cycle of steps S1 to S10). Etc.).
First, in step S11, one object is selected from a plurality of objects tracked on image data obtained by binarizing a reference image (for example, the right image). The entire region surrounding the object with a circumscribed rectangle is extracted from the reference image (for example, the right image) as the search image R1.
次に、ステップS12においては、基準画像(例えば、右画像)に対応する画像(例えば、左画像)中から探索画像R1に対応する画像(対応画像)R2を探索する探索領域を設定し、相関演算を実行して対応画像R2を抽出する。ここでは、例えば探索画像R1の各頂点座標に応じて、左画像中に探索領域を設定し、探索領域内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この輝度差分総和値C(a,b)が最小となる領域を対応画像R2として抽出する。なお、この相関演算は、2値化処理して得た画像データではなく、グレースケール画像に対して実行する。また、同一対象物についての過去の位置データが存在する場合には、過去の位置データに基づいて探索領域を狭めることが可能である。 Next, in step S12, a search area for searching for an image (corresponding image) R2 corresponding to the search image R1 from an image (for example, the left image) corresponding to the reference image (for example, the right image) is set and correlated. An operation is executed to extract the corresponding image R2. Here, for example, a search area is set in the left image according to each vertex coordinate of the search image R1, and the luminance difference sum C (a, b) indicating the level of correlation with the search image R1 in the search area. And a region where the luminance difference total value C (a, b) is minimum is extracted as the corresponding image R2. This correlation calculation is performed not on the image data obtained by the binarization process but on the gray scale image. In addition, when past position data for the same object exists, the search area can be narrowed based on the past position data.
次に、ステップS13においては、探索画像R1の重心位置と、対応画像R2の重心位置と、画素数単位での視差Δdとを算出し、さらに、自車両と対象物との距離つまり赤外線カメラ12L,12Rのレンズと対象物との距離(対象物距離)z(m)を、例えば下記数式(1)に示すように、カメラ基線長、つまり赤外線カメラ12L,12Rの各撮像素子の中心位置間の水平距離D(m)と、カメラ焦点距離、つまり赤外線カメラ12L,12Rの各レンズの焦点距離f(m)と、画素ピッチp(m/pixel)と、視差Δd(pixel)とに基づき算出する。
Next, in step S13, the gravity center position of the search image R1, the gravity center position of the corresponding image R2, and the parallax Δd in units of the number of pixels are calculated, and further, the distance between the host vehicle and the object, that is, the
そして、ステップS14においては、ステップS10での回頭角θrの算出と、ステップS13での距離zの算出との完了後に、例えば下記数式(2)に示すように、画像データ上での対象物の座標(x,y)および距離zを実空間座標(X,Y,Z)に変換する。
ここで、実空間座標(X,Y,Z)は、例えば図2に示すように、自車両Pの前部における赤外線カメラ12L,12Rの取り付け位置の中点の位置を原点Oとして設定され、画像データ上の座標は、画像データの中心を原点として水平方向をx方向、垂直方向をy方向として設定されている。また、座標(xc,yc)は、基準画像(例えば、右画像)上の座標(x,y)を、赤外線カメラ2Rの取付位置と、実空間の原点Oとの相対位置関係に基づいて、実空間の原点Oと画像データの中心とを一致させて得た仮想的な画像上の座標に変換して得た座標である。
In step S14, after the calculation of the turning angle θr in step S10 and the calculation of the distance z in step S13, for example, as shown in the following formula (2), the object on the image data is calculated. The coordinates (x, y) and the distance z are converted into real space coordinates (X, Y, Z).
Here, the real space coordinates (X, Y, Z), for example, as shown in FIG. 2, are set with the origin O as the midpoint position of the attachment positions of the
次に、ステップS15においては、自車両が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。この回頭角補正は、時刻kから時刻(k+1)までの期間中に自車両が、例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ12L,12Rによって得られる画像データ上では、画像データの範囲がΔxだけx方向にずれることを補正する処理であり、例えば下記数式(3)に示すように、実空間座標(X,Y,Z)を補正して得た補正座標(Xr,Yr,Zr)を、新たに実空間座標(X,Y,Z)として設定する。
Next, in step S15, turning angle correction is performed to correct a positional shift on the image due to the turning of the host vehicle. This turning angle correction is performed when the host vehicle turns, for example, to the left by the turning angle θr during the period from time k to time (k + 1), on the image data obtained by the
次に、ステップS16においては、同一対象物について所定時間ΔTのモニタ期間内に得られた回頭角補正後のN(例えば、N=10程度)個の時系列データをなす実空間位置データから、対象物と自車両との相対移動ベクトルに対応する近似直線LMVを算出する。
このステップS16においては、最新の位置座標P(0)と、(N−1)サンプル前(つまり、所定時間ΔT前)の位置座標P(N−1)とを、近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)およびPv(N−1)を算出する。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このように所定時間ΔTのモニタ期間内の複数(例えば、N個)の実空間位置データから対象物の自車両に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して自車両と対象物との接触発生の可能性を精度良く予測することが可能となる。
Next, in step S16, from the real space position data forming N (for example, about N = 10) time-series data after the turning angle correction obtained within the monitoring period of the predetermined time ΔT for the same object, An approximate straight line LMV corresponding to the relative movement vector between the object and the host vehicle is calculated.
In this step S16, the latest position coordinate P (0) and the position coordinate P (N-1) before (N-1) samples (that is, before the predetermined time ΔT) are set to positions on the approximate straight line LMV. The corrected position coordinates Pv (0) and Pv (N-1) are calculated.
Thereby, a relative movement vector is obtained as a vector from the position coordinates Pv (N−1) to Pv (0).
In this way, by calculating an approximate straight line that approximates the relative movement trajectory of the object with respect to the host vehicle from a plurality of (for example, N) real space position data within the monitoring period of the predetermined time ΔT, a relative movement vector is obtained. It is possible to reduce the influence of the position detection error and accurately predict the possibility of occurrence of contact between the host vehicle and the object.
次に、ステップS17においては、後述する報知判定処理を実行し、対象物が報知対象であるか否かを設定する。
次に、ステップS18においては、報知対象が有るか否かを判定する。
この判定結果が「NO」の場合には、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS19に進む。
次に、ステップS19においては、例えばブレーキセンサ15から出力される検出結果の信号に基づき、自車両の運転者がブレーキ操作を行っているか否かなどに応じた警報出力判定処理により、警報出力が必要か否かを判定する。
この判定結果が「NO」の場合には、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS20に進む。
Next, in step S17, a notification determination process described later is executed to set whether or not the object is a notification target.
Next, in step S18, it is determined whether there is a notification target.
If this determination is “NO”, the flow proceeds to return.
On the other hand, if the determination is “YES”, the flow proceeds to step S19.
Next, in step S19, for example, based on a detection result signal output from the
If this determination is “NO”, the flow proceeds to return.
On the other hand, if the determination is “YES”, the flow proceeds to step S20.
そして、ステップS20においては、例えばスピーカ18から出力される音声などの聴覚的警報や、例えばナビゲーション装置の表示部21や表示装置19から出力される表示などの視覚的警報や、例えばシートベルトに所定の張力を発生させて運転者が触覚的に知覚可能な締め付け力を作用させたり、例えばステアリングホイールに運転者が触覚的に知覚可能な振動(ステアリング振動)を発生させることによる触覚的警報を出力する。
次に、ステップS21においては、表示装置19において、例えば赤外線カメラ2Rにより得られる画像データを出力し、報知対象である対象物を強調映像として表示し、リターンに進む。
In step S20, for example, an audio alarm such as a sound output from the
Next, in step S21, the
以下に、上述したステップS17における報知判定処理について添付図面を参照しながら説明する。
先ず、例えば図6に示すステップS31においては、対象物と自車両との接触可能性があるか否かを判定する。以下、この判定処理の一例として、例えば図7に示すように、自車両Pの進行方向(例えば、Z方向)に対してほぼ直交する方向において速度Vpで移動する対象物Qが存在する場合について説明する。対象物Qが所定時間ΔTの間に自車両Pの進行方向に平行な方向に沿って距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両PのZ方向での相対速度Vsを算出し、自車両Pと対象物Qとが所定地上高H以内で相対速度Vsを維持して移動すると仮定して、所定の余裕時間Ts以内に自車両Pと対象物Qとが接触するか否かを判定する。なお、余裕時間Tsは、接触発生の可能性を、予測される接触発生時刻よりも所定時間Tsだけ以前のタイミングで判定するための時間であって、例えば2〜5秒程度に設定される。また、所定地上高Hは、例えば自車両Pの車高の2倍程度の値に設定される。
この判定結果が「NO」の場合には、ステップS32に進み、このステップS32においては、対象物は報知対象ではないと判定して、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS33に進む。
Hereinafter, the notification determination process in step S17 described above will be described with reference to the accompanying drawings.
First, for example, in step S31 shown in FIG. 6, it is determined whether or not there is a possibility of contact between the object and the host vehicle. Hereinafter, as an example of this determination process, for example, as shown in FIG. 7, there is a case where there is an object Q that moves at a speed Vp in a direction substantially orthogonal to the traveling direction (for example, the Z direction) of the host vehicle P. explain. When the object Q approaches the distance Zv (0) from the distance Zv (N−1) along the direction parallel to the traveling direction of the host vehicle P during the predetermined time ΔT, The relative speed Vs is calculated, and it is assumed that the host vehicle P and the object Q move within a predetermined ground height H while maintaining the relative speed Vs. It is determined whether or not. The margin time Ts is a time for determining the possibility of occurrence of contact at a timing earlier than the predicted contact occurrence time by a predetermined time Ts, and is set to about 2 to 5 seconds, for example. Further, the predetermined ground height H is set to a value that is about twice the vehicle height of the host vehicle P, for example.
If this determination is “NO”, the flow proceeds to step
On the other hand, if the determination is “YES”, the flow proceeds to step S33.
次に、ステップS33においては、後述する領域判定処理を実行する。
次に、ステップS34においては、報知対象領域の領域拡張が指示されているか否かを判定する。
この判定結果が「NO」の場合には、ステップS35に進み、このステップS35においては、報知対象領域を通常領域WAとして、ステップS37に進む。
一方、この判定結果が「YES」の場合には、ステップS36に進み、このステップS36においては、報知対象領域を拡張領域EAへと拡張して、ステップS37に進む。
次に、ステップS37においては、対象物が報知対象領域内に存在するか否かを判定する。
この判定結果が「NO」の場合には、上述したステップS32に進む。
一方、この判定結果が「YES」の場合には、ステップS38に進み、このステップS38においては、対象物は報知対象であると判定して、リターンに進む。
Next, in step S33, an area determination process described later is executed.
Next, in step S34, it is determined whether or not an area extension of the notification target area is instructed.
If this determination is “NO”, the flow proceeds to step
On the other hand, if this determination result is "YES", the process proceeds to step S36, and in this step S36, the notification target area is expanded to the extended area EA, and the process proceeds to step S37.
Next, in step S37, it is determined whether or not the object is present in the notification target area.
If this determination is “NO”, the flow proceeds to step
On the other hand, if this determination is “YES”, the flow proceeds to step S 38, and in this step S 38, the object is determined to be a notification target and the flow proceeds to return.
以下に、上述したステップS33における領域判定処理について添付図面を参照しながら説明する。
この領域判定処理は、報知対象領域を所定期間に亘って通常領域WAから拡張領域EAへと拡張することを指示する領域拡張指示の出力可否を設定する処理である。
領域拡張指示は、例えば運転者の瞳孔の大きさが一時的に小さくなったことに起因して、運転者の視認能力が一時的に低下した場合に出力される。例えば外部照度取得部32により取得された車両外部の照度変化が所定変化以上である場合と、操作検出部33により検出された所定の操作が所定時間以上に亘って行なわれた場合と、瞳孔状態検出部34により検出された瞳孔の状態の変化が所定変化以上である場合とのうち、少なくとも1つの場合に領域拡張指示が出力される。
Hereinafter, the region determination processing in step S33 described above will be described with reference to the accompanying drawings.
This area determination process is a process of setting whether or not to output an area extension instruction for instructing to extend the notification target area from the normal area WA to the extended area EA over a predetermined period.
The area expansion instruction is output when the driver's visual recognition ability temporarily decreases due to, for example, the driver's pupil size temporarily decreasing. For example, when the illuminance change outside the vehicle acquired by the external
以下に、外部照度取得部32により取得された車両外部の照度変化が所定変化以上である場合として、所定の推定動作により車両外部の照度変化の発生を推定し、この推定結果に応じて領域拡張指示の出力要否を設定する処理について説明する。
先ず、例えば図8に示すステップS41においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対向車両が、自車両に対するすれ違いなどによって消失してから所定時間以内か否かを判定する。
この判定結果が「YES」の場合には、例えば対向車両の前照灯により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS42に進み、このステップS42においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS43に進む。
Hereinafter, assuming that the illuminance change outside the vehicle acquired by the external
First, in step S41 shown in FIG. 8, for example, a predetermined time after the oncoming vehicle detected by the
When the determination result is “YES”, for example, it is determined that the pupil size of the driver of the own vehicle is temporarily reduced by the headlamp of the oncoming vehicle, and the process proceeds to step S42. In S42, an area expansion instruction is output and the process proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S 43.
次に、ステップS43においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が車両であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS44に進む。
次に、ステップS44においては、自車両に対する対象物(車両)の相対移動ベクトルを算出すると共に、所定のパターンマッチングの処理(例えば、前照灯の位置などによるパターンマッチングの処理)を行う。
次に、ステップS45においては、相対移動ベクトルおよびパターンマッチングの演算結果に基づき、対象物(車両)が対向車両であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、例えば対向車両の前照灯により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS42に進み、このステップS42においては、領域拡張指示を出力して、リターンに進む。
Next, in step S43, it is determined whether or not the object detected by the
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S44.
Next, in step S44, while calculating the relative movement vector of the target object (vehicle) with respect to the own vehicle, a predetermined pattern matching process (for example, a pattern matching process based on the position of the headlamp) is performed.
Next, in step S45, based on the relative movement vector and the pattern matching calculation result, it is determined whether or not the object (vehicle) is an oncoming vehicle.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, for example, it is determined that the pupil size of the driver of the own vehicle has temporarily decreased due to the headlamp of the oncoming vehicle, and the process proceeds to step S42. In step S42, an area expansion instruction is output and the process proceeds to return.
また、例えば図9に示すステップ51においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が、例えば灯火の点滅などにより消失してから所定時間以内か否かを判定する。
この判定結果が「YES」の場合には、例えば路上の信号機や灯火体などの対象物により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS52に進み、このステップS52においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS43に進む。
Further, for example, in step 51 shown in FIG. 9, a predetermined time has elapsed after the object detected by the
If the determination result is “YES”, for example, it is determined that the size of the pupil of the driver of the host vehicle has temporarily decreased due to an object such as a traffic light or a lighting object on the road, and the process proceeds to step S52. In step S52, an area expansion instruction is output, and the process proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S 43.
次に、ステップ53においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が、例えば灯火の点灯などにより出現してから所定時間以内か否かを判定する。
この判定結果が「YES」の場合には、例えば路上の信号機や灯火体などの対象物により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS52に進み、このステップS52においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS54に進む。
Next, in step 53, whether or not the object detected by the
If the determination result is “YES”, for example, it is determined that the size of the pupil of the driver of the host vehicle has temporarily decreased due to an object such as a traffic light or a lighting object on the road, and the process proceeds to step S52. In step S52, an area expansion instruction is output, and the process proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S54.
次に、ステップS54においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が人以外であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS55に進む。
次に、ステップS55においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が、例えば路上の信号機や灯火体による灯火である場合に、灯火の大きさが所定値以上であるか否かを判定する。
なお、対象物が、例えば路上の信号機や灯火体による灯火であるか否かは、例えば人(歩行者)にはあり得ない特徴として、複数の発熱体が鉛直方向に沿って所定間隔を置いて配置されているか否かのパターンマッチングの処理などによって判定される。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、例えば路上の信号機や灯火体による灯火により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS52に進み、このステップS52においては、領域拡張指示を出力して、リターンに進む。
Next, in step S54, it is determined whether or not the object detected by the
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S55.
Next, in step S55, when the object detected by the
Note that whether or not the target object is, for example, a traffic light on a road or a lighting object is a characteristic that a person (pedestrian) cannot, for example, has a plurality of heating elements spaced at predetermined intervals along the vertical direction. It is determined by pattern matching processing or the like of whether or not they are arranged.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, it is determined that the pupil size of the driver of the vehicle has temporarily decreased due to, for example, a traffic light on the road or a lighting object, and the process proceeds to step S52. In step S52, an area expansion instruction is output, and the process proceeds to return.
以下に、操作検出部33により検出された所定の操作が所定時間以上に亘って行なわれた場合に領域拡張指示を出力する処理について説明する。
例えば図10に示すステップ61においては、表示装置19およびナビゲーション装置20などの各種の表示に係る装置の運転者による操作状態を検出する。
次に、ステップS62においては、運転者によるナビゲーション装置20の操作入力が有るか否かを判定する。
この判定結果が「YES」の場合には、例えばナビゲーション装置20の表示部21を目視していることにより自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS63に進み、このステップS63においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS64に進む。
次に、ステップS64においては、運転者による画面目視が所定時間以上継続したか否かを、直接的にあるいは間接的に判定する。なお、間接的な判定では、例えばナビゲーション装置20などの各種装置の所定動作(例えば、ナビゲーション装置20の経路誘導など)が実行されていることを判定することにより、運転者による所定時間以上の画面目視を伴う操作入力によって各種装置の所定動作の実行が指示されたと判断する。
この判定結果が「YES」の場合には、所定時間以上の画面目視により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS63に進み、このステップS63においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
Hereinafter, a process of outputting an area expansion instruction when a predetermined operation detected by the operation detection unit 33 is performed for a predetermined time or more will be described.
For example, in step 61 shown in FIG. 10, an operation state by a driver of a device related to various displays such as the
Next, in step S62, it is determined whether or not there is an operation input of the
When this determination result is “YES”, it is determined that the size of the pupil of the driver of the own vehicle is temporarily reduced by visually observing the
On the other hand, if this determination is “NO”, the flow proceeds to step S64.
Next, in step S64, it is directly or indirectly determined whether or not the screen viewing by the driver has continued for a predetermined time or more. In the indirect determination, for example, by determining that a predetermined operation (for example, route guidance of the navigation device 20) of various devices such as the
If the determination result is “YES”, it is determined that the size of the pupil of the driver of the host vehicle is temporarily reduced by viewing the screen for a predetermined time or longer, and the process proceeds to step S63. In, an area extension instruction is output and the process proceeds to return.
On the other hand, if the determination result is “NO”, the area expansion instruction is not output and the process proceeds to return.
以下に、瞳孔状態検出部34により検出された瞳孔の状態の変化が所定変化以上である場合に領域拡張指示を出力する処理について説明する。
例えば図11に示すステップ71においては、運転者の眼を撮像する車室内カメラ17から出力される撮像画像に基づき、運転者の瞳孔の状態(例えば、瞳孔の大きさなど)を検出する。
次に、ステップS72においては、瞳孔の大きさが所定値以下であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS73に進む。
次に、ステップS73においては、瞳孔の大きさが所定値以上である状態が所定時間以上継続したか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS74に進み、このステップS74においては、領域拡張指示を出力して、リターンに進む。
Hereinafter, a process of outputting a region expansion instruction when the change in the state of the pupil detected by the pupil
For example, in step 71 shown in FIG. 11, the state of the driver's pupil (for example, the size of the pupil) is detected based on the captured image output from the
Next, in step S72, it is determined whether or not the size of the pupil is equal to or smaller than a predetermined value.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S73.
Next, in step S73, it is determined whether or not the state in which the pupil size is a predetermined value or more has continued for a predetermined time or more.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S 74, and in this step S 74, an area expansion instruction is output and the flow proceeds to return.
上述したように、本実施の形態による車両周辺監視装置10によれば、車両外部の照度変化が所定変化以上である場合と、運転者による車載表示装置の操作が所定時間以上に亘って行なわれた場合と、運転者の瞳孔の状態の変化が所定変化以上である場合とのうち、少なくとも1つの場合に、報知対象領域を所定期間に亘って拡張する。これにより、車両外部の照度変化あるいは運転者による所定時間以上に亘る画面目視あるいは運転者の瞳孔の収縮などに起因して、運転者の外界視認能力が一時的に低下した場合であっても、適切なタイミングで報知動作を行なうことができ、運転者が報知動作に煩わしさを感じてしまうことをも防止することができる。
しかも、外部照度取得部32は、所定の推定動作により車両外部の照度変化の発生を推定することから、車両外部の照度変化を直接的に検出する必要無しに、所定変化以上の照度変化を取得することができる。
As described above, according to the vehicle
In addition, since the external
なお、上述した実施の形態においては、例えば運転者の瞳孔の大きさが一時的に小さくなったことなどに起因して、運転者の視認能力が一時的に低下した場合に、報知対象領域を所定期間に亘って通常領域WAから拡張領域EAへと自車両側に拡張するとしたが、これに限定されず、さらに、領域拡張指示が出力された場合には、各種警報の報知タイミングを早める処理を実行してもよい。 In the above-described embodiment, for example, when the driver's visual ability temporarily decreases due to, for example, the driver's pupil size being temporarily reduced, the notification target region is Although it is assumed that the vehicle is extended from the normal area WA to the extended area EA over a predetermined period, the present invention is not limited to this. Further, when an area expansion instruction is output, a process for advancing the notification timing of various alarms May be executed.
なお、上述した実施の形態において、例えば図6に示す報知判定処理では、ステップS31での衝突可能性の有無の判定処理を省略してもよい。 In the above-described embodiment, for example, in the notification determination process illustrated in FIG. 6, the determination process for the possibility of collision in step S <b> 31 may be omitted.
10 車両周辺監視装置
12L,12RL 赤外線カメラ(赤外線撮像手段)
31 対象物検出部(対象物検出手段)
32 外部照度取得部(外部照度取得手段)
33 操作検出部(操作検出手段)
34 瞳孔状態検出部(瞳孔状態検出手段)
35 領域拡張部(領域拡張手段)
36 報知制御部(報知手段)
10 vehicle
31 Object detection unit (object detection means)
32 External illuminance acquisition unit (external illuminance acquisition means)
33 Operation detection unit (operation detection means)
34 Pupil state detection unit (pupil state detection means)
35 Area expansion unit (area expansion means)
36 Notification control unit (notification means)
Claims (2)
前記赤外線撮像手段から出力された前記赤外線画像に基づき車両外部に存在する対象物を検出する対象物検出手段と、
前記対象物検出手段により検出された前記対象物が車両外部の実空間の所定領域である前記車両の前照灯の配光領域以遠の領域内に存在する場合に運転者に報知を行なう報知手段とを備える車両周辺監視装置であって、
車両外部の照度変化を検出または推定により取得する外部照度取得手段と、
前記外部照度取得手段により取得された前記照度変化が所定変化以上である場合に、所定期間に亘って前記所定領域を前記車両の前照灯の配光領域内に拡張する領域拡張手段とを備えることを特徴とする車両周辺監視装置。 An infrared imaging means mounted on the vehicle and outputting an infrared image obtained by imaging in the infrared region;
Object detection means for detecting an object existing outside the vehicle based on the infrared image output from the infrared imaging means;
Informing means for informing the driver when the object detected by the object detecting means exists in an area beyond the light distribution area of the headlight of the vehicle, which is a predetermined area in real space outside the vehicle. A vehicle periphery monitoring device comprising:
An external illuminance acquisition means for detecting or estimating an illuminance change outside the vehicle;
A region expansion unit that expands the predetermined region into a light distribution region of the headlight of the vehicle over a predetermined period when the illuminance change acquired by the external illuminance acquisition unit is greater than or equal to a predetermined change. The vehicle periphery monitoring apparatus characterized by the above-mentioned.
自車両に接近する対向車両を検出した場合と、前記赤外線画像上において所定輝度以上の輝度を有する熱源の出現または消失を検出した場合と、日没または日の出の時間帯を検出した場合とのうち、少なくとも何れか1つの場合に、前記所定変化以上の前記照度変化を取得することを特徴とする請求項1に記載の車両周辺監視装置。 The external illuminance acquisition means includes
A case where an oncoming vehicle approaching the host vehicle is detected, a case where an appearance or disappearance of a heat source having a luminance equal to or higher than a predetermined luminance is detected on the infrared image, and a case where a time zone of sunset or sunrise is detected 2. The vehicle periphery monitoring device according to claim 1, wherein the illuminance change equal to or greater than the predetermined change is acquired in at least one of the cases.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009106426A JP5291524B2 (en) | 2009-04-24 | 2009-04-24 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009106426A JP5291524B2 (en) | 2009-04-24 | 2009-04-24 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010257217A JP2010257217A (en) | 2010-11-11 |
JP5291524B2 true JP5291524B2 (en) | 2013-09-18 |
Family
ID=43318048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009106426A Expired - Fee Related JP5291524B2 (en) | 2009-04-24 | 2009-04-24 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5291524B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108370231A (en) * | 2016-01-27 | 2018-08-03 | 三电汽车部件株式会社 | motor control unit |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012159989A (en) * | 2011-01-31 | 2012-08-23 | Toshiba Alpine Automotive Technology Corp | Drive support device and drive support method |
JP5310760B2 (en) * | 2011-03-04 | 2013-10-09 | トヨタ自動車株式会社 | Approaching vehicle detection device |
WO2020059076A1 (en) * | 2018-09-20 | 2020-03-26 | 三菱電機株式会社 | Driving assistance device and driving support method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2910487B2 (en) * | 1993-03-16 | 1999-06-23 | 日産自動車株式会社 | Obstacle detection device for vehicles |
JPH11146389A (en) * | 1997-11-04 | 1999-05-28 | Nissan Motor Co Ltd | Display device |
JP3968867B2 (en) * | 1998-04-24 | 2007-08-29 | 日産自動車株式会社 | Display processing device |
JP2000318513A (en) * | 1999-05-17 | 2000-11-21 | Mitsubishi Electric Corp | Obstacle detection device for vehicles |
JP3919975B2 (en) * | 1999-07-07 | 2007-05-30 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP2002362302A (en) * | 2001-06-01 | 2002-12-18 | Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai | Pedestrian detecting device |
JP2004254044A (en) * | 2003-02-19 | 2004-09-09 | Denso Corp | Driving supporting method, display system and notification system |
JP2005286656A (en) * | 2004-03-29 | 2005-10-13 | Fuji Photo Film Co Ltd | Image pickup device, vehicle and driving support method |
JP4762774B2 (en) * | 2006-04-07 | 2011-08-31 | 本田技研工業株式会社 | Ranging device and vehicle periphery monitoring device |
JP4528283B2 (en) * | 2006-06-05 | 2010-08-18 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP4760562B2 (en) * | 2006-06-19 | 2011-08-31 | 日産自動車株式会社 | Vehicle periphery information presentation device and vehicle periphery information presentation method |
-
2009
- 2009-04-24 JP JP2009106426A patent/JP5291524B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108370231A (en) * | 2016-01-27 | 2018-08-03 | 三电汽车部件株式会社 | motor control unit |
CN108370231B (en) * | 2016-01-27 | 2021-08-24 | 三电汽车部件株式会社 | motor control device |
Also Published As
Publication number | Publication date |
---|---|
JP2010257217A (en) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5503728B2 (en) | Vehicle periphery monitoring device | |
JP5577398B2 (en) | Vehicle periphery monitoring device | |
US9073484B2 (en) | Surrounding area monitoring apparatus for vehicle | |
JP4410292B1 (en) | Vehicle periphery monitoring device | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP2003150938A (en) | Image recognition device | |
JP2010257377A (en) | Vehicle periphery monitoring device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP4094604B2 (en) | Vehicle periphery monitoring device | |
JP2009265883A (en) | Vehicle periphery monitoring device | |
CN103189905B (en) | Vehicle periphery monitoring device | |
JP5291524B2 (en) | Vehicle periphery monitoring device | |
JP4128562B2 (en) | Vehicle periphery monitoring device | |
JP2006338594A (en) | Pedestrian recognition device | |
JP5004923B2 (en) | Vehicle driving support device | |
JP3970876B2 (en) | Vehicle periphery monitoring device | |
JP6087240B2 (en) | Vehicle periphery monitoring device | |
JP2003151096A (en) | Approach warning device | |
JP4425852B2 (en) | Vehicle periphery monitoring device | |
JP4943403B2 (en) | Vehicle periphery monitoring device | |
JP2004364112A (en) | Vehicle peripheral display device | |
JP5383246B2 (en) | Vehicle periphery monitoring device | |
JP4298699B2 (en) | Vehicle periphery monitoring device | |
JP4358183B2 (en) | Vehicle periphery monitoring device | |
JP2003157498A (en) | Obstacle warning device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130306 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130607 |
|
LAPS | Cancellation because of no payment of annual fees |