[go: up one dir, main page]

JP5291524B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5291524B2
JP5291524B2 JP2009106426A JP2009106426A JP5291524B2 JP 5291524 B2 JP5291524 B2 JP 5291524B2 JP 2009106426 A JP2009106426 A JP 2009106426A JP 2009106426 A JP2009106426 A JP 2009106426A JP 5291524 B2 JP5291524 B2 JP 5291524B2
Authority
JP
Japan
Prior art keywords
vehicle
predetermined
area
infrared
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009106426A
Other languages
Japanese (ja)
Other versions
JP2010257217A (en
Inventor
浩 岩見
英樹 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009106426A priority Critical patent/JP5291524B2/en
Publication of JP2010257217A publication Critical patent/JP2010257217A/en
Application granted granted Critical
Publication of JP5291524B2 publication Critical patent/JP5291524B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle circumference monitoring device which prevents a driver from feeling a reporting operation to be cumbersome and performs a reporting operation at an appropriate timing. <P>SOLUTION: A vehicle circumference monitoring device 10 includes: infrared cameras 12L, 12R; an object detecting unit 31 which detects an object existing in an area outside a vehicle based on infrared images outputted from the infrared cameras 12L, 12R; a reporting control unit 36 which performs a reporting operation to the driver when the object detected by the object detecting unit 31 lies in a predetermined area for reporting in real space outside the vehicle; an external illumination intensity acquisition unit 32 which detects or estimates a change of an illumination intensity outside the vehicle; and an area extension unit 35 which extends an area for reporting during a predetermined time period if the change of an illumination intensity acquired by the external illumination intensity acquisition unit 32 is greater than or equal to a predetermined amount. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device.

従来、例えば前照灯の配光領域以遠に注意喚起領域を設定して、赤外線カメラにより検出される対象物の所定時間経過後の位置が注意喚起領域内に存在する場合に、音声および表示により運転者に報知を行なう車両の周辺監視装置が知られている(例えば、特許文献1参照)。   Conventionally, for example, when a warning area is set beyond the light distribution area of the headlamp, and the position of the target detected by the infrared camera is within the warning area, the voice and display are used. 2. Description of the Related Art A vehicle periphery monitoring device that notifies a driver is known (see, for example, Patent Document 1).

特許第3919975号Japanese Patent No. 3919975

ところで、上記従来技術に係る車両の周辺監視装置のように、前照灯の配光領域内に存在する対象物は運転者による視認が可能であると判断して、この対象物に対して過剰な注意喚起が行なわれることを禁止することにより、運転者が報知動作に煩わしさを感じてしまうことを防止することができる。
しかしながら、単に、前照灯の配光領域内に存在する対象物に対する報知を禁止してしまうと、運転者が対象物を視認困難な場合に適切なタイミングで報知動作を行なうことができないという問題が生じる。
By the way, it is determined that the object existing in the light distribution area of the headlamp can be visually recognized by the driver as in the vehicle periphery monitoring device according to the above-described conventional technology, and the object is excessive. It is possible to prevent the driver from feeling bothered by the notification operation by prohibiting the user from being alerted.
However, simply disabling notification to the object existing in the light distribution area of the headlamps causes a problem that the driver cannot perform the notification operation at an appropriate timing when it is difficult to visually recognize the object. Occurs.

本発明は上記事情に鑑みてなされたもので、運転者が報知動作に煩わしさを感じてしまうことを防止しつつ、適切なタイミングで報知動作を行なうことが可能な車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a vehicle periphery monitoring device capable of performing a notification operation at an appropriate timing while preventing a driver from feeling troublesome in the notification operation. For the purpose.

上記課題を解決して係る目的を達成するために、本発明の第1態様に係る車両周辺監視装置は、車両に搭載され、赤外線領域で撮像して得た赤外線画像を出力する赤外線撮像手段(例えば、実施の形態での赤外線カメラ12L,12R)と、前記赤外線撮像手段から出力された前記赤外線画像に基づき車両外部に存在する対象物を検出する対象物検出手段(例えば、実施の形態での対象物検出部31)と、前記対象物検出手段により検出された前記対象物が車両外部の実空間の所定領域(例えば、実施の形態での報知対象領域)である前記車両の前照灯の配光領域以遠の領域内に存在する場合に運転者に報知を行なう報知手段(例えば、実施の形態での報知制御部36)とを備える車両周辺監視装置であって、車両外部の照度変化を検出または推定により取得する外部照度取得手段(例えば、実施の形態での外部照度取得部32)と、前記外部照度取得手段により取得された前記照度変化が所定変化以上である場合に、所定期間に亘って前記所定領域を前記車両の前照灯の配光領域内に拡張する領域拡張手段(例えば、実施の形態での領域拡張部35)とを備える。 In order to solve the above problems and achieve the object, the vehicle periphery monitoring apparatus according to the first aspect of the present invention is mounted on a vehicle and outputs infrared imaging means that outputs an infrared image obtained by imaging in the infrared region ( For example, the infrared camera 12L, 12R in the embodiment and the object detection means for detecting the object existing outside the vehicle based on the infrared image output from the infrared imaging means (for example, in the embodiment) An object detection unit 31) and a vehicle headlamp in which the object detected by the object detection means is a predetermined area (for example, a notification target area in the embodiment) in real space outside the vehicle. A vehicle periphery monitoring device including notification means (for example, notification control unit 36 in the embodiment) for notifying a driver when the vehicle is present in a region beyond the light distribution region , and for detecting a change in illuminance outside the vehicle. Detection or When the illuminance change acquired by the external illuminance acquisition means (for example, the external illuminance acquisition unit 32 in the embodiment) acquired by estimation and the external illuminance acquisition means is greater than or equal to a predetermined change, over a predetermined period. And a region expansion means (for example, a region expansion unit 35 in the embodiment) for expanding the predetermined region into a light distribution region of the headlamp of the vehicle .

さらに、本発明の第2態様に係る車両周辺監視装置では、前記外部照度取得手段は、自車両に接近する対向車両を検出した場合と、前記赤外線画像上において所定輝度以上の輝度を有する熱源の出現または消失を検出した場合と、日没または日の出の時間帯を検出した場合とのうち、少なくとも何れか1つの場合に、前記所定変化以上の前記照度変化を取得する。   Furthermore, in the vehicle periphery monitoring apparatus according to the second aspect of the present invention, the external illuminance acquisition means detects a oncoming vehicle approaching the host vehicle and a heat source having a luminance equal to or higher than a predetermined luminance on the infrared image. The illuminance change greater than or equal to the predetermined change is acquired in at least any one of a case where the appearance or disappearance is detected and a case where a time zone of sunset or sunrise is detected.

本発明の第1態様に係る車両周辺監視装置によれば、車両外部の照度変化が所定変化以上である場合に、運転者に報知を行なうか否かを判定するための所定領域を、所定期間に亘って拡張する。これにより、車両外部の照度変化に起因して運転者の外界視認能力が一時的に低下した場合であっても、適切なタイミングで報知動作を行なうことができ、運転者が報知動作に煩わしさを感じてしまうことをも防止することができる。   According to the vehicle periphery monitoring device according to the first aspect of the present invention, the predetermined area for determining whether or not to notify the driver when the illuminance change outside the vehicle is equal to or greater than the predetermined change is set to the predetermined period. It extends over. As a result, even if the driver's ability to visually recognize the outside world is temporarily reduced due to a change in illuminance outside the vehicle, the notification operation can be performed at an appropriate timing, and the driver is bothered by the notification operation. Can also be prevented.

本発明の第2態様に係る車両周辺監視装置によれば、車両外部の照度変化を直接的に検出する必要無しに、所定変化以上の照度変化を取得することができる。   According to the vehicle periphery monitoring apparatus according to the second aspect of the present invention, it is possible to acquire an illuminance change that is equal to or greater than a predetermined change without the need to directly detect an illuminance change outside the vehicle.

本発明の実施の形態に係る車両周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus which concerns on embodiment of this invention. 図1に示す車両周辺監視装置を搭載した車両を示す図である。It is a figure which shows the vehicle carrying the vehicle periphery monitoring apparatus shown in FIG. 本発明の実施の形態に係る車両周辺監視装置の報知対象領域の例を示す図である。It is a figure which shows the example of the alerting | reporting area | region of the vehicle periphery monitoring apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る車両周辺監視装置の報知対象領域の例を示す図である。It is a figure which shows the example of the alerting | reporting area | region of the vehicle periphery monitoring apparatus which concerns on embodiment of this invention. 図1に示す車両周辺監視装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle periphery monitoring apparatus shown in FIG. 図5に示す報知判定処理を示すフローチャートである。It is a flowchart which shows the alerting | reporting determination process shown in FIG. 本発明の実施の形態に係る自車両と対象物との相対位置の一例を示す図である。It is a figure which shows an example of the relative position of the own vehicle and target object which concern on embodiment of this invention. 図6に示す領域判定処理を示すフローチャートである。It is a flowchart which shows the area | region determination process shown in FIG. 図6に示す領域判定処理を示すフローチャートである。It is a flowchart which shows the area | region determination process shown in FIG. 図6に示す領域判定処理を示すフローチャートである。It is a flowchart which shows the area | region determination process shown in FIG. 図6に示す領域判定処理を示すフローチャートである。It is a flowchart which shows the area | region determination process shown in FIG.

以下、本発明の一実施形態に係る車両周辺監視装置について添付図面を参照しながら説明する。
本実施の形態による車両周辺監視装置10は、例えば図1に示すように、車両周辺監視装置10を制御するCPU(中央演算装置)を備えた処理ユニット11と、車両外部の所定撮像領域に対して赤外線を検出可能な2つの赤外線カメラ12L,12Rと、自車両のヨーレートを検出するヨーレートセンサ13と、自車両の走行速度(車速)を検出する車速センサ14と、運転者によるブレーキ操作の有無を検出するブレーキセンサ15と、車両外部の照度を検出する照度センサ16と、運転者の眼を撮像する車室内カメラ17と、スピーカ18と、表示装置19と、ナビゲーション装置20とを備えて構成されている。
Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described with reference to the accompanying drawings.
For example, as shown in FIG. 1, the vehicle periphery monitoring device 10 according to the present embodiment is provided for a processing unit 11 including a CPU (central processing unit) that controls the vehicle periphery monitoring device 10 and a predetermined imaging region outside the vehicle. Two infrared cameras 12L and 12R that can detect infrared rays, a yaw rate sensor 13 that detects the yaw rate of the host vehicle, a vehicle speed sensor 14 that detects a traveling speed (vehicle speed) of the host vehicle, and whether or not the driver performs a brake operation. A brake sensor 15 for detecting the illuminance, an illuminance sensor 16 for detecting the illuminance outside the vehicle, a vehicle interior camera 17 for imaging the eyes of the driver, a speaker 18, a display device 19, and a navigation device 20. Has been.

この車両周辺監視装置10の処理ユニット11は、例えば2つの赤外線カメラ12L,12Rの撮像により得られる自車両周辺の赤外線画像と、各センサ13〜16により検出される自車両の走行状態または自車両の走行環境に係る検出信号と、車室内カメラ17の撮像により得られる運転者の状態に係る信号とから、自車両の進行方向前方に存在する物体および歩行者などの対象物を検出し、検出した対象物と自車両との接触が発生する可能性があると判断したときに、スピーカ18または表示装置19により警報を出力する。
なお、表示装置19は、例えば自車両の各種走行状態量を表示する計器類と一体化された表示装置あるいはフロントウィンドウにおいて運転者の前方視界を妨げない位置に各種情報を表示するHUD(Head Up Display)19aなどを備えて構成されている。
The processing unit 11 of the vehicle periphery monitoring apparatus 10 includes, for example, an infrared image around the own vehicle obtained by imaging with the two infrared cameras 12L and 12R, and the traveling state of the own vehicle detected by the sensors 13 to 16 or the own vehicle. From the detection signal related to the traveling environment of the vehicle and the signal related to the state of the driver obtained by the imaging of the in-vehicle camera 17, an object such as an object and a pedestrian existing in front of the traveling direction of the host vehicle are detected and detected. When it is determined that the contact between the target object and the host vehicle may occur, an alarm is output from the speaker 18 or the display device 19.
The display device 19 is a display device integrated with instruments for displaying various travel state quantities of the host vehicle, for example, or a HUD (Head Up) that displays various information at a position that does not obstruct the driver's front view on the front window. Display) 19a and the like.

また、処理ユニット11は、入力アナログ信号をディジタル信号に変換するA/D変換回路(図示略)と、ディジタル化した画像信号を記憶する画像メモリ(図示略)と、各種演算処理を行うCPU(中央演算装置)(図示略)と、CPUが演算処理の実行時に各種のデータを記憶するために使用するRAM(Random Access Memory)(図示略)と、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)(図示略)と、スピーカ18の駆動信号や表示装置19の表示信号などを出力する出力回路(図示略)とを備えており、赤外線カメラ12L,12Rおよび各センサ13〜16および車室内カメラ17などから出力される信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。   The processing unit 11 includes an A / D conversion circuit (not shown) that converts an input analog signal into a digital signal, an image memory (not shown) that stores a digitized image signal, and a CPU ( A central processing unit (not shown), a RAM (Random Access Memory) (not shown) that is used by the CPU to store various data during execution of arithmetic processing, and programs, tables, maps, etc. that the CPU executes A ROM (Read Only Memory) (not shown) for storing, and an output circuit (not shown) for outputting a drive signal of the speaker 18 and a display signal of the display device 19 are provided, and the infrared cameras 12L and 12R and each sensor are provided. Signals output from 13 to 16 and the vehicle interior camera 17 are converted to digital signals and input to the CPU.

なお、例えば図2に示すように、赤外線カメラ12L,12Rは、自車両Pの前部において車幅方向中心部に対してほぼ対称な位置に配置されており、2つの赤外線カメラ12L,12Rの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ12L,12Rは、対象物の温度が高いほど、出力信号レベルが高くなる(つまり、輝度が増大する)特性を有している。
また、表示装置19のHUD19aは、自車両Pのフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
For example, as shown in FIG. 2, the infrared cameras 12L and 12R are arranged at positions substantially symmetrical with respect to the center in the vehicle width direction at the front portion of the host vehicle P, and the two infrared cameras 12L and 12R. The optical axes are parallel to each other, and the height from both road surfaces is fixed. The infrared cameras 12L and 12R have a characteristic that the higher the temperature of the object, the higher the output signal level (that is, the luminance increases).
Further, the HUD 19a of the display device 19 is provided such that a display screen is displayed at a position that does not obstruct the driver's front view of the front window of the host vehicle P.

また、ナビゲーション装置20は、例えば表示部21と、位置測位部22と、ナビゲーション処理部23とを備えて構成されている。
位置測位部22は、例えば人工衛星を利用して車両の位置を測定するためのGPS(Global Positioning System)信号などの測位信号を受信し、この測位信号によって自車両の現在位置を算出する。
ナビゲーション処理部23は、例えば各センサ13,14などから出力される自車両のヨーレートおよび車速などの検出信号に基づく自律航法の算出処理によって、自車両の現在位置を算出する。
The navigation device 20 includes, for example, a display unit 21, a position positioning unit 22, and a navigation processing unit 23.
The position positioning unit 22 receives a positioning signal such as a GPS (Global Positioning System) signal for measuring the position of the vehicle using, for example, an artificial satellite, and calculates the current position of the host vehicle based on the positioning signal.
The navigation processing unit 23 calculates the current position of the host vehicle by, for example, a calculation process of autonomous navigation based on detection signals such as the yaw rate and the vehicle speed of the host vehicle output from the sensors 13 and 14.

また、ナビゲーション処理部23は、表示部21に地図を表示するための地図表示用のデータおよび車両の現在位置に基づくマップマッチングの処理に必要とされる道路座標データを地図データとして備えている。さらに、ナビゲーション処理部23は、経路探索や経路誘導などの処理に必要とされるデータ、例えば交差点および分岐点などの所定位置の緯度および経度からなる点であるノードと各ノード間を結ぶ線であるリンクとからなる道路データを地図データとして備えている。そして、ノードおよびリンクには各種の情報が付加されている。
そして、ナビゲーション処理部23は、道路データに対して、測位信号および自律航法の算出処理のそれぞれ、又は、何れか一方から得られる自車両の現在位置の情報に基づいてマップマッチングを行い、位置検出の結果を補正する。
また、ナビゲーション処理部23は、例えば操作者による入力操作に応じて自車両の経路探索や経路誘導などの処理を実行し、道路データと共に、例えば目的地までの経路情報や各種の付加情報を表示部21に出力すると共に、各種の音声メッセージをスピーカ18から出力する。
In addition, the navigation processing unit 23 includes map display data for displaying a map on the display unit 21 and road coordinate data necessary for map matching processing based on the current position of the vehicle. Further, the navigation processing unit 23 is a line connecting each node with data necessary for processing such as route search and route guidance, for example, a node consisting of latitude and longitude at a predetermined position such as an intersection and a branch point. Road data consisting of a certain link is provided as map data. Various types of information are added to the nodes and links.
Then, the navigation processing unit 23 performs map matching on the road data based on information on the current position of the host vehicle obtained from either or both of the positioning signal and the autonomous navigation calculation processing, thereby detecting the position. Correct the result.
In addition, the navigation processing unit 23 executes processing such as route search and route guidance of the own vehicle in response to an input operation by the operator, for example, and displays, for example, route information to the destination and various additional information along with the road data. In addition to outputting to the unit 21, various voice messages are output from the speaker 18.

処理ユニット11は、例えば図1に示すように、対象物検出部31と、外部照度取得部32と、操作検出部33と、瞳孔状態検出部34と、領域拡張部35と、報知制御部36とを備えて構成されている。   For example, as illustrated in FIG. 1, the processing unit 11 includes an object detection unit 31, an external illuminance acquisition unit 32, an operation detection unit 33, a pupil state detection unit 34, a region expansion unit 35, and a notification control unit 36. And is configured.

対象物検出部31は、赤外線カメラ12L,12Rから出力された赤外線画像に基づき車両外部に存在する対象物を検出する。
外部照度取得部32は、照度センサ16から出力される検出信号に基づき車両外部の照度変化を検出したり、所定の推定動作により車両外部の照度変化の発生を推定する。
所定の推定動作は、例えば、対象物検出部31により自車両に接近する対向車両を検出した場合と、赤外線カメラ12L,12Rから出力された赤外線画像上において所定輝度以上の輝度を有する熱源の出現または消失を検出した場合と、日没または日の出の時間帯を検出した場合とのうち、少なくとも何れか1つの場合に、所定変化以上の照度変化が生じたと推定する。
The object detection unit 31 detects an object existing outside the vehicle based on the infrared images output from the infrared cameras 12L and 12R.
The external illuminance acquisition unit 32 detects a change in illuminance outside the vehicle based on the detection signal output from the illuminance sensor 16, or estimates the occurrence of a change in illuminance outside the vehicle by a predetermined estimation operation.
The predetermined estimation operation includes, for example, a case where an oncoming vehicle approaching the host vehicle is detected by the object detection unit 31, and the appearance of a heat source having a luminance equal to or higher than a predetermined luminance on the infrared images output from the infrared cameras 12L and 12R. Alternatively, it is estimated that an illuminance change equal to or more than a predetermined change has occurred in at least one of the case where the disappearance is detected and the case where the time zone of sunset or sunrise is detected.

操作検出部33は、運転者による表示装置19の操作の有無と、ナビゲーション装置20の操作の有無となどを検出する。
瞳孔状態検出部34は、運転者の眼を撮像する車室内カメラ17から出力される撮像画像に基づき、運転者の瞳孔の状態(例えば、瞳孔の大きさなどの変化が所定以上であるか否かなど)を検出する。
The operation detection unit 33 detects whether or not the driver has operated the display device 19 and whether or not the navigation device 20 has been operated.
The pupil state detection unit 34 is based on the captured image output from the vehicle interior camera 17 that images the driver's eyes, and whether or not a change in the driver's pupil state (for example, the size of the pupil is greater than or equal to a predetermined value). Or the like).

領域拡張部35は、例えば、外部照度取得部32により取得された車両外部の照度変化が所定変化以上である場合と、操作検出部33により検出された所定の操作が所定時間以上に亘って行なわれた場合と、瞳孔状態検出部34により検出された瞳孔の状態の変化が所定変化以上である場合とのうち、少なくとも1つの場合に所定期間に亘って所定の報知対象領域を拡張する。
なお、報知対象領域は、通常時においては、例えば図3(A)に示すように、赤外線カメラ12L,12Rの所定撮像領域SAのうち、自車両の前照灯の所定の配光領域LA以遠の領域(通常領域)WAとされている。そして、領域拡張部35により報知対象領域の領域拡張が指示されているときには、報知対象領域は、例えば図3(B)に示すように、赤外線カメラ12L,12Rの所定撮像領域SAのうち、通常領域WAと通常領域WAから少なくとも自車両Pに向って配光領域LA内まで拡張された領域αとから構成される拡張領域EAとされている。
For example, the area expanding unit 35 performs a predetermined operation detected by the operation detecting unit 33 for a predetermined time or more when the illuminance change outside the vehicle acquired by the external illuminance acquiring unit 32 is a predetermined change or more. The predetermined notification target area is expanded over a predetermined period in at least one of the case where the change in the pupil state detected by the pupil state detection unit 34 is equal to or greater than the predetermined change.
In the normal time, the notification target area is farther than a predetermined light distribution area LA of the headlight of the own vehicle in a predetermined imaging area SA of the infrared cameras 12L and 12R, for example, as shown in FIG. Area (normal area) WA. When the area expansion unit 35 has instructed the area expansion of the notification target area, the notification target area is a normal one of the predetermined imaging areas SA of the infrared cameras 12L and 12R, as shown in FIG. 3B, for example. The extended area EA is composed of the area WA and the area α extended from the normal area WA to the light distribution area LA at least toward the host vehicle P.

なお、領域拡張時に通常領域WAから配光領域LA内まで拡張される領域αは、例えば図4(A)に示すように、自車両Pの車幅などに応じた所定幅xaで自車両Pに向かい拡張されて形成されてもよい。また、例えば図4(B)に示すように、自車両Pの車幅などに応じた所定幅xaが適宜の拡張幅xbまで拡張されると共に、自車両Pに向かい拡張されて形成されてもよい。   Note that the region α that is expanded from the normal region WA to the light distribution region LA when the region is expanded has a predetermined width xa corresponding to the vehicle width of the host vehicle P, for example, as shown in FIG. It may be formed to extend toward. For example, as shown in FIG. 4B, the predetermined width xa corresponding to the vehicle width of the host vehicle P may be extended to an appropriate extension width xb and extended toward the host vehicle P. Good.

報知制御部36は、対象物検出部31により検出された対象物が車両外部の実空間の所定の報知対象領域内に存在する場合に、少なくとも表示装置19により運転者に報知を行なう。   The notification control unit 36 notifies the driver at least by the display device 19 when the target detected by the target detection unit 31 is present in a predetermined notification target area in the real space outside the vehicle.

本実施の形態による車両周辺監視装置10は上記構成を備えており、次に、この車両周辺監視装置10の動作、特に、報知対象領域の設定処理と、他車両や歩行者などの対象物に対する報知動作とについて添付図面を参照しながら説明する。   The vehicle periphery monitoring device 10 according to the present embodiment has the above-described configuration. Next, the operation of the vehicle periphery monitoring device 10, particularly the notification target region setting process, and other objects such as other vehicles and pedestrians are processed. The notification operation will be described with reference to the accompanying drawings.

まず、例えば図5に示すステップS1において、処理ユニット11は、赤外線カメラ12L,12Rの出力信号である赤外線画像を取得する。
次に、ステップS2においては、取得した赤外線画像をA/D変換する。
次に、ステップS3においては、中間階調情報を含むグレースケール画像を取得して、画像メモリに格納する。なお、この実施の形態では赤外線カメラ12Rにより右画像が得られ、赤外線カメラ12Lにより左画像が得られる。また、右画像と左画像とでは、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(つまり、視差)により自車両から対象物までの距離を算出することができる。
First, for example, in step S1 shown in FIG. 5, the processing unit 11 acquires an infrared image that is an output signal of the infrared cameras 12L and 12R.
Next, in step S2, the acquired infrared image is A / D converted.
Next, in step S3, a grayscale image including halftone information is acquired and stored in the image memory. In this embodiment, the right image is obtained by the infrared camera 12R, and the left image is obtained by the infrared camera 12L. In addition, since the horizontal position of the same object on the display screen is shifted in the right image and the left image, the distance from the host vehicle to the object can be calculated based on this shift (that is, parallax). it can.

次に、ステップS4においては、赤外線カメラ12Rにより得られた右画像を基準画像とし、この画像信号の2値化処理、すなわち所定輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。
なお、以下のステップS4〜ステップS9の処理は、2値化処理により得た基準画像(例えば、右画像)について実行する。
次に、ステップS5においては、赤外線画像に2値化処理を実行して得た画像データをランレングスデータに変換する。ランレングスデータでは、2値化処理により白となった領域を画素レベルでラインとして表示し、各ラインはy方向に1画素の幅を有し、x方向に適宜の画素数の長さを有するように設定されている
Next, in step S4, the right image obtained by the infrared camera 12R is used as a reference image, and binarization processing of this image signal, that is, a region brighter than the predetermined luminance threshold ITH is set to “1” (white), and a dark region Is set to “0” (black).
In addition, the process of the following step S4-step S9 is performed about the reference | standard image (for example, right image) obtained by the binarization process.
Next, in step S5, image data obtained by performing binarization processing on the infrared image is converted into run-length data. In the run-length data, an area that has become white by binarization processing is displayed as a line at the pixel level, and each line has a width of one pixel in the y direction and an appropriate number of pixels in the x direction. Is set to

次に、ステップS6においては、ランレングスデータに変換された画像データにおいて、対象物のラベリングを行う。
次に、ステップS7においては、対象物のラベリングに応じて対象物を抽出する。ここでは、ランレングスデータにおける各ラインのうち、同等のx方向座標を含むライン同士がy方向で隣接する場合に、隣接するラインが単一の対象物を構成しているとみなす。
次に、ステップS8においては、抽出した対象物の重心Gと、面積Sと、外接四角形の縦横比ASPECTとを算出する。
Next, in step S6, the object is labeled in the image data converted into run-length data.
Next, in step S7, the object is extracted according to the labeling of the object. Here, among the lines in the run-length data, when the lines including the equivalent x-direction coordinates are adjacent in the y direction, the adjacent lines are regarded as constituting a single object.
Next, in step S8, the center of gravity G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle are calculated.

ここで、面積Sは、ランレングスデータの長さを同一対象物において積算することにより算出する。重心Gの座標は、ランレングスデータの長さと、ランレングスデータの座標とを乗算して得た値を同一対象物において積算して得た値を、面積Sで除算することにより算出する。さらに、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、重心Gの座標は、外接四角形の重心座標で代用してもよい。
Here, the area S is calculated by integrating the lengths of the run length data in the same object. The coordinates of the center of gravity G are calculated by dividing the value obtained by multiplying the values obtained by multiplying the length of the run-length data by the coordinates of the run-length data in the same object by the area S. Further, the aspect ratio ASPECT is calculated as the ratio Dy / Dx between the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object.
Note that the coordinates of the center of gravity G may be replaced with the center of gravity of a circumscribed rectangle.

次に、ステップS9およびステップS10の処理と、ステップS11〜ステップS13の処理とを並行して実行する。
まず、ステップS9においては、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う。この時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出した場合、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定された場合には、対象物C、Dのラベルをそれぞれ対象物A、Bのラベルに変更する。そして、認識された各対象物の位置座標(例えば、重心等)を、時系列位置データとして適宜のメモリに格納する。
Next, the process of step S9 and step S10 and the process of step S11-step S13 are performed in parallel.
First, in step S9, tracking of a target object between times, that is, recognition of the same target object at every sampling period is performed. In this inter-time tracking, k is a time obtained by discretizing time t as an analog quantity with a sampling period. For example, when objects A and B are extracted at time k, the objects C and D extracted at time (k + 1) are extracted. And the objects A and B are determined. If it is determined that the objects A and B and the objects C and D are the same, the labels of the objects C and D are changed to the labels of the objects A and B, respectively. Then, the position coordinates (for example, the center of gravity, etc.) of each recognized object are stored in an appropriate memory as time series position data.

次に、ステップS10においては、車速センサ14により検出された車速VCARおよびヨーレートセンサ13より検出されたヨーレートYRを取得し、ヨーレートYRを時間積分して、自車両の回頭角θrを算出する。   Next, in step S10, the vehicle speed VCAR detected by the vehicle speed sensor 14 and the yaw rate YR detected by the yaw rate sensor 13 are acquired, and the yaw rate YR is integrated over time to calculate the turning angle θr of the host vehicle.

一方、ステップS9およびステップS10の処理に並行して実行されるステップS11〜ステップS13においては、対象物と自車両との距離zを算出する。なお、このステップS11の処理は、ステップS9およびステップS10の処理よりも長い演算時間を要することから、ステップS9およびステップS10よりも長い周期(例えば、ステップS1〜ステップS10の実行周期の3倍程度の周期等)で実行されるようになっている。
先ず、ステップS11においては、基準画像(例えば、右画像)を2値化処理して得た画像データ上で追跡される複数の対象物のうちから1つの対象物を選択し、例えば選択した対象物を外接四角形で囲む領域全体を探索画像R1として基準画像(例えば、右画像)から抽出する。
On the other hand, in steps S11 to S13 executed in parallel with the processes in steps S9 and S10, a distance z between the object and the host vehicle is calculated. Since the process of step S11 requires a longer calculation time than the processes of step S9 and step S10, the cycle is longer than that of steps S9 and S10 (for example, about three times the execution cycle of steps S1 to S10). Etc.).
First, in step S11, one object is selected from a plurality of objects tracked on image data obtained by binarizing a reference image (for example, the right image). The entire region surrounding the object with a circumscribed rectangle is extracted from the reference image (for example, the right image) as the search image R1.

次に、ステップS12においては、基準画像(例えば、右画像)に対応する画像(例えば、左画像)中から探索画像R1に対応する画像(対応画像)R2を探索する探索領域を設定し、相関演算を実行して対応画像R2を抽出する。ここでは、例えば探索画像R1の各頂点座標に応じて、左画像中に探索領域を設定し、探索領域内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この輝度差分総和値C(a,b)が最小となる領域を対応画像R2として抽出する。なお、この相関演算は、2値化処理して得た画像データではなく、グレースケール画像に対して実行する。また、同一対象物についての過去の位置データが存在する場合には、過去の位置データに基づいて探索領域を狭めることが可能である。   Next, in step S12, a search area for searching for an image (corresponding image) R2 corresponding to the search image R1 from an image (for example, the left image) corresponding to the reference image (for example, the right image) is set and correlated. An operation is executed to extract the corresponding image R2. Here, for example, a search area is set in the left image according to each vertex coordinate of the search image R1, and the luminance difference sum C (a, b) indicating the level of correlation with the search image R1 in the search area. And a region where the luminance difference total value C (a, b) is minimum is extracted as the corresponding image R2. This correlation calculation is performed not on the image data obtained by the binarization process but on the gray scale image. In addition, when past position data for the same object exists, the search area can be narrowed based on the past position data.

次に、ステップS13においては、探索画像R1の重心位置と、対応画像R2の重心位置と、画素数単位での視差Δdとを算出し、さらに、自車両と対象物との距離つまり赤外線カメラ12L,12Rのレンズと対象物との距離(対象物距離)z(m)を、例えば下記数式(1)に示すように、カメラ基線長、つまり赤外線カメラ12L,12Rの各撮像素子の中心位置間の水平距離D(m)と、カメラ焦点距離、つまり赤外線カメラ12L,12Rの各レンズの焦点距離f(m)と、画素ピッチp(m/pixel)と、視差Δd(pixel)とに基づき算出する。   Next, in step S13, the gravity center position of the search image R1, the gravity center position of the corresponding image R2, and the parallax Δd in units of the number of pixels are calculated, and further, the distance between the host vehicle and the object, that is, the infrared camera 12L. , 12R distance between the lens and the object (object distance) z (m), for example, as shown in the following formula (1), the camera base length, that is, between the center positions of the image sensors of the infrared cameras 12L, 12R Calculated based on the horizontal distance D (m), the camera focal length, that is, the focal length f (m) of each lens of the infrared cameras 12L and 12R, the pixel pitch p (m / pixel), and the parallax Δd (pixel). To do.

Figure 0005291524
Figure 0005291524

そして、ステップS14においては、ステップS10での回頭角θrの算出と、ステップS13での距離zの算出との完了後に、例えば下記数式(2)に示すように、画像データ上での対象物の座標(x,y)および距離zを実空間座標(X,Y,Z)に変換する。
ここで、実空間座標(X,Y,Z)は、例えば図2に示すように、自車両Pの前部における赤外線カメラ12L,12Rの取り付け位置の中点の位置を原点Oとして設定され、画像データ上の座標は、画像データの中心を原点として水平方向をx方向、垂直方向をy方向として設定されている。また、座標(xc,yc)は、基準画像(例えば、右画像)上の座標(x,y)を、赤外線カメラ2Rの取付位置と、実空間の原点Oとの相対位置関係に基づいて、実空間の原点Oと画像データの中心とを一致させて得た仮想的な画像上の座標に変換して得た座標である。
In step S14, after the calculation of the turning angle θr in step S10 and the calculation of the distance z in step S13, for example, as shown in the following formula (2), the object on the image data is calculated. The coordinates (x, y) and the distance z are converted into real space coordinates (X, Y, Z).
Here, the real space coordinates (X, Y, Z), for example, as shown in FIG. 2, are set with the origin O as the midpoint position of the attachment positions of the infrared cameras 12L, 12R in the front part of the host vehicle P, The coordinates on the image data are set with the center of the image data as the origin and the horizontal direction as the x direction and the vertical direction as the y direction. Also, the coordinates (xc, yc) are the coordinates (x, y) on the reference image (for example, the right image) based on the relative positional relationship between the mounting position of the infrared camera 2R and the origin O in the real space. This is a coordinate obtained by converting the origin O of the real space and the center of the image data into coordinates on a virtual image obtained.

Figure 0005291524
Figure 0005291524

次に、ステップS15においては、自車両が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。この回頭角補正は、時刻kから時刻(k+1)までの期間中に自車両が、例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ12L,12Rによって得られる画像データ上では、画像データの範囲がΔxだけx方向にずれることを補正する処理であり、例えば下記数式(3)に示すように、実空間座標(X,Y,Z)を補正して得た補正座標(Xr,Yr,Zr)を、新たに実空間座標(X,Y,Z)として設定する。   Next, in step S15, turning angle correction is performed to correct a positional shift on the image due to the turning of the host vehicle. This turning angle correction is performed when the host vehicle turns, for example, to the left by the turning angle θr during the period from time k to time (k + 1), on the image data obtained by the infrared cameras 12L and 12R. Is a process for correcting the shift in the x direction by Δx. For example, as shown in the following formula (3), the corrected coordinates (Xr, Yr, Zr) obtained by correcting the real space coordinates (X, Y, Z) ) Are newly set as real space coordinates (X, Y, Z).

Figure 0005291524
Figure 0005291524

次に、ステップS16においては、同一対象物について所定時間ΔTのモニタ期間内に得られた回頭角補正後のN(例えば、N=10程度)個の時系列データをなす実空間位置データから、対象物と自車両との相対移動ベクトルに対応する近似直線LMVを算出する。
このステップS16においては、最新の位置座標P(0)と、(N−1)サンプル前(つまり、所定時間ΔT前)の位置座標P(N−1)とを、近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)およびPv(N−1)を算出する。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このように所定時間ΔTのモニタ期間内の複数(例えば、N個)の実空間位置データから対象物の自車両に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して自車両と対象物との接触発生の可能性を精度良く予測することが可能となる。
Next, in step S16, from the real space position data forming N (for example, about N = 10) time-series data after the turning angle correction obtained within the monitoring period of the predetermined time ΔT for the same object, An approximate straight line LMV corresponding to the relative movement vector between the object and the host vehicle is calculated.
In this step S16, the latest position coordinate P (0) and the position coordinate P (N-1) before (N-1) samples (that is, before the predetermined time ΔT) are set to positions on the approximate straight line LMV. The corrected position coordinates Pv (0) and Pv (N-1) are calculated.
Thereby, a relative movement vector is obtained as a vector from the position coordinates Pv (N−1) to Pv (0).
In this way, by calculating an approximate straight line that approximates the relative movement trajectory of the object with respect to the host vehicle from a plurality of (for example, N) real space position data within the monitoring period of the predetermined time ΔT, a relative movement vector is obtained. It is possible to reduce the influence of the position detection error and accurately predict the possibility of occurrence of contact between the host vehicle and the object.

次に、ステップS17においては、後述する報知判定処理を実行し、対象物が報知対象であるか否かを設定する。
次に、ステップS18においては、報知対象が有るか否かを判定する。
この判定結果が「NO」の場合には、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS19に進む。
次に、ステップS19においては、例えばブレーキセンサ15から出力される検出結果の信号に基づき、自車両の運転者がブレーキ操作を行っているか否かなどに応じた警報出力判定処理により、警報出力が必要か否かを判定する。
この判定結果が「NO」の場合には、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS20に進む。
Next, in step S17, a notification determination process described later is executed to set whether or not the object is a notification target.
Next, in step S18, it is determined whether there is a notification target.
If this determination is “NO”, the flow proceeds to return.
On the other hand, if the determination is “YES”, the flow proceeds to step S19.
Next, in step S19, for example, based on a detection result signal output from the brake sensor 15, an alarm output is determined by an alarm output determination process depending on whether or not the driver of the host vehicle is operating a brake. Determine if necessary.
If this determination is “NO”, the flow proceeds to return.
On the other hand, if the determination is “YES”, the flow proceeds to step S20.

そして、ステップS20においては、例えばスピーカ18から出力される音声などの聴覚的警報や、例えばナビゲーション装置の表示部21や表示装置19から出力される表示などの視覚的警報や、例えばシートベルトに所定の張力を発生させて運転者が触覚的に知覚可能な締め付け力を作用させたり、例えばステアリングホイールに運転者が触覚的に知覚可能な振動(ステアリング振動)を発生させることによる触覚的警報を出力する。
次に、ステップS21においては、表示装置19において、例えば赤外線カメラ2Rにより得られる画像データを出力し、報知対象である対象物を強調映像として表示し、リターンに進む。
In step S20, for example, an audio alarm such as a sound output from the speaker 18, a visual alarm such as a display output from the display unit 21 or the display device 19 of the navigation device, or a predetermined alarm is applied to the seat belt, for example. A tactile alarm is generated by causing the driver to apply a tactile force that can be perceived tactilely or to generate vibration that can be perceived tactilely by the driver (steering vibration) on the steering wheel. To do.
Next, in step S21, the display device 19 outputs image data obtained by, for example, the infrared camera 2R, displays the object to be notified as an emphasized video, and proceeds to return.

以下に、上述したステップS17における報知判定処理について添付図面を参照しながら説明する。
先ず、例えば図6に示すステップS31においては、対象物と自車両との接触可能性があるか否かを判定する。以下、この判定処理の一例として、例えば図7に示すように、自車両Pの進行方向(例えば、Z方向)に対してほぼ直交する方向において速度Vpで移動する対象物Qが存在する場合について説明する。対象物Qが所定時間ΔTの間に自車両Pの進行方向に平行な方向に沿って距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両PのZ方向での相対速度Vsを算出し、自車両Pと対象物Qとが所定地上高H以内で相対速度Vsを維持して移動すると仮定して、所定の余裕時間Ts以内に自車両Pと対象物Qとが接触するか否かを判定する。なお、余裕時間Tsは、接触発生の可能性を、予測される接触発生時刻よりも所定時間Tsだけ以前のタイミングで判定するための時間であって、例えば2〜5秒程度に設定される。また、所定地上高Hは、例えば自車両Pの車高の2倍程度の値に設定される。
この判定結果が「NO」の場合には、ステップS32に進み、このステップS32においては、対象物は報知対象ではないと判定して、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS33に進む。
Hereinafter, the notification determination process in step S17 described above will be described with reference to the accompanying drawings.
First, for example, in step S31 shown in FIG. 6, it is determined whether or not there is a possibility of contact between the object and the host vehicle. Hereinafter, as an example of this determination process, for example, as shown in FIG. 7, there is a case where there is an object Q that moves at a speed Vp in a direction substantially orthogonal to the traveling direction (for example, the Z direction) of the host vehicle P. explain. When the object Q approaches the distance Zv (0) from the distance Zv (N−1) along the direction parallel to the traveling direction of the host vehicle P during the predetermined time ΔT, The relative speed Vs is calculated, and it is assumed that the host vehicle P and the object Q move within a predetermined ground height H while maintaining the relative speed Vs. It is determined whether or not. The margin time Ts is a time for determining the possibility of occurrence of contact at a timing earlier than the predicted contact occurrence time by a predetermined time Ts, and is set to about 2 to 5 seconds, for example. Further, the predetermined ground height H is set to a value that is about twice the vehicle height of the host vehicle P, for example.
If this determination is “NO”, the flow proceeds to step S 32, and in this step S 32, it is determined that the object is not a notification target, and the flow proceeds to return.
On the other hand, if the determination is “YES”, the flow proceeds to step S33.

次に、ステップS33においては、後述する領域判定処理を実行する。
次に、ステップS34においては、報知対象領域の領域拡張が指示されているか否かを判定する。
この判定結果が「NO」の場合には、ステップS35に進み、このステップS35においては、報知対象領域を通常領域WAとして、ステップS37に進む。
一方、この判定結果が「YES」の場合には、ステップS36に進み、このステップS36においては、報知対象領域を拡張領域EAへと拡張して、ステップS37に進む。
次に、ステップS37においては、対象物が報知対象領域内に存在するか否かを判定する。
この判定結果が「NO」の場合には、上述したステップS32に進む。
一方、この判定結果が「YES」の場合には、ステップS38に進み、このステップS38においては、対象物は報知対象であると判定して、リターンに進む。
Next, in step S33, an area determination process described later is executed.
Next, in step S34, it is determined whether or not an area extension of the notification target area is instructed.
If this determination is “NO”, the flow proceeds to step S 35, and in this step S 35, the notification target area is set as the normal area WA and the process proceeds to step S 37.
On the other hand, if this determination result is "YES", the process proceeds to step S36, and in this step S36, the notification target area is expanded to the extended area EA, and the process proceeds to step S37.
Next, in step S37, it is determined whether or not the object is present in the notification target area.
If this determination is “NO”, the flow proceeds to step S 32 described above.
On the other hand, if this determination is “YES”, the flow proceeds to step S 38, and in this step S 38, the object is determined to be a notification target and the flow proceeds to return.

以下に、上述したステップS33における領域判定処理について添付図面を参照しながら説明する。
この領域判定処理は、報知対象領域を所定期間に亘って通常領域WAから拡張領域EAへと拡張することを指示する領域拡張指示の出力可否を設定する処理である。
領域拡張指示は、例えば運転者の瞳孔の大きさが一時的に小さくなったことに起因して、運転者の視認能力が一時的に低下した場合に出力される。例えば外部照度取得部32により取得された車両外部の照度変化が所定変化以上である場合と、操作検出部33により検出された所定の操作が所定時間以上に亘って行なわれた場合と、瞳孔状態検出部34により検出された瞳孔の状態の変化が所定変化以上である場合とのうち、少なくとも1つの場合に領域拡張指示が出力される。
Hereinafter, the region determination processing in step S33 described above will be described with reference to the accompanying drawings.
This area determination process is a process of setting whether or not to output an area extension instruction for instructing to extend the notification target area from the normal area WA to the extended area EA over a predetermined period.
The area expansion instruction is output when the driver's visual recognition ability temporarily decreases due to, for example, the driver's pupil size temporarily decreasing. For example, when the illuminance change outside the vehicle acquired by the external illuminance acquisition unit 32 is greater than or equal to a predetermined change, when the predetermined operation detected by the operation detection unit 33 is performed for a predetermined time or more, and the pupil state An area expansion instruction is output in at least one of the cases where the change in the state of the pupil detected by the detection unit 34 is greater than or equal to a predetermined change.

以下に、外部照度取得部32により取得された車両外部の照度変化が所定変化以上である場合として、所定の推定動作により車両外部の照度変化の発生を推定し、この推定結果に応じて領域拡張指示の出力要否を設定する処理について説明する。
先ず、例えば図8に示すステップS41においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対向車両が、自車両に対するすれ違いなどによって消失してから所定時間以内か否かを判定する。
この判定結果が「YES」の場合には、例えば対向車両の前照灯により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS42に進み、このステップS42においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS43に進む。
Hereinafter, assuming that the illuminance change outside the vehicle acquired by the external illuminance acquisition unit 32 is greater than or equal to a predetermined change, the occurrence of the illuminance change outside the vehicle is estimated by a predetermined estimation operation, and the region expansion is performed according to the estimation result A process for setting whether to output an instruction will be described.
First, in step S41 shown in FIG. 8, for example, a predetermined time after the oncoming vehicle detected by the object detection unit 31 based on the infrared images output from the infrared cameras 12L and 12R disappears due to the passing of the own vehicle. It is determined whether it is within.
When the determination result is “YES”, for example, it is determined that the pupil size of the driver of the own vehicle is temporarily reduced by the headlamp of the oncoming vehicle, and the process proceeds to step S42. In S42, an area expansion instruction is output and the process proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S 43.

次に、ステップS43においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が車両であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS44に進む。
次に、ステップS44においては、自車両に対する対象物(車両)の相対移動ベクトルを算出すると共に、所定のパターンマッチングの処理(例えば、前照灯の位置などによるパターンマッチングの処理)を行う。
次に、ステップS45においては、相対移動ベクトルおよびパターンマッチングの演算結果に基づき、対象物(車両)が対向車両であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、例えば対向車両の前照灯により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS42に進み、このステップS42においては、領域拡張指示を出力して、リターンに進む。
Next, in step S43, it is determined whether or not the object detected by the object detection unit 31 is a vehicle based on the infrared images output from the infrared cameras 12L and 12R.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S44.
Next, in step S44, while calculating the relative movement vector of the target object (vehicle) with respect to the own vehicle, a predetermined pattern matching process (for example, a pattern matching process based on the position of the headlamp) is performed.
Next, in step S45, based on the relative movement vector and the pattern matching calculation result, it is determined whether or not the object (vehicle) is an oncoming vehicle.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, for example, it is determined that the pupil size of the driver of the own vehicle has temporarily decreased due to the headlamp of the oncoming vehicle, and the process proceeds to step S42. In step S42, an area expansion instruction is output and the process proceeds to return.

また、例えば図9に示すステップ51においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が、例えば灯火の点滅などにより消失してから所定時間以内か否かを判定する。
この判定結果が「YES」の場合には、例えば路上の信号機や灯火体などの対象物により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS52に進み、このステップS52においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS43に進む。
Further, for example, in step 51 shown in FIG. 9, a predetermined time has elapsed after the object detected by the object detection unit 31 based on the infrared images output from the infrared cameras 12L and 12R disappears due to, for example, blinking of a light. It is determined whether it is within the range.
If the determination result is “YES”, for example, it is determined that the size of the pupil of the driver of the host vehicle has temporarily decreased due to an object such as a traffic light or a lighting object on the road, and the process proceeds to step S52. In step S52, an area expansion instruction is output, and the process proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S 43.

次に、ステップ53においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が、例えば灯火の点灯などにより出現してから所定時間以内か否かを判定する。
この判定結果が「YES」の場合には、例えば路上の信号機や灯火体などの対象物により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS52に進み、このステップS52においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS54に進む。
Next, in step 53, whether or not the object detected by the object detection unit 31 based on the infrared images output from the infrared cameras 12L and 12R has appeared within a predetermined time since, for example, lighting has occurred. Determine.
If the determination result is “YES”, for example, it is determined that the size of the pupil of the driver of the host vehicle has temporarily decreased due to an object such as a traffic light or a lighting object on the road, and the process proceeds to step S52. In step S52, an area expansion instruction is output, and the process proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S54.

次に、ステップS54においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が人以外であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS55に進む。
次に、ステップS55においては、赤外線カメラ12L,12Rから出力された赤外線画像に基づき対象物検出部31により検出された対象物が、例えば路上の信号機や灯火体による灯火である場合に、灯火の大きさが所定値以上であるか否かを判定する。
なお、対象物が、例えば路上の信号機や灯火体による灯火であるか否かは、例えば人(歩行者)にはあり得ない特徴として、複数の発熱体が鉛直方向に沿って所定間隔を置いて配置されているか否かのパターンマッチングの処理などによって判定される。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、例えば路上の信号機や灯火体による灯火により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS52に進み、このステップS52においては、領域拡張指示を出力して、リターンに進む。
Next, in step S54, it is determined whether or not the object detected by the object detection unit 31 is a person other than a person based on the infrared images output from the infrared cameras 12L and 12R.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S55.
Next, in step S55, when the object detected by the object detection unit 31 based on the infrared images output from the infrared cameras 12L and 12R is, for example, a light from a traffic light or a lighting object on the road, It is determined whether or not the size is a predetermined value or more.
Note that whether or not the target object is, for example, a traffic light on a road or a lighting object is a characteristic that a person (pedestrian) cannot, for example, has a plurality of heating elements spaced at predetermined intervals along the vertical direction. It is determined by pattern matching processing or the like of whether or not they are arranged.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, it is determined that the pupil size of the driver of the vehicle has temporarily decreased due to, for example, a traffic light on the road or a lighting object, and the process proceeds to step S52. In step S52, an area expansion instruction is output, and the process proceeds to return.

以下に、操作検出部33により検出された所定の操作が所定時間以上に亘って行なわれた場合に領域拡張指示を出力する処理について説明する。
例えば図10に示すステップ61においては、表示装置19およびナビゲーション装置20などの各種の表示に係る装置の運転者による操作状態を検出する。
次に、ステップS62においては、運転者によるナビゲーション装置20の操作入力が有るか否かを判定する。
この判定結果が「YES」の場合には、例えばナビゲーション装置20の表示部21を目視していることにより自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS63に進み、このステップS63においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS64に進む。
次に、ステップS64においては、運転者による画面目視が所定時間以上継続したか否かを、直接的にあるいは間接的に判定する。なお、間接的な判定では、例えばナビゲーション装置20などの各種装置の所定動作(例えば、ナビゲーション装置20の経路誘導など)が実行されていることを判定することにより、運転者による所定時間以上の画面目視を伴う操作入力によって各種装置の所定動作の実行が指示されたと判断する。
この判定結果が「YES」の場合には、所定時間以上の画面目視により自車両の運転者の瞳孔の大きさが一時的に小さくなっていると判断して、ステップS63に進み、このステップS63においては、領域拡張指示を出力して、リターンに進む。
一方、この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
Hereinafter, a process of outputting an area expansion instruction when a predetermined operation detected by the operation detection unit 33 is performed for a predetermined time or more will be described.
For example, in step 61 shown in FIG. 10, an operation state by a driver of a device related to various displays such as the display device 19 and the navigation device 20 is detected.
Next, in step S62, it is determined whether or not there is an operation input of the navigation device 20 by the driver.
When this determination result is “YES”, it is determined that the size of the pupil of the driver of the own vehicle is temporarily reduced by visually observing the display unit 21 of the navigation device 20, for example. The process proceeds to step S63. In step S63, an area extension instruction is output, and the process proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S64.
Next, in step S64, it is directly or indirectly determined whether or not the screen viewing by the driver has continued for a predetermined time or more. In the indirect determination, for example, by determining that a predetermined operation (for example, route guidance of the navigation device 20) of various devices such as the navigation device 20 is being performed, a screen of a predetermined time or more by the driver. It is determined that execution of predetermined operations of various devices is instructed by an operation input accompanied by visual inspection.
If the determination result is “YES”, it is determined that the size of the pupil of the driver of the host vehicle is temporarily reduced by viewing the screen for a predetermined time or longer, and the process proceeds to step S63. In, an area extension instruction is output and the process proceeds to return.
On the other hand, if the determination result is “NO”, the area expansion instruction is not output and the process proceeds to return.

以下に、瞳孔状態検出部34により検出された瞳孔の状態の変化が所定変化以上である場合に領域拡張指示を出力する処理について説明する。
例えば図11に示すステップ71においては、運転者の眼を撮像する車室内カメラ17から出力される撮像画像に基づき、運転者の瞳孔の状態(例えば、瞳孔の大きさなど)を検出する。
次に、ステップS72においては、瞳孔の大きさが所定値以下であるか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS73に進む。
次に、ステップS73においては、瞳孔の大きさが所定値以上である状態が所定時間以上継続したか否かを判定する。
この判定結果が「NO」の場合には、領域拡張指示は出力せずにリターンに進む。
一方、この判定結果が「YES」の場合には、ステップS74に進み、このステップS74においては、領域拡張指示を出力して、リターンに進む。
Hereinafter, a process of outputting a region expansion instruction when the change in the state of the pupil detected by the pupil state detection unit 34 is equal to or greater than a predetermined change will be described.
For example, in step 71 shown in FIG. 11, the state of the driver's pupil (for example, the size of the pupil) is detected based on the captured image output from the vehicle interior camera 17 that images the driver's eyes.
Next, in step S72, it is determined whether or not the size of the pupil is equal to or smaller than a predetermined value.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S73.
Next, in step S73, it is determined whether or not the state in which the pupil size is a predetermined value or more has continued for a predetermined time or more.
If the determination result is “NO”, the region expansion instruction is not output and the process proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S 74, and in this step S 74, an area expansion instruction is output and the flow proceeds to return.

上述したように、本実施の形態による車両周辺監視装置10によれば、車両外部の照度変化が所定変化以上である場合と、運転者による車載表示装置の操作が所定時間以上に亘って行なわれた場合と、運転者の瞳孔の状態の変化が所定変化以上である場合とのうち、少なくとも1つの場合に、報知対象領域を所定期間に亘って拡張する。これにより、車両外部の照度変化あるいは運転者による所定時間以上に亘る画面目視あるいは運転者の瞳孔の収縮などに起因して、運転者の外界視認能力が一時的に低下した場合であっても、適切なタイミングで報知動作を行なうことができ、運転者が報知動作に煩わしさを感じてしまうことをも防止することができる。
しかも、外部照度取得部32は、所定の推定動作により車両外部の照度変化の発生を推定することから、車両外部の照度変化を直接的に検出する必要無しに、所定変化以上の照度変化を取得することができる。
As described above, according to the vehicle periphery monitoring device 10 according to the present embodiment, when the illuminance change outside the vehicle is greater than or equal to the predetermined change, and the operation of the in-vehicle display device by the driver is performed for a predetermined time or more. The notification target area is expanded over a predetermined period in at least one of the case where the change in the state of the driver's pupil is greater than or equal to the predetermined change. As a result, even if the external visibility of the driver is temporarily reduced due to changes in illuminance outside the vehicle or screen viewing over a predetermined time by the driver or contraction of the driver's pupil, The notification operation can be performed at an appropriate timing, and the driver can be prevented from feeling bothered by the notification operation.
In addition, since the external illuminance acquisition unit 32 estimates the occurrence of illuminance change outside the vehicle by a predetermined estimation operation, the external illuminance acquisition unit 32 acquires illuminance change that exceeds the predetermined change without the need to directly detect the illuminance change outside the vehicle. can do.

なお、上述した実施の形態においては、例えば運転者の瞳孔の大きさが一時的に小さくなったことなどに起因して、運転者の視認能力が一時的に低下した場合に、報知対象領域を所定期間に亘って通常領域WAから拡張領域EAへと自車両側に拡張するとしたが、これに限定されず、さらに、領域拡張指示が出力された場合には、各種警報の報知タイミングを早める処理を実行してもよい。   In the above-described embodiment, for example, when the driver's visual ability temporarily decreases due to, for example, the driver's pupil size being temporarily reduced, the notification target region is Although it is assumed that the vehicle is extended from the normal area WA to the extended area EA over a predetermined period, the present invention is not limited to this. Further, when an area expansion instruction is output, a process for advancing the notification timing of various alarms May be executed.

なお、上述した実施の形態において、例えば図6に示す報知判定処理では、ステップS31での衝突可能性の有無の判定処理を省略してもよい。   In the above-described embodiment, for example, in the notification determination process illustrated in FIG. 6, the determination process for the possibility of collision in step S <b> 31 may be omitted.

10 車両周辺監視装置
12L,12RL 赤外線カメラ(赤外線撮像手段)
31 対象物検出部(対象物検出手段)
32 外部照度取得部(外部照度取得手段)
33 操作検出部(操作検出手段)
34 瞳孔状態検出部(瞳孔状態検出手段)
35 領域拡張部(領域拡張手段)
36 報知制御部(報知手段)
10 vehicle periphery monitoring device 12L, 12RL infrared camera (infrared imaging means)
31 Object detection unit (object detection means)
32 External illuminance acquisition unit (external illuminance acquisition means)
33 Operation detection unit (operation detection means)
34 Pupil state detection unit (pupil state detection means)
35 Area expansion unit (area expansion means)
36 Notification control unit (notification means)

Claims (2)

車両に搭載され、赤外線領域で撮像して得た赤外線画像を出力する赤外線撮像手段と、
前記赤外線撮像手段から出力された前記赤外線画像に基づき車両外部に存在する対象物を検出する対象物検出手段と、
前記対象物検出手段により検出された前記対象物が車両外部の実空間の所定領域である前記車両の前照灯の配光領域以遠の領域内に存在する場合に運転者に報知を行なう報知手段とを備える車両周辺監視装置であって、
車両外部の照度変化を検出または推定により取得する外部照度取得手段と、
前記外部照度取得手段により取得された前記照度変化が所定変化以上である場合に、所定期間に亘って前記所定領域を前記車両の前照灯の配光領域内に拡張する領域拡張手段とを備えることを特徴とする車両周辺監視装置。
An infrared imaging means mounted on the vehicle and outputting an infrared image obtained by imaging in the infrared region;
Object detection means for detecting an object existing outside the vehicle based on the infrared image output from the infrared imaging means;
Informing means for informing the driver when the object detected by the object detecting means exists in an area beyond the light distribution area of the headlight of the vehicle, which is a predetermined area in real space outside the vehicle. A vehicle periphery monitoring device comprising:
An external illuminance acquisition means for detecting or estimating an illuminance change outside the vehicle;
A region expansion unit that expands the predetermined region into a light distribution region of the headlight of the vehicle over a predetermined period when the illuminance change acquired by the external illuminance acquisition unit is greater than or equal to a predetermined change. The vehicle periphery monitoring apparatus characterized by the above-mentioned.
前記外部照度取得手段は、
自車両に接近する対向車両を検出した場合と、前記赤外線画像上において所定輝度以上の輝度を有する熱源の出現または消失を検出した場合と、日没または日の出の時間帯を検出した場合とのうち、少なくとも何れか1つの場合に、前記所定変化以上の前記照度変化を取得することを特徴とする請求項1に記載の車両周辺監視装置。
The external illuminance acquisition means includes
A case where an oncoming vehicle approaching the host vehicle is detected, a case where an appearance or disappearance of a heat source having a luminance equal to or higher than a predetermined luminance is detected on the infrared image, and a case where a time zone of sunset or sunrise is detected 2. The vehicle periphery monitoring device according to claim 1, wherein the illuminance change equal to or greater than the predetermined change is acquired in at least one of the cases.
JP2009106426A 2009-04-24 2009-04-24 Vehicle periphery monitoring device Expired - Fee Related JP5291524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009106426A JP5291524B2 (en) 2009-04-24 2009-04-24 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009106426A JP5291524B2 (en) 2009-04-24 2009-04-24 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010257217A JP2010257217A (en) 2010-11-11
JP5291524B2 true JP5291524B2 (en) 2013-09-18

Family

ID=43318048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009106426A Expired - Fee Related JP5291524B2 (en) 2009-04-24 2009-04-24 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5291524B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108370231A (en) * 2016-01-27 2018-08-03 三电汽车部件株式会社 motor control unit

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159989A (en) * 2011-01-31 2012-08-23 Toshiba Alpine Automotive Technology Corp Drive support device and drive support method
JP5310760B2 (en) * 2011-03-04 2013-10-09 トヨタ自動車株式会社 Approaching vehicle detection device
WO2020059076A1 (en) * 2018-09-20 2020-03-26 三菱電機株式会社 Driving assistance device and driving support method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2910487B2 (en) * 1993-03-16 1999-06-23 日産自動車株式会社 Obstacle detection device for vehicles
JPH11146389A (en) * 1997-11-04 1999-05-28 Nissan Motor Co Ltd Display device
JP3968867B2 (en) * 1998-04-24 2007-08-29 日産自動車株式会社 Display processing device
JP2000318513A (en) * 1999-05-17 2000-11-21 Mitsubishi Electric Corp Obstacle detection device for vehicles
JP3919975B2 (en) * 1999-07-07 2007-05-30 本田技研工業株式会社 Vehicle periphery monitoring device
JP2002362302A (en) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detecting device
JP2004254044A (en) * 2003-02-19 2004-09-09 Denso Corp Driving supporting method, display system and notification system
JP2005286656A (en) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd Image pickup device, vehicle and driving support method
JP4762774B2 (en) * 2006-04-07 2011-08-31 本田技研工業株式会社 Ranging device and vehicle periphery monitoring device
JP4528283B2 (en) * 2006-06-05 2010-08-18 本田技研工業株式会社 Vehicle periphery monitoring device
JP4760562B2 (en) * 2006-06-19 2011-08-31 日産自動車株式会社 Vehicle periphery information presentation device and vehicle periphery information presentation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108370231A (en) * 2016-01-27 2018-08-03 三电汽车部件株式会社 motor control unit
CN108370231B (en) * 2016-01-27 2021-08-24 三电汽车部件株式会社 motor control device

Also Published As

Publication number Publication date
JP2010257217A (en) 2010-11-11

Similar Documents

Publication Publication Date Title
JP5503728B2 (en) Vehicle periphery monitoring device
JP5577398B2 (en) Vehicle periphery monitoring device
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP4410292B1 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP2003150938A (en) Image recognition device
JP2010257377A (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP4094604B2 (en) Vehicle periphery monitoring device
JP2009265883A (en) Vehicle periphery monitoring device
CN103189905B (en) Vehicle periphery monitoring device
JP5291524B2 (en) Vehicle periphery monitoring device
JP4128562B2 (en) Vehicle periphery monitoring device
JP2006338594A (en) Pedestrian recognition device
JP5004923B2 (en) Vehicle driving support device
JP3970876B2 (en) Vehicle periphery monitoring device
JP6087240B2 (en) Vehicle periphery monitoring device
JP2003151096A (en) Approach warning device
JP4425852B2 (en) Vehicle periphery monitoring device
JP4943403B2 (en) Vehicle periphery monitoring device
JP2004364112A (en) Vehicle peripheral display device
JP5383246B2 (en) Vehicle periphery monitoring device
JP4298699B2 (en) Vehicle periphery monitoring device
JP4358183B2 (en) Vehicle periphery monitoring device
JP2003157498A (en) Obstacle warning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130607

LAPS Cancellation because of no payment of annual fees