[go: up one dir, main page]

JP2012141740A - Vehicle external world recognition device and vehicle system using the same - Google Patents

Vehicle external world recognition device and vehicle system using the same Download PDF

Info

Publication number
JP2012141740A
JP2012141740A JP2010293471A JP2010293471A JP2012141740A JP 2012141740 A JP2012141740 A JP 2012141740A JP 2010293471 A JP2010293471 A JP 2010293471A JP 2010293471 A JP2010293471 A JP 2010293471A JP 2012141740 A JP2012141740 A JP 2012141740A
Authority
JP
Japan
Prior art keywords
similarity
vehicle
reliability
image
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010293471A
Other languages
Japanese (ja)
Other versions
JP5593217B2 (en
Inventor
Taketo Ogata
健人 緒方
Hiroshi Sakamoto
博史 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2010293471A priority Critical patent/JP5593217B2/en
Publication of JP2012141740A publication Critical patent/JP2012141740A/en
Application granted granted Critical
Publication of JP5593217B2 publication Critical patent/JP5593217B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】例えば雨天時の傘をさしている歩行者と持っていない歩行者のように、類似した2種類の物体を少ない処理負荷で検出することができる車両用外界認識装置を提供する。
【解決手段】車両用外界認識装置1000は、画像から第一の物体と第二の物体で互いに共通する部分の類似度MT0と、第一の物体の特有な部分の類似度である第一の特有類似度MT1と、第二の物体の特有な部分の類似度である第二の特有類似度MT2を算出して、共通類似度MT0と第一の特有類似度MT1を用いて第一の物体の有無を判定するとともに、共通類似度MT0と第二の特有類似度MT2を用いて第二の物体の有無を判定し、装置全体の処理負荷を軽減する。
【選択図】図1
An object of the present invention is to provide a vehicle external environment recognition device capable of detecting two similar types of objects with a small processing load, such as a pedestrian holding an umbrella during rainy weather and a pedestrian not having an umbrella.
A vehicle external environment recognition apparatus 1000 includes a first similarity MT0 of a part common to a first object and a second object from an image, and a first similarity which is a similarity of a specific part of the first object. The first object is calculated using the common similarity MT0 and the first characteristic similarity MT1 by calculating the characteristic similarity MT1 and the second characteristic similarity MT2 which is the similarity of the characteristic part of the second object. And the presence / absence of the second object are determined using the common similarity MT0 and the second specific similarity MT2, thereby reducing the processing load of the entire apparatus.
[Selection] Figure 1

Description

本発明は、カメラ等の画像センサからの情報に基づいて自車周囲の歩行者等の物体を検知する車両用外界認識装置およびそれを用いた車両システムに関する。   The present invention relates to an external environment recognition device for a vehicle that detects an object such as a pedestrian around a host vehicle based on information from an image sensor such as a camera, and a vehicle system using the same.

交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。日本国内においては、歩行者が死亡する事故が交通事故死亡者数全体の約30%を占めており、このような歩行者事故を減少させるために、自車前方の歩行者を検知する予防安全システムが有効である。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の障害物と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。   In order to reduce the number of casualties due to traffic accidents, the development of preventive safety systems that prevent accidents in advance is underway. In Japan, accidents that kill pedestrians account for about 30% of all traffic fatalities. In order to reduce such pedestrian accidents, preventive safety by detecting pedestrians in front of the vehicle The system is valid. A preventive safety system is a system that operates in a situation where there is a high possibility of an accident.For example, when there is a possibility of collision with an obstacle in front of the host vehicle, a warning is given to the driver to alert the driver. Pre-crash safety systems have been put into practical use that reduce the damage to passengers by automatic braking when inevitable situations occur.

自車前方の歩行者を検知する方法として、カメラで自車前方を撮像し、撮像された画像から、歩行者の形状パターンを用いて検出するパターンマッチ手法が用いられる。歩行者は様々な服装、形状のパターンが考えられるが、自車の環境を測定することによって歩行者の形状を推定し検出を変える方法が提案されている。   As a method for detecting a pedestrian in front of the host vehicle, a pattern matching method is used in which the front of the host vehicle is imaged with a camera and detected from the captured image using the shape pattern of the pedestrian. Pedestrians can consider various clothing and shape patterns, and a method has been proposed that changes the detection by estimating the shape of the pedestrian by measuring the environment of the vehicle.

例えば、特許文献1には、夜間、雨天といった走行環境を判定し、環境に応じて歩行者テンプレートを変える方式が記載されている。   For example, Patent Document 1 describes a method of determining a traveling environment such as nighttime or rainy weather and changing a pedestrian template according to the environment.

また、特許文献2には、自動車専用道を走行中か否か、あるいは、昼か夜か等の判定結果に応じて、歩行者テンプレートとのマッチング率の閾値を変化させる方法が記載されている。   Patent Document 2 describes a method of changing a threshold value of a matching rate with a pedestrian template according to a determination result such as whether or not the vehicle is traveling on a motorway or day or night. .

さらに、特許文献3には、歩行者の形状を検出しやすい環境であるかを判定し、その判定結果に基づいて検出判定用閾値を決定する方法が記載されている。   Furthermore, Patent Document 3 describes a method of determining whether or not the environment is easy to detect the shape of a pedestrian and determining a detection determination threshold based on the determination result.

特開2009−122859号公報JP 2009-122859 A 特開2010−066815号公報JP 2010-0666815 A 特開2009−026233号公報JP 2009-026233 A

しかしながら、上記方法においては、環境によって検出できない歩行者が存在する。例えば、特許文献1に記載のテンプレートを切り替える方式においては、雨天時であるとして、通常の歩行者用のテンプレートから、傘をさしている歩行者用のテンプレートに切り替えると、雨天時に傘をさしていない歩行者を検出することができないという問題がある。   However, in the above method, there are pedestrians that cannot be detected depending on the environment. For example, in the method of switching templates described in Patent Document 1, assuming that it is raining, when switching from a normal pedestrian template to a pedestrian template holding an umbrella, walking without an umbrella when it rains There is a problem that the person cannot be detected.

特許文献2、3に記載の環境を認識して検出用閾値を変化させる方式においても、検出用閾値を低下させて検出漏れを減らすと、誤検出が増加してしまうという問題がある。   Even in the methods of recognizing the environment described in Patent Documents 2 and 3 and changing the detection threshold, if the detection threshold is lowered to reduce detection omission, there is a problem that false detection increases.

また、様々な歩行者を同時に検出するために複数のテンプレートとのマッチングを常時すべて実行する方法が考えられるが、処理負荷の観点から、現実的でない。   In addition, a method of always executing all matching with a plurality of templates in order to detect various pedestrians at the same time is conceivable, but it is not realistic from the viewpoint of processing load.

上記した問題は、歩行者に限定されるものではなく、車両にとって障害物となりうる物体の全てについて生ずるものである。   The above-mentioned problems are not limited to pedestrians, but occur for all objects that can be obstacles for vehicles.

本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、一部の形状が互いに共通している複数種類の物体を、より小さな処理負荷でそれぞれ検出可能な車両用外界認識装置およびそれを用いた車両システムを提供することである。   The present invention has been made in view of the above points, and an object of the present invention is for a vehicle that can detect a plurality of types of objects having some common shapes with a smaller processing load. An external recognition device and a vehicle system using the same are provided.

上記課題を解決する本発明の車両用外界認識装置は、自車周辺を撮影した画像から第一の物体と第二の物体の共通部分の類似度である共通類似度を算出し、画像から第一の物体の特有な部分の類似度である第一の特有類似度を算出し、画像から第二の物体の特有な部分の類似度である第二の特有類似度を算出し、該算出した共通類似度と第一の特有類似度を用いて第一の物体の有無を判定し、該算出した共通類似度と第二の特有類似度を用いて第二の物体の有無を判定することを特徴としている。   An external environment recognition apparatus for a vehicle according to the present invention that solves the above problem calculates a common similarity that is a similarity between a common part of a first object and a second object from an image obtained by photographing the periphery of the vehicle, The first unique similarity that is the similarity of the unique part of the one object is calculated, the second unique similarity that is the similarity of the unique part of the second object is calculated from the image, and the calculated Determining the presence or absence of the first object using the common similarity and the first specific similarity, and determining the presence or absence of the second object using the calculated common similarity and the second specific similarity It is a feature.

本発明によれば、画像から第一の物体と第二の物体で互いに共通する部分の類似度と、第一の物体の特有な部分の類似度である第一の特有類似度と、第二の物体の特有な部分の類似度である第二の特有類似度を算出して、共通類似度と第一の特有類似度を用いて第一の物体の有無を判定するとともに、共通類似度と第二の特有類似度を用いて第二の物体の有無を判定するので、例えば、第一の物体全体の類似度を算出して第一の物体の有無を判定しかつ第二の物体全体の類似度を算出して第二の物体の有無を判定する処理を行う場合と比較して、第一の物体と第二の物体で互いに共通する部分については、それぞれ類似度を判断する処理を重複して行う必要がなく、かかる共通部分については類似度を判断する処理を一度だけ実行すればよく、装置全体の処理負荷を軽減することができる。   According to the present invention, the similarity between the parts common to the first object and the second object from the image, the first unique similarity that is the similarity between the unique parts of the first object, and the second Calculating the second unique similarity that is the similarity of the unique part of the object, determining the presence or absence of the first object using the common similarity and the first unique similarity, Since the presence or absence of the second object is determined using the second specific similarity, for example, the similarity of the entire first object is calculated to determine the presence or absence of the first object and the entire second object Compared with the case of calculating the degree of similarity and determining the presence or absence of the second object, the process of determining the degree of similarity is duplicated for the parts common to the first object and the second object. It is not necessary to perform this process, and it is only necessary to execute the process of judging the similarity once for such common parts. It is possible to reduce the entire apparatus processing load.

第一実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 1st embodiment. 図1の処理領域設定部における処理の例を示す模式図。The schematic diagram which shows the example of the process in the process area | region setting part of FIG. 図1の共通類似度算出部から物体位置算出部までの処理を示すフローチャート。The flowchart which shows the process from the common similarity calculation part of FIG. 1 to an object position calculation part. 図3のエッジ抽出で用いるソーベルフィルタの重みを示す図。The figure which shows the weight of the Sobel filter used by the edge extraction of FIG. 図1の共通類似度算出部で用いられる局所エッジ判定器の模式図。The schematic diagram of the local edge determination device used in the common similarity calculation part of FIG. 図1の共通類似度算出部による類似度の算出方法を示すブロック図。The block diagram which shows the calculation method of the similarity by the common similarity calculation part of FIG. 図1の第一の特有類似度算出部および第二の特有類似度算出部における類似度の算出方法を示すブロック図。The block diagram which shows the calculation method of the similarity in the 1st specific similarity calculation part of FIG. 1, and the 2nd specific similarity calculation part. 第二実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 2nd embodiment. 第二実施の形態における環境推定部の処理を表すフローチャート。The flowchart showing the process of the environment estimation part in 2nd embodiment. 第二実施の形態における環境推定部の処理を表すフローチャート。The flowchart showing the process of the environment estimation part in 2nd embodiment. 第三実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 3rd embodiment. 第三実施の形態における環境推定部の処理を表すフローチャート。The flowchart showing the process of the environment estimation part in 3rd embodiment. 第四実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 4th embodiment. 本発明の車両用外界認識装置を用いた車両システムの処理を表すフローチャート。The flowchart showing the process of the vehicle system using the external field recognition apparatus for vehicles of this invention. 本発明の車両用外界認識装置を用いた車両システムの危険度の算出の例を示す模式図。The schematic diagram which shows the example of calculation of the risk degree of the vehicle system using the external field recognition apparatus for vehicles of this invention.

<第一実施の形態>
以下、本発明の第一実施の形態について図面を用いて詳細に説明する。図1は、第一実施の形態における車両用外界認識装置1000のブロック図である。
<First embodiment>
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of a vehicle external environment recognition apparatus 1000 according to the first embodiment.

車両用外界認識装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1010で撮影した画像内から、一部の形状が互いに共通している複数種類の物体を検出するためのものであり、本実施の形態では、自車の前方を撮像した画像内から傘をさしていない歩行者、および、傘をさしている歩行者を検知するように構成されている。傘をさしていない歩行者、および、傘をさしている歩行者は、その一部である下半身の形状が互いに共通している。   The vehicle external environment recognition device 1000 is incorporated into a camera device mounted on an automobile, an integrated controller, or the like, and a plurality of types in which some shapes are common to each other from images captured by the camera 1010 of the camera device. This embodiment is configured to detect a pedestrian who is not wearing an umbrella and a pedestrian who is holding an umbrella from an image obtained by imaging the front of the vehicle. Yes. A pedestrian who is not wearing an umbrella and a pedestrian who is holding an umbrella share the same shape of the lower half of the body.

車両用外界認識装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。   The vehicle external environment recognition device 1000 is configured by a computer having a CPU, a memory, an I / O, and the like, and a predetermined process is programmed and the process is repeatedly executed at a predetermined cycle.

車両用外界認識装置1000は、図1に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部1030と、第一の特有類似度算出部1031と、第二の特有類似度算出部1032と、第一の物体判定部1041と、第二の物体判定部1042と、物体位置算出部1051とを有し、さらに実施例によっては、更に物体位置取得部1111を有する場合がある。   As shown in FIG. 1, the vehicle external environment recognition apparatus 1000 includes an image acquisition unit 1011, a processing region setting unit 1021, a common similarity calculation unit 1030, a first specific similarity calculation unit 1031, and a second It includes a specific similarity calculation unit 1032, a first object determination unit 1041, a second object determination unit 1042, and an object position calculation unit 1051, and further includes an object position acquisition unit 1111 depending on the embodiment. There is a case.

画像取得部1011は、自車の前方を撮像可能な位置に取り付けられたカメラ1010から、自車前方を撮影したデータを取り込み、画像IMGSRC[x][y]としてRAM上に書き込む。なお、画像IMGSRC[x][y]は2次元配列であり、x、yはそれぞれ画像の座標を示す。   The image acquisition unit 1011 captures data obtained by photographing the front of the host vehicle from a camera 1010 attached to a position where the front of the host vehicle can be imaged, and writes the data on the RAM as an image IMGSRC [x] [y]. Note that the image IMGSRC [x] [y] is a two-dimensional array, and x and y indicate the coordinates of the image, respectively.

処理領域設定部1021は、画像IMGSRC[x][y]内から歩行者を検出する処理領域23(SX,SY,EX,EY)を設定する。処理の詳細については後述する。   The processing area setting unit 1021 sets a processing area 23 (SX, SY, EX, EY) for detecting a pedestrian from the image IMGSRC [x] [y]. Details of the processing will be described later.

以下、共通類似度算出部1030、第一の特有類似度算出部1031、第二の特有類似度算出部1032、第一の物体判定部1041、第二の物体判定部1042は、歩行者を検出する処理領域23(SX,SY,EX,EY)内を探索するように、判定領域31(図5を参照)(SXG[g],SYG[g],EXG[g],EYG[g])を設定し、第一の物体である傘をさしていない歩行者と第2の物体である傘をさしている歩行者を検出する処理を、繰り返し実行する。ここで、gは複数の領域を設定した場合のID番号である。   Hereinafter, the common similarity calculation unit 1030, the first specific similarity calculation unit 1031, the second specific similarity calculation unit 1032, the first object determination unit 1041, and the second object determination unit 1042 detect pedestrians. Determination region 31 (see FIG. 5) (SXG [g], SYG [g], EXG [g], EYG [g]) so as to search within the processing region 23 (SX, SY, EX, EY) to be performed And a process of detecting a pedestrian who is not wearing an umbrella as the first object and a pedestrian who is holding an umbrella as the second object is repeatedly executed. Here, g is an ID number when a plurality of areas are set.

共通類似度算出部1030は、傘をさしていない歩行者、および、傘をさしている歩行者の共通なパターンである、歩行者の下半身のテンプレートTP0との類似度を算出する。共通類似度算出部1030は、歩行者の下半身のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT0を算出する。処理の詳細については後述する。   The common similarity calculation unit 1030 calculates a similarity between a pedestrian not wearing an umbrella and a template TP0 of the lower half of the pedestrian, which is a common pattern of the pedestrian holding the umbrella. The common similarity calculation unit 1030 includes a template TP0 for the lower part of the pedestrian, and the determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g] of the image IMGSRC [x] [y]. ] Is calculated. Details of the processing will be described later.

第一の特有類似度算出部1031は、傘をさしていない歩行者の特有のパターンである、歩行者の上半身のテンプレートTP1との類似度を算出する。第一の特有類似度算出部1031は、歩行者の上半身のテンプレートTP1を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT1を算出する。処理の詳細については後述する。   The first unique similarity calculation unit 1031 calculates the similarity with the template TP1 of the upper body of the pedestrian, which is a unique pattern of the pedestrian who is not wearing an umbrella. The first specific similarity calculation unit 1031 has a template TP1 of the upper body of the pedestrian, and the determination region 31 (SXG [g], SYG [g], EXG [g], Similarity MT1 with EYG [g]) is calculated. Details of the processing will be described later.

第二の特有類似度算出部1032は、傘をさしている歩行者の特有のパターンである、傘を含む歩行者の上半身のテンプレートTP2との類似度を算出する。第二の特有類似度算出部1032は、テンプレートTP2を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])との類似度MT2を算出する。処理の詳細については後述する。   The second unique similarity calculation unit 1032 calculates a similarity with the template TP2 of the upper body of the pedestrian including the umbrella, which is a unique pattern of the pedestrian wearing the umbrella. The second unique similarity calculation unit 1032 includes a template TP2, and the determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]) of the image IMGSRC [x] [y]. The similarity MT2 is calculated. Details of the processing will be described later.

第一の物体判定部1041は、共通部分のテンプレートTP0との共通類似度MT0と、傘をさしていない歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、傘をさしていない歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
The first object determination unit 1041 uses the common similarity MT0 with the template TP0 of the common part and the first unique similarity MT1 with the template TP1 peculiar to the pedestrian who does not wear the umbrella, to walk without the umbrella. The presence or absence of a person is determined. The determination is made, for example, when the condition that the value obtained by adding the common similarity MT0 and the first specific similarity MT1 is larger than the threshold TH1_MT using the threshold TH1_MT, that is,
(MT0 + MT1)> TH1_MT
If the common similarity MT0 is greater than the threshold TH1_MT0 and the first specific similarity MT1 is determined using the common similarity threshold TH1_MT0 and the first specific similarity threshold TH1_MT1. Is larger than the threshold value TH1_MT1, that is,
MT0> TH1_MT0 and MT1> TH1_MT1
If so, it may be determined that an object exists.

第二の物体判定部1042は、共通部分のテンプレートTP0との共通類似度MT0と、傘をさしている歩行者特有のテンプレートとの第二の特有類似度MT2を用いて、傘をさしている歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0と第二の特有類似度MT2とを加算した値が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT2)>TH2_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH2_MT0と第二の特有類似度の閾値TH2_MT2を用いて、共通類似度MT0が閾値TH2_MT0よりも大きくかつ第二の特有類似度MT2が閾値TH2_MT2よりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT0、かつ、MT2>TH2_MT2
であれば物体が存在すると判定してもよい。
The second object determination unit 1042 uses the common similarity MT0 with the common part template TP0 and the second specific similarity MT2 with the template unique to the pedestrian wearing the umbrella, to thereby use the pedestrian holding the umbrella. The presence or absence of is determined. The determination is made, for example, when the condition that the value obtained by adding the common similarity MT0 and the second specific similarity MT2 is larger than the threshold TH2_MT using the threshold TH2_MT, that is,
(MT0 + MT2)> TH2_MT
If the common similarity MT0 is larger than the threshold TH2_MT0 and the second specific similarity MT2 is determined using the common similarity threshold TH2_MT0 and the second specific similarity threshold TH2_MT2. Is larger than the threshold value TH2_MT2, that is,
MT0> TH2_MT0 and MT2> TH2_MT2
If so, it may be determined that an object exists.

物体位置算出部1051は、第一の物体判定部1041、第二の物体判定部1042にて検出した物体の位置を算出する。物体位置取得部1111を有する場合、物体位置は物体位置取得部1111より取得した物体位置情報を用いる。処理の詳細は後述する。   The object position calculation unit 1051 calculates the position of the object detected by the first object determination unit 1041 and the second object determination unit 1042. When the object position acquisition unit 1111 is included, the object position information acquired from the object position acquisition unit 1111 is used as the object position. Details of the processing will be described later.

物体位置取得部1111は、自車に搭載されたミリ波レーダやレーザレーダ等の自車周辺の物体を検出するレーダからの検出信号を取得して、自車前方に存在する物体の物体位置(相対距離PYR[b]、横位置PXR[b]、横幅WDR[b])を取得する。ここで、bは複数の物体を検知している場合の各物体のID番号である。これらの物体の位置情報は、レーダの信号を車両用外界認識装置1000に直接入力することによって取得してもよいし、レーダとLAN(Local Area Network)を用いた通信を行うことによって取得してもよい。物体位置取得部1111で検出した物体位置は、処理領域設定部1021にて用いられる。   The object position acquisition unit 1111 acquires a detection signal from a radar that detects an object around the own vehicle such as a millimeter wave radar or a laser radar mounted on the own vehicle, and the object position ( Relative distance PYR [b], lateral position PXR [b], and lateral width WDR [b]). Here, b is an ID number of each object when a plurality of objects are detected. The position information of these objects may be acquired by directly inputting a radar signal to the vehicle external environment recognition device 1000, or may be acquired by communicating with a radar using a LAN (Local Area Network). Also good. The object position detected by the object position acquisition unit 1111 is used by the processing region setting unit 1021.

[処理領域設定部]
つぎに、図2を用いて、処理領域設定部1021における処理の内容について説明する。
[Processing area setting section]
Next, the contents of processing in the processing area setting unit 1021 will be described with reference to FIG.

図2は、処理領域設定部の処理の例を示す図である。処理領域設定部1021は、画像IMGSRC[x][y]内で歩行者検知処理を行う処理領域23を選定し、その座標の範囲である、x座標(横方向)の始点SXおよび終点EX、y座標上(縦方向)の始点SYおよび終点EYを求める(SX,SY,EX,EY)。処理領域設定部1021は、物体位置取得部1111からの位置情報を用いてもよく、用いなくてもよい。   FIG. 2 is a diagram illustrating an example of processing performed by the processing region setting unit. The processing area setting unit 1021 selects a processing area 23 for performing pedestrian detection processing in the image IMGSRC [x] [y], and the start point SX and end point EX of the x coordinate (lateral direction), which are the range of the coordinates, A start point SY and an end point EY on the y coordinate (vertical direction) are obtained (SX, SY, EX, EY). The processing area setting unit 1021 may or may not use the position information from the object position acquisition unit 1111.

まず、物体位置取得部1111からの位置情報を用いる場合について説明する。図2(a)は、物体位置取得部1111からの位置情報を用いた場合における処理領域設定部1021の処理の例を示す図である。   First, a case where position information from the object position acquisition unit 1111 is used will be described. FIG. 2A is a diagram illustrating an example of processing performed by the processing region setting unit 1021 when position information from the object position acquisition unit 1111 is used.

処理領域設定部1021は、物体位置取得部1111が検出した物体21の相対距離PYR[b]、横位置PXR[b]および横幅WDR[b]から、検出した物体21の画像上での位置を示す物体位置領域22(x座標(横方向)の始点SXB、終点EXB、y座標(縦方向)の始点SYB、終点EYB)を算出する。なお、カメラ画像上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータを、カメラキャリブレーション等の方法によってあらかじめ算出しておき、物体の高さを、例えば180[cm]などあらかじめ仮定しておくことにより、画像上での位置は一意に決まる。   The processing region setting unit 1021 determines the position of the detected object 21 on the image from the relative distance PYR [b], the lateral position PXR [b], and the lateral width WDR [b] of the object 21 detected by the object position acquisition unit 1111. The object position area 22 shown (start point SXB and end point EXB of x coordinate (horizontal direction), start point SYB and end point EYB of y coordinate (vertical direction)) is calculated. A camera geometric parameter that associates the coordinates on the camera image with the positional relationship in the real world is calculated in advance by a method such as camera calibration, and the height of the object is assumed in advance, for example, 180 [cm]. Thus, the position on the image is uniquely determined.

また、カメラ1010の取り付けの誤差やレーダとの通信遅れ等の理由により、物体位置取得部1111で検出した物体21の画像上での位置と、カメラ画像に写っている同じ物体21の画像上での位置に違いが生じる場合がある。よって、画像上での物体21の位置を示す物体位置領域22(SXB、EXB、SYB、EYB)に、補正を加えた領域を処理領域23(SX、EX、SY、EY)として算出する。補正は、画像上での物体21の位置を示す物体位置領域22を所定の量だけ拡大したり、移動させたりすることによって行われ、例えば、物体位置領域22の各点SXB、EXB、SYB、EYBの位置を上下左右に所定の画素だけ拡張してもよい。こうして、処理領域23(SX、EX、SY、EY)を得ることができる。なお、複数の領域に対して処理する場合、処理領域23(SX、EX、SY、EY)をそれぞれ生成し、後述する物体検出処理をそれぞれの処理領域23に対して個別に実施する。   Further, for reasons such as mounting error of the camera 1010 or communication delay with the radar, the position on the image of the object 21 detected by the object position acquisition unit 1111 and the image of the same object 21 reflected in the camera image. There may be a difference in the position of. Therefore, a region obtained by correcting the object position region 22 (SXB, EXB, SYB, EYB) indicating the position of the object 21 on the image is calculated as a processing region 23 (SX, EX, SY, EY). The correction is performed by enlarging or moving the object position area 22 indicating the position of the object 21 on the image by a predetermined amount. For example, each point SXB, EXB, SYB, The position of EYB may be extended by a predetermined pixel vertically and horizontally. In this way, the processing area 23 (SX, EX, SY, EY) can be obtained. When processing a plurality of regions, processing regions 23 (SX, EX, SY, EY) are generated, and an object detection process described later is individually performed on each processing region 23.

つぎに、処理領域設定部1021において、物体位置取得部1111からの位置情報を用いずに処理領域23(SX、EX、SY、EY)を設定する処理について説明する。物体位置取得部1111を用いない場合の処理領域23の設定方法は、例えば、領域の大きさを変化させながら画像全体を探索するように複数の領域を設定する方法や、特定の位置、特定の大きさのみに限定して領域を設定する方法がある。特定の位置に限定する場合は、例えば自車速を用いて、自車がT秒後に進んでいる位置に限定する方法がある。   Next, processing for setting the processing region 23 (SX, EX, SY, EY) in the processing region setting unit 1021 without using the position information from the object position acquisition unit 1111 will be described. The method of setting the processing area 23 when the object position acquisition unit 1111 is not used is, for example, a method of setting a plurality of areas so as to search the entire image while changing the size of the area, a specific position, a specific position There is a method of setting an area limited to the size only. In the case of limiting to a specific position, for example, there is a method of limiting to a position where the host vehicle has advanced T seconds later by using the host vehicle speed.

図2(b)は、自車速を用いて,自車が2秒後に進んでいる位置を探索する場合の例である。処理領域23の位置、および大きさは、自車が2秒後に進んでいる位置までの相対距離における路面高さ(0cm)、および想定する歩行者21の高さ(本実施の形態では180cm)から、カメラ幾何パラメータを用いて画像IMGSRC[x][y]上のy方向の範囲(SYP、EYP)を求める。なお、x方向の範囲(SXP、EXP)は、制限しなくてもよいし、自車の予測進路等により制限してもよい。こうして、処理領域23(SX、EX、SY、EY)を得ることができる。   FIG. 2B is an example in the case of searching for a position where the host vehicle has advanced two seconds later using the host vehicle speed. The position and size of the processing area 23 are the road surface height (0 cm) at the relative distance to the position where the host vehicle is traveling in 2 seconds, and the assumed height of the pedestrian 21 (180 cm in the present embodiment). Thus, the range (SYP, EYP) in the y direction on the image IMGSRC [x] [y] is obtained using the camera geometric parameter. The range in the x direction (SXP, EXP) may not be limited, or may be limited by the predicted course of the vehicle. In this way, the processing area 23 (SX, EX, SY, EY) can be obtained.

[類似度算出部]
つぎに、図3、4を用いて、共通類似度算出部1030、第一の特有類似度算出部1031、第二の特有類似度算出部1032、第一の物体判定部1041、第二の物体判定部1042、物体位置算出部1051における処理の流れについて説明する。図3は、車両用外界認識装置の処理を説明するフローチャートである。
[Similarity calculation unit]
Next, using FIGS. 3 and 4, the common similarity calculation unit 1030, the first specific similarity calculation unit 1031, the second specific similarity calculation unit 1032, the first object determination unit 1041, and the second object The flow of processing in the determination unit 1042 and the object position calculation unit 1051 will be described. FIG. 3 is a flowchart for explaining processing of the vehicle external environment recognition device.

まず、ステップS301にて、画像IMGSRC[x][y]の処理領域23(SX,SY,EX,EY)から、エッジを抽出する。以下、微分フィルタとしてソーベルフィルタを適用する場合におけるエッジ画像EDGE[x][y]、および、勾配方向画像DIRC[x][y]の算出方法について説明する。   First, in step S301, an edge is extracted from the processing area 23 (SX, SY, EX, EY) of the image IMGSRC [x] [y]. Hereinafter, a method of calculating the edge image EDGE [x] [y] and the gradient direction image DIRC [x] [y] when the Sobel filter is applied as the differential filter will be described.

ソーベルフィルタは、図4に示すように3×3画素の大きさで、x方向の勾配を求めるx方向フィルタ41とy方向の勾配を求めるy方向フィルタ42の2種類が存在する。画像IMGSRC[x][y]からx方向の勾配を求める場合、画像IMGSRC[x][y]の1画素ごとに、その画素と周囲8画素の計9画素の画素値と、対応する位置のx方向フィルタ41の重みの積和演算を行う。積和演算の結果がその画素におけるx方向の勾配となる。y方向の勾配の算出も同様である。   As shown in FIG. 4, there are two types of Sobel filters: an x-direction filter 41 for obtaining a gradient in the x direction and a y-direction filter 42 for obtaining a gradient in the y direction. When obtaining the gradient in the x direction from the image IMGSRC [x] [y], for each pixel of the image IMGSRC [x] [y], a pixel value of a total of 9 pixels, that pixel and the surrounding 8 pixels, and the corresponding position A product-sum operation for the weight of the x-direction filter 41 is performed. The result of the product-sum operation is the gradient in the x direction at that pixel. The same applies to the calculation of the gradient in the y direction.

画像IMGSRC[x][y]のある位置(x、y)におけるx方向の勾配の算出結果をdx、y方向の勾配の算出結果をdyとすると、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は以下の式(1)(2)により算出される。   If the calculation result of the gradient in the x direction at a position (x, y) of the image IMGSRC [x] [y] is dx, and the calculation result of the gradient in the y direction is dy, the gradient strength image DMAG [x] [y] The gradient direction image DIRC [x] [y] is calculated by the following equations (1) and (2).

DMAG[x][y]=|dx|+|dy| ・・・(1)
DIRC[x][y]=arctan(dy/dx) ・・・(2)
DMAG [x] [y] = | dx | + | dy | (1)
DIRC [x] [y] = arctan (dy / dx) (2)

なお、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は、画像IMGSRC[x][y]と同じ大きさの2次元配列であり、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]の座標(x、y)は画像IMGSRC[x][y]の座標(x、y)に対応する。   The gradient strength image DMAG [x] [y] and the gradient direction image DIRC [x] [y] are two-dimensional arrays having the same size as the image IMGSRC [x] [y], and the gradient strength image DMAG The coordinates (x, y) of [x] [y] and the gradient direction image DIRC [x] [y] correspond to the coordinates (x, y) of the image IMGSRC [x] [y].

算出した勾配強さ画像DMAG[x][y]の値とエッジ閾値THR_EDGEを比較し、勾配強さ画像DMAG[x][y]がエッジ閾値THR_EDGEよりも大きい(DMAG[x][y]>THR_EDGE)のであれば1、それ以外、すなわち、勾配強さ画像DMAG[x][y]がエッジ閾値THR_EDGE以下であれば0を、エッジ画像EDGE[x][y]に記憶する。   The calculated gradient strength image DMAG [x] [y] is compared with the edge threshold value THR_EDGE, and the gradient strength image DMAG [x] [y] is larger than the edge threshold value THR_EDGE (DMAG [x] [y]> If it is THR_EDGE), 1 is stored in the edge image EDGE [x] [y], otherwise, that is, 0 if the gradient strength image DMAG [x] [y] is equal to or less than the edge threshold value THR_EDGE.

エッジ画像EDGE[x][y]は、画像IMGSRC[x][y]と同じ大きさの2次元配列であり、エッジ画像EDGE[x][y]の座標(x、y)は画像IMGSRC[x][y]の座標(x、y)に対応する。   The edge image EDGE [x] [y] is a two-dimensional array having the same size as the image IMGSRC [x] [y], and the coordinates (x, y) of the edge image EDGE [x] [y] are the image IMGSRC [ This corresponds to the coordinates (x, y) of x] [y].

なお、エッジ抽出前に、画像IMGSRC[x][y]から処理領域23(SX、EX、SY、EY)に該当する画像を切り出し、画像中の物体の大きさが所定の大きさになるように拡大・縮小してもよい。本実施の形態では、処理領域設定部1021にて用いた距離情報とカメラ幾何を用い、画像IMGSRC[x][y]内の高さ180[cm]、幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小し、上記エッジを算出する。   Prior to edge extraction, an image corresponding to the processing region 23 (SX, EX, SY, EY) is cut out from the image IMGSRC [x] [y] so that the size of the object in the image becomes a predetermined size. You may zoom in and out. In the present embodiment, the distance information and camera geometry used in the processing area setting unit 1021 are used, and all the objects having a height of 180 [cm] and a width of 60 [cm] in the image IMGSRC [x] [y] are all 16 pieces. The image is enlarged / reduced to a size of dot × 12 dots, and the edge is calculated.

また、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]の算出は、処理領域23(SX、EX、SY、EY)の範囲外は全てゼロとしてもよい。   Further, the calculation of the edge image EDGE [x] [y] and the gradient direction image DIRC [x] [y] may be all zero outside the range of the processing region 23 (SX, EX, SY, EY).

つぎに、ステップS3011にて、エッジ画像EDGE[x][y],およびエッジ方向画像DIRC[x][y]内に歩行者判定を行う判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を設定する。   Next, in step S3011, determination areas 31 (SXG [g], SYG [g], pedestrian determination are performed in the edge image EDGE [x] [y] and the edge direction image DIRC [x] [y]. EXG [g], EYG [g]).

ステップS301で述べたように,本実施の形態では、カメラ幾何を用い、画像IMGSRC[x][y]内の高さ180[cm]、幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小してエッジ画像EDGE[x][y]を生成している。よって、判定領域31の大きさを16ドット×12ドットとし、エッジ画像EDGE[x][y]内の処理領域23(SX、EX、SY、EY)が16ドット×12ドットより大きい場合は、判定領域31をエッジ画像EDGE[x][y]内に一定の間隔で敷き詰めるように複数設定する。   As described in step S301, in the present embodiment, all the objects having a height of 180 [cm] and a width of 60 [cm] in the image IMGSRC [x] [y] are 16 dots × 12 dots in the image IMGSRC [x] [y]. The edge image EDGE [x] [y] is generated by enlarging / reducing the image so that the size becomes. Therefore, when the size of the determination area 31 is 16 dots × 12 dots and the processing area 23 (SX, EX, SY, EY) in the edge image EDGE [x] [y] is larger than 16 dots × 12 dots, A plurality of determination areas 31 are set so as to be spread at regular intervals in the edge image EDGE [x] [y].

つぎに、g=0として、処理領域設定部1021にて設定された全ての判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])について、以下ステップS302からS306の処理を実行する。   Next, with g = 0, all the determination areas 31 (SXG [g], SYG [g], EXG [g], EXG [g]) set by the processing area setting unit 1021 are hereinafter referred to from step S302. The process of S306 is executed.

まず、ステップS302にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、複数種類の物体で互いに共通している部分の類似度である共通類似度を算出する。ここでは、共通類似度算出部1030で、傘をさしていない歩行者と傘をさしている歩行者との共通部分である、歩行者の下半身のパターンとの類似度を求める処理を行い、共通類似度MT0を算出する。処理詳細は後述する。   First, in step S302, the edge image EDGE [x] [y] and the gradient direction image DIRC [x] in the determination region 31 (SXG [g], SYG [g], EXG [g], EXG [g]). [Y] is used to calculate the common similarity, which is the similarity of the parts that are common to each other among the plurality of types of objects. Here, the common similarity calculation unit 1030 performs a process of obtaining the similarity between the pedestrian's lower body pattern, which is a common part between the pedestrian not wearing the umbrella and the pedestrian holding the umbrella. MT0 is calculated. Details of the process will be described later.

つぎに、ステップS303にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、所定の種類の物体が有する物体特有の特徴部分のパターンとの類似度である第一の特有類似度を算出する。ここでは、第一の特有類似度算出部1031で、傘をさしていない歩行者特有の特徴部分である、歩行者の上半身のパターンとの類似度を求める処理を行い、傘をさしていない歩行者の特有な部分の類似度である第一の特有類似度MT1を算出する。処理詳細は後述する。   Next, in step S303, the edge image EDGE [x] [y] and the gradient direction image DIRC [x] in the determination region 31 (SXG [g], SYG [g], EXG [g], EXG [g]). ] [Y] is used to calculate the first specific similarity that is the similarity to the pattern of the characteristic part unique to the object of the predetermined type of object. Here, in the first unique similarity calculation unit 1031, a process for obtaining the similarity with the pattern of the upper body of the pedestrian, which is a characteristic part unique to the pedestrian who does not wear the umbrella, A first specific similarity MT1 that is the similarity of the specific part is calculated. Details of the process will be described later.

つぎに、ステップS304にて、判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])内のエッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]を用いて、他の種類の物体が有する物体特有の特徴部分のパターンとの類似度である第二の特有類似度を算出する。ここでは、第二の特有類似度算出部1032で、傘をさしている歩行者特有の特徴部分である、歩行者の上半身の形状のパターンとの類似度を求める処理を行い、傘をさしている歩行者特有の特有な部分の類似度である第二の特有類似度MT2を算出する。処理詳細は後述する。   Next, in step S304, the edge image EDGE [x] [y] and the gradient direction image DIRC [x] in the determination region 31 (SXG [g], SYG [g], EXG [g], EXG [g]). ] [Y] is used to calculate the second specific similarity that is the similarity to the pattern of the characteristic part unique to the object of other types of objects. Here, the second unique similarity calculation unit 1032 performs a process for obtaining the similarity with the pattern of the shape of the upper body of the pedestrian, which is a characteristic part unique to the pedestrian wearing the umbrella, and walks holding the umbrella The second unique similarity MT2 that is the similarity of the unique part unique to the person is calculated. Details of the process will be described later.

つぎに、ステップS305にて、第一の物体判定部1041の処理を行い、第一の判定結果格納用配列DTC1[x][y]の座標(SXG[g],SYG[g])に、物体が存在すると判定された場合には「1」を、そうでない場合には「0」を格納する。   Next, in step S305, the processing of the first object determination unit 1041 is performed, and the coordinates (SXG [g], SYG [g]) of the first determination result storage array DTC1 [x] [y] are set. If it is determined that an object exists, “1” is stored, and if not, “0” is stored.

さらに、ステップS306も同様に、第二の物体判定部1042の処理を行い、第二の判定結果格納用配列DTC2[x][y]の座標(SXG[g],SYG[g])に、物体が存在すると判定された場合には「1」を、そうでない場合には「0」を格納する。   Further, in step S306 as well, the processing of the second object determination unit 1042 is performed, and the coordinates (SXG [g], SYG [g]) of the second determination result storage array DTC2 [x] [y] are set. If it is determined that an object exists, “1” is stored, and if not, “0” is stored.

以上の処理を、全ての判定領域31(SXG[g],SYG[g],EXG[g],EXG[g])に対し実行し、最後にステップS307にて、第一の判定結果格納用配列DTC1[x][y]、および、第二の判定結果格納用配列DTC2[x][y]の結果を統合し、物体位置を算出する。処理詳細は後述する。   The above processing is executed for all the determination areas 31 (SXG [g], SYG [g], EXG [g], EXG [g]), and finally, in step S307, the first determination result storage is performed. The result of the array DTC1 [x] [y] and the second determination result storage array DTC2 [x] [y] are integrated to calculate the object position. Details of the process will be described later.

[類似度算出部]
つぎに、図5、6を用いて、共通類似度算出部1030における処理の流れについて説明する。図5は、図1の共通類似度算出部で用いられる局所エッジ判定器の模式図、図6は、図1の共通類似度算出部による類似度の算出方法を示すブロック図である。
[Similarity calculation unit]
Next, a processing flow in the common similarity calculation unit 1030 will be described with reference to FIGS. FIG. 5 is a schematic diagram of a local edge determiner used in the common similarity calculation unit of FIG. 1, and FIG. 6 is a block diagram showing a similarity calculation method by the common similarity calculation unit of FIG.

共通類似度算出部1030の処理を行うステップS302にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、以下で詳述する識別器61の処理結果で得られる出力を類似度として取り扱う。   In step S302 in which the processing of the common similarity calculation unit 1030 is performed, the discriminator 61 described in detail below for a certain determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]). The output obtained from the processing result is treated as the similarity.

まず、識別器61を用いて類似度を算出する方法について説明する。   First, a method for calculating similarity using the classifier 61 will be described.

画像処理によって所定のパターンとの類似度を算出する方法として、パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求めるテンプレートマッチングによる方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。   As a method for calculating the degree of similarity with a predetermined pattern by image processing, a template matching method is used in which a plurality of templates representing patterns are prepared and the degree of coincidence is obtained by performing a difference accumulation operation or a normalized phase relationship operation. And a pattern recognition method using a classifier such as a neural network.

いずれの方法を選択するとしても、あらかじめ所定のパターンか否かを決定する指標となるソースのデータベースが必要となる。パターンの様々な状態をデータベースとして蓄えておき、そこから代表となるテンプレートを作成したり識別器を生成したりする。実環境ではパターンに様々な状態が予想されるため、大量のデータベースを用意して、誤判定を少なくすることが必要となってくる。このとき、前者のテンプレートマッチングによる方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となるため現実的でない。   Regardless of which method is selected, a source database is required as an index for determining in advance whether the pattern is a predetermined pattern or not. Various patterns are stored as a database, from which a representative template is created or a discriminator is generated. Since various states are expected in the pattern in the real environment, it is necessary to prepare a large amount of databases and reduce erroneous determinations. In this case, the former method based on template matching is not realistic because the number of templates becomes enormous if the omission of determination is prevented.

そこで、本実施の形態では後者の識別器を用いて類似度を算出する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。   Therefore, in this embodiment, a method of calculating the similarity using the latter discriminator is adopted. The size of the discriminator does not depend on the size of the source database. A database for generating a classifier is called teacher data.

本実施の形態で使用する識別器61は、複数の局所エッジ判定器に基づいて、傘をさしていない歩行者と傘をさしている歩行者の共通の特徴部分である、歩行者の下半身の類似度を算出する。   The discriminator 61 used in the present embodiment is based on a plurality of local edge discriminators, and the similarity of the lower body of the pedestrian, which is a common feature of the pedestrian who does not wear the umbrella and the pedestrian who holds the umbrella. Is calculated.

まず、局所エッジ判定器51について、図5の例を用いて説明する。局所エッジ判定器51は、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]、およびマッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、0か1かの2値を出力する判定器であり、局所エッジ頻度算出部511、および閾値処理部512から構成される。   First, the local edge determiner 51 will be described using the example of FIG. The local edge determiner 51 includes an edge image EDGE [x] [y], a gradient direction image DIRC [x] [y], and a matching determination region 31 (SXG [g], SYG [g], EXG [g], EYG [G]) as an input and outputs a binary value of 0 or 1, and includes a local edge frequency calculation unit 511 and a threshold processing unit 512.

局所エッジ頻度算出部511は、マッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])と同じ大きさのウィンドウ5111内に、局所エッジ頻度算出領域5112を持ち、マッチング判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])とウィンドウ5111の位置関係から、エッジ画像EDGE[x][y]および勾配方向画像DIRC[x][y]内の局所エッジ頻度を算出する位置を設定し、局所エッジ頻度MWCを算出する。   The local edge frequency calculation unit 511 includes a local edge frequency calculation region 5112 in a window 5111 having the same size as the matching determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]). The edge image EDGE [x] [y] and the gradient direction image DIRC [] from the positional relationship between the matching determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]) and the window 5111. The position for calculating the local edge frequency in x] [y] is set, and the local edge frequency MWC is calculated.

局所エッジ頻度MWCは、勾配方向画像DIRC[x][y]の角度値が角度条件5113を満たしており、かつ、対応する位置のエッジ画像EDGE[x][y]が1である画素の総数である。角度条件5113は、図4の例の場合、67.5度から112.5度の間、もしくは、267.5度から292.5度の間であることであり、勾配方向画像DIRC[x][y]の値が一定の範囲であるか否かを判定するものである。   The local edge frequency MWC is the total number of pixels in which the angle value of the gradient direction image DIRC [x] [y] satisfies the angle condition 5113 and the edge image EDGE [x] [y] at the corresponding position is 1. It is. In the example of FIG. 4, the angle condition 5113 is between 67.5 degrees and 112.5 degrees, or between 267.5 degrees and 292.5 degrees, and the gradient direction image DIRC [x] It is determined whether or not the value of [y] is within a certain range.

閾値処理部512は、あらかじめ定められた閾値THWC#を持ち、局所エッジ頻度算出部511にて算出された局所エッジ頻度MWCが閾値THWC#以上であれば1、それ以外であれば0を出力する。なお、閾値処理部512は、局所エッジ頻度算出部511にて算出された局所エッジ頻度MWCが閾値THWC#以下であれば1、それ以外であれば0を出力してもよい。   The threshold processing unit 512 has a predetermined threshold THWC #, and outputs 1 if the local edge frequency MWC calculated by the local edge frequency calculation unit 511 is equal to or higher than the threshold THWC #, and outputs 0 otherwise. . The threshold processing unit 512 may output 1 if the local edge frequency MWC calculated by the local edge frequency calculation unit 511 is equal to or less than the threshold THWC #, and may output 0 otherwise.

つぎに、図6を用いて、識別器について説明する。識別器61は、エッジ画像EDGE[x][y]、勾配方向画像DIRC[x][y]、および判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、判定領域31内が歩行者の下半身に類似していれば正の値を、類似していなければ負の値を出力する。識別器61は、40個の局所エッジ頻度判定器6101〜6140と、合計部612とから構成される。   Next, the classifier will be described with reference to FIG. The discriminator 61 includes an edge image EDGE [x] [y], a gradient direction image DIRC [x] [y], and a determination area 31 (SXG [g], SYG [g], EXG [g], EYG [g]. ) As an input, a positive value is output if the determination area 31 is similar to the lower body of the pedestrian, and a negative value is output if it is not similar. The discriminator 61 includes 40 local edge frequency determiners 6101 to 6140 and a summation unit 612.

局所エッジ頻度判定器6101〜6140は、一つ一つの処理は、前述した局所エッジ判定器51と同様であるが、局所エッジ頻度算出領域5112、角度条件5113、閾値THWC#は、それぞれ異なっている。合計部6120は、局所エッジ頻度判定器6101〜6140からの出力に、対応する重みWWC1#〜WWC40#を乗じ、その合計値SCを出力する。   The local edge frequency determiners 6101 to 6140 are the same as the local edge determiner 51 described above, but the local edge frequency calculation region 5112, the angle condition 5113, and the threshold value THWC # are different. . Summing unit 6120 multiplies the outputs from local edge frequency determiners 6101 to 6140 by corresponding weights WWC1 # to WWC40 #, and outputs the total value SC.

識別器61の各局所エッジ頻度判定器6101〜6140のパラメータである局所エッジ頻度算出領域5112、角度条件5113、閾値THWC、また、重みWWC1#〜WWC40#は、識別器61への入力画像が歩行者の下半身であった場合には、合計部612から出力される合計値SCが正の値、歩行者の下半身ではなかった場合には合計値SCが負の値となるように、教師データを用いて調整される。調整には、例えばAdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。   The local edge frequency calculation region 5112, the angle condition 5113, the threshold value THWC, and the weights WWC1 # to WWC40 #, which are parameters of the local edge frequency determiners 6101 to 6140 of the classifier 61, are input to the classifier 61 by walking. The teacher data is set so that the total value SC output from the total unit 612 is a positive value when the person is the lower body of the pedestrian, and is a negative value when the lower body is not the pedestrian. To adjust. For the adjustment, for example, a machine learning means such as AdaBoost may be used, or manual adjustment may be performed.

例えば、NPD個の歩行者の下半身の教師データ、およびNBG個の非歩行者の教師データから、AdaBoostを用いてパラメータを決定する手順は以下の通りとなる。なお、以下、局所エッジ頻度判定器をcWC[m]と表す。ここで、mは局所エッジ頻度判定器のID番号である。   For example, the procedure for determining parameters using AdaBoost from NPD pedestrian lower body teacher data and NBG non-pedestrian teacher data is as follows. Hereinafter, the local edge frequency determiner is represented as cWC [m]. Here, m is the ID number of the local edge frequency determiner.

まず、局所エッジ頻度算出領域5112および角度条件5113が異なる局所エッジ頻度判定器cWC[m]を複数(例えば、100万通り)用意し、それぞれにおいて、局所エッジ頻度MWCの値を全ての教師データから算出し、閾値THWCをそれぞれ決定する。閾値THWCは、歩行者の下半身の教師データと非歩行者の教師データを最も分類することができる値を選択する。   First, a plurality of local edge frequency determiners cWC [m] having different local edge frequency calculation areas 5112 and angle conditions 5113 (for example, 1 million) are prepared, and the value of the local edge frequency MWC is obtained from all teacher data in each. The threshold value THWC is determined by calculation. The threshold THWC selects a value that can most classify the teacher data of the lower body of the pedestrian and the teacher data of the non-pedestrian.

つぎに、歩行者の下半身の教師データひとつひとつにwPD[nPD]=1/2NPDの重みを与える。同様に、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の下半身の教師データのID番号、nBGは非歩行者の教師データのID番号である。そして、k=1として、以下、繰り返し処理を行う。   Next, a weight of wPD [nPD] = 1/2 NPD is given to each teacher data of the lower body of the pedestrian. Similarly, a weight of wBG [nBG] = 1 / 2NBG is given to each non-pedestrian teacher data. Here, nPD is the ID number of the teacher data of the lower body of the pedestrian, and nBG is the ID number of the teacher data of the non-pedestrian. Then, it is assumed that k = 1, and the following process is repeated.

まず、歩行者の下半身・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。つぎに、各局所エッジ頻度判定器の誤検知率cER[m]を算出する。誤検知率cER[m]は、局所エッジ頻度判定器cWC[m]において、歩行者の下半身の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が0となったもの、もしくは非歩行者の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が1となったもの、すなわち出力が間違っている教師データの重みの合計である。
全ての局所エッジ頻度判定器の誤検知率cER[m]を算出後、誤検知率が最小となる局所エッジ頻度判定器のID mMin を選択し、最終局所エッジ頻度判定器WC[k]=cWC[mMin]とする。
First, the weights are normalized so that the sum of the weights of the teacher data of all the lower body and non-pedestrians of the pedestrian is 1. Next, the false detection rate cER [m] of each local edge frequency determiner is calculated. The false detection rate cER [m] is obtained when the local edge frequency determiner cWC [m] outputs 0 when the pedestrian's lower body teacher data is input to the local edge frequency determiner cWC [m]. Alternatively, when the non-pedestrian teacher data is input to the local edge frequency determiner cWC [m], the output is 1, that is, the sum of the weights of the teacher data whose output is incorrect.
After calculating the false detection rate cER [m] of all the local edge frequency determiners, the local edge frequency determiner ID Mmin that minimizes the false detection rate is selected, and the final local edge frequency determiner WC [k] = cWC. [MMin].

つぎに、各教師データの重みを更新する。更新は、歩行者の下半身の教師データのうち、最終局所エッジ頻度判定器WC[k]を適用した結果が1となったもの、および、非歩行者の教師データのうち最終局所エッジ頻度判定器WC[k]を適用した結果が0となったもの、すなわち出力が正しい教師データの重みに、係数BT[k]=cER[mMin]/(1−cER[mMin])を乗じる。   Next, the weight of each teacher data is updated. The update is such that the result of applying the final local edge frequency determiner WC [k] among the teacher data of the lower body of the pedestrian becomes 1, and the final local edge frequency determiner of the non-pedestrian teacher data Multiply the coefficient BT [k] = cER [mMin] / (1-cER [mMin]) by the weight of the teacher data whose result of applying WC [k] is 0, that is, the output is correct.

k=k+1とし、kが予め設定した値(例えば、40)になるまで繰り返す。繰り返し処理の終了後に得られる最終局所エッジ頻度判定器WCがAdaBoostにより自動調整された識別器61となる。なお、重みWWC1〜WWC40は1/BT[k]から算出される。   k = k + 1 is repeated until k reaches a preset value (for example, 40). The final local edge frequency determiner WC obtained after the end of the iterative process becomes the discriminator 61 that is automatically adjusted by AdaBoost. The weights WWC1 to WWC40 are calculated from 1 / BT [k].

つぎに、図7を用いて、第一の特有類似度算出部1031、第二の特有類似度算出部1032における処理の流れについて説明する。図7は、図1の第一の特有類似度算出部および第二の特有類似度算出部における類似度の算出方法を示すブロック図である。   Next, the flow of processing in the first specific similarity calculation unit 1031 and the second specific similarity calculation unit 1032 will be described with reference to FIG. FIG. 7 is a block diagram illustrating a similarity calculation method in the first specific similarity calculation unit and the second specific similarity calculation unit in FIG. 1.

第一の特有類似度算出部1031の処理を行うステップS303にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、識別器611の処理結果得られる出力を第一の特有類似度MT1として取り扱う。識別器611は、識別器61と同じように設計された識別器であるが、教師データとして、傘をさしていない歩行者の上半身を用いている。   In step S303 in which the first specific similarity calculation unit 1031 performs processing, the processing of the discriminator 611 is performed for a certain determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]). The output obtained as a result is treated as the first specific similarity MT1. The discriminator 611 is a discriminator designed in the same manner as the discriminator 61, but uses the upper body of a pedestrian not wearing an umbrella as teacher data.

同様に、第二の特有類似度算出部1032の処理を行うステップS304にて、ある判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])について、識別器612の処理結果得られる出力を第二の特有類似度MT2として取り扱う。識別器612は、識別器61と同じように設計された識別器であるが、教師データとして、傘をさしている歩行者の上半身を用いている。   Similarly, in step S304 in which the second unique similarity calculation unit 1032 performs processing, a discriminator is determined for a certain determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g]). The output obtained as a result of the processing at 612 is handled as the second specific similarity MT2. The discriminator 612 is a discriminator designed in the same manner as the discriminator 61, but uses the upper body of a pedestrian wearing an umbrella as teacher data.

つぎに、物体位置算出部1051の処理について説明する。物体位置算出部1051は、判定結果格納用配列DTC1[x][y]において、「1」が入っている場所をグルーピングし、その中心位置に歩行者が存在すると判定する。グルーピングには、ラベリングなど、公知の技術を用いる。   Next, processing of the object position calculation unit 1051 will be described. The object position calculation unit 1051 groups locations where “1” is included in the determination result storage array DTC1 [x] [y], and determines that a pedestrian exists at the center position. A known technique such as labeling is used for grouping.

グルーピングされた領域のY座標と、カメラ幾何を用いて、歩行者の身長を180cmと仮定すると、歩行者までの距離を算出することができる。また、グルーピングされた領域のX座標と、カメラ幾何を用いて、歩行者の幅を60cmと仮定すると、自車中央から歩行者がどれだけ横(車幅方向外側)に存在しているかを算出することができる。   If the height of the pedestrian is assumed to be 180 cm using the Y coordinate of the grouped area and the camera geometry, the distance to the pedestrian can be calculated. Also, using the X coordinate of the grouped area and the camera geometry, if the pedestrian width is assumed to be 60 cm, calculate how much pedestrians are present laterally (outside in the vehicle width direction) from the center of the vehicle. can do.

また、物体位置取得部1111が存在する場合は、上記の方式により算出した位置の周辺に物体情報(PXR[b],PYR[b])が存在する場合は、情報を置き換える。もしくは、物体情報(PXR[b],PYR[b])を、カメラ幾何を用いて判定結果格納用配列DTC1[x][y]へ投影し、各グループの中心位置と投影した物体情報の配列上の距離が所定値以下である場合、物体であると判定し、物体情報(PXR[b],PYR[b])を歩行者の位置とする。判定結果格納用配列DTC2[x][y]についても同様の処理を行う。   When the object position acquisition unit 1111 is present, information is replaced when object information (PXR [b], PYR [b]) is present around the position calculated by the above method. Alternatively, the object information (PXR [b], PYR [b]) is projected onto the determination result storage array DTC1 [x] [y] using camera geometry, and the center position of each group and the array of the projected object information When the upper distance is less than or equal to the predetermined value, it is determined that the object is an object, and the object information (PXR [b], PYR [b]) is set as the position of the pedestrian. Similar processing is performed for the determination result storage array DTC2 [x] [y].

以上説明したように、車両用外界認識装置1000は、一回に傘をさしていない歩行者と傘をさしている歩行者を同時に検出することができる。さらに、共通類似度算出部1030を有しているため、単純に2種類の歩行者パターンマッチを実行するよりも、処理負荷を低減することができる。   As described above, the vehicle external environment recognition apparatus 1000 can simultaneously detect a pedestrian who is not wearing an umbrella and a pedestrian who is holding an umbrella at the same time. Furthermore, since the common similarity calculation unit 1030 is provided, the processing load can be reduced as compared to simply executing two types of pedestrian pattern matches.

例えば、傘をさしていない歩行者の全身用のテンプレートと、傘をさしている歩行者の全身用のテンプレートとを用いてパターンマッチングを行った場合、共通する部分である歩行者の下半身については、重複してマッチング判定が行われ、処理の無駄が発生することとなる。   For example, when pattern matching is performed using a template for the whole body of a pedestrian who is not wearing an umbrella and a template for the whole body of a pedestrian who is holding an umbrella, the lower part of the pedestrian, which is a common part, is duplicated. Thus, matching is determined, and processing is wasted.

これに対して、車両用外界認識装置1000は、傘をさしていない歩行者と傘をさしている歩行者で共通する特徴部分である歩行者の下半身については、共通する下半身用のテンプレートを用いて類似度を算出し、各歩行者の上半身については、それぞれ傘ありと傘なしの上半身用のテンプレートを用いて類似度を算出しているので、下半身について重複してマッチング判定が行われるのを防ぎ、装置全体の処理負荷を軽減することができる。   On the other hand, the vehicle external environment recognition apparatus 1000 is similar to the pedestrian's lower body, which is a characteristic part common to a pedestrian who is not wearing an umbrella and a pedestrian who is holding an umbrella, using a common lower body template. The degree of similarity is calculated for the upper body of each pedestrian using the template for the upper body with and without an umbrella, thus preventing duplicate matching judgments for the lower body, The processing load of the entire apparatus can be reduced.

なお、歩行者の検知に用いる識別器61、611,612は、本実施の形態で説明した方法の例に限定されない。正規化相関を用いたテンプレートマッチング、ニューラルネットワーク識別器、サポートベクターマシン識別器、ベイズ識別器などを用いてもよい。また、エッジを抽出せずに、濃淡画像やカラー画像をそのまま用いて、識別器61,611,612により判定してもよい。   Note that the discriminators 61, 611, and 612 used for detection of pedestrians are not limited to the example of the method described in this embodiment. Template matching using normalized correlation, a neural network classifier, a support vector machine classifier, a Bayes classifier, or the like may be used. Alternatively, the determination may be performed by the classifiers 61, 611, and 612 using the grayscale image or the color image as they are without extracting the edge.

また、識別器61,611,612は、様々な歩行者の画像データと、自車にとって衝突の危険がない領域の画像データを教師データとして、AdaBoostなどの機械学習の手段を用いて調整してもよい。特に、実施の形態として車両用外界認識装置1000が物体位置取得部1111を備える場合には、様々な歩行者の画像データと、横断歩道、マンホールやキャッツアイ等、ミリ波レーダやレーザレーダが衝突の危険がないにも関わらず誤検知する領域の画像データを教師データとしてもよい。   The discriminators 61, 611, and 612 adjust the image data of various pedestrians and the image data of the area where there is no risk of collision for the own vehicle as teacher data using machine learning means such as AdaBoost. Also good. In particular, when the vehicle external environment recognition apparatus 1000 includes the object position acquisition unit 1111 as an embodiment, the image data of various pedestrians collide with millimeter wave radars or laser radars such as pedestrian crossings, manholes, cat's eyes, etc. The image data of the area that is erroneously detected in spite of no danger may be used as teacher data.

<第二実施の形態>
つぎに、本発明の車両用外界認識装置の第二実施の形態について、以下に図面を用いて説明する。
<Second embodiment>
Next, a second embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings.

図8は、第二実施の形態における車両用外界認識装置の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車両用外界認識装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。   FIG. 8 is a block diagram showing the configuration of the vehicle external environment recognition device according to the second embodiment. In the following description, only portions different from the vehicle external environment recognition device 1000 in the first embodiment described above will be described in detail, and the same portions will be denoted by the same reference numerals and detailed description thereof will be omitted.

本実施の形態において特徴的なことは、自車周辺の環境を推定し、該推定した車両環境に応じて、第一の物体判定手段の判定結果に対する第一の信頼度と第二の物体判定手段の判定結果に対する第二の信頼度を調整する構成としたことである。   What is characteristic in the present embodiment is that the environment around the host vehicle is estimated, and the first reliability and the second object determination with respect to the determination result of the first object determination means are determined according to the estimated vehicle environment. The second reliability for the determination result of the means is adjusted.

車両用外界認識装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から傘をさしていない歩行者、および、傘をさしている歩行者を検知するように構成されている。   The vehicle external environment recognition device 2000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and detects two types of preset objects from an image captured by the camera 1010. The present embodiment is configured to detect a pedestrian who is not wearing an umbrella and a pedestrian who is holding an umbrella from an image obtained by imaging the front of the vehicle.

車両用外界認識装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。   The vehicle external environment recognition apparatus 2000 is configured by a computer having a CPU, a memory, an I / O, and the like. A predetermined process is programmed and the process is repeatedly executed at a predetermined cycle.

車両用外界認識装置2000は、図8に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部1030と、第一の特有類似度算出部1031と、第二の特有類似度算出部1032と、第一の物体判定部1041と、第二の物体判定部1042と、環境推定部2060と、第一の信頼度2061と、第二の信頼度2062と、物体位置算出部2071とを有し、さらに実施の形態によって、ワイパ操作取得部2161と、物体位置取得部1111とを有する。   As shown in FIG. 8, the vehicle external environment recognition device 2000 includes an image acquisition unit 1011, a processing region setting unit 1021, a common similarity calculation unit 1030, a first specific similarity calculation unit 1031, and a second Specific similarity calculation unit 1032, first object determination unit 1041, second object determination unit 1042, environment estimation unit 2060, first reliability 2061, second reliability 2062, and object position A calculation unit 2071, and further includes a wiper operation acquisition unit 2161 and an object position acquisition unit 1111 according to the embodiment.

ワイパ操作取得部2161は、運転者による車両のワイパ操作の開始/終了の情報を取得する。この操作情報は、ワイパのON/OFF信号を車両用外界認識装置2000に直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。   The wiper operation acquisition unit 2161 acquires information on the start / end of the wiper operation of the vehicle by the driver. This operation information may be acquired by directly inputting a wiper ON / OFF signal to the vehicle external environment recognition device 2000, or may be acquired by performing communication using a LAN (Local Area Network). .

環境推定部2060は、ワイパ操作取得部2161、第一の物体判定部1041、第二の物体判定部1042、さらに物体位置取得部1111の情報のいずれか1つ以上を用いて、第一の信頼度2061、および、第二の信頼度2062の値を変更する。処理の詳細については後述する。   The environment estimation unit 2060 uses the information of the wiper operation acquisition unit 2161, the first object determination unit 1041, the second object determination unit 1042, and the object position acquisition unit 1111 to use the first trust The values of the degree 2061 and the second reliability 2062 are changed. Details of the processing will be described later.

第一の信頼度2061、および、第二の信頼度2062は、値が高いほど信頼度が高いことを表す数値である。これらの値は、環境推定部2060によって変更され、物体位置算出部2071にて用いられる。   The first reliability 2061 and the second reliability 2062 are numerical values representing that the higher the value, the higher the reliability. These values are changed by the environment estimation unit 2060 and used by the object position calculation unit 2071.

物体位置算出部2071は、第一の物体判定部1041、第二の物体判定部1042、第一の信頼度2061、第二の信頼度2062を用いて物体位置を算出する。物体位置取得部1111を有する場合、物体位置は物体位置取得部1111より取得した物体位置情報を用いる。処理の詳細は後述する。   The object position calculation unit 2071 calculates the object position using the first object determination unit 1041, the second object determination unit 1042, the first reliability 2061, and the second reliability 2062. When the object position acquisition unit 1111 is included, the object position information acquired from the object position acquisition unit 1111 is used as the object position. Details of the processing will be described later.

[環境推定部]
つぎに、図9,10を用いて、環境推定部2060における処理の内容について説明する。図9、10は環境推定部2060の処理の流れを示すフローチャートである。ここでは、2通りの調整方法について説明する。
[Environment estimation section]
Next, contents of processing in the environment estimation unit 2060 will be described with reference to FIGS. 9 and 10 are flowcharts showing the processing flow of the environment estimation unit 2060. Here, two adjustment methods will be described.

第一に、図9を用いて、ワイパ操作取得部2161の情報を用いた方法について説明する。まず、ステップS91にて、ワイパ操作取得部2161からワイパのON/OFF状態を取得する。つぎに、ステップS92にて、ワイパのON/OFF状態に応じて、図9(b)のテーブル921を参照して第一の信頼度2061、第二の信頼度2062を設定する。   First, a method using information of the wiper operation acquisition unit 2161 will be described with reference to FIG. First, in step S91, an ON / OFF state of the wiper is acquired from the wiper operation acquisition unit 2161. Next, in step S92, the first reliability 2061 and the second reliability 2062 are set with reference to the table 921 in FIG. 9B according to the ON / OFF state of the wiper.

このように、ワイパのON/OFF状態に応じて第一の信頼度2061、第二の信頼度2062を変えることにより、例えばワイパがONのときは雨が降っていると予想されるので、第一の信頼度2061よりも第二の信頼度2062を大きく設定し(第一の信頼度2061<第二の信頼度2062)、逆にワイパがOFFのときは雨が降っていないと予想されるので、第一の信頼度2061よりも第二の信頼度2062を小さく設定する(第一の信頼度2061>第二の信頼度2062)。   Thus, by changing the first reliability 2061 and the second reliability 2062 according to the ON / OFF state of the wiper, for example, it is expected that it is raining when the wiper is ON. When the second reliability 2062 is set larger than the first reliability 2061 (first reliability 2061 <second reliability 2062), conversely, when the wiper is OFF, it is expected that it is not raining. Therefore, the second reliability 2062 is set to be smaller than the first reliability 2061 (first reliability 2061> second reliability 2062).

第二に、図10を用いて、第一の物体判定部1041、第二の物体判定部1042を用いた方法について説明する。   Second, a method using the first object determination unit 1041 and the second object determination unit 1042 will be described with reference to FIG.

まず、ステップS101にて、第一の物体判定部1041による第一の物体の過去T秒における検出回数N1をカウントする。ここでは、T=1秒とする。つぎに、ステップS102にて、第二の物体判定部1042による第2の物体の過去T秒における検出回数N2をカウントする。ここでは、T=1秒とする。つぎに、ステップS103にて、以下の条件を満たすかを判定する。ここで、THNはあらかじめ定められた値である。   First, in step S101, the first object determination unit 1041 counts the number N1 of detections of the first object in the past T seconds. Here, T = 1 second. Next, in step S102, the number N2 of detections of the second object in the past T seconds by the second object determination unit 1042 is counted. Here, T = 1 second. Next, in step S103, it is determined whether the following conditions are satisfied. Here, THN is a predetermined value.

(N1−N2)/(N1+N2)>THN   (N1-N2) / (N1 + N2)> THN

上記条件を満たす場合は、ステップS105へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr11、r21(r11>r21)と設定する。これにより、傘をさしている歩行者の方が、傘をさしていない歩行者よりも十分に多い場合には、傘をさしている歩行者の信頼度を、傘をさしていない歩行者の信頼度よりも大きく設定される。   When the above condition is satisfied, the process proceeds to step S105, and the first reliability 2061 and the second reliability 2062 are set as r11 and r21 (r11> r21), respectively. As a result, when there are enough pedestrians with umbrellas than pedestrians without umbrellas, the reliability of pedestrians with umbrellas is higher than the reliability of pedestrians without umbrellas. It is set large.

そして、ステップS103の条件を満たさない場合は、ステップS104へ移行し、以下の条件を満たすかを判定する。ここで、THNはあらかじめ定められた値である。   If the condition in step S103 is not satisfied, the process proceeds to step S104 to determine whether the following condition is satisfied. Here, THN is a predetermined value.

(N2−N1)/(N1+N2)>THN   (N2-N1) / (N1 + N2)> THN

上記条件を満たす場合は、ステップS106へ行き、第一の信頼度2061、および、第二の信頼度2062をそれぞれr12、r22(r12<r22)と設定する。これにより、傘をさしていない歩行者の方が、傘をさしている歩行者よりも十分に多い場合には、傘をさしていない歩行者の信頼度を、傘をさしている歩行者の信頼度よりも大きく設定される。   When the above condition is satisfied, the process goes to step S106, and the first reliability 2061 and the second reliability 2062 are set as r12 and r22 (r12 <r22), respectively. As a result, when the number of pedestrians not wearing umbrellas is sufficiently greater than the number of pedestrians holding umbrellas, the reliability of pedestrians not holding umbrellas is higher than the reliability of pedestrians holding umbrellas. It is set large.

そして、ステップS104の条件を満たさない場合は、ステップS107へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr13、r23(r13=r23)と設定する。これにより、傘をさしていない歩行者と、傘をさしている歩行者の人数がほぼ等しい場合には、傘をさしていない歩行者の信頼度と傘をさしている歩行者の信頼度が同じに設定される。このように、過去の検出回数を参照することによって、一方の検出頻度が他方に比べ高い場合、信頼度を高める処理を行う。   If the condition in step S104 is not satisfied, the process proceeds to step S107, and the first reliability 2061 and the second reliability 2062 are set to r13 and r23 (r13 = r23), respectively. As a result, when the number of pedestrians holding umbrellas and pedestrians holding umbrellas is approximately equal, the reliability of pedestrians holding umbrellas and pedestrians holding umbrellas is set to be the same. The In this way, by referring to the past number of detections, when one detection frequency is higher than the other, processing for increasing reliability is performed.

つぎに、物体位置算出部2071における処理の内容について説明する。   Next, the contents of processing in the object position calculation unit 2071 will be described.

物体位置算出部2071は、判定結果格納用配列DTC1[x][y]において、「1」が入っている場所をグルーピングし、その中心位置に歩行者が存在すると判定する。グルーピングには、ラベリングなど、公知の技術を用いる。   The object position calculation unit 2071 groups places where “1” is included in the determination result storage array DTC1 [x] [y], and determines that a pedestrian exists at the center position. A known technique such as labeling is used for grouping.

つぎに、過去T秒の検出結果を参照し、各グループが過去に存在した回数DTをカウントする。そして、回数DTと第一の信頼度2061を乗じた値JGを算出し、値JGが所定の閾値THJG以上であれば、そこに歩行者が存在すると判定する。   Next, referring to the detection result of the past T seconds, the number of times DT each group has existed in the past is counted. And the value JG which multiplied the frequency | count DT and the 1st reliability 2061 is calculated, and if the value JG is more than the predetermined threshold value THJG, it will determine with a pedestrian existing there.

グルーピングされた領域のY座標と、カメラ幾何を用いて、歩行者の身長を180cmと仮定すると、歩行者までの距離を算出することができる。また、グルーピングされた領域のX座標と、カメラ幾何を用いて、歩行者の幅を60cmと仮定すると、自車中央から歩行者がどれだけ横の位置(車幅方向)に存在しているかを算出することができる。   If the height of the pedestrian is assumed to be 180 cm using the Y coordinate of the grouped area and the camera geometry, the distance to the pedestrian can be calculated. Also, assuming that the pedestrian's width is 60 cm using the X coordinate of the grouped area and the camera geometry, how much the pedestrian is in the lateral position (vehicle width direction) from the center of the vehicle. Can be calculated.

また、物体位置取得部1111が存在する場合は、上記の方式により算出した位置の周辺に物体情報(PXR[b],PYR[b])が存在する場合は、情報を置き換える。   When the object position acquisition unit 1111 is present, information is replaced when object information (PXR [b], PYR [b]) is present around the position calculated by the above method.

もしくは、物体情報(PXR[b],PYR[b])を、カメラ幾何を用いて判定結果格納用配列DTC1[x][y]へ投影し、各グループの中心位置と投影した物体情報の配列上の距離が所定値以下である場合、物体であると判定し、物体情報(PXR[b],PYR[b])を歩行者の位置とする。判定結果格納用配列DTC2[x][y]についても同様の処理を行う。   Alternatively, the object information (PXR [b], PYR [b]) is projected onto the determination result storage array DTC1 [x] [y] using camera geometry, and the center position of each group and the array of the projected object information When the upper distance is less than or equal to the predetermined value, it is determined that the object is an object, and the object information (PXR [b], PYR [b]) is set as the position of the pedestrian. Similar processing is performed for the determination result storage array DTC2 [x] [y].

以上説明したように、信頼度と過去の検出回数を用いることにより、第一の信頼度、もしくは第二の信頼度が高い場合は対応する物体をすぐに検出することができ、低い場合は検出まで時間を要して、しばらくの間待つこととなる。   As described above, by using the reliability and the number of past detections, the corresponding object can be detected immediately when the first reliability or the second reliability is high, and the detection is performed when the reliability is low. It takes time to wait and wait for a while.

環境推定部2060が図9に示す第一の形式の場合、ワイパのON/OFFによって傘をさしている歩行者の信頼度を変化させている。よって、傘をさしていない歩行者も、傘をさしている歩行者も物体判定は実行しているが、ワイパがOFFの場合は傘をさしている歩行者が、ワイパがONの場合は傘をさしていない歩行者が、それぞれ最終結果として検出されにくくなる。したがって、誤判定を減らすことができ、歩行者の検出精度を向上させることができる。   When the environment estimation unit 2060 is in the first format shown in FIG. 9, the reliability of a pedestrian wearing an umbrella is changed by turning on / off the wiper. Therefore, both pedestrians who are not wearing umbrellas and pedestrians who are holding umbrellas are performing object determination, but pedestrians who are holding umbrellas are not holding umbrellas when wipers are OFF. Each pedestrian is less likely to be detected as the final result. Therefore, erroneous determination can be reduced, and the detection accuracy of pedestrians can be improved.

また、環境推定部2060が図10に示す第二の形式の場合、過去の判定結果の頻度によって傘をさしていない歩行者、および、傘をさしている歩行者のそれぞれの信頼度を変化させている。よって、傘をさしていない歩行者も、傘をさしている歩行者も物体判定は実行しているが、一方の検出回数が十分多くなると、検出回数が少ない方は最終結果として検出されにくくなる。したがって、誤判定を減らすことができ、歩行者の検出精度を向上させることができる。   Further, when the environment estimation unit 2060 is in the second format shown in FIG. 10, the reliability of the pedestrian not wearing the umbrella and the pedestrian holding the umbrella is changed depending on the frequency of the past determination result. . Therefore, although the pedestrian who is not wearing an umbrella and the pedestrian who is holding an umbrella perform object determination, if the number of detections of one is sufficiently large, the one with a small number of detections is less likely to be detected as a final result. Therefore, erroneous determination can be reduced, and the detection accuracy of pedestrians can be improved.

<第三実施の形態>
つぎに、本発明の車両用外界認識装置の第三の実施の形態について、以下に図面を用いて説明する。
<Third embodiment>
Next, a third embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings.

図11は、車両用外界認識装置3000の実施形態を表すブロック図である。なお、以下の説明では、上述の第一実施の形態の車両用外界認識装置1000、および、第二十子の形態の車両用外界認識装置2000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付し説明を省略する。   FIG. 11 is a block diagram showing an embodiment of the vehicle external environment recognition device 3000. In the following description, only parts different from the vehicle external environment recognition device 1000 of the first embodiment and the vehicle external environment recognition device 2000 of the 20th embodiment will be described in detail, The same number is attached and explanation is omitted.

車両用外界認識装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から自車の車幅方向に向いている横向きの歩行者、および、自車の前後方向に向いている縦向きの歩行者を検知するように構成されている。   The vehicle external environment recognition device 3000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and detects two types of objects set in advance from an image captured by the camera 1010. In this embodiment, a lateral pedestrian facing in the vehicle width direction of the own vehicle and a vertical pedestrian facing in the front-rear direction of the own vehicle are detected from within an image obtained by imaging the front of the own vehicle. Is configured to do.

車両用外界認識装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。車両用外界認識装置3000は、図11に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部3030と、第一の特有類似度算出部3031と、第二の特有類似度算出部3032と、第一の物体判定部3041と、第二の物体判定部3042と、環境推定部3060と、第一の信頼度2061と、第二の信頼度2062と、物体位置算出部3071と、物体位置取得部1111とを有する。   The vehicle external environment recognition device 3000 is configured by a computer having a CPU, a memory, an I / O, and the like. A predetermined process is programmed, and the process is repeatedly executed at a predetermined cycle. As shown in FIG. 11, the vehicle external environment recognition device 3000 includes an image acquisition unit 1011, a processing region setting unit 1021, a common similarity calculation unit 3030, a first specific similarity calculation unit 3031, and a second Specific similarity calculation unit 3032, first object determination unit 3041, second object determination unit 3042, environment estimation unit 3060, first reliability 2061, second reliability 2062, and object position A calculation unit 3071 and an object position acquisition unit 1111 are included.

共通類似度算出部3030は、横向きの歩行者、および、縦向きの歩行者の共通なパターンである、歩行者の頭から肩にかけての輪郭テンプレートとの類似度を算出する。共通類似度算出部3030は、歩行者の頭のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域31(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP0との類似度MT0を算出する。なお、処理の詳細は、テンプレートTP0が歩行者の頭から肩にかけての輪郭であること以外は上述の共通類似度算出部1030と同様であるため、割愛する。   The common similarity calculation unit 3030 calculates the similarity with the outline template from the head to the shoulder of the pedestrian, which is a common pattern for the pedestrians in the horizontal direction and the pedestrians in the vertical direction. The common similarity calculation unit 3030 includes a template TP0 of the pedestrian's head, and the determination region 31 (SXG [g], SYG [g], EXG [g], EYG [g] of the image IMGSRC [x] [y]. ]) And the similarity MT0 between the template TP0. The details of the process are the same as those of the above-described common similarity calculation unit 1030 except that the template TP0 is a contour from the head to the shoulder of the pedestrian, and thus will be omitted.

第一の特有類似度算出部3031は、横向きの歩行者の特有のパターンである、横向きの歩行者の肩から下のテンプレートとの類似度を算出する。第一の特有類似度算出部3031は、横向きの歩行者の肩から下の輪郭テンプレートTP1を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP1との類似度MT1を算出する。なお、処理の詳細は、テンプレートTP1が横向きの歩行者の肩から下の輪郭であること以外は上述の第一の特有類似度算出部1031と同様であるため、割愛する。   The first unique similarity calculation unit 3031 calculates a similarity between the lateral pedestrian's shoulder and the template below, which is a unique pattern of the lateral pedestrian. The first unique similarity calculation unit 3031 has a contour template TP1 from the shoulder of a sideways pedestrian to the determination region (SXG [g], SYG [g], EXG of the image IMGSRC [x] [y]. [G], EYG [g]) and the similarity MT1 between the template TP1 are calculated. The details of the process are the same as those of the first specific similarity calculation unit 1031 described above except that the template TP1 is a contour from the shoulder of the sideways pedestrian, and thus will not be described.

第二の特有類似度算出部3032は、縦向きの歩行者の特有のパターンである、縦向きの歩行者の肩から下の輪郭テンプレートとの類似度を算出する。第二の特有類似度算出部3032は、縦向きの歩行者の肩から下のテンプレートTP2を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP2との類似度MT2を算出する。なお、処理の詳細は、テンプレートTP2が縦向きの歩行者の肩から下の輪郭であること以外は上述の第二の特有類似度算出部1032と同様であるため、割愛する。   The second unique similarity calculation unit 3032 calculates the similarity between the vertical pedestrian's shoulder and the lower contour template, which is a specific pattern of the vertical pedestrian. The second unique similarity calculation unit 3032 has a template TP2 below the shoulder of the vertically oriented pedestrian, and the determination region (SXG [g], SYG [g], EXG of the image IMGSRC [x] [y]. [G], EYG [g]) and the similarity MT2 between the template TP2 are calculated. The details of the process are the same as those of the second unique similarity calculation unit 1032 described above except that the template TP2 has a contour extending downward from the shoulder of a vertically oriented pedestrian, and thus will be omitted.

第一の物体判定部3041は、共通部分のテンプレートTP0との共通類似度MT0、および、横向きの歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、横向きの歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
The first object determination unit 3041 uses the common similarity MT0 with the common part template TP0 and the first specific similarity MT1 with the sideways pedestrian-specific template TP1 to determine whether there is a sideways pedestrian. Determine. The determination is made, for example, when the condition that the value obtained by adding the common similarity MT0 and the first specific similarity MT1 is larger than the threshold TH1_MT using the threshold TH1_MT, that is,
(MT0 + MT1)> TH1_MT
If the common similarity MT0 is greater than the threshold TH1_MT0 and the first specific similarity MT1 is determined using the common similarity threshold TH1_MT0 and the first specific similarity threshold TH1_MT1. Is larger than the threshold value TH1_MT1, that is,
MT0> TH1_MT0 and MT1> TH1_MT1
If so, it may be determined that an object exists.

第二の物体判定部3042は、共通部分のテンプレートTP0との共通類似度MT0と、縦向きの歩行者特有のテンプレートTP2との第二の特有類似度MT2を用いて、縦向きの歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0と第二の特有類似度MT2とを加算した値が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT2)>TH2_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH2_MT0と第二の特有類似度の閾値TH2_MT2を用いて、共通類似度MT0が閾値TH2_MT0よりも大きくかつ第二の特有類似度MT2が閾値TH2_MT2よりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT0、かつ、MT2>TH2_MT2
であれば物体が存在すると判定してもよい。
The second object determination unit 3042 uses the common similarity MT0 with the common part template TP0 and the second specific similarity MT2 with the vertical pedestrian-specific template TP2 to determine the pedestrian in the vertical direction. Determine presence or absence. The determination is made, for example, when the condition that the value obtained by adding the common similarity MT0 and the second specific similarity MT2 is larger than the threshold TH2_MT using the threshold TH2_MT, that is,
(MT0 + MT2)> TH2_MT
If the common similarity MT0 is larger than the threshold TH2_MT0 and the second specific similarity MT2 is determined using the common similarity threshold TH2_MT0 and the second specific similarity threshold TH2_MT2. Is larger than the threshold value TH2_MT2, that is,
MT0> TH2_MT0 and MT2> TH2_MT2
If so, it may be determined that an object exists.

環境推定部3060は、物体位置取得部1111からの情報を用いて、物体位置の履歴に基づいて、第一の信頼度2061、および、第二の信頼度2062を調整する処理を行う。この処理について、図12を用いて説明する。   The environment estimation unit 3060 performs processing for adjusting the first reliability 2061 and the second reliability 2062 based on the history of the object position using the information from the object position acquisition unit 1111. This process will be described with reference to FIG.

まず、ステップS121にて、処理領域設定部1021で選択されている処理対象となった物体の情報(相対距離PYR[b],PXR[b])を取得する。つぎに、ステップS122にて、過去の物体の位置情報の差分、および、自車速から、物体の縦方向の移動速度VY[b]、および、横方向の移動速度VX[b]を算出する。   First, in step S121, information (relative distances PYR [b], PXR [b]) of an object that is a processing target selected by the processing area setting unit 1021 is acquired. Next, in step S122, the vertical movement speed VY [b] and the horizontal movement speed VX [b] of the object are calculated from the difference in the position information of the past object and the vehicle speed.

そして、ステップS123にて、以下の条件を満たすかを判定する。ここで、Abs(X)は絶対値算出の演算であり、THVXはあらかじめ定められた所定の値である。例えば、0.5[m/s]と設定する。   In step S123, it is determined whether the following condition is satisfied. Here, Abs (X) is an operation for calculating an absolute value, and THVX is a predetermined value determined in advance. For example, it is set to 0.5 [m / s].

Abs(VX[b])>Abs(VY[b])
かつ Abs(VX[b])>THVX
Abs (VX [b])> Abs (VY [b])
And Abs (VX [b])> THVX

すなわち、横移動速度が縦移動速度よりも大きく、かつ、絶対値が十分に大きいという条件を満たすか否かが判断される。そして、この条件を満たす場合は、ステップS215へ進み、第一の信頼度2061、および、第二の信頼度2062をそれぞれr11、r21(r11>r21)と設定する。これにより、横向きの歩行者の方が、縦向きの歩行者よりも十分に多い場合には、横向きの歩行者の信頼度が、縦向き歩行者の信頼度よりも大きく設定される。   That is, it is determined whether or not the condition that the horizontal movement speed is higher than the vertical movement speed and the absolute value is sufficiently large is satisfied. If this condition is satisfied, the process proceeds to step S215, and the first reliability 2061 and the second reliability 2062 are set to r11 and r21 (r11> r21), respectively. Thereby, when there are more lateral pedestrians than vertical pedestrians, the reliability of lateral pedestrians is set larger than the reliability of vertical pedestrians.

そして、ステップS123の条件を満たさない場合は、ステップS124へ行き、以下の条件を満たすかを判定する。ここで、THVYはあらかじめ定められた所定の値であり、例えば、0.5[m/s]と設定する。   If the condition in step S123 is not satisfied, the process goes to step S124 to determine whether the following condition is satisfied. Here, THVY is a predetermined value set in advance, and is set to 0.5 [m / s], for example.

Abs(VY[b])>Abs(VX[b])
かつ Abs(VY[b])>THVY
Abs (VY [b])> Abs (VX [b])
And Abs (VY [b])> THVY

すなわち、縦移動速度が横移動速度よりも大きく、かつ、絶対値が十分に大きいという条件を満たすか否かが判断される。そして、この条件を満たす場合は、ステップS126へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr12、r22(r12<r22)と設定する。これにより、縦向きの歩行者の方が、横向きの歩行者よりも十分に多い場合には、縦向きの歩行者の信頼度が、横向き歩行者の信頼度よりも大きく設定される。   That is, it is determined whether or not the condition that the vertical movement speed is larger than the horizontal movement speed and the absolute value is sufficiently large is satisfied. If this condition is satisfied, the process proceeds to step S126, and the first reliability 2061 and the second reliability 2062 are set to r12 and r22 (r12 <r22), respectively. Thereby, when there are sufficiently more pedestrians in the vertical direction than pedestrians in the horizontal direction, the reliability of the pedestrian in the vertical direction is set larger than the reliability of the pedestrian in the horizontal direction.

そして、ステップS124の条件を満たさない場合は、ステップS127へ移行し、第一の信頼度2061、および、第二の信頼度2062をそれぞれr13、r23(r13=r23)と設定する。これにより、横向きの歩行者と、縦向きの歩行者の人数に大きな差がない場合には、横向きの歩行者の信頼度と縦向きの歩行者の信頼度が同じに設定される。   If the condition of step S124 is not satisfied, the process proceeds to step S127, and the first reliability 2061 and the second reliability 2062 are set to r13 and r23 (r13 = r23), respectively. Thereby, when there is no large difference in the number of pedestrians in the horizontal direction and in the vertical direction, the reliability of the pedestrians in the horizontal direction and the reliability of the pedestrians in the vertical direction are set to be the same.

以上説明したように、物体位置情報に基づいて縦向きの歩行者と横向きの歩行者の信頼度を変化させることによって、横方向に移動している物体に対する画像処理では、横向きの歩行者を判定しやすく、縦方向に移動している物体に対する画像処理では、縦向きの歩行者を判定しやすくすることができる。   As described above, in the image processing for an object moving in the horizontal direction, the pedestrian in the horizontal direction is determined by changing the reliability of the vertical pedestrian and the horizontal pedestrian based on the object position information. In the image processing for the object moving in the vertical direction, it is possible to easily determine the pedestrian in the vertical direction.

なお、本実施の形態では、環境推定部3060、第一の信頼度2061、第二の信頼度2062、物体位置算出部3071を用いた場合を例に説明したが、これらを用いずに、代わりに上述の第一実施の形態における物体位置算出部1051(図1を参照)を用いてもよい。また、本実施の形態では、環境推定部3060を用いる場合を例に説明したが、代わりに上述の第二の実施形態における環境推定部2060の図10に示す第二の形式を用いることもできる。   In the present embodiment, the case where the environment estimation unit 3060, the first reliability 2061, the second reliability 2062, and the object position calculation unit 3071 are used has been described as an example. Alternatively, the object position calculation unit 1051 (see FIG. 1) in the first embodiment described above may be used. In the present embodiment, the case where the environment estimation unit 3060 is used has been described as an example. Instead, the second format illustrated in FIG. 10 of the environment estimation unit 2060 in the second embodiment described above can be used. .

さらに、コンピュータの処理能力が低い場合、所定の自車速から白線認識などを並列処理する場合、全てのパターンマッチ処理を実行することができないことがある。したがって、例えば、図8に記載の車両用外界認識装置の第二の実施形態、または、図11に記載の車両用外界認識装置の第三の実施形態において、第一の信頼度2061、第二の信頼度2062を参照し、信頼度が高いほうの判定部、および、判定部が参照している共通類似度算出部、特有類似度算出部の処理を優先させ、処理に余裕があるときに、残りの信頼度が低い方の物体判定部、および、判定部が参照している特有類似度算出部の処理を実行するようにしてもよい。   Furthermore, when the processing capability of the computer is low, it may not be possible to execute all pattern matching processes when parallel processing such as white line recognition is performed from a predetermined own vehicle speed. Therefore, for example, in the second embodiment of the vehicle external environment recognition device shown in FIG. 8 or the third embodiment of the vehicle external environment recognition device shown in FIG. When the processing of the determination unit with higher reliability and the processing of the common similarity calculation unit and the specific similarity calculation unit referred to by the determination unit is prioritized and there is a margin in processing The remaining object determination unit having a lower reliability and the processing of the unique similarity calculation unit referred to by the determination unit may be executed.

以上説明したように、信頼度を設けることによって、処理負荷が大きく全ての処理が実行できない場合に、信頼度に基づいて処理の優先順位を変更し、信頼度が高い物体の判定処理を優先させることができる。   As described above, by providing reliability, when the processing load is large and not all processes can be performed, the priority of the process is changed based on the reliability, and the object determination process with high reliability is given priority. be able to.

<第四実施の形態>
つぎに、本発明の車両用外界認識装置の第四実施の形態について、以下に図面を用いて説明する。図13は、車両用外界認識装置4000の実施形態を表すブロック図である。なお、以下の説明では、上述の第一実施の形態〜第三実施の形態の車両用外界認識装置1000〜3000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
<Fourth embodiment>
Next, a fourth embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings. FIG. 13 is a block diagram illustrating an embodiment of a vehicle external environment recognition device 4000. In the following description, only the parts different from the above-described vehicle external world recognition devices 1000 to 3000 of the first embodiment to the third embodiment will be described in detail, and the same parts will be denoted by the same reference numerals. Detailed description is omitted.

車両用外界認識装置4000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から予め設定された2種類の物体を検知するためのものであり、本実施の形態では、例えば夜間にヘッドライトのロービームによって、自車の前方を撮像した画像内から全身が見えている歩行者と、下半身のみ見えている歩行者の両方を検知するように構成されている。   The vehicle external environment recognition device 4000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and detects two types of preset objects from an image captured by the camera 1010. In the present embodiment, for example, a pedestrian who can see the whole body and a pedestrian who can see only the lower body are detected from an image obtained by imaging the front of the vehicle at night by a low beam of a headlight. Has been.

車両用外界認識装置4000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。   The vehicle external environment recognition device 4000 is configured by a computer having a CPU, a memory, an I / O, and the like. A predetermined process is programmed, and the process is repeatedly executed at a predetermined cycle.

車両用外界認識装置4000は、図13に示すように、画像取得部1011と、処理領域設定部1021と、共通類似度算出部4030と、第一の特有類似度算出部4031と、第一の物体判定部4041と、第二の物体判定部4042と、物体位置算出部1051とを有し、実施例によっては物体位置取得部1111を有する。   As shown in FIG. 13, the vehicle external environment recognition device 4000 includes an image acquisition unit 1011, a processing region setting unit 1021, a common similarity calculation unit 4030, a first specific similarity calculation unit 4031, An object determining unit 4041, a second object determining unit 4042, and an object position calculating unit 1051 are included, and an object position acquiring unit 1111 is included in some embodiments.

共通類似度算出部4030は、全身が見えている歩行者、および、下半身のみ見えている歩行者の共通なパターンである、歩行者の下半身のテンプレートTP0との類似度を算出する。共通類似度算出部4030は、歩行者の下半身のテンプレートTP0を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP0との類似度MT0を算出する。なお、歩行者の下半身のテンプレートは図5に示すものであり、類似度MT0の算出処理は、上述の第一実施の形態における共通類似度算出部1030と同様であるため、説明は割愛する。   The common similarity calculation unit 4030 calculates a similarity between the pedestrian's lower body template TP0, which is a common pattern of a pedestrian who can see the whole body and a pedestrian who can see only the lower body. The common similarity calculation unit 4030 includes a template TP0 for the lower body of the pedestrian, and the determination regions (SXG [g], SYG [g], EXG [g], EYG [g] of the image IMGSRC [x] [y]. ) And the template TP0 is calculated. The template for the lower body of the pedestrian is shown in FIG. 5, and the calculation process of the similarity MT0 is the same as that of the common similarity calculation unit 1030 in the first embodiment described above.

第一の特有類似度算出部4031は、全身が見えている歩行者の特有のパターンである、歩行者の上半身のテンプレートTP1との類似度を算出する。第一の特有類似度算出部4031は、歩行者の上半身のテンプレートTP1を有し、画像IMGSRC[x][y]の判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とテンプレートTP1との類似度MT1を算出する。なお、歩行者の上半身のテンプレートTP1は、図7(a)に示すものであり、類似度MT1の算出処理は、上述の第一実施の形態における第一の特有類似度算出部1031と同様であるため、説明は割愛する。   The first unique similarity calculation unit 4031 calculates the similarity with the template TP1 of the upper body of the pedestrian, which is a unique pattern of the pedestrian who can see the whole body. The first unique similarity calculation unit 4031 has a template TP1 for the upper body of the pedestrian, and the determination regions (SXG [g], SYG [g], EXG [g], EYG of the image IMGSRC [x] [y]. The similarity MT1 between [g]) and the template TP1 is calculated. Note that the template TP1 for the upper body of the pedestrian is shown in FIG. 7A, and the calculation process of the similarity MT1 is the same as that of the first specific similarity calculation unit 1031 in the first embodiment described above. Because there is, explanation is omitted.

第一の物体判定部4041は、共通部分のテンプレートTP0との共通類似度MT0と、全身が見えている歩行者特有のテンプレートTP1との第一の特有類似度MT1を用いて、全身が見えている歩行者の有無を判定する。判定は、例えば閾値TH1_MTを用いて、共通類似度MT0と第一の特有類似度MT1とを加算した値が閾値TH1_MTよりも大きいという条件を満たす場合、すなわち、
(MT0+MT1)>TH1_MT
であれば存在すると判定してもよいし、共通類似度の閾値TH1_MT0と第一の特有類似度の閾値TH1_MT1を用いて、共通類似度MT0が閾値TH1_MT0よりも大きくかつ第一の特有類似度MT1が閾値TH1_MT1よりも大きいという条件を満たす場合、すなわち、
MT0>TH1_MT0、かつ、MT1>TH1_MT1
であれば物体が存在すると判定してもよい。
The first object determination unit 4041 uses the common similarity MT0 with the template TP0 of the common part and the first specific similarity MT1 with the template TP1 unique to the pedestrian who can see the whole body to see the whole body. Determine the presence or absence of pedestrians. The determination is made, for example, when the condition that the value obtained by adding the common similarity MT0 and the first specific similarity MT1 is larger than the threshold TH1_MT using the threshold TH1_MT, that is,
(MT0 + MT1)> TH1_MT
If the common similarity MT0 is greater than the threshold TH1_MT0 and the first specific similarity MT1 is determined using the common similarity threshold TH1_MT0 and the first specific similarity threshold TH1_MT1. Is larger than the threshold value TH1_MT1, that is,
MT0> TH1_MT0 and MT1> TH1_MT1
If so, it may be determined that an object exists.

第二の物体判定部3042は、共通部分のテンプレートとの共通類似度MT0を用いて、下半身のみ見えている歩行者の有無を判定する。判定は、例えば閾値TH2_MTを用いて、共通類似度MT0が閾値TH2_MTよりも大きいという条件を満たす場合、すなわち、
MT0>TH2_MT
であれば、歩行者が存在すると判定する。
The second object determination unit 3042 determines the presence / absence of a pedestrian who can see only the lower body, using the common similarity MT0 with the template of the common part. The determination is performed when, for example, the threshold TH2_MT is used and the condition that the common similarity MT0 is larger than the threshold TH2_MT is satisfied, that is,
MT0> TH2_MT
If it is, it will determine with a pedestrian existing.

なお、本実施の形態では、図13に示すように、物体位置算出部1051を用いる場合を例に説明しているが、これを用いずに、代わりに上述の第三の実施の形態における環境推定部3060、第一の信頼度2061、第二の信頼度2062、物体位置算出部3071を用いてもよい。   In the present embodiment, as shown in FIG. 13, the case where the object position calculation unit 1051 is used is described as an example, but instead of using this, the environment in the above-described third embodiment is used instead. The estimation unit 3060, the first reliability 2061, the second reliability 2062, and the object position calculation unit 3071 may be used.

本実施の形態によれば、自車の前方を撮像した画像内から全身が見えている歩行者と、下半身のみ見えている歩行者の両方を、より少ない処理負荷で検知することができる。   According to the present embodiment, it is possible to detect both a pedestrian who can see the whole body from an image obtained by capturing the front of the host vehicle and a pedestrian who can see only the lower body with a smaller processing load.

<第五実施の形態>
つぎに、図14を用いて、プリクラッシュ・セーフティ・システムを例にとり、上述の各実施の形態の車両用外界認識装置によって判定した歩行者に応じて警報を出力する、あるいは自動的にブレーキを制御するといったシステムの動作方法について説明する。
<Fifth embodiment>
Next, referring to FIG. 14, taking a pre-crash safety system as an example, an alarm is output according to the pedestrian determined by the vehicle external environment recognition device of each embodiment described above, or the brake is automatically applied. An operation method of the system such as control will be described.

図14は、プリクラッシュ・セーフティ・システムの動作方法を示すフローチャートである。   FIG. 14 is a flowchart showing an operation method of the pre-crash safety system.

最初に、ステップS141において、上記いずれかの車両用外界認識装置によって検知された歩行者の位置情報を、障害物情報(PYO[b]、PXO[b]、WDO[b])として読み込む。   First, in step S141, the position information of the pedestrian detected by any of the above-described vehicle external recognition devices is read as obstacle information (PYO [b], PXO [b], WDO [b]).

つぎに、ステップS142において、検知された各物体の衝突予測時間TTC[i]を、下記の式(3)を用いて演算する。ここで、相対速度VYO[b]は、物体の相対距離PYO[b]を擬似微分することによって求める。   Next, in step S142, the collision prediction time TTC [i] of each detected object is calculated using the following equation (3). Here, the relative velocity VYO [b] is obtained by pseudo-differentiating the relative distance PYO [b] of the object.

TTC[b]=PY[b]÷VY[b] ・・・(3)   TTC [b] = PY [b] ÷ VY [b] (3)

さらに、ステップS143において、各障害物に対する危険度DRECI[b]を演算する。   Further, in step S143, the risk level DRECI [b] for each obstacle is calculated.

以下、上述のいずれかの車両用外界認識装置で検知された物体X[b]に対する危険度DRECI[b]の演算方法の例を、図15を用いて説明する。   Hereinafter, an example of a method for calculating the degree of risk DRECI [b] for the object X [b] detected by any one of the above-described vehicle external world recognition devices will be described with reference to FIG.

まず、予測進路の推定方法について説明する。図15に示すように、自車位置を原点Oとすると、予測進路は原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車の操舵角α、速度Vsp、スタビリティファクタA、ホイールベースLおよびステアリングギア比Gsを用いて以下の式(4)で表される。   First, a method for estimating a predicted course will be described. As shown in FIG. 15, when the vehicle position is the origin O, the predicted course can be approximated by an arc of a turning radius R passing through the origin O. Here, the turning radius R is expressed by the following equation (4) using the steering angle α, the speed Vsp, the stability factor A, the wheel base L, and the steering gear ratio Gs of the host vehicle.

R=(1+AV2)×(L・Gs/α) ・・・(4)   R = (1 + AV2) × (L · Gs / α) (4)

ここで、スタビリティファクタAとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。上記式(2)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車の速度Vspの2乗に比例して変化する。また、旋回半径Rは車速Vspおよびヨーレートγを用いて式(5)で表すことができる。   Here, the stability factor A is an important value that determines the magnitude of the change depending on the speed of the steady circular turning of the vehicle. As can be seen from the above equation (2), the turning radius R changes in proportion to the square of the speed Vsp of the host vehicle with the stability factor A as a coefficient. Further, the turning radius R can be expressed by Expression (5) using the vehicle speed Vsp and the yaw rate γ.

R=V/γ ・・・(5)   R = V / γ (5)

つぎに、物体X[b]から、旋回半径Rの円弧で近似した予測進路の中心へ垂線を引き、距離L[b]を求める。   Next, a perpendicular line is drawn from the object X [b] to the center of the predicted course approximated by the arc of the turning radius R to obtain the distance L [b].

さらに、自車幅Hから距離L[b]を引き、これが負値の場合には危険度DRECI[b]=0とし、正値の場合には以下の式(6)によって危険度DRECI[b]を演算する。   Further, the distance L [b] is subtracted from the own vehicle width H. When this is a negative value, the danger level DRECI [b] = 0, and when the value is a positive value, the danger level DRECI [b] is given by the following equation (6). ] Is calculated.

DRECI[b]= (H−L[b])/H ・・・(6)   DRECI [b] = (HL [b]) / H (6)

なお、ステップS141〜S143の処理は、検知した物体数に応じてループ処理を行う構成としている。   In addition, the process of step S141-S143 is set as the structure which performs a loop process according to the detected number of objects.

ステップS144において、ステップS143で演算した危険度DRECI[b]に応じて式(7)の条件が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[b]が最小となる物体bMinを選択する。   In step S144, an object satisfying the condition of Expression (7) is selected according to the risk degree DRECI [b] calculated in step S143, and the predicted collision time TTC [b] is the smallest among the selected objects. The object bMin is selected.

DRECI[b]≧ cDRECI# ・・・(7)   DRECI [b] ≧ cDRECI # (7)

ここで、所定値cDRECI#は、自車に衝突するか否かを判定するための閾値である。   Here, the predetermined value cDRECI # is a threshold value for determining whether or not the vehicle collides.

つぎに、ステップS145において、選択された物体kの衝突予測時間TTC[bMin]に応じて自動的にブレーキを制御する範囲であるか否かの判定を行う。式(8)が成立している場合にはステップS146に進み、ブレーキ制御を実行して処理を終了する。また、式(8)が非成立の場合にはステップS147に進む。   Next, in step S145, it is determined whether or not the brake is automatically controlled in accordance with the predicted collision time TTC [bMin] of the selected object k. If Expression (8) is established, the process proceeds to step S146, brake control is executed, and the process is terminated. On the other hand, if Expression (8) is not established, the process proceeds to step S147.

TTC[bMin]≦cTTCBRK# ・・・(8)   TTC [bMin] ≦ cTTCBRK # (8)

ステップS147において、選択された物体bMinの衝突予測時間TTC[bMin]に応じて警報を出力する範囲であるか否かの判定を行う。式(9)が成立している場合にはステップS148に進み、警報を出力して処理を終了する。また、式(9)が非成立の場合には、ブレーキ制御、警報ともに実行せずに処理を終了する。   In step S147, it is determined whether or not the alarm is output in accordance with the predicted collision time TTC [bMin] of the selected object bMin. If Expression (9) is established, the process proceeds to step S148, where an alarm is output and the process is terminated. In addition, when Expression (9) is not established, neither the brake control nor the warning is executed and the process is terminated.

TTC[bMin]≦cTTCALM# ・・・(9)   TTC [bMin] ≦ cTTCALM # (9)

以上説明したように、本発明である上述のいずれかの車両用外界認識装置において歩行者と判定された物体に対して、その危険度に応じて上記警報やブレーキ制御を発動させることができる。   As described above, the alarm and the brake control can be activated for an object determined as a pedestrian in any one of the above vehicle external recognition devices according to the present invention, depending on the degree of risk.

なお、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.

1000 車両用外界認識装置
1011 画像取得部
1021 処理領域設定部
1030 共通類似度算出部
1031 第一の特有類似度算出部
1032 第二の特有類似度算出部
1041 第一の物体判定部
1042 第二の物体判定部
1051 物体位置算出部
1111 物体位置取得部
2000 車両用外界認識装置
2161 ワイパ操作取得部
2060 環境推定部
2061 第一の信頼度
2062 第二の信頼度
2071 物体位置算出部
3000 車両用外界認識装置
3030 共通類似度算出部
3031 第一の特有類似度算出部
3032 第二の特有類似度算出部
3041 第一の物体判定部
3042 第二の物体判定部
3060 環境推定部
4000 車両用外界認識装置
4030 共通類似度算出部
4031 第一の特有類似度算出部
4041 第一の物体判定部
4042 第二の物体判定部
1000 Vehicle External Recognizer 1011 Image Acquisition Unit 1021 Processing Area Setting Unit 1030 Common Similarity Calculation Unit 1031 First Specific Similarity Calculation Unit 1032 Second Specific Similarity Calculation Unit 1041 First Object Determination Unit 1042 Second Object determination unit 1051 Object position calculation unit 1111 Object position acquisition unit 2000 Vehicle external environment recognition device 2161 Wiper operation acquisition unit 2060 Environment estimation unit 2061 First reliability 2062 Second reliability 2071 Object position calculation unit 3000 Vehicle external environment recognition Device 3030 Common similarity calculation unit 3031 First specific similarity calculation unit 3032 Second specific similarity calculation unit 3041 First object determination unit 3042 Second object determination unit 3060 Environment estimation unit 4000 Vehicle external environment recognition device 4030 Common similarity calculation unit 4031 First unique similarity calculation unit 4041 First object size Part 4042 second object determination unit

Claims (11)

自車周辺から所定の第一の物体と第二の物体を検出する車両用外界認識装置であって、
自車周辺を撮影した画像を取得する画像取得手段と、
前記画像から前記第一の物体と前記第二の物体の共通部分の類似度である共通類似度を算出する共通類似度算出手段と、
前記画像から前記第一の物体の特有な部分の類似度である第一の特有類似度を算出する第一の特有類似度算出手段と、
前記画像から前記第二の物体の特有な部分の類似度である第二の特有類似度を算出する第二の特有類似度算出手段と、
前記共通類似度と前記第一の特有類似度を用いて前記第一の物体の有無を判定する第一の物体判定手段と、
前記共通類似度と前記第二の特有類似度を用いて前記第二の物体の有無を判定する第二の物体判定手段と、
を有することを特徴とする車両用外界認識装置。
An external recognition device for a vehicle that detects a predetermined first object and a second object from around the vehicle,
Image acquisition means for acquiring an image of the periphery of the vehicle;
A common similarity calculation means for calculating a common similarity that is a similarity of a common part of the first object and the second object from the image;
A first unique similarity calculating means for calculating a first unique similarity that is a similarity of a specific part of the first object from the image;
A second specific similarity calculating means for calculating a second specific similarity that is a similarity of a specific part of the second object from the image;
First object determination means for determining the presence or absence of the first object using the common similarity and the first specific similarity;
Second object determination means for determining the presence or absence of the second object using the common similarity and the second specific similarity;
A vehicle external environment recognition device characterized by comprising:
自車周辺の環境を推定し、該推定した環境に応じて、前記第一の物体判定手段の判定結果に対する第一の信頼度と前記第二の物体判定手段の判定結果に対する第二の信頼度を調整する環境推定手段を有することを特徴とする請求項1に記載の車両用外界認識装置。   The environment around the host vehicle is estimated, and the first reliability with respect to the determination result of the first object determination means and the second reliability with respect to the determination result of the second object determination means according to the estimated environment The environment recognizing device for a vehicle according to claim 1, further comprising environment estimating means for adjusting 前記環境推定手段は、予め設定された期間に一定周期で繰り返し実行された前記第一の物体判定手段と前記第二の物体判定手段の判定処理の判定結果に基づいて前記第一の信頼度と前記第二の信頼度を調整することを特徴とする請求項2に記載の車両用外界認識装置。   The environment estimation unit is configured to determine the first reliability based on a determination result of a determination process of the first object determination unit and the second object determination unit that is repeatedly executed at a predetermined period in a preset period. The external environment recognition device for a vehicle according to claim 2, wherein the second reliability is adjusted. 前記環境推定手段は、前記第一の物体判定手段と前記第二の物体判定手段のうち、物体の検出回数の多い方の信頼度が検出回数の少ない方の信頼度よりも高くなるように、前記第一の信頼度と前記第二の信頼度を調整することを特徴とする請求項3に記載の車両用外界認識装置。   The environment estimation unit is configured such that, among the first object determination unit and the second object determination unit, the reliability of the one with the larger number of object detections is higher than the reliability with the smaller number of detections. The vehicle external environment recognition device according to claim 3, wherein the first reliability and the second reliability are adjusted. 自車前方に存在する物体の物体位置を取得する物体位置取得手段を備え、
前記環境推定手段は、前記物体位置取得手段で取得した物体位置の履歴により前記第一の信頼度と前記第二の信頼度を調整することを特徴とする請求項2に記載の車両用外界認識装置。
An object position acquisition means for acquiring an object position of an object existing in front of the host vehicle;
The vehicle environment recognition according to claim 2, wherein the environment estimation unit adjusts the first reliability and the second reliability based on a history of the object position acquired by the object position acquisition unit. apparatus.
前記第一の信頼度の方が前記第二の信頼度よりも高い場合に、前記第一の特有類似度算出手段と前記第一の物体判定手段の処理を、前記第二の特有類似度算出手段と前記第二の物体判定手段の処理よりも優先し、
前記第二の信頼度の方が前記第一の信頼度よりも高い場合に、前記第二の特有類似度算出手段と前記第二の物体判定手段の処理を、前記第一の特有類似度算出手段と前記第一の物体判定手段の処理よりも優先することを特徴とする請求項2から請求項5のいずれか一項に記載の車両用外界認識装置。
When the first reliability is higher than the second reliability, the processing of the first specific similarity calculation unit and the first object determination unit is performed by calculating the second specific similarity. Priority over the processing of the means and the second object determination means,
When the second reliability is higher than the first reliability, the processing of the second specific similarity calculation means and the second object determination means is performed by calculating the first specific similarity. The vehicle external environment recognition device according to any one of claims 2 to 5, wherein the vehicle has priority over the processing of the first object determination unit and the first object determination unit.
前記第一の物体判定手段により前記第一の物体が存在すると判定された場合に前記第一の物体の位置を算出し、前記第二の物体判定手段により前記第二の物体が存在すると判定された場合に前記第二の物体の位置を算出する物体位置算出手段を有することを特徴とする請求項1から請求項6のいずれか一項に記載の車両用外界認識装置。   When the first object determining means determines that the first object exists, the position of the first object is calculated, and the second object determining means determines that the second object exists. The vehicle external environment recognition device according to any one of claims 1 to 6, further comprising an object position calculating unit that calculates the position of the second object when the second object is detected. 自車周辺から所定の第一の物体と第二の物体を検出する車両用外界認識装置であって、
自車周辺を撮影した画像を取得する画像取得手段と、
前記画像から前記第一の物体と前記第二の物体の共通部分の類似度である共通類似度を算出する共通類似度算出手段と、
前記画像から前記第一の物体の特有な部分の類似度である第一の特有類似度を算出する第一の特有類似度算出手段と、
前記共通類似度と前記第一の特有類似度を用いて前記第一の物体の有無を判定する第一の物体判定手段と、
前記共通類似度を用いて前記第二の物体の有無を判定する第二の物体判定手段と、
を有する車両用外界認識装置。
An external recognition device for a vehicle that detects a predetermined first object and a second object from around the vehicle,
Image acquisition means for acquiring an image of the periphery of the vehicle;
A common similarity calculation means for calculating a common similarity that is a similarity of a common part of the first object and the second object from the image;
A first unique similarity calculating means for calculating a first unique similarity that is a similarity of a specific part of the first object from the image;
First object determination means for determining the presence or absence of the first object using the common similarity and the first specific similarity;
Second object determination means for determining the presence or absence of the second object using the common similarity;
An external environment recognition device for a vehicle.
請求項2から請求項8のいずれか一項に記載の車両用外界認識装置を備えた車両システムであって、
前記物体位置検出手段により検出した前記第一の物体の位置および前記第二の物体の位置に応じて前記自車が衝突する危険度を算出する衝突危険度算出手段と、
該衝突危険度算出手段により算出した衝突危険度に応じて自車の衝突を回避する制御を行う制御手段と、
を有することを特徴とする車両システム。
A vehicle system comprising the vehicle external environment recognizing device according to any one of claims 2 to 8,
A collision risk calculating means for calculating a risk of collision of the vehicle according to the position of the first object and the position of the second object detected by the object position detecting means;
Control means for performing control to avoid a collision of the own vehicle according to the collision risk calculated by the collision risk calculation means;
A vehicle system comprising:
前記制御手段は、前記第一の物体の位置および第二の物体の位置に基づいて、前記自車が前記第一の物体または前記第2の物体と衝突する衝突予想時間を算出し、該算出した衝突予測時間と予め設定された制動用閾値とを比較して、前記衝突予測時間が前記制動用閾値以下であるときは、前記自車に対する制動制御を行うことを特徴とする請求項9に記載の車両システム。   The control means calculates an expected collision time when the host vehicle collides with the first object or the second object based on the position of the first object and the position of the second object, and the calculation 10. The braking control for the host vehicle is performed when the predicted collision time is compared with a preset braking threshold and the predicted collision time is less than or equal to the braking threshold. The vehicle system described. 前記制御手段は、前記第一の物体の位置および第二の物体の位置に基づいて、前記自車が前記物体と衝突する衝突予想時間を算出し、該算出した衝突予測時間と予め設定された警報用閾値とを比較して、前記衝突予測時間が前記警報用閾値以下であるときは、前記自車の運転者に対する警報制御を行うことを特徴とする請求項9に記載の車両システム。
The control means calculates a predicted collision time when the host vehicle collides with the object based on the position of the first object and the position of the second object, and the calculated predicted collision time is preset. 10. The vehicle system according to claim 9, wherein an alarm control is performed on a driver of the host vehicle when the estimated collision time is equal to or less than the alarm threshold by comparing with an alarm threshold. 10.
JP2010293471A 2010-12-28 2010-12-28 Vehicle external recognition device and vehicle system using the same Expired - Fee Related JP5593217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010293471A JP5593217B2 (en) 2010-12-28 2010-12-28 Vehicle external recognition device and vehicle system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010293471A JP5593217B2 (en) 2010-12-28 2010-12-28 Vehicle external recognition device and vehicle system using the same

Publications (2)

Publication Number Publication Date
JP2012141740A true JP2012141740A (en) 2012-07-26
JP5593217B2 JP5593217B2 (en) 2014-09-17

Family

ID=46677988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010293471A Expired - Fee Related JP5593217B2 (en) 2010-12-28 2010-12-28 Vehicle external recognition device and vehicle system using the same

Country Status (1)

Country Link
JP (1) JP5593217B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014035669A (en) * 2012-08-09 2014-02-24 Honda Motor Co Ltd Object position detection device
JP2014059655A (en) * 2012-09-14 2014-04-03 Toshiba Corp Road situation-monitoring device, and road situation-monitoring method
JP2015215749A (en) * 2014-05-09 2015-12-03 株式会社デンソー Object detection device for vehicle
WO2018110964A1 (en) * 2016-12-14 2018-06-21 Samsung Electronics Co., Ltd. Electronic device and method for recognizing object by using plurality of sensors
JP2018151748A (en) * 2017-03-10 2018-09-27 オムロン株式会社 Image processing apparatus, image processing method, template creation apparatus, object recognition processing apparatus, and program
KR20220167263A (en) * 2020-12-10 2022-12-20 모셔널 에이디 엘엘씨 MERGING LiDAR INFORMATION AND CAMERA INFORMATION
WO2024095318A1 (en) * 2022-10-31 2024-05-10 日本電気株式会社 Parameter control device, object detection device, equipment control device, method, and computer readable medium
US12142056B2 (en) 2018-03-26 2024-11-12 Mitsubishi Electric Corporation Information processing device, information processing method, and computer readable medium for determining a latent event

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074595A (en) * 2000-08-29 2002-03-15 Hitachi Ltd Vehicle safe driving support system
JP2005354597A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2007272624A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image recognition device
JP2009026223A (en) * 2007-07-23 2009-02-05 Toyota Central R&D Labs Inc Object detection apparatus and program
JP2009042941A (en) * 2007-08-07 2009-02-26 Honda Motor Co Ltd Object type determination device, vehicle, object type determination method, and object type determination program
JP2010211427A (en) * 2009-03-10 2010-09-24 Omron Corp Safe driving monitor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074595A (en) * 2000-08-29 2002-03-15 Hitachi Ltd Vehicle safe driving support system
JP2005354597A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2007272624A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image recognition device
JP2009026223A (en) * 2007-07-23 2009-02-05 Toyota Central R&D Labs Inc Object detection apparatus and program
JP2009042941A (en) * 2007-08-07 2009-02-26 Honda Motor Co Ltd Object type determination device, vehicle, object type determination method, and object type determination program
JP2010211427A (en) * 2009-03-10 2010-09-24 Omron Corp Safe driving monitor

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014035669A (en) * 2012-08-09 2014-02-24 Honda Motor Co Ltd Object position detection device
JP2014059655A (en) * 2012-09-14 2014-04-03 Toshiba Corp Road situation-monitoring device, and road situation-monitoring method
JP2015215749A (en) * 2014-05-09 2015-12-03 株式会社デンソー Object detection device for vehicle
WO2018110964A1 (en) * 2016-12-14 2018-06-21 Samsung Electronics Co., Ltd. Electronic device and method for recognizing object by using plurality of sensors
US10600197B2 (en) 2016-12-14 2020-03-24 Samsung Electronics Co., Ltd. Electronic device and method for recognizing object by using plurality of sensors
US11295469B2 (en) 2016-12-14 2022-04-05 Samsung Electronics Co., Ltd. Electronic device and method for recognizing object by using plurality of sensors
JP2018151748A (en) * 2017-03-10 2018-09-27 オムロン株式会社 Image processing apparatus, image processing method, template creation apparatus, object recognition processing apparatus, and program
US12142056B2 (en) 2018-03-26 2024-11-12 Mitsubishi Electric Corporation Information processing device, information processing method, and computer readable medium for determining a latent event
KR20220167263A (en) * 2020-12-10 2022-12-20 모셔널 에이디 엘엘씨 MERGING LiDAR INFORMATION AND CAMERA INFORMATION
US12060078B2 (en) 2020-12-10 2024-08-13 Motional Ad Llc Merging LiDAR information and camera information
KR102717432B1 (en) * 2020-12-10 2024-10-15 모셔널 에이디 엘엘씨 MERGING LiDAR INFORMATION AND CAMERA INFORMATION
WO2024095318A1 (en) * 2022-10-31 2024-05-10 日本電気株式会社 Parameter control device, object detection device, equipment control device, method, and computer readable medium

Also Published As

Publication number Publication date
JP5593217B2 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
JP5401344B2 (en) Vehicle external recognition device
JP5372680B2 (en) Obstacle detection device
JP5593217B2 (en) Vehicle external recognition device and vehicle system using the same
JP5283967B2 (en) In-vehicle object detection device
JP7025912B2 (en) In-vehicle environment recognition device
JP5518007B2 (en) Vehicle external recognition device and vehicle control system using the same
JP5090321B2 (en) Object detection device
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
JP4775391B2 (en) Obstacle detection device
EP3179445B1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
JP5124592B2 (en) System and method for detecting and tracking a vehicle
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
KR101663574B1 (en) Method and system for detection of sudden pedestrian crossing for safe driving during night time
JP7454685B2 (en) Detection of debris in vehicle travel paths
JP6458651B2 (en) Road marking detection device and road marking detection method
JP2011248445A (en) Moving object prediction device and program
JP2008304344A (en) Target detection device
JP2017187864A (en) Vehicle controller, vehicle control method
JPWO2018190362A1 (en) Method and apparatus for detecting pedestrians around a vehicle
KR101687094B1 (en) Apparatus for recognizing traffic sign and method thereof
Kim et al. An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing
JP2009037284A (en) Traveling object recognition device
JP6171608B2 (en) Object detection device
JP2021196560A (en) Environmental map generation method and environmental map generation device
JP4092509B2 (en) Object determination apparatus and object determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140418

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140804

R150 Certificate of patent or registration of utility model

Ref document number: 5593217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees