[go: up one dir, main page]

JP2012150587A - Vehicle detection device and vehicle detection method - Google Patents

Vehicle detection device and vehicle detection method Download PDF

Info

Publication number
JP2012150587A
JP2012150587A JP2011007691A JP2011007691A JP2012150587A JP 2012150587 A JP2012150587 A JP 2012150587A JP 2011007691 A JP2011007691 A JP 2011007691A JP 2011007691 A JP2011007691 A JP 2011007691A JP 2012150587 A JP2012150587 A JP 2012150587A
Authority
JP
Japan
Prior art keywords
vehicle
edge
edge strength
image
pixel row
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011007691A
Other languages
Japanese (ja)
Other versions
JP5765946B2 (en
Inventor
Tatsuo Yamamoto
達夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2011007691A priority Critical patent/JP5765946B2/en
Publication of JP2012150587A publication Critical patent/JP2012150587A/en
Application granted granted Critical
Publication of JP5765946B2 publication Critical patent/JP5765946B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】近接画像が検出されてエッジ強度が低下してしまう領域であっても車両を認識する精度を向上させることのできる車両検出装置を提供する。
【解決手段】本発明の車両検出装置1は、自車両の周囲を撮像した画像をグレースケール化するグレースケール化部3と、グレースケール化された撮像画像をフィルタでエッジ処理するエッジ処理部4と、エッジ処理された撮像画像から車両の特徴を示している車両画像を切り出す車両画像切出部5と、切り出された車両画像を上下に複数の分割領域に分割する車両画像分割部6と、分割領域を構成する各画素行のエッジ強度に上の画素行のエッジ強度を加算するエッジ加算部7と、分割領域を構成する画素のエッジ強度と予め設定された閾値とを比較して車両の有無を認識する車両認識部8とを備えていることを特徴とする。
【選択図】図1
There is provided a vehicle detection device capable of improving the accuracy of recognizing a vehicle even in a region where a proximity image is detected and an edge strength is reduced.
A vehicle detection apparatus 1 according to the present invention includes a gray scale unit 3 that converts an image obtained by capturing the surroundings of a host vehicle to gray scale, and an edge processing unit 4 that performs edge processing on the gray scaled captured image using a filter. A vehicle image cutout unit 5 that cuts out a vehicle image indicating the characteristics of the vehicle from the edge-processed captured image, a vehicle image division unit 6 that divides the cut out vehicle image into a plurality of divided regions, and The edge addition unit 7 for adding the edge strength of the upper pixel row to the edge strength of each pixel row constituting the divided region, and comparing the edge strength of the pixels constituting the divided region with a preset threshold value A vehicle recognition unit 8 that recognizes the presence or absence is provided.
[Selection] Figure 1

Description

本発明は、自車両の周囲を撮像した撮像画像から車両の画像を認識して検出する車両検出装置及び車両検出方法に関する。   The present invention relates to a vehicle detection apparatus and a vehicle detection method for recognizing and detecting an image of a vehicle from a captured image obtained by imaging the periphery of the host vehicle.

近年、車両の周囲を撮像した画像を解析することによって、自車両の周囲に存在している車両を検出する技術の開発が進められており、自動操舵などの車両の安全走行のための技術に応用されている。   In recent years, the development of technology for detecting vehicles existing around the subject vehicle by analyzing images taken around the vehicle has been promoted, and technology for safe driving of vehicles such as automatic steering has been developed. Applied.

通常、撮像した画像から車両を認識する方法としては、撮像した画像をフィルタでエッジ処理し、予め設定された閾値以上となるエッジ強度の部分を検出して先行車両の位置を特定していた。   Normally, as a method for recognizing a vehicle from a captured image, the captured image is edge-processed with a filter, and a portion of an edge strength that is equal to or higher than a preset threshold value is detected to identify the position of the preceding vehicle.

このような車両を検出する技術の一例として、例えば特許文献1に開示された車両検出装置がある。この車両検出装置では、車両が撮像されている領域の縦方向に延在する画素列の平均輝度を算出し、次にi列目とi+1列目の差分を計算して平均輝度の差分を求める。そして、車両が撮像されている領域について各列の平均輝度の差分をすべて算出し、その中で閾値を越えて最大となる平均輝度の差分を求め、その最大値となる列の位置を車両の横の位置として検出している。   As an example of a technique for detecting such a vehicle, there is a vehicle detection device disclosed in Patent Document 1, for example. In this vehicle detection device, the average luminance of the pixel columns extending in the vertical direction of the area where the vehicle is imaged is calculated, and then the difference between the i-th column and the i + 1-th column is calculated to obtain the difference in average luminance. . Then, all the differences in the average luminance of each column are calculated for the area where the vehicle is imaged, and the maximum average luminance difference exceeding the threshold value is obtained, and the position of the column that is the maximum value is determined as the position of the vehicle. It is detected as a horizontal position.

特開2009−175846号公報JP 2009-175846 A

しかしながら、現状のフィルタによるエッジ処理では、近接画像のほうが遠方画像よりもエッジ強度が低くなってしまい、撮像画像のうちで近接した部分では十分なエッジ強度を得ることができなかった。 However, in the edge processing using the current filter, the near image has a lower edge strength than the far image, and a sufficient edge strength cannot be obtained in the close portion of the captured image.

したがって、撮像画像の中で近接画像が検出される領域ではエッジ強度が閾値に達していないことがあり、車両の認識率が低下してしまうという問題点がった。また、この問題を解決するために閾値を下げると、遠方画像が検出される領域ではエッジ強度が全般に強くなるので、検出する必要のないものまで検出してしまい、誤検出が増加してしまうという別の問題が生じていた。 Therefore, the edge strength may not reach the threshold in the region where the proximity image is detected in the captured image, and there is a problem in that the vehicle recognition rate decreases. In addition, if the threshold value is lowered to solve this problem, the edge strength generally increases in the region where the far-field image is detected, so that even those that do not need to be detected are detected, and false detection increases. Another problem has arisen.

さらに、特許文献1に開示された車両検出装置では、車両が撮像されている領域を上方分割領域と中間分割領域と下方分割領域の3つに分割しているが、各領域毎にエッジ強度を変化させているわけではないので、上述した問題を解決することはできなかった。 Furthermore, in the vehicle detection device disclosed in Patent Document 1, the area where the vehicle is imaged is divided into three areas, an upper divided area, an intermediate divided area, and a lower divided area. The problem described above could not be solved because it was not changed.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、近接画像が検出される領域でエッジ強度が低下してしまう領域であっても車両を認識する精度を向上させることのできる車両検出装置及び車両検出方法を提供することを目的とする。 Therefore, the present invention has been proposed in view of the above-described circumstances, and can improve the accuracy of recognizing a vehicle even in a region where edge strength is reduced in a region where a proximity image is detected. An object of the present invention is to provide a vehicle detection device and a vehicle detection method.

上記した目的を達成するために、本願の請求項1に係る発明は、自車両の周囲を撮像した撮像画像をグレースケール化するグレースケール化手段と、前記グレースケール化された撮像画像をフィルタでエッジ処理するエッジ処理手段と、前記エッジ処理された撮像画像から車両の特徴を示している車両画像を切り出す車両画像切出手段と、前記切り出された車両画像を上下に複数の分割領域に分割する車両画像分割手段と、前記複数の分割領域の少なくとも1つにおいて、前記分割領域を構成する各画素行のエッジ強度に、上の画素行のエッジ強度を加算するエッジ加算手段と、前記分割領域を構成する画素のエッジ強度と予め設定された閾値とを比較して車両の有無を認識する車両認識手段とを備えていることを特徴とする。   In order to achieve the above-described object, the invention according to claim 1 of the present application includes a gray scale unit that gray-scales a captured image captured around the host vehicle, and a filter for the gray-scaled captured image. Edge processing means for performing edge processing, vehicle image cutting means for cutting out a vehicle image showing the characteristics of the vehicle from the edge-processed captured image, and dividing the cut-out vehicle image vertically into a plurality of divided regions Vehicle image dividing means; edge adding means for adding edge strength of the upper pixel row to edge strength of each pixel row constituting the divided region in at least one of the plurality of divided regions; and Vehicle recognition means for recognizing the presence or absence of the vehicle by comparing the edge intensity of the constituent pixels with a preset threshold value is provided.

本願の請求項2に係る発明の車両画像分割手段は前記車両画像を上段分割領域と中段分割領域と下段分割領域とに三分割し、前記エッジ加算手段は少なくとも前記下段分割領域では各画素行のエッジ強度に上の画素行のエッジ強度を加算することを特徴とする。   The vehicle image dividing means of the invention according to claim 2 of the present application divides the vehicle image into an upper divided area, a middle divided area, and a lower divided area, and the edge adding means has at least each pixel row in the lower divided area. The edge strength of the upper pixel row is added to the edge strength.

本願の請求項3に係る発明のエッジ加算手段は、前記上段分割領域ではエッジ強度の加算を行わず、前記中段分割領域では各画素行のエッジ強度に1つ上の画素行のエッジ強度を加算し、前記下段分割領域では各画素行のエッジ強度に1つ上の画素行と2つ上の画素行のエッジ強度を加算することを特徴とする。   The edge addition means of the invention according to claim 3 of the present application does not add edge strength in the upper divided region, and adds edge strength of one pixel row to the edge strength of each pixel row in the middle divided region. In the lower divided area, the edge strengths of the pixel row one level up and the pixel row two levels above are added to the edge strength of each pixel row.

本願の請求項4に係る発明は、自車両の周囲を撮像した撮像画像をグレースケール化するグレースケール化ステップと、前記グレースケール化された撮像画像をフィルタでエッジ処理するエッジ処理ステップと、前記エッジ処理された撮像画像から車両の特徴を示している車両画像を切り出す車両画像切出ステップと、前記切り出された車両画像を上下に複数の分割領域に分割する車両画像分割ステップと、前記複数の分割領域の少なくとも1つにおいて、前記分割領域を構成する各画素行のエッジ強度に、上の画素行のエッジ強度を加算するエッジ加算ステップと、前記分割領域を構成する画素のエッジ強度と予め設定された閾値とを比較して車両の有無を認識する車両認識ステップとを含むことを特徴とする。   The invention according to claim 4 of the present application is a gray scale step for converting a captured image obtained by capturing the periphery of the host vehicle to a gray scale, an edge processing step for performing an edge process on the gray scaled captured image using a filter, A vehicle image cutting step for cutting out a vehicle image showing the characteristics of the vehicle from the edge-processed captured image, a vehicle image dividing step for dividing the cut-out vehicle image into a plurality of divided regions, and In at least one of the divided regions, an edge addition step of adding the edge strength of the upper pixel row to the edge strength of each pixel row constituting the divided region, and the edge strength of the pixels constituting the divided region are preset. A vehicle recognition step of comparing the detected threshold value and recognizing the presence or absence of the vehicle.

本願の請求項1、4に係る発明では、少なくとも1つの分割領域において、分割領域を構成する各画素行のエッジ強度に、上の画素行のエッジ強度を加算するので、エッジ強度が低くなってしまう分割領域であっても車両を認識する精度を向上させることができる。   In the inventions according to claims 1 and 4 of the present application, since the edge strength of the upper pixel row is added to the edge strength of each pixel row constituting the divided region in at least one divided region, the edge strength is reduced. Even in the divided area, the accuracy of recognizing the vehicle can be improved.

本願の請求項2に係る発明では、車両画像を三分割し、少なくとも下段分割領域では各画素行のエッジ強度に上の画素行のエッジ強度を加算するので、近接画像が検出されてエッジ強度が低くなってしまう下段分割領域であっても車両を認識する精度を向上させることができる。   In the invention according to claim 2 of the present application, the vehicle image is divided into three parts, and at least in the lower divided region, the edge strength of the upper pixel row is added to the edge strength of each pixel row. The accuracy of recognizing a vehicle can be improved even in a lower divided region that becomes lower.

本願の請求項3に係る発明では、上段分割領域ではエッジ強度の加算を行わず、中段分割領域から下段分割領域へいくにしたがってエッジ強度をより多く加算するので、近接画像が検出される領域では車両を認識する精度を向上させることができ、遠方画像が検出される領域では誤検出を防ぐことができる。   In the invention according to claim 3 of the present application, the edge strength is not added in the upper divided region, and more edge strength is added from the middle divided region to the lower divided region. The accuracy of recognizing the vehicle can be improved, and erroneous detection can be prevented in a region where a distant image is detected.

本発明の一実施形態に係る車両検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置による車両検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the vehicle detection process by the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置によってグレースケール化された画像の一例を示す図である。It is a figure which shows an example of the image grey-scaled by the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置によってエッジ処理された画像の一例を示す図である。It is a figure which shows an example of the image edge-processed by the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置によって切り出された車両画像の一例を示す図である。It is a figure which shows an example of the vehicle image cut out by the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置によって複数の分割領域に分割された画像の一例を示す図である。It is a figure which shows an example of the image divided | segmented into the several division area by the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置によるエッジ強度の加算処理を説明するための図である。It is a figure for demonstrating the addition process of the edge strength by the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置によるエッジ強度の加算処理を説明するための図である。It is a figure for demonstrating the addition process of the edge strength by the vehicle detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る車両検出装置による効果を説明するための図である。It is a figure for demonstrating the effect by the vehicle detection apparatus which concerns on one Embodiment of this invention.

以下、本発明を適用した一実施形態について図面を参照して説明する。   Hereinafter, an embodiment to which the present invention is applied will be described with reference to the drawings.

[車両検出装置の構成]
図1は本実施形態に係る車両検出装置の構成を示すブロック図である。
[Configuration of vehicle detection device]
FIG. 1 is a block diagram showing a configuration of a vehicle detection device according to the present embodiment.

図1に示すように、本実施形態に係る車両検出装置1は、自車両の周囲の画像を撮像する撮像部2と、撮像部2で撮像された画像をグレースケール化するグレースケール化部3と、グレースケール化された撮像画像をフィルタでエッジ処理するエッジ処理部4と、 エッジ処理された撮像画像から車両の特徴を示している車両画像を切り出す車両画像切出部5と、切り出された車両画像を所定の割合で上下に複数の分割領域に分割する車両画像分割部6と、分割領域を構成する各画素行のエッジ強度に上の画素行のエッジ強度を加算するエッジ加算部7と、分割領域を構成する画素のエッジ強度と予め設定された閾値とを比較して車両の有無を認識する車両認識部8と、所定のサンプリング周期でキャプチャされた撮像画像を格納する記憶部9とを備えている。   As shown in FIG. 1, a vehicle detection device 1 according to the present embodiment includes an imaging unit 2 that captures an image around the host vehicle, and a grayscale unit 3 that converts an image captured by the imaging unit 2 to grayscale. An edge processing unit 4 that performs edge processing of the grayscale captured image with a filter, a vehicle image cutting unit 5 that cuts out a vehicle image indicating the characteristics of the vehicle from the edge-processed captured image, and A vehicle image dividing unit 6 that divides the vehicle image vertically into a plurality of divided regions, and an edge adding unit 7 that adds the edge strength of the upper pixel row to the edge strength of each pixel row that constitutes the divided region; A vehicle recognizing unit 8 that recognizes the presence or absence of a vehicle by comparing the edge intensity of the pixels constituting the divided region with a preset threshold value, and a storage unit that stores a captured image captured at a predetermined sampling period It is equipped with a door.

ここで、本実施形態に係る車両検出装置1は、自動操舵システムやドライブレコーダー等の各種システムの一部として車両に搭載されており、ソフトウェアを変更することによって各種システムの制御に対応させることができる。本実施形態では、図1に示すように車両検出装置1をハードウエアで構成する場合を一例として示しているが、ハードウエアで構成したものに限定されるわけではなく、例えば、CPUと、そのCPUを動作させるためのコンピュータプログラムのソフトウェアによって車両検出装置1の機能を実現するようにしてもよい。そして、リアルタイム処理を行う場合には映像記録装置内にあるCPUで本実施形態に係る車両検出装置1のアルゴリズムを実行し、バッチ処理を行う場合には記録部9に格納された映像を読み出して解析する。   Here, the vehicle detection apparatus 1 according to the present embodiment is mounted on a vehicle as a part of various systems such as an automatic steering system and a drive recorder, and can be adapted to control of various systems by changing software. it can. In the present embodiment, as shown in FIG. 1, the case where the vehicle detection device 1 is configured by hardware is shown as an example. However, the configuration is not limited to hardware, for example, a CPU and its You may make it implement | achieve the function of the vehicle detection apparatus 1 with the software of the computer program for operating CPU. When performing real-time processing, the CPU in the video recording device executes the algorithm of the vehicle detection device 1 according to the present embodiment. When performing batch processing, the video stored in the recording unit 9 is read out. To analyze.

撮像部2は、1つまたは複数のカメラで構成され、先行する車両や周囲の車両を検出できるような映像を撮像できるものであればよい。また、ドライブレコーダに設置されているカメラであってもよい。   The imaging unit 2 may be configured by one or a plurality of cameras and can capture an image that can detect the preceding vehicle and surrounding vehicles. Moreover, the camera installed in the drive recorder may be sufficient.

グレースケール化部3は、撮像部2で撮像された画像を所定のサンプリング周期でキャプチャして記憶部9に保存し、保存されたカラー画像をグレースケール化している。このときグレースケール化する方法については単純平均法や中間値法等どのような方法を用いてもよい。   The gray scale conversion unit 3 captures an image captured by the image capture unit 2 at a predetermined sampling period and stores it in the storage unit 9, and converts the stored color image to gray scale. At this time, any method such as a simple average method or an intermediate value method may be used as the gray scale method.

エッジ処理部4は、グレースケール化された撮像画像に対して各種のフィルタでエッジ処理を行う。ここで使用されるフィルタとしては例えばソーベルフィルタを使用することができるが、エッジを検出することのできるフィルタであればその他のフィルタを使用してもよい。   The edge processing unit 4 performs edge processing with various filters on the grayscale captured image. As a filter used here, for example, a Sobel filter can be used, but other filters may be used as long as they can detect edges.

車両画像切出部5は、エッジ処理された撮像画像から車両の特徴を示している部分の画像を車両画像として切り出している。切り出し方法としてはさまざまな方式があるが、どのような方式を採用してもよい。   The vehicle image cutout unit 5 cuts out an image of a portion showing the characteristics of the vehicle as a vehicle image from the edge-processed captured image. There are various methods for cutting out, and any method may be adopted.

車両画像分割部6は、切り出された車両画像を所定の割合で上下に複数の分割領域に分割しており、本実施形態では上段分割領域と中段分割領域と下段分割領域の3つの領域に分割する場合を一例として説明している。ただし、必ずしも3分割にする必要はなく、2分割でもよいし、4分割以上にしてもよい。また、分割する比率は任意に変更することが可能であるが、本実施形態では上段分割領域が30%、中段分割領域が40%、下段分割領域が30%の場合を一例として説明する。   The vehicle image dividing unit 6 divides the cut-out vehicle image into a plurality of divided areas in a vertical direction at a predetermined ratio. In this embodiment, the vehicle image dividing unit 6 divides the vehicle image into three areas: an upper divided area, a middle divided area, and a lower divided area. This is described as an example. However, it is not always necessary to divide into three, and it may be divided into two or may be divided into four or more. In addition, although the division ratio can be arbitrarily changed, in the present embodiment, an example in which the upper division area is 30%, the middle division area is 40%, and the lower division area is 30% will be described as an example.

エッジ加算部7は、少なくとも1つの分割領域において、分割領域を構成する各画素行のエッジ強度に上の画素行のエッジ強度を加算している。例えば、車両画像を3分割した場合には上段分割領域ではエッジ強度の加算を行わず、中段分割領域では各画素行のエッジ強度に1つ上の画素行のエッジ強度を加算し、下段分割領域では各画素行のエッジ強度に1つ上の画素行と2つ上の画素行のエッジ強度を加算するようにしている。   The edge adding unit 7 adds the edge strength of the upper pixel row to the edge strength of each pixel row constituting the divided region in at least one divided region. For example, when the vehicle image is divided into three, the edge strength is not added in the upper divided region, and in the middle divided region, the edge strength of the upper pixel row is added to the edge strength of each pixel row, and the lower divided region In this case, the edge strengths of the upper and lower pixel rows are added to the edge strength of each pixel row.

車両認識部8は、各分割領域を構成する画素のエッジ強度と予め設定された閾値とを比較して、エッジ強度が閾値を超えている場合には車両が存在しているものとして認識し、エッジ強度が閾値以下の場合には車両が存在していないものとして認識する。   The vehicle recognition unit 8 compares the edge strength of the pixels constituting each divided region with a preset threshold value, and recognizes that the vehicle is present when the edge strength exceeds the threshold value, If the edge strength is less than or equal to the threshold, it is recognized that no vehicle is present.

[車両検出処理の手順]
次に、本実施形態に係る車両検出装置1による車両検出処理の手順を図2のフローチャートを参照して説明する。
[Vehicle detection processing procedure]
Next, the procedure of the vehicle detection process by the vehicle detection apparatus 1 according to the present embodiment will be described with reference to the flowchart of FIG.

図2に示すように、ステップS101において自車両の周囲の映像を撮像部2によって撮像する。撮像された映像は所定のサンプリング周期でキャプチャされて記憶部9に保存され、ステップS102において保存されたカラー画像を図3に示すようにグレースケール化する。このときグレースケール化する方法については単純平均法や中間値法等どのような方法を用いてもよい。   As shown in FIG. 2, in step S <b> 101, an image around the host vehicle is captured by the imaging unit 2. The captured image is captured at a predetermined sampling period and stored in the storage unit 9, and the color image stored in step S102 is converted into a gray scale as shown in FIG. At this time, any method such as a simple average method or an intermediate value method may be used as the gray scale method.

次に、ステップS103においてグレースケール化された撮像画像に対して各種のフィルタでエッジ処理を行う。例えば、ソーベルフィルタを使用した場合について例示すると、エッジ処理された撮像画像は図4に示すような画像になる。そして、ステップS104ではエッジ処理された撮像画像から車両の特徴を示している部分を切り出して図5に示すような車両画像を取得する。   Next, in step S103, edge processing is performed with various filters on the captured image that has been grayscaled. For example, when the Sobel filter is used as an example, the captured image subjected to the edge processing is an image as shown in FIG. In step S104, a portion showing the characteristics of the vehicle is cut out from the edge-processed captured image to obtain a vehicle image as shown in FIG.

次に、ステップS105では、切り出された車両画像を所定の割合で上下に複数の分割領域に分割する。本実施形態では図6に示すように上段分割領域Aと中段分割領域Bと下段分割領域Cの3つに分割しているが、必ずしも3分割にする必要はなく、2分割でもよいし、4分割以上にしてもよい。また、分割する比率は任意に変更することが可能であり、本実施形態では上段分割領域Aが30%、中段分割領域Bが40%、下段分割領域Cが30%ととしている。   Next, in step S105, the cut-out vehicle image is divided into a plurality of divided regions vertically at a predetermined ratio. In the present embodiment, as shown in FIG. 6, the upper divided area A, the middle divided area B, and the lower divided area C are divided into three parts. It may be divided or more. Further, the division ratio can be arbitrarily changed. In the present embodiment, the upper division area A is 30%, the middle division area B is 40%, and the lower division area C is 30%.

こうして車両画像が分割されると、次にステップS106において、少なくとも1つの分割領域に対して、分割領域を構成する各画素行のエッジ強度に上の画素行のエッジ強度を加算する処理を実行する。例えば、車両画像を3分割した場合には上段分割領域Aではエッジ強度の加算を行わず、中段分割領域Bでは各画素行のエッジ強度に1つ上の画素行のエッジ強度を加算し、下段分割領域Cでは各画素行のエッジ強度に1つ上の画素行と2つ上の画素行のエッジ強度を加算する処理を行う。このように上段分割領域Aではエッジ強度の加算を行わずに中段分割領域Bから下段分割領域Cへいくにしたがって、より多くのエッジ強度を加算する。これは、上段分割領域Aは比較的遠方画像となるのでエッジ強度が強く検出されるのに対して、下段分割領域Cでは近接画像となるのでエッジ強度が低く検出されるためである。   When the vehicle image is thus divided, in step S106, processing for adding the edge strength of the upper pixel row to the edge strength of each pixel row constituting the divided region is executed for at least one divided region. . For example, when the vehicle image is divided into three, the edge strength is not added in the upper divided region A, and in the middle divided region B, the edge strength of the pixel row one level higher is added to the edge strength of each pixel row. In the divided region C, processing is performed in which the edge strengths of the pixel row one level up and the pixel row two levels above are added to the edge strength of each pixel row. In this way, in the upper divided area A, the edge strength is not added, and more edge strengths are added as going from the middle divided area B to the lower divided area C. This is because the upper divided area A is a relatively distant image, so that the edge strength is detected strongly, while the lower divided area C is a close image, so the edge intensity is detected low.

したがって、下段分割領域Cへいくにしたがって、より多くのエッジ強度を加算することにより、近接画像でエッジ強度が低くなってしまう領域でも車両を認識する精度を向上させることができる。   Therefore, the accuracy of recognizing the vehicle can be improved even in a region where the edge strength is low in the close-up image by adding more edge strengths as going to the lower divided region C.

ここで、図7を参照して中段分割領域Bにおけるエッジ強度の加算処理を説明する。図7に示すように、中段分割領域Bを構成する画素行のうち対象行1に注目すると、対象行1の加算結果は対象行1のエッジ強度に、対象行1より1つ上にある加算行aのエッジ強度を加算したものとなる。すなわち
対象行1の加算結果=対象行1のエッジ強度+加算行aのエッジ強度 (1)
となる。また、対象行2の加算結果は対象行2のエッジ強度に、対象行2より1つ上にある対象行1のエッジ強度を加算したものとなる。すなわち
対象行2の加算結果=対象行2のエッジ強度+対象行1のエッジ強度 (2)
となる。このようなエッジ強度の加算処理を中段分割領域B内で繰り返し行うことによって、中段分割領域Bにおけるエッジ強度を算出する。
Here, with reference to FIG. 7, edge strength addition processing in the middle divided region B will be described. As shown in FIG. 7, when attention is paid to the target row 1 among the pixel rows constituting the middle divided region B, the addition result of the target row 1 is an addition that is one higher than the target row 1 to the edge strength of the target row 1. The edge strength of row a is added. That is, the addition result of the target row 1 = the edge strength of the target row 1 + the edge strength of the addition row a (1)
It becomes. Further, the addition result of the target row 2 is obtained by adding the edge strength of the target row 1 that is one higher than the target row 2 to the edge strength of the target row 2. That is, the addition result of the target row 2 = the edge strength of the target row 2 + the edge strength of the target row 1 (2)
It becomes. The edge strength in the middle divided region B is calculated by repeatedly performing such edge strength addition processing in the middle divided region B.

次に、図8を参照して下段分割領域Cにおけるエッジの加算処理を説明する。図8に示すように、下段分割領域Cを構成する画素行のうち対象行1に注目すると、対象行1の加算結果は、対象行1のエッジ強度に対象行1より1つ上にある加算行aのエッジ強度と対象行1より2つ上にある加算行bのエッジ強度とを加算したものとなる。すなわち
対象行1の加算結果=対象行1のエッジ強度+加算行aのエッジ強度
+加算行bのエッジ強度 (3)
となる。また、対象行2の加算結果は、対象行2のエッジ強度に対象行2より1つ上にある対象行1のエッジ強度と対象行2の2つ上にある加算行aのエッジ強度を加算したものとなる。すなわち
対象行2の加算結果=対象行2のエッジ強度+対象行1のエッジ強度
+加算行aのエッジ強度 (4)
となる。このようなエッジ強度の加算処理を下段分割領域C内で繰り返し行うことによって、下段分割領域Cにおけるエッジ強度を算出する。
Next, edge addition processing in the lower divided area C will be described with reference to FIG. As shown in FIG. 8, when attention is paid to the target row 1 among the pixel rows constituting the lower divided area C, the addition result of the target row 1 is an addition that is one higher than the target row 1 to the edge strength of the target row 1. This is the sum of the edge strength of row a and the edge strength of addition row b that is two above target row 1. That is, the addition result of the target row 1 = the edge strength of the target row 1 + the edge strength of the addition row a
+ Edge strength of addition row b (3)
It becomes. Also, the addition result of the target row 2 is obtained by adding the edge strength of the target row 1 that is one above the target row 2 and the edge strength of the addition row a that is two above the target row 2 to the edge strength of the target row 2 Will be. That is, the addition result of the target row 2 = the edge strength of the target row 2 + the edge strength of the target row 1
+ Edge strength of addition row a (4)
It becomes. The edge strength in the lower divided region C is calculated by repeatedly performing such edge strength addition processing in the lower divided region C.

こうして各分割領域において、加算されたエッジ強度が算出されると、次にステップS107において、各分割領域を構成する画素のエッジ強度と予め設定されている閾値とを比較する。例えば、上段分割領域Aではエッジ強度の加算が行われていないので、加算されていないエッジ強度と閾値とを比較し、中段分割領域Bと下段分割領域Cでは加算されたエッジ強度と閾値とを比較する。ここで、閾値は各分割領域で共通の値となる。そして、エッジ強度が閾値を超えている場合には車両が存在しているものとして認識し、エッジ強度が閾値以下の場合には車両が存在していないものとして認識する。こうして車両の有無が認識されると、本実施形態に係る車両検出装置1による車両検出処理は終了する。   When the added edge intensity is calculated in each divided area in this way, in step S107, the edge intensity of the pixels constituting each divided area is compared with a preset threshold value. For example, since the edge strength is not added in the upper divided region A, the edge strength not added is compared with the threshold value, and the added edge strength and the threshold value are compared in the middle divided region B and the lower divided region C. Compare. Here, the threshold value is a common value in each divided region. When the edge strength exceeds the threshold, the vehicle is recognized as existing, and when the edge strength is equal to or lower than the threshold, the vehicle is recognized as not present. When the presence or absence of the vehicle is recognized in this way, the vehicle detection process by the vehicle detection device 1 according to the present embodiment ends.

[実施形態の効果]
以上詳細に説明したように、本実施形態に係る車両検出装置によれば、少なくとも1つの分割領域において、分割領域を構成する各画素行のエッジ強度に、上の画素行のエッジ強度を加算するので、近接画像でエッジ強度が低くなってしまう分割領域であっても車両を認識する精度を向上させることができる。
[Effect of the embodiment]
As described above in detail, according to the vehicle detection device of the present embodiment, in at least one divided region, the edge strength of the upper pixel row is added to the edge strength of each pixel row constituting the divided region. Therefore, it is possible to improve the accuracy of recognizing the vehicle even in a divided region where the edge strength is low in the proximity image.

ここで、図9を参照して、エッジ強度を加算することによる効果を説明する。図9は、1つの画素行のエッジ強度を示したものであり、図9(a)はエッジ強度を加算する前の値を示し、図9(b)はエッジ強度を加算した後の値を示している。   Here, with reference to FIG. 9, the effect by adding edge strength is demonstrated. FIG. 9 shows the edge strength of one pixel row, FIG. 9 (a) shows the value before adding the edge strength, and FIG. 9 (b) shows the value after adding the edge strength. Show.

図9に示すように、エッジ強度を加算した後ではエッジ強度が全体的に大きくなっていることが分かる。これにより、近接画像等によってエッジ強度が低くなってしまう分割領域であっても車両を認識する精度を向上させることができる。   As shown in FIG. 9, it can be seen that the edge strength increases as a whole after adding the edge strength. Thereby, the accuracy of recognizing the vehicle can be improved even in a divided region where the edge strength is lowered due to the proximity image or the like.

また、本実施形態に係る車両検出装置によれば、車両画像を三分割し、少なくとも下段分割領域では各画素行のエッジ強度に、上の画素行のエッジ強度を加算するので、近接画像が検出されてエッジ強度が低くなってしまう下段分割領域でも車両を認識する精度を向上させることができる。   Further, according to the vehicle detection device according to the present embodiment, the vehicle image is divided into three parts, and at least in the lower divided region, the edge strength of the upper pixel row is added to the edge strength of each pixel row. Thus, the accuracy of recognizing the vehicle can be improved even in the lower divided area where the edge strength becomes low.

さらに、本実施形態に係る車両検出装置によれば、上段分割領域ではエッジ強度の加算を行わず、中段分割領域から下段分割領域へいくにしたがってエッジ強度をより多く加算するので、近接画像が検出される領域では車両を認識する精度を向上させることができ、遠方画像が検出される領域では誤検出を防ぐことができる。   Furthermore, according to the vehicle detection device according to the present embodiment, the edge strength is not added in the upper divided region, and more edge strengths are added from the middle divided region to the lower divided region, so that the proximity image is detected. The accuracy of recognizing the vehicle can be improved in the region where the image is detected, and erroneous detection can be prevented in the region where the far-field image is detected.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施の形態に限定されることはなく、この実施の形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and even if it is a form other than this embodiment, as long as it does not depart from the technical idea according to the present invention, the design and the like Of course, various modifications are possible.

本発明は、自動操舵など車両の安全走行のための技術に利用することができる。   The present invention can be used for techniques for safe driving of vehicles such as automatic steering.

1 車両検出装置
2 撮像部
3 グレースケール化部
4 エッジ処理部
5 車両画像切出部
6 車両画像分割部
7 エッジ加算部
8 車両認識部
9 記憶部
DESCRIPTION OF SYMBOLS 1 Vehicle detection apparatus 2 Imaging part 3 Gray scale conversion part 4 Edge process part 5 Vehicle image cutout part 6 Vehicle image division part 7 Edge addition part 8 Vehicle recognition part 9 Storage part

Claims (4)

自車両の周囲を撮像した撮像画像をグレースケール化するグレースケール化手段と、
前記グレースケール化された撮像画像をフィルタでエッジ処理するエッジ処理手段と、
前記エッジ処理された撮像画像から車両の特徴を示している車両画像を切り出す車両画像切出手段と、
前記切り出された車両画像を上下に複数の分割領域に分割する車両画像分割手段と、
前記複数の分割領域の少なくとも1つにおいて、前記分割領域を構成する各画素行のエッジ強度に、上の画素行のエッジ強度を加算するエッジ加算手段と、
前記分割領域を構成する画素のエッジ強度と予め設定された閾値とを比較して車両の有無を認識する車両認識手段と
を備えていることを特徴とする車両検出装置。
Gray scale conversion means for converting a captured image obtained by imaging the periphery of the host vehicle to gray scale;
Edge processing means for edge-processing the grayscale captured image with a filter;
Vehicle image cutting means for cutting out a vehicle image showing the characteristics of the vehicle from the edge-processed captured image;
Vehicle image dividing means for dividing the clipped vehicle image vertically into a plurality of divided regions;
Edge addition means for adding the edge strength of the upper pixel row to the edge strength of each pixel row constituting the divided region in at least one of the plurality of divided regions;
A vehicle detection device comprising vehicle recognition means for recognizing the presence or absence of a vehicle by comparing an edge intensity of pixels constituting the divided area with a preset threshold value.
前記車両画像分割手段は前記車両画像を上段分割領域と中段分割領域と下段分割領域とに三分割し、前記エッジ加算手段は少なくとも前記下段分割領域では各画素行のエッジ強度に上の画素行のエッジ強度を加算することを特徴とする請求項1に記載の車両検出装置。   The vehicle image dividing means divides the vehicle image into an upper divided area, an intermediate divided area, and a lower divided area, and the edge adding means at least adds the edge intensity of each pixel line to the edge intensity of each pixel line in the lower divided area. The vehicle detection apparatus according to claim 1, wherein edge strength is added. 前記エッジ加算手段は、前記上段分割領域ではエッジ強度の加算を行わず、前記中段分割領域では各画素行のエッジ強度に1つ上の画素行のエッジ強度を加算し、前記下段分割領域では各画素行のエッジ強度に1つ上の画素行と2つ上の画素行のエッジ強度を加算することを特徴とする請求項2に記載の車両検出装置。   The edge addition means does not add edge strength in the upper divided region, adds the edge strength of one pixel row to the edge strength of each pixel row in the middle divided region, and adds each edge strength in the lower divided region. The vehicle detection device according to claim 2, wherein the edge strength of one pixel row and the second pixel row is added to the edge strength of the pixel row. 自車両の周囲を撮像した撮像画像をグレースケール化するグレースケール化ステップと、
前記グレースケール化された撮像画像をフィルタでエッジ処理するエッジ処理ステップと、
前記エッジ処理された撮像画像から車両の特徴を示している車両画像を切り出す車両画像切出ステップと、
前記切り出された車両画像を上下に複数の分割領域に分割する車両画像分割ステップと、
前記複数の分割領域の少なくとも1つにおいて、前記分割領域を構成する各画素行のエッジ強度に、上の画素行のエッジ強度を加算するエッジ加算ステップと、
前記分割領域を構成する画素のエッジ強度と予め設定された閾値とを比較して車両の有無を認識する車両認識ステップと
を含むことを特徴とする車両検出方法。
A gray scale step for converting the captured image obtained by capturing the surroundings of the host vehicle to gray scale;
An edge processing step of performing edge processing on the grayscale captured image with a filter;
A vehicle image cutting step of cutting out a vehicle image showing the characteristics of the vehicle from the edge-processed captured image;
A vehicle image dividing step of dividing the cut-out vehicle image vertically into a plurality of divided regions;
An edge addition step of adding the edge strength of the upper pixel row to the edge strength of each pixel row constituting the divided region in at least one of the plurality of divided regions;
The vehicle detection method characterized by including the vehicle recognition step which recognizes the presence or absence of a vehicle by comparing the edge strength of the pixel which comprises the said division area, and the preset threshold value.
JP2011007691A 2011-01-18 2011-01-18 Vehicle detection device and vehicle detection method Active JP5765946B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011007691A JP5765946B2 (en) 2011-01-18 2011-01-18 Vehicle detection device and vehicle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011007691A JP5765946B2 (en) 2011-01-18 2011-01-18 Vehicle detection device and vehicle detection method

Publications (2)

Publication Number Publication Date
JP2012150587A true JP2012150587A (en) 2012-08-09
JP5765946B2 JP5765946B2 (en) 2015-08-19

Family

ID=46792785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011007691A Active JP5765946B2 (en) 2011-01-18 2011-01-18 Vehicle detection device and vehicle detection method

Country Status (1)

Country Link
JP (1) JP5765946B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127685A (en) * 1997-07-04 1999-01-29 Canon Inc Image pickup device
JP2001134772A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognition device
JP2002216113A (en) * 2001-01-16 2002-08-02 Fujitsu Ten Ltd Object recognition device
US20080069402A1 (en) * 2006-09-20 2008-03-20 Dhua Arnab S Method for identifying vehicles in electronic images
JP2009175846A (en) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd Vehicle detection device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127685A (en) * 1997-07-04 1999-01-29 Canon Inc Image pickup device
JP2001134772A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognition device
JP2002216113A (en) * 2001-01-16 2002-08-02 Fujitsu Ten Ltd Object recognition device
US20020131621A1 (en) * 2001-01-16 2002-09-19 Akihiro Ohta Target recognition apparatus
US20080069402A1 (en) * 2006-09-20 2008-03-20 Dhua Arnab S Method for identifying vehicles in electronic images
JP2009175846A (en) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd Vehicle detection device

Also Published As

Publication number Publication date
JP5765946B2 (en) 2015-08-19

Similar Documents

Publication Publication Date Title
EP3306562B1 (en) Image processing method and device
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
JP5258859B2 (en) Runway estimation apparatus and program
US20190185295A1 (en) User detection system and image processing device
KR102474837B1 (en) Foreground area extracting method and apparatus
US10148938B2 (en) Vehicle-mounted image recognition device to set a stereoscopic-vision and monocular-vision image areas
JP5693094B2 (en) Image processing apparatus, image processing method, and computer program
JP2008286725A (en) Person detection apparatus and method
CN107292214B (en) Lane departure detection method, device and vehicle
JP2010130087A (en) Monitoring system and method
JP6432296B2 (en) Device and method for detecting zebra crossings in images
JP4592744B2 (en) Image processing method, image processing system, image processing apparatus, and computer program
WO2018211930A1 (en) Object detection device, object detection method, and computer-readable recording medium
CN110913209B (en) Camera shielding detection method and device, electronic equipment and monitoring system
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP4540705B2 (en) Image processing method, image processing system, imaging apparatus, image processing apparatus, and computer program
JP5664078B2 (en) Imaging apparatus, image evaluation method, and focus adjustment control program
JP2009151539A (en) Face detection device, face detection method, and face detection program
JP7524713B2 (en) Information processing device and information processing method
CN106951831B (en) Pedestrian detection tracking method based on depth camera
JP5765946B2 (en) Vehicle detection device and vehicle detection method
KR20230001620A (en) Method for detecting moving objects, device and program using the same
JP6348020B2 (en) Image processing apparatus, image processing method, and inspection method using the same
JP5677120B2 (en) Fog detector
US20180181801A1 (en) Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120926

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120927

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20121005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150616

R150 Certificate of patent or registration of utility model

Ref document number: 5765946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250