[go: up one dir, main page]

JP2014191684A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2014191684A
JP2014191684A JP2013068023A JP2013068023A JP2014191684A JP 2014191684 A JP2014191684 A JP 2014191684A JP 2013068023 A JP2013068023 A JP 2013068023A JP 2013068023 A JP2013068023 A JP 2013068023A JP 2014191684 A JP2014191684 A JP 2014191684A
Authority
JP
Japan
Prior art keywords
determination
region
coordinate position
detection target
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013068023A
Other languages
Japanese (ja)
Inventor
Khiat Abdelaziz
アブデラジズ キアツト
Tomoko Shimomura
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013068023A priority Critical patent/JP2014191684A/en
Publication of JP2014191684A publication Critical patent/JP2014191684A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】検出対象領域を適切に検出することが可能な画像処理装置を提供する。
【解決手段】検出対象領域が識別された複数の基準画像を複数の基準領域に分割し、二次元画像座標系における座標位置を付した基準領域から色情報を抽出し、座標位置が共通する基準領域の色情報の特徴から該座標位置に対応する画像が検出対象領域であるか否かを判定するための判定基準を定義することで、二次元座標系の座標位置ごとに判定基準を取得する判定基準取得手段20と、撮像画像を取得する撮像画像取得手段20と、撮像画像を複数の判定領域に分割し、二次元画像座標系における座標位置を付した基準領域から色情報を抽出する抽出手段20と、判定領域と座標位置が共通する基準領域を特定し、該基準領域の判定基準を用いて、該判定領域の色情報から、判定領域が前記検出対象領域であるか否かを判定する判定手段20と、を備えることを特徴とする画像処理装置。
【選択図】図1
An image processing apparatus capable of appropriately detecting a detection target region is provided.
A plurality of reference images in which a detection target region is identified are divided into a plurality of reference regions, color information is extracted from a reference region with coordinate positions in a two-dimensional image coordinate system, and a reference having a common coordinate position By defining a criterion for determining whether an image corresponding to the coordinate position is a detection target region from the characteristics of the color information of the region, the criterion is acquired for each coordinate position of the two-dimensional coordinate system. Determination reference acquisition unit 20, captured image acquisition unit 20 that acquires a captured image, and extraction that divides the captured image into a plurality of determination regions and extracts color information from a reference region with a coordinate position in a two-dimensional image coordinate system. A reference region having a coordinate position that is the same as that of the determination region and the determination region is specified, and using the determination criterion of the reference region, it is determined whether the determination region is the detection target region from the color information of the determination region. Judgment means The image processing apparatus characterized in that it comprises 0, the.
[Selection] Figure 1

Description

本発明は、画像処理装置および画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method.

従来より、カメラで撮像した撮像画像の色情報に基づいて、自車両が走行する道路などの検出対象領域を検出する技術が知られている(たとえば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for detecting a detection target region such as a road on which a host vehicle travels is known based on color information of a captured image captured by a camera (see, for example, Patent Document 1).

特許第2963138号公報Japanese Patent No. 2963138

しかしながら、従来技術は、撮像画像の色情報に基づいて対象検出領域を検出するものであるため、たとえば、自車両が走行する道路を検出対象領域として検出する場合に、道路と色が類似する建物(たとえばビル)などを検出対象領域として誤検出してしまうなど、対象検出領域を適切に検出できない場合があった。   However, since the conventional technique detects a target detection region based on color information of a captured image, for example, when a road on which the host vehicle is traveling is detected as a detection target region, a building similar in color to the road There are cases in which the target detection area cannot be detected properly, for example, erroneously detecting (for example, a building) as the detection target area.

本発明の課題は、検出対象領域を適切に検出することが可能な画像処理装置を提供することである。   An object of the present invention is to provide an image processing apparatus capable of appropriately detecting a detection target region.

本発明は、検出対象領域が識別された基準画像を複数の領域に分割し、二次元画像座標系における座標位置を付した基準領域から色情報を抽出し、座標位置が共通する基準領域の色情報の特徴から該座標位置に対応する画像が検出対象領域であるか否かを判定するための判定基準を定義することで、二次元座標系の座標位置ごとに判定基準を取得する。そして、撮像画像を複数の領域に分割し、二次元画像座標系における座標位置を付した判定領域から色情報をそれぞれ抽出し、判定領域と座標位置が共通する判定基準を用いて、該判定領域の色情報の特徴から、判定領域が検出対象領域であるか否かを判定することで、上記課題を解決する。   The present invention divides a reference image in which a detection target region is identified into a plurality of regions, extracts color information from a reference region with a coordinate position in a two-dimensional image coordinate system, and extracts the color of a reference region having a common coordinate position. By defining a criterion for determining whether or not an image corresponding to the coordinate position is a detection target region from the feature of the information, the criterion is acquired for each coordinate position of the two-dimensional coordinate system. Then, the captured image is divided into a plurality of areas, color information is extracted from each of the determination areas to which the coordinate positions in the two-dimensional image coordinate system are attached, and the determination areas are shared by using a determination criterion that is common to the determination areas The above problem is solved by determining whether or not the determination area is a detection target area from the characteristics of the color information.

本発明によれば、二次元画像座標系における座標位置ごとに判定基準を取得することで、それぞれの座標位置に対応する判定基準を用いて、この座標位置における色情報の特徴から、この座標位置に対応する画像が検出対象領域であるか否かを判定することができる。これにより、たとえば、ビルなどの建物が検出され易い座標位置において、画像の色が道路と類似している場合でも、このような画像を道路などの検出対象領域として誤検出してしまうことを有効に防止することができ、その結果、検出対象領域の検出精度を向上することができる。   According to the present invention, by obtaining a determination criterion for each coordinate position in the two-dimensional image coordinate system, using the determination criterion corresponding to each coordinate position, this coordinate position can be obtained from the characteristics of the color information at the coordinate position. It can be determined whether or not the image corresponding to is a detection target region. Thus, for example, it is effective to erroneously detect such an image as a detection target region such as a road even when the color of the image is similar to a road at a coordinate position where a building such as a building is easily detected. As a result, the detection accuracy of the detection target region can be improved.

本実施形態に係る画像処理システムの概略構成図である。1 is a schematic configuration diagram of an image processing system according to an embodiment. ラベル付したサンプル画像の一例を示す図である。It is a figure which shows an example of the labeled sample image. 基準領域の一例を示す図である。It is a figure which shows an example of a reference | standard area | region. 基準領域の色情報のヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of the color information of a reference | standard area | region. 記憶装置30に記憶される基準領域のデータの一例を示す図である。4 is a diagram illustrating an example of reference area data stored in a storage device 30. FIG. 本実施形態に係る判定基準生成処理を示すフローチャートである。It is a flowchart which shows the criteria production | generation process which concerns on this embodiment. 本実施形態に係る対象領域検出処理を示すフローチャートである。It is a flowchart which shows the object area | region detection process which concerns on this embodiment. 本実施形態に係る画像処理システムの効果を説明するための図である。It is a figure for demonstrating the effect of the image processing system which concerns on this embodiment. 検出対象領域の検出方法の他の形態を説明するための図である。It is a figure for demonstrating the other form of the detection method of a detection target area | region.

以下、図面に基づいて、本発明の実施形態について説明する。なお、以下においては、車両に搭載され、車両周辺を撮像した撮像画像から検出対象領域である自車両の走路を検出する画像処理システムを例示して、本発明を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, the present invention will be described by exemplifying an image processing system that is mounted on a vehicle and detects a running path of the host vehicle that is a detection target region from a captured image obtained by capturing the periphery of the vehicle.

図1は、本実施形態に係る画像処理システムの概略構成図である。本実施形態に係る画像処理システム1は、図1に示すように、カメラ10と、画像処理装置20と、記憶装置30とを備える。   FIG. 1 is a schematic configuration diagram of an image processing system according to the present embodiment. As illustrated in FIG. 1, the image processing system 1 according to the present embodiment includes a camera 10, an image processing device 20, and a storage device 30.

カメラ10は、CCDイメージセンサ、MOSセンサ、又はCID等の複数の光電変換素子が二次元に配置された撮像素子を備えている。このカメラ10の撮像素子の撮像面には、たとえばベイヤー配列により、赤色(R)、緑色(G)、および青色(B)に対応するカラーフィルターが配置されており、赤色(R)に対応するカラーフィルターが配置されたR画素からR成分の画像信号が、緑色(G)に対応するカラーフィルターが配置されたG画素からG成分の画像信号が、青色(B)に対応するカラーフィルターが配置されたB画素からB成分の画像信号がそれぞれ出力される。また、カメラ10は、たとえば、自車両の進行方向前方の道路を撮像するように設置されており、これにより、自車両が走行する道路の路面(以下、走路ともいう。)を含む撮像範囲を撮像する。なお、カメラ10により撮像された撮像画像は、画像処理装置20に送信される。   The camera 10 includes an image sensor in which a plurality of photoelectric conversion elements such as a CCD image sensor, a MOS sensor, or a CID are two-dimensionally arranged. Color filters corresponding to red (R), green (G), and blue (B) are arranged on the imaging surface of the imaging element of the camera 10 by, for example, a Bayer array, and correspond to red (R). R component image signal from R pixel where color filter is arranged, G component image signal from G pixel where color filter corresponding to green (G) is arranged, color filter corresponding to blue (B) is arranged A B component image signal is output from each of the B pixels. The camera 10 is installed so as to image a road ahead of the traveling direction of the host vehicle, for example, and thereby an imaging range including a road surface (hereinafter also referred to as a traveling path) of the road on which the host vehicle travels. Take an image. The captured image captured by the camera 10 is transmitted to the image processing device 20.

記憶装置30は、検出対象領域(走路)をラベル付けした複数のサンプル画像を記憶している。図2は、記憶装置30に記憶されているサンプル画像の一例を示す図である。記憶装置30に記憶されているサンプル画像は、たとえば、カメラ10により予め撮像されたカラーの撮像画像であり、図2に示すように、設計者や開発者の手作業により、検出対象領域である道路の路面(走路)がラベル付け(識別)されたものである。なお、図2においては、ラベル付けをしたサンプル画像の画像領域をグレーで示す。   The storage device 30 stores a plurality of sample images labeled with the detection target area (running path). FIG. 2 is a diagram illustrating an example of a sample image stored in the storage device 30. The sample image stored in the storage device 30 is, for example, a color captured image captured in advance by the camera 10 and is a detection target region by manual operation of a designer or a developer as shown in FIG. The road surface (running road) is labeled (identified). In FIG. 2, the image area of the labeled sample image is shown in gray.

画像処理装置20は、図1に示すように、各種プログラムが格納されたROM(Read Only Memory)と、このROMに格納されたプログラムを実行する動作回路としてのCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)と、を備えている。   As shown in FIG. 1, the image processing apparatus 20 includes a ROM (Read Only Memory) in which various programs are stored, a CPU (Central Processing Unit) as an operation circuit for executing the programs stored in the ROM, and an access. RAM (Random Access Memory) functioning as a possible storage device.

本実施形態に係る画像処理装置20は、いわゆるランダムフォレスト法に基づいて、記憶装置30に記憶している複数のサンプル画像から、検出対象領域あるいは非検出対象領域の色情報の特徴を、二次元画像座標系における座標位置ごとに学習させることで、カメラ10により撮像された撮像画像を、座標位置ごとに、検出対象領域(走路)であるか否かを判定し、これにより、撮像画像から検出対象領域を検出するものである。画像処理装置20は、上述した機能を実現するために、判定基準生成機能と、撮像画像取得機能と、色情報抽出機能と、対象領域判定機能との各機能を実現する。以下に、画像処理装置20が実現する各機能について説明する。   The image processing apparatus 20 according to the present embodiment uses a so-called random forest method to calculate the characteristics of color information of a detection target area or a non-detection target area from a plurality of sample images stored in the storage device 30 in a two-dimensional manner. By learning for each coordinate position in the image coordinate system, it is determined whether or not the captured image captured by the camera 10 is a detection target region (running path) for each coordinate position, thereby detecting the captured image. The target area is detected. In order to realize the above-described functions, the image processing apparatus 20 realizes each function of a determination reference generation function, a captured image acquisition function, a color information extraction function, and a target area determination function. Hereinafter, each function realized by the image processing apparatus 20 will be described.

まず、画像処理装置20の判定基準生成機能について説明する。判定基準生成機能は、記憶装置30に記憶されているサンプル画像に基づいて、カメラ10で撮像した撮像画像において検出対象領域(走路)を判定するための判定基準を生成する。具体的には、判定基準生成機能は、まず、記憶装置30に記憶されている複数のサンプル画像をそれぞれ複数の領域に分割し、分割した複数の領域を基準領域として特定する。ここで、図3は、基準領域を説明するための図である。図3に示す例では、判定基準生成機能は、サンプル画像を11×15=165個の基準領域に分割する。なお、図3では、説明の便宜上、サンプル画像を165個の基準領域に分割する構成を例示したが、基準領域の数は、この例に限定されるものではなく、165よりも小さくすることも、大きくすることもできる。   First, the determination criterion generation function of the image processing apparatus 20 will be described. The determination criterion generation function generates a determination criterion for determining a detection target region (running path) in the captured image captured by the camera 10 based on the sample image stored in the storage device 30. Specifically, the determination criterion generation function first divides each of the plurality of sample images stored in the storage device 30 into a plurality of regions, and specifies the plurality of divided regions as reference regions. Here, FIG. 3 is a diagram for explaining the reference region. In the example illustrated in FIG. 3, the determination criterion generation function divides the sample image into 11 × 15 = 165 reference regions. In FIG. 3, for the sake of convenience of explanation, the configuration in which the sample image is divided into 165 reference regions is illustrated. However, the number of reference regions is not limited to this example, and may be smaller than 165. It can also be enlarged.

次に、判定基準生成機能は、サンプル画像を構成する各基準領域から色情報を抽出する。具体的には、判定基準生成機能は、基準領域に対応する各画素からR成分,G成分、またはB成分の画像信号を抽出し、基準領域ごとに、R成分、G成分、およびB成分に応じた3つのヒストグラムを生成する。ここで、図4は、基準領域の色情報(RGB成分)のヒストグラムの一例を示す図であり、(A)はR成分のヒストグラムを、(B)はG成分のヒストグラムを、(C)はB成分のヒストグラムの一例を示している。   Next, the determination criterion generation function extracts color information from each reference region constituting the sample image. Specifically, the determination criterion generation function extracts an image signal of R component, G component, or B component from each pixel corresponding to the reference region, and converts the R component, G component, and B component into each reference region. Three corresponding histograms are generated. Here, FIG. 4 is a diagram showing an example of the histogram of the color information (RGB component) of the reference region, (A) is the R component histogram, (B) is the G component histogram, and (C) is the C component histogram. An example of a histogram of a B component is shown.

たとえば、判定基準生成機能は、図4(A)に示すように、基準領域内のR画素から抽出したR成分の成分値の大きさを、たとえば4つの範囲に分け、それぞれの範囲に含まれるR画素の画素数に基づいて、度数をカウントすることで、R成分のヒストグラムを生成する。同様に、判定基準生成機能は、図4(B)に示すように、基準領域内のG画素から抽出したG成分に基づいて、G成分のヒストグラムを生成し、また、図4(C)に示すように、基準領域内のB画素から抽出したB成分に基づいて、B成分のヒストグラムを生成する。   For example, as shown in FIG. 4A, the determination criterion generation function divides the magnitude of the component value of the R component extracted from the R pixel in the reference region into, for example, four ranges and is included in each range. A histogram of the R component is generated by counting the frequency based on the number of R pixels. Similarly, as shown in FIG. 4B, the determination reference generation function generates a histogram of the G component based on the G component extracted from the G pixel in the reference area. As shown, a B component histogram is generated based on the B component extracted from the B pixels in the reference region.

そして、判定基準生成機能は、サンプル画像を構成する全ての基準領域において、R成分、G成分、およびB成分に応じた3つのヒストグラムを生成し、さらに、記憶装置30に記憶されている全てのサンプル画像についても同様の処理を行うことで、全てのサンプル画像の全ての基準領域から、R成分、G成分、およびB成分に応じた3つのヒストグラムを生成する。   The determination criterion generation function generates three histograms corresponding to the R component, the G component, and the B component in all the reference regions constituting the sample image, and further stores all the histograms stored in the storage device 30. Similar processing is performed on the sample images, and three histograms corresponding to the R component, the G component, and the B component are generated from all the reference regions of all the sample images.

また、判定基準生成機能は、基準領域の色情報として、基準領域から彩度S、明度V、色相H(以下、HSV成分ともいう。)を抽出する構成としてもよい。具体的には、判定基準生成機能は、まず、基準領域の各画素から抽出したRGB成分を変換して、基準領域の彩度S、明度V、色相Hを算出することができる。   Further, the determination reference generation function may be configured to extract saturation S, lightness V, and hue H (hereinafter also referred to as HSV component) from the reference area as color information of the reference area. Specifically, the determination criterion generation function can first convert the RGB components extracted from each pixel in the reference region to calculate the saturation S, lightness V, and hue H of the reference region.

そして、判定基準生成機能は、算出した基準領域内の各画素領域の彩度Sの大きさを、4つの範囲に分け、それぞれの範囲に含まれる画素数の数に基づいて度数をカウントすることで、基準領域内の彩度Sのヒストグラムを生成することができる。同様に、判定基準生成機能は、算出した基準領域内の明度Vおよび色相Hの大きさに基づいて、基準領域内の明度Vのヒストグラム、および基準領域内の色相Hのヒストグラムを生成することができる。なお、この場合も、判定基準生成機能は、サンプル画像を構成する全ての基準領域において、彩度S、明度V、および色相Hに応じた3つのヒストグラムを生成することで、座標位置ごとに、彩度S、明度V、および色相Hの3つのヒストグラムを生成する。また、判定基準生成機能は、記憶装置30に記憶されている全てのサンプル画像について同様の処理を行い、全てのサンプル画像の全ての基準領域から、HSV成分に応じた3つのヒストグラムを生成する。   Then, the determination reference generation function divides the magnitude of the saturation S of each pixel area in the calculated reference area into four ranges, and counts the frequency based on the number of pixels included in each range. Thus, a histogram of the saturation S in the reference area can be generated. Similarly, the determination reference generation function may generate a histogram of lightness V in the reference area and a histogram of hue H in the reference area based on the calculated brightness V and hue H in the reference area. it can. In this case as well, the determination reference generation function generates three histograms corresponding to the saturation S, the lightness V, and the hue H in all reference regions constituting the sample image. Three histograms of saturation S, brightness V, and hue H are generated. In addition, the determination criterion generation function performs the same processing for all the sample images stored in the storage device 30, and generates three histograms corresponding to the HSV components from all the reference regions of all the sample images.

そして、判定基準生成機能は、図5に示すように、基準領域のR成分、G成分、およびB成分の3つのヒストグラムを、この基準領域の座標位置とともに記憶する。ここで、図5に示す例では、画面の左上の座標位置を原点(0,0)とした二次元画像座標系において、画面の左方向から右方向にX軸を、画面の上方向から下方向にY軸をとっている。判定基準生成機能は、このような二次元画像座標系において、各基準領域の座標位置を取得し、各基準領域の座標位置を、該基準領域の色情報に基づいて生成した3つのヒストグラムとともに記憶する。たとえば、図5に示す例では、画面の左上の座標位置を原点(0,0)とした二次元画像座標系において、X座標が12、Y座標が6の基準領域を例示しており、この場合、判定基準生成機能は、図5に示すように、この基準領域の3つのヒストグラムと、この基準領域の座標位置(12,6)とを、記憶装置30に記憶する。なお、原点の座標は画面の左上に限定されず、たとえば画面の左下であってもよい。   Then, as shown in FIG. 5, the determination reference generation function stores three histograms of the R component, G component, and B component of the reference region together with the coordinate position of the reference region. Here, in the example shown in FIG. 5, in the two-dimensional image coordinate system in which the coordinate position at the upper left of the screen is the origin (0, 0), the X axis extends from the left to the right of the screen and from the upper to the lower of the screen. The Y axis is taken in the direction. The determination reference generation function acquires the coordinate position of each reference region in such a two-dimensional image coordinate system, and stores the coordinate position of each reference region together with three histograms generated based on the color information of the reference region. To do. For example, in the example shown in FIG. 5, in the two-dimensional image coordinate system in which the upper left coordinate position of the screen is the origin (0, 0), a reference region having an X coordinate of 12 and a Y coordinate of 6 is illustrated. In this case, as shown in FIG. 5, the determination criterion generation function stores the three histograms of the reference region and the coordinate position (12, 6) of the reference region in the storage device 30. The origin coordinates are not limited to the upper left corner of the screen, and may be, for example, the lower left corner of the screen.

また、判定基準生成機能は、消失点が存在する座標位置を原点O(0,0)として、各基準領域の座標位置を特定する構成としてもよい。このように、消失点が存在する座標位置を原点とした二次元画像座標系において、基準領域の座標位置を求めることで、たとえば、消失点よりも上部の画像領域は検出対象領域(走路)ではないと判断して、検出対象領域の検出対象から除外することができ、これにより、検出対象領域をより高い精度で算出することが可能となる。なお、消失点は、公知の方法により求めればよい。   The determination reference generation function may be configured to specify the coordinate position of each reference region with the coordinate position where the vanishing point is present as the origin O (0, 0). In this way, in the two-dimensional image coordinate system having the origin at the coordinate position where the vanishing point exists, by obtaining the coordinate position of the reference area, for example, the image area above the vanishing point is the detection target area (running path). Therefore, it is possible to exclude the detection target region from the detection target, and thereby the detection target region can be calculated with higher accuracy. The vanishing point may be obtained by a known method.

そして、判定基準生成機能は、複数のサンプル画像の複数の基準領域のうち、上述した二次元画像座標系において、座標位置が共通する基準領域の色情報に基づいて、該座標位置に対応する画像が検出対象領域であるか否かを判定(分類)するための判定基準を生成する。たとえば、判定基準生成機能は、複数のサンプル画像の複数の基準領域から座標位置が共通する複数の基準領域を抽出し、抽出した複数の基準領域のR成分、G成分、B成分の各ヒストグラム(あるいは、彩度S、明度V、色相Hの各ヒストグラム)と、該基準領域のラベル付けの有り無し(すなわち、検出対象領域であるか否か)との関係を、所定のアルゴリズムに基づいて対応付けることで、基準領域の色情報から該基準領域が検出対象領域であるか否かを判定(分類)するための分類木を判定基準として生成することができる。   Then, the determination reference generation function is an image corresponding to the coordinate position based on the color information of the reference area having the same coordinate position in the above-described two-dimensional image coordinate system among the plurality of reference areas of the plurality of sample images. A criterion for determining (classifying) whether or not is a detection target region is generated. For example, the determination criterion generation function extracts a plurality of reference regions having a common coordinate position from a plurality of reference regions of a plurality of sample images, and each histogram of R component, G component, and B component of the extracted plurality of reference regions ( Alternatively, the relationship between the saturation S, lightness V, and hue H histograms) and the presence / absence of labeling of the reference region (that is, whether or not the region is a detection target region) is associated based on a predetermined algorithm. Thus, a classification tree for determining (classifying) whether or not the reference area is a detection target area from the color information of the reference area can be generated as a determination reference.

たとえば、判定基準生成機能は、座標位置が共通する複数の基準領域のR成分のヒストグラムに基づいて、該座標位置に対応する画像が検出対象領域であるか否かを判定(分類)するための分類木を生成し、生成した分類木を、該座標位置のR成分に対応する判定基準として、記憶装置30に記憶する。同様に、判定基準生成機能は座標位置のG成分に対応する判定基準と、座標位置のG成分に対応する判定基準とを、記憶装置30に記憶する。   For example, the determination reference generation function determines (classifies) whether or not an image corresponding to the coordinate position is a detection target area based on histograms of R components of a plurality of reference areas having a common coordinate position. A classification tree is generated, and the generated classification tree is stored in the storage device 30 as a determination criterion corresponding to the R component of the coordinate position. Similarly, the determination criterion generation function stores a determination criterion corresponding to the G component at the coordinate position and a determination criterion corresponding to the G component at the coordinate position in the storage device 30.

このように、判定基準生成機能は、R成分、G成分、B成分の各ヒストグラム(あるいは、彩度S、明度V、色相Hの各ヒストグラム)に基づいて、座標位置ごとに、R成分、G成分、B成分(あるいは、彩度S、明度V、色相H)に対応する3つの分類木を、R成分、G成分、B成分(あるいは、彩度S、明度V、色相H)に対応する判定基準として生成し、座標位置ごとに生成した判定基準を記憶装置30に記憶する。   As described above, the determination criterion generation function performs R component, G component for each coordinate position based on the histograms of R component, G component, and B component (or histograms of saturation S, lightness V, and hue H). Three classification trees corresponding to the component, B component (or saturation S, lightness V, hue H) correspond to the R component, G component, B component (or saturation S, lightness V, hue H). It is generated as a determination criterion, and the determination criterion generated for each coordinate position is stored in the storage device 30.

次に、画像処理装置20の撮像画像取得機能について説明する。撮像画像取得機能は、カメラ10が撮像した撮像画像を、カメラ10から取得する。   Next, the captured image acquisition function of the image processing apparatus 20 will be described. The captured image acquisition function acquires a captured image captured by the camera 10 from the camera 10.

画像処理装置20の色情報抽出機能は、撮像画像取得機能により取得された撮像画像から色情報を抽出する。具体的には、色情報抽出機能は、まず、カメラ10で撮像された撮像画像を、複数の領域に分割し、分割した複数の領域を判定領域として特定する。たとえば、色情報抽出機能は、図3に示すように、判定基準機能によりサンプル画像を分割した基準領域の分割数と同様に、撮像画像を11×15=165個の領域に分割し、これらの領域を判定領域として特定する。   The color information extraction function of the image processing apparatus 20 extracts color information from the captured image acquired by the captured image acquisition function. Specifically, the color information extraction function first divides a captured image captured by the camera 10 into a plurality of areas, and specifies the plurality of divided areas as determination areas. For example, as shown in FIG. 3, the color information extraction function divides the captured image into 11 × 15 = 165 areas, similar to the number of divisions of the reference area obtained by dividing the sample image by the determination reference function. An area is specified as a determination area.

そして、色情報抽出機能は、特定した各判定領域から色情報を抽出する。たとえば、色情報抽出機能は、図3に示すように、判定領域内のR画素からR成分の画像信号を、G画素からG成分の画像信号を、B画素からB成分の画像信号をそれぞれ抽出し、これにより、図4に示すように、この判定領域内のR成分のヒストグラムと、G成分のヒストグラムと、B成分のヒストグラムとを生成する。あるいは、色情報抽出機能は、判定領域のRGB成分をHSV成分に変換することで、判定領域内のH成分(色相)のヒストグラムと、S成分(彩度)のヒストグラムと、V成分(明度)のヒストグラムとを生成する。   Then, the color information extraction function extracts color information from each identified determination area. For example, the color information extraction function extracts an R component image signal from an R pixel, a G component image signal from a G pixel, and a B component image signal from a B pixel, as shown in FIG. Thus, as shown in FIG. 4, an R component histogram, a G component histogram, and a B component histogram in the determination region are generated. Alternatively, the color information extraction function converts the RGB component of the determination region into an HSV component, thereby causing an H component (hue) histogram, an S component (saturation) histogram, and a V component (lightness) in the determination region. And generate a histogram.

画像処理装置20の対象領域判定機能は、判定基準生成機能により生成された判定基準を用いて、撮像画像を構成する各判定領域が、検出対象領域(走路)であるか否かを判定する。上述したように、判定基準生成機能により生成された判定基準は、検出対象領域をラベル付けした複数のサンプル画像から、画像の色情報の特徴と、検出対象領域または非検出対象領域との関係を、二次元画像座標系の座標位置ごとに学習させた分類木である。そのため、対象領域判定機能は、判定領域の座標位置に対応する判定基準を用いることで、判定領域の色情報の特徴から、該判定領域が検出対象領域であるか否かを判定(分類)することができる。   The target area determination function of the image processing apparatus 20 determines whether each determination area constituting the captured image is a detection target area (running road) using the determination reference generated by the determination reference generation function. As described above, the determination criterion generated by the determination criterion generation function is based on the relationship between the characteristics of the color information of the image and the detection target region or the non-detection target region from a plurality of sample images labeled with the detection target region. This is a classification tree learned for each coordinate position of the two-dimensional image coordinate system. Therefore, the target area determination function determines (classifies) whether or not the determination area is a detection target area from the characteristics of the color information of the determination area by using a determination criterion corresponding to the coordinate position of the determination area. be able to.

具体的には、対象領域判定機能は、まず、各判定領域が検出対象領域であるか否かを判定するために、判定領域と座標位置が共通する判定基準を記憶装置30から読み出す。そして、対象領域判定機能は、読み出した判定基準を用いて、色情報抽出機能により抽出された判定領域の色情報から、この判定領域が検出対象領域であるか否かを判定する。たてえば、対象領域判定機能は、判定領域と座標位置が共通するR成分の判定基準を用いて、この判定領域のR成分のヒストグラムの特徴から、この判定領域が検出対象領域あるいは非検出対象領域のいずれかであるかを判定(分類)する。また、同様に、対象領域判定機能は、この判定領域と座標位置が共通するG成分の判定基準を用いて、この判定領域のG成分のヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定し、この判定領域と座標位置が共通するB成分の判定基準を用いて、この判定領域のB成分のヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定する。これにより、対象領域判定機能は、この判定領域が検出対象領域であるか否かの判定結果を3つ得ることができる。   Specifically, the target area determination function first reads from the storage device 30 a determination criterion that is common to the determination area and the coordinate position in order to determine whether or not each determination area is a detection target area. Then, the target area determination function determines whether the determination area is a detection target area from the color information of the determination area extracted by the color information extraction function, using the read determination criterion. For example, the target area determination function uses an R component determination reference that has the same coordinate position as the determination area, and determines whether the determination area is a detection target area or a non-detection target from the characteristics of the R component histogram of the determination area. It is determined (classified) whether it is one of the areas. Similarly, the target region determination function uses the G component determination reference that has the same coordinate position as the determination region, and this determination region is a detection target region based on the characteristics of the G component histogram of the determination region. Whether or not this determination region is a detection target region based on the characteristics of the B component histogram of this determination region, using a determination criterion for the B component that has the same coordinate position as that of the determination region. judge. Thereby, the target area determination function can obtain three determination results as to whether or not this determination area is a detection target area.

また、判定基準生成機能により彩度S、明度V、および色相Hの色情報に基づいて判定基準が生成されている場合には、対象領域判定機能は、色情報抽出機能により抽出された判定領域の彩度S、明度V、および色相Hのヒストグラムから、判定領域が検出対象領域であるか否かを判定する。たとえば、対象領域判定機能は、判定領域と座標位置が共通する彩度Sの判定基準を用いて、この判定領域の彩度Sのヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定する。また、同様に、対象領域判定機能は、判定領域と座標位置が共通する明度Vの判定基準を用いて、この判定領域の明度Vのヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定し、また、判定領域と座標位置が共通する色相Hの判定基準を用いて、この判定領域の色相Hのヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定する。この場合も、対象領域判定機能は、二次元画像座標系の座標位置ごとに、3つの判定結果を得ることができる。   In addition, when the determination criterion is generated based on the color information of the saturation S, the lightness V, and the hue H by the determination criterion generation function, the target region determination function is the determination region extracted by the color information extraction function. Whether or not the determination region is a detection target region is determined from the histogram of the saturation S, lightness V, and hue H. For example, the target area determination function uses the determination criterion of the saturation S that has the same coordinate position as that of the determination area, and determines whether or not the determination area is a detection target area from the characteristics of the histogram of the saturation S of the determination area. Determine whether. Similarly, the target area determination function uses the lightness V determination criterion that has the same coordinate position as the determination area, and determines whether the determination area is a detection target area from the characteristics of the brightness V histogram of the determination area. Whether or not this determination region is a detection target region is determined based on the characteristics of the hue H histogram of this determination region using the determination criterion of hue H that has the same coordinate position as the determination region. judge. Also in this case, the target area determination function can obtain three determination results for each coordinate position of the two-dimensional image coordinate system.

そして、対象領域判定機能は、各座標位置に対応する3つの判定結果に基づいて、各座標位置の判定領域が検出対象領域であるか否かを判定する。すなわち、対象領域判定機能は、各座標位置に対応する3つの判定結果において、この座標位置に対応する判定領域が検出対象領域であるとの判定結果が多い場合には、この判定領域は検出対象領域であると判定し、この座標位置に対応する判定領域が検出対象領域ではないとの判定結果が多い場合には、この判定領域は検出対象領域ではないと判定する。   Then, the target area determination function determines whether or not the determination area at each coordinate position is a detection target area based on the three determination results corresponding to each coordinate position. In other words, the target area determination function determines that if there are many determination results that the determination area corresponding to the coordinate position is the detection target area among the three determination results corresponding to each coordinate position, When it is determined that the region is a region and there are many determination results that the determination region corresponding to the coordinate position is not the detection target region, it is determined that the determination region is not the detection target region.

さらに、対象領域判定機能は、撮像画像を構成する全ての判定領域について同様の処理を行い、各判定領域が検出対象領域であるか否かを判定する。これにより、対象領域判定機能は、撮像画像から検出対象領域を検出することができる。   Further, the target area determination function performs the same processing for all the determination areas constituting the captured image, and determines whether each determination area is a detection target area. Thereby, the target area determination function can detect the detection target area from the captured image.

続いて、図6を参照して、本実施形態に係る判定基準生成処理について説明する。図6は、本実施形態に係る判定基準生成処理を示すフローチャートである。なお、以下に説明する判定基準生成処理は、画像処理装置20の判定基準生成機能により実行される。   Subsequently, with reference to FIG. 6, the determination criterion generation processing according to the present embodiment will be described. FIG. 6 is a flowchart showing determination criterion generation processing according to the present embodiment. Note that the determination criterion generation process described below is executed by the determination criterion generation function of the image processing apparatus 20.

まず、ステップS101では、記憶装置30に記憶されている複数のサンプル画像のうち、判定基準の生成が行われていないサンプル画像の取得が行われる。そして、ステップS102では、図2に示すように、ステップS101で取得されたサンプル画像が複数の基準領域に分割される。たとえば、図2に示す例では、11×15=165の基準領域に分割される。   First, in step S <b> 101, a sample image for which a criterion is not generated is acquired from among a plurality of sample images stored in the storage device 30. In step S102, as shown in FIG. 2, the sample image acquired in step S101 is divided into a plurality of reference regions. For example, in the example shown in FIG. 2, it is divided into 11 × 15 = 165 reference areas.

ステップS103〜S106では、ステップS102で分割された複数の基準領域のそれぞれについて、ステップS103〜S106の処理が行われる。まず、ステップS103では、ステップS103〜S106の処理が行われていない基準領域が取得される。   In steps S103 to S106, the processes in steps S103 to S106 are performed for each of the plurality of reference regions divided in step S102. First, in step S103, a reference area where the processes of steps S103 to S106 are not performed is acquired.

そして、ステップS104では、ステップS103で取得された基準領域から色情報の抽出が行われる。具体的には、判定基準生成機能は、図4に示すように、基準領域内のR画素、G画素、およびB画素から、R成分、G成分、およびB成分をそれぞれ抽出し、抽出した画素領域内のR成分、G成分、B成分の分布をヒストグラムとして生成する。また、基準領域のRGB成分をHSV成分に変換することで、R成分、G成分、B成分のヒストグラムに代えて、彩度S、明度V、色相Hのヒストグラムを生成する構成としてもよい。   In step S104, color information is extracted from the reference area acquired in step S103. Specifically, as shown in FIG. 4, the determination criterion generation function extracts the R component, the G component, and the B component from the R pixel, the G pixel, and the B pixel in the reference region, and extracts the extracted pixels. The distribution of the R component, G component, and B component in the region is generated as a histogram. Further, by converting the RGB components of the reference region into HSV components, a histogram of saturation S, brightness V, and hue H may be generated instead of the histograms of R component, G component, and B component.

ステップS105では、ステップS104で色情報の抽出が行われた基準領域について、基準領域の座標位置の取得が行われる。たとえば、図5に示す例では、判定基準生成機能は、画面左上の座標位置を原点(0,0)とした二次元画像座標系において、基準領域の座標位置を(12,6)として取得する。また、判定基準生成機能は、消失点を検出し、検出された消失点が存在する座標位置を原点とした二次元画像座標系において、基準領域の座標位置を取得する構成としてもよい。   In step S105, the coordinate position of the reference area is acquired for the reference area from which the color information has been extracted in step S104. For example, in the example illustrated in FIG. 5, the determination reference generation function acquires the coordinate position of the reference region as (12, 6) in the two-dimensional image coordinate system with the coordinate position at the upper left of the screen as the origin (0, 0). . The determination reference generation function may be configured to detect the vanishing point and acquire the coordinate position of the reference region in the two-dimensional image coordinate system with the origin at the coordinate position where the detected vanishing point exists.

ステップS106では、ステップS103で抽出された基準領域の色情報、すなわち、基準領域内のR成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、ステップS104で取得した基準領域の座標位置とが、記憶装置30に記憶される。   In step S106, color information of the reference area extracted in step S103, that is, a histogram of R, G, and B components (or a histogram of saturation S, lightness V, and hue H) in the reference area, The coordinate position of the reference area acquired in S104 is stored in the storage device 30.

そして、ステップS107では、ステップS102で分割された全ての基準領域について、ステップS103〜S106の処理を実施されたか否かの判断が行われる。ステップS102で分割された全ての基準領域について、ステップS103〜S106の処理が実施された場合には、ステップS108に進み、一方、ステップS102で分割された全ての基準領域について、ステップS103〜S106の処理が実施されていない場合には、ステップS103に戻り、ステップS103〜S106の処理が実施されていない基準領域について、ステップS103〜S106の処理が実施される。これにより、サンプル画像を分割した全ての基準領域について、R成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、座標位置とが得られることとなる。   In step S107, it is determined whether or not the processing in steps S103 to S106 has been performed for all the reference regions divided in step S102. If the processing of steps S103 to S106 has been performed for all the reference regions divided in step S102, the process proceeds to step S108, while the processing of steps S103 to S106 is performed for all the reference regions divided in step S102. When the process is not performed, the process returns to step S103, and the process of steps S103 to S106 is performed for the reference region where the process of steps S103 to S106 is not performed. As a result, R, G, and B component histograms (or histograms of saturation S, brightness V, and hue H) and coordinate positions are obtained for all reference regions obtained by dividing the sample image. .

ステップS108では、ステップS101で取得された全てのサンプル画像について、ステップS102〜S107の処理が実施されたか否かの判断が行われる。ステップS101で取得された全てのサンプル画像について、ステップS102〜S107の処理が実施された場合には、ステップS109に進む。一方、ステップS101で取得された全てのサンプル画像について、ステップS102〜S107の処理が実施されていない場合には、ステップS101に戻り、ステップS102〜S107の処理が実施されていないサンプル画像について、ステップS102〜S107の処理が実施される。これにより、記憶装置30に記憶されている全てのサンプル画像の全ての基準領域について、R成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、座標位置とが得られることとなる。   In step S108, it is determined whether or not the processing in steps S102 to S107 has been performed for all the sample images acquired in step S101. If the processing in steps S102 to S107 has been performed for all the sample images acquired in step S101, the process proceeds to step S109. On the other hand, if the processing of steps S102 to S107 has not been performed for all the sample images acquired in step S101, the process returns to step S101, and the steps of steps S102 to S107 are performed for the sample images that have not been processed. The processes of S102 to S107 are performed. As a result, for all reference regions of all sample images stored in the storage device 30, histograms of R, G, and B components (or histograms of saturation S, lightness V, hue H) and coordinates Position.

ステップS109では、全てのサンプル画像の全ての基準領域についてのR成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)と、座標位置とが、記憶装置30から読み出される。そして、読み出した複数の基準領域のうち、二次元画像座標系において座標位置が共通する基準領域の色情報に基づいて、該座標位置が検出対象領域であるか否かを判定(分類)するための分類木の生成が行われる。   In step S109, R, G, and B component histograms (or histograms of saturation S, brightness V, and hue H) and coordinate positions for all reference regions of all sample images and the coordinate position are stored in the storage device 30. Read from. In order to determine (classify) whether or not the coordinate position is the detection target area based on the color information of the reference area having the same coordinate position in the two-dimensional image coordinate system among the plurality of read reference areas. A classification tree is generated.

具体的には、判定基準生成機能は、読み出した複数の基準領域のうち、二次元画像座標系において座標位置が共通する基準領域のR成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)から、R成分、G成分、B成分(あるいは、彩度S、明度V、色相H)に対応する分類木をそれぞれ生成する。すなわち、判定基準生成機能は、所定のアルゴリズムに基づいて、基準領域のR成分、G成分、B成分(あるいは、彩度S、明度V、色相H)ごとに、各成分がどのような分布である場合に、検出対象領域であると判定(分類)することができ、あるいは、検出対象領域ではないと判定(分類)することができるかを学習させることで、座標位置ごとに、検出対象領域であるか否かを判定(分類)するための分類木を生成する。このように、本実施形態では、座標位置ごとに、R成分、G成分、B成分のヒストグラム(あるいは、彩度S、明度V、色相Hのヒストグラム)に基づく3つの分類木を生成する。   Specifically, the determination reference generation function is a histogram (or saturation S) of the R component, the G component, and the B component of the reference region having a common coordinate position in the two-dimensional image coordinate system among the plurality of read reference regions. , Lightness V, hue H histogram), classification trees corresponding to the R component, G component, and B component (or saturation S, lightness V, hue H) are generated. That is, the determination reference generation function is based on a predetermined algorithm, and the distribution of each component for each of the R component, G component, and B component (or saturation S, brightness V, hue H) of the reference region. In some cases, the detection target region can be determined for each coordinate position by learning whether it can be determined (classified) as a detection target region or can be determined (classified) as not being a detection target region. A classification tree for determining (classifying) whether or not is generated. As described above, in this embodiment, three classification trees based on histograms of R, G, and B components (or histograms of saturation S, lightness V, and hue H) are generated for each coordinate position.

そして、判定基準生成機能は、座標位置ごとに生成した3つの分類木を、各座標位置に対応する判定基準として、記憶装置30に記憶する。このように、本実施形態では、検出対象領域を判定するための判定基準の生成が行われる。   Then, the determination criterion generation function stores the three classification trees generated for each coordinate position in the storage device 30 as determination criteria corresponding to each coordinate position. As described above, in this embodiment, the generation of the determination criterion for determining the detection target region is performed.

続いて、図7を参照して、本実施形態に係る対象領域検出処理について説明する。図7は、本実施形態に係る対象領域検出処理を示すフローチャートである。なお、以下に説明する対象領域検出処理は、画像処理装置20により実行される。   Subsequently, a target area detection process according to the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart showing target area detection processing according to the present embodiment. Note that the target region detection process described below is executed by the image processing apparatus 20.

まず、ステップS201では、画像処理装置20の撮像画像取得機能により、カメラ10で撮像された撮像画像の取得が行われる。そして、ステップS202では、画像処理装置20の色情報抽出機能により、ステップS201で取得された撮像画像が複数の判定領域に分割される。たとえば、本実施形態では、サンプル画像を11×15=165個の基準領域に分割しているため、色情報抽出機能は、撮像画像を11×15=165個の判定領域に分割する。   First, in step S <b> 201, the captured image captured by the camera 10 is acquired by the captured image acquisition function of the image processing apparatus 20. In step S202, the captured image acquired in step S201 is divided into a plurality of determination areas by the color information extraction function of the image processing apparatus 20. For example, in this embodiment, since the sample image is divided into 11 × 15 = 165 reference regions, the color information extraction function divides the captured image into 11 × 15 = 165 determination regions.

次いで、ステップS202で分割された複数の判定領域のそれぞれについて、ステップS203〜S206の処理が行われる。まず、ステップS203では、色情報抽出機能により、ステップS202で分割された判定領域から色情報の抽出が行われる。具体的には、色情報抽出機能は、判定領域からR成分、G成分、およびB成分をそれぞれ抽出し、抽出したR成分、G成分、およびB成分に基づいて、R成分、G成分、およびB成分のそれぞれに対応する3つのヒストグラムを生成する。また、図6に示す判定基準生成処理において、彩度S、明度V、および色相Hに基づいて判定基準が生成されている場合には、抽出した判定領域のR成分、G成分、およびB成分から、判定領域内の彩度S、明度V、および色相Hを算出し、算出した彩度S、明度V、および色相Hに基づいて、彩度S、明度V、および色相Hのそれぞれに対応する3つのヒストグラムを生成する。   Next, the processes in steps S203 to S206 are performed for each of the plurality of determination areas divided in step S202. First, in step S203, color information is extracted from the determination area divided in step S202 by the color information extraction function. Specifically, the color information extraction function extracts the R component, the G component, and the B component from the determination region, respectively, and based on the extracted R component, G component, and B component, the R component, the G component, and Three histograms corresponding to each of the B components are generated. In the determination reference generation process shown in FIG. 6, when the determination reference is generated based on the saturation S, lightness V, and hue H, the R component, G component, and B component of the extracted determination region Saturation S, lightness V, and hue H in the determination area are calculated from the image, and based on the calculated saturation S, lightness V, and hue H, each of the saturation S, lightness V, and hue H is handled. Three histograms are generated.

ステップS204では、画像処理装置20の色情報抽出機能により、ステップS203において色情報が抽出された判定領域の座標位置が取得される。なお、色情報抽出機能は、判定基準生成処理における二次元画像座標系と共通する座標系において、判定領域の座標位置を取得する。すなわち、判定基準生成処理において、画面左上の座標位置を原点とした二次元画像座標系により基準領域の座標位置を特定している場合には、判定領域の座標位置についても、画面左上の座標位置を原点とした二次元画像座標系により特定される。あるいは、判定基準生成処理において、消失点が存在する座標位置を原点とした二次元画像座標系により基準領域の座標位置を特定している場合には、判定領域の座標位置についても、消失点が存在する座標位置を原点とした二次元画像座標系により特定される。   In step S204, the coordinate position of the determination area from which the color information is extracted in step S203 is acquired by the color information extraction function of the image processing apparatus 20. Note that the color information extraction function acquires the coordinate position of the determination region in a coordinate system common to the two-dimensional image coordinate system in the determination reference generation process. That is, in the determination reference generation process, when the coordinate position of the reference area is specified by the two-dimensional image coordinate system with the coordinate position at the upper left of the screen as the origin, the coordinate position of the determination area is also the upper left coordinate position of the screen. Is specified by a two-dimensional image coordinate system with the origin as the origin. Alternatively, in the determination reference generation process, when the coordinate position of the reference region is specified by the two-dimensional image coordinate system with the coordinate position where the vanishing point exists as the origin, the vanishing point is also detected for the coordinate position of the determination region. It is specified by a two-dimensional image coordinate system with the existing coordinate position as the origin.

ステップS205では、画像処理装置20の対象領域判定機能により、記憶装置30に記憶されている判定基準の中から、この判定領域と座標位置が共通する判定基準の読み出しが行われる。そして、ステップS206では、同じく対象領域判定機能により、ステップS205で読み出された判定基準を用いて、この判定領域が検出対象領域であるか否かの判定が行われる。   In step S <b> 205, the target area determination function of the image processing apparatus 20 reads out a determination standard having the same coordinate position as that of the determination area from among the determination standards stored in the storage device 30. In step S206, the target region determination function determines whether or not this determination region is a detection target region using the determination criterion read in step S205.

ここで、本実施形態に係る判定基準は、検出対象領域をラベル付けした複数のサンプル画像を用いて、どのような色情報の特徴がある場合に検出対象領域であり、あるいは検出対象領域ではないかを、座標位置ごとに学習させたものである。そのため、対象領域判定機能は、判定領域と座標位置が共通する判定基準を用いて、色情報抽出機能により抽出された判定領域の色情報の特徴から、判定領域が検出対象領域であるか否かを判定することができる。   Here, the determination criterion according to the present embodiment is a detection target region when there is a feature of any color information using a plurality of sample images labeled with the detection target region, or is not a detection target region. Is learned for each coordinate position. Therefore, the target area determination function determines whether the determination area is a detection target area from the characteristics of the color information of the determination area extracted by the color information extraction function using a determination criterion that has the same coordinate position as the determination area. Can be determined.

次いで、ステップS207では、ステップS202で分割された全ての判定領域について、ステップS203〜S206の処理が実施されたか否かの判断が行われる。ステップS202で分割された全ての判定領域について、ステップS203〜S206の処理が実施された場合には、この対象領域検出処理を終了し、ステップS201に戻り、次フレームの撮像画像について、対象領域検出処理を実行する。一方、ステップS202で分割された全ての判定領域について、ステップS203〜S206の処理が実施されていない場合には、ステップS203に戻り、ステップS203〜S206の処理が実施されていない判定領域について、ステップS203〜S206の処理が実施される。これにより、撮像画像を構成する全ての判定領域について、検出対象領域であるか否かの判定が行われ、その結果、撮像画像から検出対象領域を検出することができる。   Next, in step S207, it is determined whether or not the processing in steps S203 to S206 has been performed for all the determination areas divided in step S202. When the processes of steps S203 to S206 have been performed for all the determination areas divided in step S202, the target area detection process is terminated, and the process returns to step S201 to detect the target area for the captured image of the next frame. Execute the process. On the other hand, if the processes of steps S203 to S206 are not performed for all the determination areas divided in step S202, the process returns to step S203, and the determination areas for which the processes of steps S203 to S206 are not performed are performed. The processes of S203 to S206 are performed. Thereby, it is determined whether or not all the determination areas constituting the captured image are detection target areas, and as a result, the detection target areas can be detected from the captured image.

以上のように、本実施形態では、走路などの検出対象領域をラベル付けしたサンプル画像を複数の基準領域に分割し、分割した各基準領域から色情報を抽出することで、複数のサンプル画像から複数の基準領域の色情報を取得する。そして、二次元画像座標系において座標位置が共通する複数の基準領域の色情報から、基準領域の色情報がどのような場合に、検出対象領域であると判定(分類)することができ、あるいは、検出対象領域ではないと判定(分類)することができるかを、座標位置ごとに学習させ、この学習結果を、この座標位置に対応する画像が検出対象領域であるか否かを判定するための判定基準として生成する。そして、カメラ10で撮像した撮像画像を複数の判定領域に分割し、分割した判定領域から色情報を抽出し、判定領域と座標位置が共通する判定基準を用いて、この判定領域の色情報の特徴から、この判定領域が検出対象領域であるか否かを判定する。このように、本実施形態では、各座標位置の基準領域の色情報から、座標位置ごとに判定基準を生成することで、たとえば、検出対象領域である走路と色が似ている建物(ビル)など、色情報だけでは走路として誤検出される被写体が多く撮像される座標位置については、走路と類似する色情報であっても検出対象領域ではないと判定する判定基準が生成される。そのため、本実施形態では、撮像画像でビルが撮像された場合でも、ビルが撮像された判定領域と座標位置が共通する判定基準を用いて、ビルが撮像された判定領域が対象領域であるか否かを判定した場合に、このような判定領域を検出対象領域として誤検出してしまうことを有効に防止することができ、その結果、検出対象領域の検出精度を向上させることができる。   As described above, in the present embodiment, a sample image labeled with a detection target region such as a runway is divided into a plurality of reference regions, and color information is extracted from each of the divided reference regions. Acquire color information of a plurality of reference areas. Then, from the color information of a plurality of reference areas having the same coordinate position in the two-dimensional image coordinate system, it is possible to determine (classify) that the color information of the reference area is a detection target area, or In order to determine whether it can be determined (classified) that it is not a detection target region for each coordinate position, and to determine whether or not the image corresponding to this coordinate position is a detection target region It is generated as a judgment criterion. Then, the captured image captured by the camera 10 is divided into a plurality of determination areas, color information is extracted from the divided determination areas, and the determination information having the same coordinate position as the determination area is used to determine the color information of the determination area. From the feature, it is determined whether or not this determination area is a detection target area. As described above, in the present embodiment, by generating a determination reference for each coordinate position from the color information of the reference area at each coordinate position, for example, a building (building) whose color is similar to the runway that is the detection target area. For example, for a coordinate position where a large number of subjects erroneously detected as a runway are captured only with color information, a determination criterion is generated that determines that the color information is similar to the runway but is not a detection target region. Therefore, in this embodiment, even if a building is imaged in the captured image, whether the determination area where the building is imaged is a target area using a determination criterion that has the same coordinate position as the determination area where the building is imaged. When it is determined whether or not, it is possible to effectively prevent such a determination region from being erroneously detected as a detection target region, and as a result, the detection accuracy of the detection target region can be improved.

ここで、図8は、本実施形態の効果を説明するための図であり、(A)は、従来のように、RGB成分の色情報のみに基づいて検出対象領域を判定した場合の検出精度を示し、(B)は、本実施形態のように、RGB成分の色情報と、画面左上の座標位置を原点とした二次元画像座標系の座標位置とに基づいて検出対象領域を判定した場合の検出精度を示し、(C)は、従来のように、HSV成分の色情報のみに基づいて検出対象領域を判定した場合の検出精度を示し、(D)は、本実施形態により、HSV成分の色情報と、消失点を原点とした二次元画像座標系の座標位置とに基づいて検出対象領域を判定した場合の検出精度を示す。   Here, FIG. 8 is a diagram for explaining the effect of the present embodiment, and FIG. 8A is a detection accuracy when the detection target region is determined based on only the color information of the RGB components as in the prior art. (B) shows a case where the detection target region is determined based on the color information of the RGB components and the coordinate position of the two-dimensional image coordinate system with the coordinate position at the upper left of the screen as the origin, as in this embodiment (C) shows the detection accuracy when the detection target region is determined based only on the color information of the HSV component as in the conventional case, and (D) shows the HSV component according to this embodiment. The detection accuracy in the case where the detection target region is determined based on the color information and the coordinate position of the two-dimensional image coordinate system with the vanishing point as the origin is shown.

従来のように、RGB成分のみに基づいて対象検出領域を判定する場合には、たとえば、検出対象領域ではないビルなどの建物が、対象検出領域である路面の色と類似している場合に、検出対象領域として誤検出されてしまう場合があり、その結果、図8(A)に示すように、検出精度が低下してしまった。これに対して、本実施形態では、図8(B)に示すように、判定領域と座標位置が共通する判定基準を用いて、この判定領域のRGB成分の特徴から、この判定領域が対象検出領域であるか否かを判定することで、たとえ、ビルなどの建物の色が走路と類似している場合でも、このような座標位置においてはビルなどの建物が走路と判定されてしまうことを有効に防止することができるため、図8(A)に示す例と比べて、検出対象領域の検出精度を向上させることができる。   When determining the target detection area based on only the RGB components as in the past, for example, when a building such as a building that is not the detection target area is similar to the color of the road surface that is the target detection area, In some cases, the detection target area is erroneously detected, and as a result, as shown in FIG. On the other hand, in this embodiment, as shown in FIG. 8B, the determination region is detected from the characteristics of the RGB components of the determination region using a determination criterion having the same coordinate position as the determination region. By determining whether or not it is an area, even if the color of the building such as a building is similar to the runway, it is determined that the building such as a building is determined to be a runway at such a coordinate position. Since it can prevent effectively, compared with the example shown to FIG. 8 (A), the detection precision of a detection object area | region can be improved.

同様に、従来のように、HSV成分の色情報のみに基づいて対象検出領域を判定する場合にも、検出対象領域ではないビルなどの建物が、対象検出領域である路面の色と類似している場合に、検出対象領域として誤検出されてしまう場合があり、その結果、図8(C)に示すように、検出精度が低下してしまった。これに対して、本実施形態では、図8(D)に示すように、判定領域と座標位置が共通する判定基準を用いて、この判定領域のHSV成分の特徴から、この判定領域が対象検出領域であるか否かを判定することで、たとえ、ビルなどの建物の色が走路と類似している場合でも、このような座標位置においてはビルなどの建物が走路と判定されてしまうことを有効に防止することができるため、図8(C)に示す例と比べて、検出対象領域の検出精度を向上させることができる。   Similarly, when the target detection area is determined based only on the color information of the HSV component as in the past, a building such as a building that is not the detection target area is similar to the color of the road surface that is the target detection area. In some cases, it may be erroneously detected as a detection target region, and as a result, as shown in FIG. On the other hand, in this embodiment, as shown in FIG. 8D, the determination region is detected from the feature of the HSV component of the determination region using a determination criterion having the same coordinate position as the determination region. By determining whether or not it is an area, even if the color of the building such as a building is similar to the runway, it is determined that the building such as a building is determined to be a runway at such a coordinate position. Since this can be effectively prevented, the detection accuracy of the detection target region can be improved as compared with the example shown in FIG.

また、本実施形態では、RGB成分の色情報に基づいて、検出対象領域であるか否かを判定することもでき、あるいは、HSV成分の色情報に基づいて、検出対象領域であるか否かを判定することもできる。図8に示すように、HSV成分の色情報に基づいて検出対象領域であるか否かを判定する場合には、RGB成分の色情報に基づいて検出対象領域であるか否かを判定する場合よりも、検出対象領域の検出精度は高くなる。一方で、HSV成分の色情報は、RGB成分の色情報から求められるため、RGB成分の色情報に基づいて検出対象領域であるか否かを判定する方が、HSV成分の色情報に基づいて検出対象領域を判定するよりも、検出対象領域の判定処理を迅速に行うことができる。そのため、画像処理システム1の使用環境や目的に応じて、RGB成分の色情報に基づいて検出対象領域を判定するか、あるいは、HSV成分の色情報に基づいて検出対象領域を判定するかを適宜選択することが好適である。   In the present embodiment, it is also possible to determine whether or not the detection target area is based on the color information of the RGB component, or whether or not the detection target area is based on the color information of the HSV component. Can also be determined. As shown in FIG. 8, when determining whether or not it is a detection target region based on the color information of the HSV component, determining whether or not it is a detection target region based on the color information of the RGB component The detection accuracy of the detection target region is higher than that. On the other hand, since the color information of the HSV component is obtained from the color information of the RGB component, it is based on the color information of the HSV component that it is determined whether the region is a detection target region based on the color information of the RGB component. Rather than determining the detection target area, the detection target area determination process can be performed quickly. Therefore, depending on the usage environment and purpose of the image processing system 1, whether to determine the detection target region based on the RGB component color information or whether to detect the detection target region based on the HSV component color information is appropriately determined. It is preferable to select.

さらに、本実施形態では、図8に示すように、画面左上の座標位置など所定の座標位置を原点とした二次元画像座標系で基準領域および判定領域の座標位置を特定することで、座標位置ごとに検出対象領域を判定することもでき、あるいは、消失点が存在する座標位置を原点とした二次元画像座標系で基準領域および判定領域の座標位置を特定することで、座標位置ごとに検出対象領域を判定することもできる。消失点が存在する座標位置を原点とした二次元画像座標系を用いて検出対象領域を判定する場合には、たとえば消失点よりも上部の画像領域は検出対象領域(走路)ではないと判断して、検出対象領域の検出対象から除外することで、これにより、所定の座標位置を原点とした二次元画像座標系を用いて検出対象領域を判定する場合と比べて、検出対象領域の検出精度を向上させることが可能となる。一方で、所定の座標位置を原点とした二次元画像座標系を用いて検出対象領域を判定する場合には、消失点の演算が不要なため、消失点が存在する座標位置を原点とした二次元画像座標系を用いて検出対象領域を判定する場合と比べて、検出対象領域の判定処理を迅速に行うことができる。そのため、画像処理システム1の使用環境や目的に応じて、消失点が存在する座標位置を原点とした二次元画像座標系を用いて検出対象領域を判定するか、あるいは、所定の座標位置を原点とした二次元画像座標系を用いて検出対象領域を判定するかを適宜選択することが好適である。   Furthermore, in the present embodiment, as shown in FIG. 8, the coordinate position of the reference area and the determination area is specified by a two-dimensional image coordinate system with a predetermined coordinate position such as a coordinate position at the upper left of the screen as the origin. The detection target area can be determined for each coordinate position, or by detecting the coordinate position of the reference area and the determination area in the two-dimensional image coordinate system with the coordinate position where the vanishing point exists as the origin. The target area can also be determined. When determining the detection target area using the two-dimensional image coordinate system with the origin at the coordinate position where the vanishing point exists, for example, it is determined that the image area above the vanishing point is not the detection target area (running path). By excluding the detection target area from the detection target, the detection accuracy of the detection target area is thereby improved compared to the case where the detection target area is determined using a two-dimensional image coordinate system with a predetermined coordinate position as the origin. Can be improved. On the other hand, when the detection target region is determined using a two-dimensional image coordinate system with a predetermined coordinate position as the origin, since the calculation of the vanishing point is unnecessary, the coordinate position where the vanishing point exists is set as the origin. Compared with the case where the detection target region is determined using the two-dimensional image coordinate system, the detection target region determination processing can be performed quickly. Therefore, according to the use environment and purpose of the image processing system 1, the detection target region is determined using a two-dimensional image coordinate system with the coordinate position where the vanishing point exists as the origin, or the predetermined coordinate position is set as the origin. It is preferable to appropriately select whether to determine the detection target region using the two-dimensional image coordinate system.

また、本実施形態では、座標位置ごとに、R成分、G成分、およびB成分(あるいは、彩度S、明度V、色相H)に対応する3つの分類木を判定基準として生成し、判定基準であるこれら3つの分類木を用いて、判定領域が検出対象領域であるか否かを判定することで、各判定領域において3つの判定結果を出力する。そして、こられの判定結果のうち数の多い判定結果を、この判定領域における判定結果として選択する。このように、複数の分類木を用いて判定領域が検出対象領域であるか否かを判定することで、1本の分類木で判定を行う場合よりも、検出対象領域の判定精度を高めることができる。   In the present embodiment, for each coordinate position, three classification trees corresponding to the R component, the G component, and the B component (or saturation S, lightness V, and hue H) are generated as determination criteria. By using these three classification trees, it is determined whether or not the determination area is a detection target area, so that three determination results are output in each determination area. And the determination result with many numbers is selected as a determination result in this determination area | region among these determination results. In this way, by determining whether or not the determination region is a detection target region using a plurality of classification trees, the determination accuracy of the detection target region is improved as compared with the case where determination is performed with one classification tree. Can do.

また、本実施形態では、判定基準を予め用意しておき、カメラ10により撮像された最新の撮像画像に用意した判定基準を適用するだけで、検出対象領域(路面)を検出することができるため、検出結果をリアルタイムで得ることができる。   Further, in this embodiment, it is possible to detect the detection target region (road surface) simply by preparing the determination criterion in advance and applying the determination criterion prepared to the latest captured image captured by the camera 10. The detection result can be obtained in real time.

以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

たとえば、上述した実施形態では、基準領域および判定領域の色情報として、RGB成分またはHSV成分を抽出する構成を例示したが、この構成に限定されず、たとえば、基準領域および判定領域の色情報として、グラデーション、すなわち輝度の勾配を抽出する構成としてもよい。   For example, in the above-described embodiment, the configuration in which the RGB component or the HSV component is extracted as the color information of the reference region and the determination region is exemplified. However, the configuration is not limited to this configuration. Further, a gradation, that is, a luminance gradient may be extracted.

たとえば、図9(A)に示すように、各基準領域を中心角が20°の9つの扇状領域に分割し、図9(B)に示すように、分割した9つの扇状領域の輝度を示すヒストグラムを、基準領域のグラデーションを示すヒストグラムとして生成し、生成したグラデーションのヒストグラムに基づいて判定基準を生成することができる。この場合、撮像画像を構成する判定領域の色情報として、図9(A),(B)と同様の方法で、判定領域のグラデーションを示すヒストグラムを生成し、この判定領域と座標位置が共通する判定基準を用いて、この判定領域のグラデーションのヒストグラムの特徴から、この判定領域が検出対象領域であるか否かを判定する。この場合も、判定領域が検出対象領域であるか否かを適切に検出することができる。なお、図9は、検出対象領域の検出方法の他の形態を説明するための図である。   For example, as shown in FIG. 9A, each reference area is divided into nine fan-shaped areas having a central angle of 20 °, and the luminance of the divided nine fan-shaped areas is shown as shown in FIG. 9B. The histogram can be generated as a histogram indicating the gradation of the reference area, and a determination reference can be generated based on the generated gradation histogram. In this case, a histogram showing the gradation of the determination area is generated as color information of the determination area constituting the captured image by the same method as in FIGS. 9A and 9B, and the coordinate position is common to the determination area. Whether or not the determination area is a detection target area is determined from the characteristics of the gradation histogram of the determination area using the determination criterion. Also in this case, it is possible to appropriately detect whether or not the determination area is a detection target area. In addition, FIG. 9 is a figure for demonstrating the other form of the detection method of a detection target area | region.

また、上述した実施形態では、基準領域および判定領域の色情報として、RGB成分またはHSV成分を抽出する構成を例示したが、この構成に限定されず、たとえば、RGB成分およびHSV成分の両方を抽出して、抽出したRGB成分およびHSV成分に対応する判定基準を生成する構成としてもよい。   In the above-described embodiment, the configuration in which the RGB component or the HSV component is extracted as the color information of the reference region and the determination region is exemplified. However, the present invention is not limited to this configuration, and for example, both the RGB component and the HSV component are extracted. Then, it may be configured to generate a determination criterion corresponding to the extracted RGB component and HSV component.

上述したように、HSV成分の色情報を用いた検出対象領域の判定の方が判定精度は高いが、RGB成分の色情報を用いた検出対象領域の判定の方が処理速度は速い。そのため、たとえば、自車両が高速で走行している場合など、撮像画像を短いフレームレートで撮像する場合には、RGB成分の色情報を用いて検出対象領域の判定を行い、一方、渋滞などにより撮像画像を長いフレームレートで撮像することができる場合には、HSV成分の色情報を用いて検出対象領域の判定を行うなど、HSV成分の色情報を用いた検出対象領域の判定と、RGB成分の色情報を用いた検出対象領域の判定とを切り替えることが好適である。   As described above, the determination accuracy of the detection target area using the HSV component color information is higher than the determination accuracy, but the detection speed of the detection target area determination using the RGB component color information is faster. Therefore, for example, when the captured image is captured at a short frame rate, such as when the host vehicle is traveling at high speed, the detection target area is determined using the color information of the RGB components. When the captured image can be captured at a long frame rate, the detection target region is determined using the HSV component color information, such as determining the detection target region using the HSV component color information, and the RGB component. It is preferable to switch the determination of the detection target region using the color information.

さらに、上述した実施形態では、基準領域および判定領域において、R成分、G成分、B成分に対応する3つのヒストグラム(あるいは、彩度S、明度V、色相Hに対応する3つのヒストグラム)をそれぞれ生成する構成を例示したが、この構成に限定されず、たとえば、以下に説明するように、基準領域および判定領域において生成されるヒストグラムの数を増やす構成としてもよい。すなわち、基準領域および判定領域をさらに4つの領域に分割し、これらの領域ごとに、R成分、G成分、B成分に対応する3つのヒストグラム(あるいは、彩度S、明度V、色相Hに対応する3つのヒストグラム)を生成することで、基準領域および判定領域から、R成分、G成分、B成分についてのヒストグラム(あるいは、彩度S、明度V、色相Hについてのヒストグラム)を、3×4=12ずつ生成する構成とすることができる。すなわち、基準領域および判定領域をそれぞれ4つの領域に分割することで、R成分に対応する4つのヒストグラムと、G成分に対応する4つのヒストグラムと、B成分に対応する4つのヒストグラムとを生成することができ、これにより、基準領域および判定領域において、12のヒストグラムを生成することができる(彩度S、明度V、色相Hについてのヒストグラムも同様。)。この場合、座標位置ごとに12の分類木を判定基準として得ることができるため、このような判定基準を用いて判定領域が検出対象領域であるか否かを判定することで、検出対象領域の判定精度を向上させることができる。   Furthermore, in the above-described embodiment, three histograms corresponding to the R component, the G component, and the B component (or three histograms corresponding to the saturation S, the lightness V, and the hue H) are respectively obtained in the reference region and the determination region. Although the configuration to be generated has been illustrated, the present invention is not limited to this configuration. For example, as described below, the number of histograms generated in the reference region and the determination region may be increased. That is, the reference region and the determination region are further divided into four regions, and for each of these regions, three histograms corresponding to the R component, G component, and B component (or saturation S, lightness V, and hue H are supported). 3 histograms for the R component, the G component, and the B component (or the histogram for saturation S, lightness V, and hue H) from the reference region and the determination region. = 12 can be generated. That is, by dividing the reference region and the determination region into four regions, four histograms corresponding to the R component, four histograms corresponding to the G component, and four histograms corresponding to the B component are generated. Accordingly, 12 histograms can be generated in the reference region and the determination region (the same applies to the histograms for saturation S, lightness V, and hue H). In this case, since 12 classification trees can be obtained as determination criteria for each coordinate position, by determining whether or not the determination region is a detection target region using such a determination criterion, The determination accuracy can be improved.

また、上述した実施形態では、基準領域および判定領域の色情報としてRGB成分またはHSV成分を抽出し、RGB成分またはHSV成分に基づいて3つのヒストグラムを生成することで、3本の分類木を判定基準として生成する構成を例示したが、この構成に限定されず、たとえば、RGB成分およびHSV成分を抽出し、RGB成分およびHSV成分に基づいて6つのヒストグラムを生成することで、6本の分類木を判定基準として生成する構成としてもよい。さらに、上述したように、基準領域および判定領域の色情報としてグラデーションを抽出し、RGB成分および/またはHSV成分と組み合わせる構成としてもよい。   In the above-described embodiment, three classification trees are determined by extracting RGB components or HSV components as color information of the reference region and the determination region, and generating three histograms based on the RGB components or HSV components. Although the configuration generated as the reference is illustrated, the present invention is not limited to this configuration. For example, 6 classification trees are extracted by extracting RGB components and HSV components and generating 6 histograms based on the RGB components and HSV components. May be generated as a criterion. Further, as described above, a gradation may be extracted as the color information of the reference area and the determination area and combined with the RGB component and / or HSV component.

さらに、上述した実施形態では、撮像画像を複数の判定領域に分割する際に、判定領域の分割数を、サンプル画像を分割した基準領域の分割数と同数とする構成を例示したが、この構成に限定されず、判定領域の分割数と基準領域の分割数とを異なる数にする構成としてもよい。このような場合も、たとえば、サンプル画像と撮像画像とを重ね合わせた場合に基準領域に重複する判定領域の座標位置を、該基準領域の座標位置と対応付けておくことで、判定領域の座標位置に対応する基準領域の判定基準を用いて、この判定領域が検出対象領域であるか否かを判定することができる。このように、本発明における判定領域と座標位置が共通する判定基準とは、仮にサンプル画像と撮像画像とを重ね合わせた場合に、該判定領域と重複する基準領域の色情報に基づいて生成された判定基準である。   Further, in the above-described embodiment, when the captured image is divided into a plurality of determination areas, the number of determination areas is set to be the same as the number of reference areas into which the sample image is divided. However, the number of determination areas may be different from the number of reference areas. Even in such a case, for example, when the sample image and the captured image are superimposed, the coordinate position of the determination region that overlaps the reference region is associated with the coordinate position of the reference region, so that the coordinates of the determination region It is possible to determine whether or not this determination region is a detection target region by using the determination criterion of the reference region corresponding to the position. As described above, the determination reference having the same coordinate position as the determination region in the present invention is generated based on the color information of the reference region overlapping with the determination region when the sample image and the captured image are superimposed. It is a criterion.

なお、上述した実施形態の画像処理装置20の撮像画像取得機能は本発明の撮像画像取得手段に、色情報抽出機能は本発明の抽出手段に、対象領域判定機能は本発明の判定基準取得手段および判定手段に、それぞれ対応する。   The captured image acquisition function of the image processing apparatus 20 of the above-described embodiment is the captured image acquisition unit of the present invention, the color information extraction function is the extraction unit of the present invention, and the target area determination function is the determination criterion acquisition unit of the present invention. And determination means respectively.

1…画像処理システム
10…カメラ
20…画像処理装置
30…記憶装置
DESCRIPTION OF SYMBOLS 1 ... Image processing system 10 ... Camera 20 ... Image processing apparatus 30 ... Memory | storage device

Claims (8)

検出対象領域が識別された複数の基準画像をそれぞれ複数の基準領域に分割し、二次元画像座標系における座標位置を付した前記基準領域から色情報を抽出し、座標位置が共通する前記基準領域の色情報の特徴から該座標位置に対応する画像が前記検出対象領域であるか否かを判定するための判定基準を定義することで、前記二次元座標系の座標位置ごとに、前記判定基準を取得する判定基準取得手段と、
撮像画像を取得する撮像画像取得手段と、
前記撮像画像を複数の判定領域に分割し、前記二次元画像座標系における座標位置を付した前記判定領域から色情報を抽出する抽出手段と、
座標位置ごとに取得された複数の前記判定基準のうち、前記判定領域と座標位置が共通する判定基準を用いて、前記判定領域の色情報の特徴から、該判定領域が前記検出対象領域であるか否かを判定する判定手段と、を備えることを特徴とする画像処理装置。
A plurality of reference images in which detection target areas are identified are divided into a plurality of reference areas, color information is extracted from the reference areas with coordinate positions in a two-dimensional image coordinate system, and the reference areas have a common coordinate position. By defining a criterion for determining whether an image corresponding to the coordinate position is the detection target region from the characteristics of the color information, the criterion for each coordinate position of the two-dimensional coordinate system A criterion acquisition means for acquiring
Captured image acquisition means for acquiring a captured image;
An extraction unit that divides the captured image into a plurality of determination areas and extracts color information from the determination areas with coordinate positions in the two-dimensional image coordinate system;
Among the plurality of determination criteria acquired for each coordinate position, the determination region is the detection target region based on the characteristics of the color information of the determination region using a determination criterion that has the same coordinate position as the determination region. An image processing apparatus comprising: determination means for determining whether or not.
請求項1に記載の画像処理装置であって、
前記判定基準取得手段は、座標位置が共通する前記基準領域の色情報の分布を、前記座標位置が共通する基準領域の色情報の特徴として求めることで、前記座標位置が共通する基準領域の色情報の分布から該座標位置に対応する前記判定基準を定義することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The determination criterion acquisition unit obtains the color information distribution of the reference region having the same coordinate position as a feature of the color information of the reference region having the same coordinate position, so that the color of the reference region having the same coordinate position is obtained. An image processing apparatus, wherein the determination criterion corresponding to the coordinate position is defined from an information distribution.
請求項2に記載の画像処理装置であって、
前記判定基準取得手段は、座標位置が共通する前記基準領域におけるRGB画像信号の分布を、前記座標位置が共通する色情報の特徴として求めることで、前記座標位置が共通する基準領域のRGB画像信号の分布から該座標位置に対応する前記判定基準を定義し、
前記判定手段は、前記RGB画像信号の分布に基づいて定義された前記判定基準を用いて、前記判定領域内のRGB画像信号の分布から、前記判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The determination reference acquisition means obtains the distribution of the RGB image signal in the reference region having the same coordinate position as a feature of the color information having the same coordinate position, so that the RGB image signal of the reference region having the same coordinate position is obtained. Defining the criterion corresponding to the coordinate position from the distribution of
The determination unit determines whether the determination region is the detection target region from the distribution of the RGB image signals in the determination region, using the determination criterion defined based on the distribution of the RGB image signals. An image processing apparatus characterized by determining.
請求項2に記載の画像処理装置であって、
前記判定基準取得手段は、座標位置が共通する前記基準領域におけるHSV画像信号の分布を、前記座標位置が共通する色情報の特徴として求めることで、前記座標位置が共通する基準領域のHSV画像信号の分布から該座標位置に対応する前記判定基準を定義し、
前記判定手段は、前記HSV画像信号の分布に基づいて定義された前記判定基準を用いて、前記判定領域内のHSV画像信号の分布から、前記判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The determination reference acquisition unit obtains the distribution of the HSV image signal in the reference region having the same coordinate position as a feature of color information having the same coordinate position, so that the HSV image signal of the reference region having the same coordinate position is obtained. Defining the criterion corresponding to the coordinate position from the distribution of
The determination unit determines whether the determination region is the detection target region based on the distribution of the HSV image signal in the determination region using the determination criterion defined based on the distribution of the HSV image signal. An image processing apparatus characterized by determining.
請求項1〜4のいずれかに記載の画像処理装置であって、
前記判定基準取得手段は、座標位置が共通する前記基準領域内の輝度勾配を、前記座標位置が共通する色情報の特徴として求めることで、前記座標位置が共通する基準領域内の輝度勾配から該座標位置に対応する前記判定基準を定義し、
前記判定手段は、前記輝度勾配に基づいて定義された前記判定基準を用いて、前記判定領域内の輝度勾配から、前記判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The determination criterion acquisition unit obtains a luminance gradient in the reference region having a common coordinate position as a characteristic of color information having the common coordinate position, thereby obtaining the luminance gradient in the reference region having the common coordinate position from the luminance gradient in the reference region. Define the criterion corresponding to the coordinate position,
The determination unit determines whether the determination region is the detection target region from the luminance gradient in the determination region, using the determination criterion defined based on the luminance gradient. An image processing apparatus.
請求項1〜5のいずれかに記載の画像処理装置であって、
前記判定基準取得手段は、所定の座標位置を原点とする前記二次元画像座標系において、前記二次元画像座標系の座標位置ごとに前記判定基準を取得し、
前記判定手段は、前記所定の座標位置を原点とする二次元画像座標系において、前記判定領域と座標位置が共通する前記判定基準を用いて、該判定領域の色情報から、前記判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 5,
The determination reference acquisition means acquires the determination reference for each coordinate position of the two-dimensional image coordinate system in the two-dimensional image coordinate system having a predetermined coordinate position as an origin,
In the two-dimensional image coordinate system in which the predetermined coordinate position is the origin, the determination unit uses the determination criterion that is common to the determination area and the coordinate position, and determines the determination area from the color information of the determination area. An image processing apparatus for determining whether or not a detection target area.
請求項1〜5のいずれかに記載の画像処理装置であって、
消失点を検出する消失点検出手段をさらに備え、
前記判定基準取得手段は、前記消失点の座標位置を原点とする二次元画像座標系において、前記二次元画像座標系の座標位置ごとに前記判定基準を取得し、
前記判定手段は、前記消失点の座標位置を原点とする二次元画像座標系において、前記判定領域と座標位置が共通する前記判定基準を用いて、該判定領域の色情報から、前記判定領域が前記検出対象領域であるか否かを判定することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 5,
Further comprising vanishing point detecting means for detecting the vanishing point,
The determination criterion acquisition means acquires the determination criterion for each coordinate position of the two-dimensional image coordinate system in a two-dimensional image coordinate system with the coordinate position of the vanishing point as an origin,
In the two-dimensional image coordinate system in which the coordinate position of the vanishing point is the origin, the determination unit uses the determination criterion in which the coordinate position is the same as the determination area, and determines the determination area from the color information of the determination area. An image processing apparatus that determines whether or not the detection target region is present.
検出対象領域が識別された複数の基準画像を複数の基準領域に分割し、二次元画像座標系における座標位置を付した前記基準領域から色情報を抽出し、座標位置が共通する基準領域の色情報の特徴から該座標位置に対応する画像が前記検出対象領域であるか否かを判定するための判定基準を定義することで、前記二次元座標系の座標位置ごとに、前記判定基準を取得する判定基準取得工程と、
撮像画像を取得し、取得した前記撮像画像を複数の判定領域に分割し、前記二次元画像座標系の座標位置を付した前記判定領域から色情報を抽出し、該判定領域と座標位置が共通する前記基準領域を特定し、該基準領域の前記判定基準を用いて、該判定領域の色情報の特徴から、前記判定領域が前記検出対象領域であるか否かを判定する対象領域検出工程と、を有することを特徴とする画像処理方法。
A plurality of reference images in which detection target areas are identified are divided into a plurality of reference areas, color information is extracted from the reference areas with coordinate positions in the two-dimensional image coordinate system, and the colors of the reference areas having the same coordinate positions By defining a criterion for determining whether or not an image corresponding to the coordinate position is the detection target region from information features, the determination criterion is obtained for each coordinate position of the two-dimensional coordinate system. A criteria acquisition step to perform,
A captured image is acquired, the acquired captured image is divided into a plurality of determination regions, color information is extracted from the determination region with the coordinate position of the two-dimensional image coordinate system, and the determination region and the coordinate position are common A target region detection step of determining whether the determination region is the detection target region from the characteristics of the color information of the determination region using the determination criterion of the reference region. And an image processing method.
JP2013068023A 2013-03-28 2013-03-28 Image processing apparatus and image processing method Pending JP2014191684A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013068023A JP2014191684A (en) 2013-03-28 2013-03-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013068023A JP2014191684A (en) 2013-03-28 2013-03-28 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2014191684A true JP2014191684A (en) 2014-10-06

Family

ID=51837845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013068023A Pending JP2014191684A (en) 2013-03-28 2013-03-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2014191684A (en)

Similar Documents

Publication Publication Date Title
CN108364010B (en) License plate recognition method, device, equipment and computer readable storage medium
US10592754B2 (en) Shadow removing method for color image and application
US8867788B2 (en) Vehicle periphery monitoring device
JP2011188496A (en) Backlight detection device and backlight detection method
US9064178B2 (en) Edge detection apparatus, program and method for edge detection
KR101295092B1 (en) Color Detector for vehicle
JP2017005389A (en) Image recognition device, image recognition method, and program
JP6375911B2 (en) Curve mirror detector
JP6779688B2 (en) Image processing equipment, image processing method, computer program
CN101599175A (en) Detection method and image processing device for determining the change of shooting background
JP2018029250A5 (en)
CN106067177A (en) HDR scene method for detecting and device
JP2013258596A (en) Image pick-up device
JP2012142935A (en) Night scene light source detection device and night scene light source detection method
CN102024264B (en) Dimensional-histogram-statistic-based touch pen color recognition method
CN110035281A (en) A kind of dead pixel detection method, device and electronic equipment
JP2018142828A (en) Deposit detector and deposit detection method
CN110910394B (en) Method for measuring resolution of image module
JP5338762B2 (en) White balance coefficient calculation device and program
JP2014191685A (en) Image processing apparatus and image processing method
KR102150661B1 (en) Method and Apparatus for Preprocessing Image for Detecting Objects
EP2775422A2 (en) Object detection apparatus, program, and integrated circuit
CN113508395B (en) Method and device for detecting objects in an image composed of pixels
KR20150009842A (en) System for testing camera module centering and method for testing camera module centering using the same
JP5754931B2 (en) Image analysis apparatus, image analysis method, and program