[go: up one dir, main page]

JP2010079582A - Apparatus, method and program for detecting object - Google Patents

Apparatus, method and program for detecting object Download PDF

Info

Publication number
JP2010079582A
JP2010079582A JP2008246838A JP2008246838A JP2010079582A JP 2010079582 A JP2010079582 A JP 2010079582A JP 2008246838 A JP2008246838 A JP 2008246838A JP 2008246838 A JP2008246838 A JP 2008246838A JP 2010079582 A JP2010079582 A JP 2010079582A
Authority
JP
Japan
Prior art keywords
rectangle
candidate
parallax
common area
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008246838A
Other languages
Japanese (ja)
Inventor
Hiroshi Hattori
寛 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008246838A priority Critical patent/JP2010079582A/en
Publication of JP2010079582A publication Critical patent/JP2010079582A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】広い視野範囲の物体を高精度に検出する物体検出装置を提供する。
【解決手段】物体検出装置は、入力された複数の画像間の視差を算出する視差算出部102と、物体が存在する道路面の面パラメータを算出するパラメータ算出部103と、複数の画像の共通領域と非共通領域とを算出する領域算出部104aと、共通領域の道路面上の矩形であって、共通領域の道路面上の矩形に含まれる各点の視差の均一度が閾値より大きい矩形を、物体を検出する候補矩形として生成する第1生成部104bと、非共通領域の道路面上の矩形を候補矩形として生成する第2生成部104cと、生成された候補矩形に検出対象の物体が含まれるか否かを判定する判定部105と、を備える。
【選択図】 図3
An object detection apparatus for detecting an object with a wide visual field range with high accuracy is provided.
An object detection apparatus includes: a parallax calculation unit that calculates parallax between a plurality of input images; a parameter calculation unit that calculates a surface parameter of a road surface on which the object exists; A region calculation unit 104a that calculates a region and a non-common region, and a rectangle on the road surface of the common region, and a rectangle whose disparity uniformity of each point included in the rectangle on the road surface of the common region is greater than a threshold value Is generated as a candidate rectangle for detecting an object, a second generation unit 104c is generated as a candidate rectangle for a rectangle on the road surface of the non-common area, and an object to be detected in the generated candidate rectangle And a determination unit 105 that determines whether or not is included.
[Selection] Figure 3

Description

この発明は、移動体(例えば、自動車)に搭載した複数台のカメラを用いて特定の物体(例えば、人物)を検出する装置、方法及びプログラムに関する。   The present invention relates to an apparatus, a method, and a program for detecting a specific object (for example, a person) using a plurality of cameras mounted on a moving body (for example, an automobile).

入力画像に含まれる特定の物体を検出する物体検出技術は、応用範囲が広く、非常に有用な技術である。この技術を用いれば、例えば自動車に搭載したカメラによって自車周囲の歩行者を検出することが可能であり、アラームでドライバーに注意を喚起したり、ブレーキを制御することにより安全運転を支援することができる。自動車のような移動体にカメラを搭載して物体を検出する場合には、2台のカメラによるステレオ視が有効である。   An object detection technique for detecting a specific object included in an input image has a wide application range and is a very useful technique. Using this technology, for example, it is possible to detect pedestrians around the vehicle with a camera mounted on a car, and to support safe driving by alerting the driver with an alarm or controlling the brake Can do. When a camera is mounted on a moving body such as an automobile to detect an object, stereo viewing with two cameras is effective.

車載のステレオカメラを用いた歩行者検出処理の概要を以下に示す(例えば非特許文献1)。
1.ステレオ画像間の各点の視差を計算する。
2.各点の視差に基づいて、道路上の立体物を歩行者候補領域として検出する。
3.各候補領域をパターン識別して歩行者領域を検出する。パターン識別は、予め学習により生成した識別器が行う。
An outline of a pedestrian detection process using an in-vehicle stereo camera is shown below (for example, Non-Patent Document 1).
1. Calculate the parallax of each point between stereo images.
2. Based on the parallax of each point, a solid object on the road is detected as a pedestrian candidate area.
3. Each candidate area is pattern-identified to detect a pedestrian area. Pattern identification is performed by a classifier generated by learning in advance.

ステレオ視を用いれば検出対象までの距離が計測できるだけでなく、得られた3次元情報を用いて、道路面に対して高さを有する領域を抽出することができるため、識別処理を行う領域を限定できる。一般にパターン識別処理は計算コストが高いため、ステレオ処理により全体の処理コストを削減し、かつ、識別精度も向上させることが可能となる(例えば非特許文献1)。   If stereo vision is used, not only the distance to the detection target can be measured, but also the region having a height relative to the road surface can be extracted using the obtained three-dimensional information. Can be limited. In general, since the pattern identification processing has a high calculation cost, it is possible to reduce the overall processing cost and improve the identification accuracy by stereo processing (for example, Non-Patent Document 1).

D. M. Gavrila and S. Munder, “Multi-Cue Pedestrian Detection and Tracking from a Moving Vehicle”, International Journal of Computer Vision, Springer Verlag, vol.73, no.1(June) , pp.41-59, 2007.D. M. Gavrila and S. Munder, “Multi-Cue Pedestrian Detection and Tracking from a Moving Vehicle”, International Journal of Computer Vision, Springer Verlag, vol.73, no.1 (June), pp.41-59, 2007.

しかしながら、ステレオ視差が計算可能な領域は、左右両方のカメラの共通視野領域に限定される。このため、例えば右カメラの撮像範囲内に歩行者が進入してきた場合であっても、この共通視野領域外であれば歩行者候補として検出できない。このため、警報が遅れ、結果としてブレーキのタイミングが遅れるなどの問題が生じうる。   However, the region where the stereo parallax can be calculated is limited to the common visual field region of both the left and right cameras. For this reason, for example, even when a pedestrian enters the imaging range of the right camera, it cannot be detected as a pedestrian candidate if it is outside this common visual field region. For this reason, a problem such as a delay in the alarm and a delay in the brake timing as a result may occur.

本発明は、上記に鑑みてなされたものであって、広い視野範囲の物体を高精度に検出できる装置、方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an apparatus, a method, and a program that can detect an object in a wide visual field range with high accuracy.

上述した課題を解決し、目的を達成するために、本発明は、基準面上に存在する物体を検出する物体検出装置であって、複数の撮像装置のそれぞれで撮像された画像間の視差を算出する視差算出部と、前記視差に基づいて、前記複数の画像の共通領域と、前記共通領域以外の非共通領域と、を算出する領域算出部と、前記共通領域内の矩形であって、前記矩形に含まれる各点の前記視差の均一度が予め定められた閾値より大きい矩形を、前記物体を検出するための矩形の候補である候補矩形として生成する第1生成部と、前記非共通領域内の矩形を前記候補矩形として生成する第2生成部と、生成された前記候補矩形に検出対象の物体が含まれるか否かを判定する判定部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is an object detection device that detects an object existing on a reference plane, and is configured to reduce parallax between images captured by each of a plurality of imaging devices. A parallax calculation unit to calculate, an area calculation unit to calculate a common area of the plurality of images and a non-common area other than the common area based on the parallax, and a rectangle in the common area, The non-common with the first generation unit that generates a rectangle whose parallax uniformity of each point included in the rectangle is larger than a predetermined threshold as a candidate rectangle that is a candidate for the rectangle for detecting the object A second generation unit that generates a rectangle in a region as the candidate rectangle, and a determination unit that determines whether or not an object to be detected is included in the generated candidate rectangle.

また、本発明は、上記装置を実行することができる方法及びプログラムである。   The present invention is also a method and program capable of executing the above-described apparatus.

本発明によれば、広い視野範囲の物体を高精度に検出できるという効果を奏する。   According to the present invention, it is possible to detect an object with a wide visual field range with high accuracy.

以下に添付図面を参照して、この発明に係る装置、方法及びプログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an apparatus, a method, and a program according to the present invention will be described below in detail with reference to the accompanying drawings.

本実施の形態に係る物体検出装置は、ステレオカメラ等を用いたステレオ視により道路面や床面などの基準面上に存在する物体を検出する装置であって、ステレオカメラを構成する各カメラ(撮像装置)で撮像した個々の画像のみから物体を検出する単眼視をステレオ視と融合して利用することにより、両者の欠点を補い、従来の方式に比べて広い視野範囲の物体を高精度に検出する。   The object detection apparatus according to the present embodiment is an apparatus that detects an object existing on a reference plane such as a road surface or a floor surface by stereo viewing using a stereo camera or the like, and includes each camera ( By combining monocular vision that detects objects only from individual images captured by the imaging device with stereo vision, both disadvantages are compensated for, and objects with a wider field of view are more accurately compared to conventional methods. To detect.

最初に、ステレオカメラの視野について図1及び図2を用いて説明する。図1は、ステレオカメラの共通視野の一例を示す図である。図2は、歩行者が右側から移動体の進行方向に進入してきた場合に撮影される画像の一例を示す図である。   First, the visual field of the stereo camera will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a common visual field of a stereo camera. FIG. 2 is a diagram illustrating an example of an image captured when a pedestrian enters the moving body from the right side.

図1(a)に、ステレオカメラを構成する2つのカメラ11a、11bが所定の間隔Bで設置された例が示されている。図1(b)には、個々のカメラ11a、11bの撮像範囲を示している。   FIG. 1A shows an example in which two cameras 11a and 11b constituting a stereo camera are installed at a predetermined interval B. FIG. 1B shows imaging ranges of the individual cameras 11a and 11b.

図1(a)に示すように、2つのカメラ11a、11bの撮像範囲の重複部分である斜線部が共通視野となる。共通視野の左右に存在する幅Bの空間は、ステレオ視差が計算できない領域である。ステレオ処理可能な領域は1つのカメラの撮像範囲(図1(b))に比べて幅Bだけ狭くなる。   As shown in FIG. 1A, the shaded portion that is the overlapping portion of the imaging ranges of the two cameras 11a and 11b is a common field of view. The space of width B existing on the left and right of the common visual field is an area where stereo parallax cannot be calculated. The area that can be stereo-processed is narrower by the width B than the imaging range of one camera (FIG. 1B).

このため、図2に示すように、歩行者が右側から移動体の進行方向に進入してきた場合、歩行者が右カメラの撮像範囲内に存在しても(図2(a))、左カメラの撮像範囲外に存在すれば(図2(b))、ステレオ処理によって歩行者候補として検出することができない。このような場合は、歩行者が共通視野内に入ってから検出されることになる。このため、上述のように警報やブレーキのタイミングが遅れるなどの問題が生じる。   Therefore, as shown in FIG. 2, when the pedestrian enters the moving body from the right side, the left camera is present even if the pedestrian is within the imaging range of the right camera (FIG. 2 (a)). If it exists outside the imaging range (FIG. 2B), it cannot be detected as a pedestrian candidate by stereo processing. In such a case, the pedestrian is detected after entering the common visual field. For this reason, as described above, problems such as delays in alarm and brake timing occur.

なお、幅Bはカメラ間隔に一致するため、カメラ間隔を狭くすれば、一方のカメラでしか映らない領域を狭くすることができる。しかし、ステレオ視の原理は三角測量であるため、カメラ間隔が狭くなればなるほど距離計測精度は低下するという問題が生じる。   Since the width B coincides with the camera interval, if the camera interval is reduced, an area that can be seen only by one camera can be reduced. However, since the principle of stereo vision is triangulation, there arises a problem that the distance measurement accuracy decreases as the camera interval becomes narrower.

そこで、本実施の形態の物体検出装置は、単眼視とステレオ視とを融合して利用することにより、広い視野範囲の物体を高精度に検出可能とする。   Therefore, the object detection apparatus according to the present embodiment makes it possible to detect an object in a wide visual field range with high accuracy by combining monocular vision and stereo vision.

次に、本実施の形態に係る物体検出装置の構成について図3を用いて説明する。図3は、本実施の形態に係る物体検出装置100の構成を示すブロック図である。物体検出装置100は、画像入力部101と、視差算出部102と、パラメータ算出部103と、候補矩形生成部104と、判定部105と、出力部106と、を備えている。なお、画像入力部101は、物体検出装置100の外部に配置されて物体検出装置100に接続されてもよい。   Next, the configuration of the object detection apparatus according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration of object detection apparatus 100 according to the present embodiment. The object detection apparatus 100 includes an image input unit 101, a parallax calculation unit 102, a parameter calculation unit 103, a candidate rectangle generation unit 104, a determination unit 105, and an output unit 106. Note that the image input unit 101 may be disposed outside the object detection device 100 and connected to the object detection device 100.

なお、本実施の形態では、図4に示すように、移動体401(自動車)の前方に搭載した画像入力部101として機能する2台のカメラ11a、11bを用いて、自動車の進行方向の道路面410上に存在する歩行者411を検出することを例示的に示す。物体検出装置100は、カメラ11a、11bから入力した入力画像内に検出対象物である歩行者が含まれるかを判定し、含まれる場合に歩行者の画像上での位置と実空間での位置とを出力する。   In this embodiment, as shown in FIG. 4, the road in the traveling direction of the automobile using two cameras 11 a and 11 b functioning as the image input unit 101 mounted in front of the moving body 401 (automobile). An example of detecting a pedestrian 411 present on the surface 410 is shown. The object detection device 100 determines whether or not a pedestrian that is a detection target is included in the input images input from the cameras 11a and 11b, and if included, the position of the pedestrian on the image and the position in the real space Is output.

図3に戻り、画像入力部101は、少なくとも2台のカメラを用いて撮影視点が異なる複数の画像を入力する。視野に重なりが存在すれば複数のカメラの互いの位置や方向は任意に設定できる。本実施の形態では、同一の2台のカメラ11a、11bを左右平行に配置してステレオ画像を撮影するものとする。   Returning to FIG. 3, the image input unit 101 inputs a plurality of images having different shooting viewpoints using at least two cameras. If there is an overlap in the field of view, the positions and directions of the cameras can be arbitrarily set. In the present embodiment, it is assumed that the same two cameras 11a and 11b are arranged in parallel on the left and right to shoot a stereo image.

図5は、本実施の形態で使用するステレオカメラ座標系の一例を示す図である。本実施の形態では、ステレオカメラ座標系の原点Oを右カメラ(カメラ11b)の視点(レンズ中心)にとる。また、左右カメラの視点を結ぶ直線をX軸とし、鉛直下向きにY軸、カメラの光軸方向にZ軸を設定する。   FIG. 5 is a diagram illustrating an example of a stereo camera coordinate system used in the present embodiment. In the present embodiment, the origin O of the stereo camera coordinate system is taken as the viewpoint (lens center) of the right camera (camera 11b). Further, a straight line connecting the viewpoints of the left and right cameras is set as the X axis, the Y axis is set vertically downward, and the Z axis is set in the optical axis direction of the camera.

カメラ間の距離(基線長)をBとすると、左カメラの位置は(−B,0,0)と表せる。簡単のため、道路面を平面でモデル化し、かつ、水平方向の傾斜が微小であるとして無視すると、道路面(道路平面)の方程式は以下の(1)式で表される。
Y=αZ+β ・・・(1)
If the distance between cameras (baseline length) is B, the position of the left camera can be expressed as (−B, 0, 0). For the sake of simplicity, if the road surface is modeled as a plane and is ignored because the slope in the horizontal direction is very small, the equation for the road surface (road plane) is expressed by the following equation (1).
Y = αZ + β (1)

α及びβは、それぞれステレオカメラから観察した道路平面の傾斜、及び、ステレオカメラの道路面からの高さを表す。以下では、α及びβを合わせて面パラメータと呼ぶ。一般に道路面の傾斜は場所ごとに異なり、かつ、移動体走行時にはカメラが振動するため、面パラメータは移動体の移動に伴って時々刻々変化する。   α and β represent the inclination of the road plane observed from the stereo camera and the height of the stereo camera from the road surface, respectively. Hereinafter, α and β are collectively referred to as surface parameters. In general, the slope of the road surface varies from place to place, and the camera vibrates when traveling on a moving body, so that the surface parameters change from moment to moment as the moving body moves.

図3に戻り、視差算出部102は、画像入力部101で取得したステレオ画像間の視差を計算する。具体的には、視差算出部102は、ステレオ画像を構成する複数の画像間で対応する点(対応点)を求め、求めた対応点それぞれについて、複数の画像上での位置の差を表す視差を算出する。   Returning to FIG. 3, the parallax calculation unit 102 calculates the parallax between the stereo images acquired by the image input unit 101. Specifically, the parallax calculation unit 102 obtains corresponding points (corresponding points) between a plurality of images constituting a stereo image, and each of the obtained corresponding points represents a difference in position on the plurality of images. Is calculated.

ここで、ステレオ画像の各画像に対する座標系について説明する。ステレオ画像を構成する各画像に対しては、それぞれ画像座標系が設定される。右カメラ(カメラ11b)で撮像された画像(以下「右画像」という。)には、水平方向及び垂直方向にそれぞれx軸及びy軸が設定される。同様に、左カメラ(カメラ11a)で撮像された画像(以下「左画像」という。)には、水平方向及び垂直方向にそれぞれx’軸及びy’軸が設定される。各画像の水平方向(x軸及びx’軸)は、ステレオカメラ座標系のX軸方向と一致するものとする。   Here, a coordinate system for each image of the stereo image will be described. An image coordinate system is set for each image constituting the stereo image. An x-axis and a y-axis are set in the horizontal direction and the vertical direction, respectively, in an image captured by the right camera (camera 11b) (hereinafter referred to as “right image”). Similarly, an x ′ axis and a y ′ axis are set in the horizontal direction and the vertical direction, respectively, in an image captured by the left camera (camera 11a) (hereinafter referred to as “left image”). It is assumed that the horizontal direction (x-axis and x′-axis) of each image matches the X-axis direction of the stereo camera coordinate system.

このような場合、右画像上の点(x,y)の左画像上の対応点を(x’,y’)とすると、y=y’となる。したがって、水平方向の位置の違いのみを考えればよい。以下では右画像と左画像での対応点の水平位置の違いを視差と呼ぶ。また、以下では、右画像を基準画像として、視差をd=x−x’と表記する。   In such a case, if the corresponding point on the left image of the point (x, y) on the right image is (x ′, y ′), y = y ′. Therefore, only the difference in position in the horizontal direction needs to be considered. Hereinafter, the difference in the horizontal position of the corresponding point between the right image and the left image is referred to as parallax. In the following, the parallax is expressed as d = x−x ′ with the right image as the reference image.

次に、図6を参照して、視差算出部102による視差の算出方法について説明する。図6は、視差の算出方法の一例を説明するための模式図である。視差算出部102は、基準画像である右画像の任意の点(x,y)に対し、左画像上の同一走査線上を探索して対応点(x’,y)=(x+d,y)を求める。   Next, a parallax calculation method performed by the parallax calculation unit 102 will be described with reference to FIG. FIG. 6 is a schematic diagram for explaining an example of a parallax calculation method. The parallax calculation unit 102 searches the same scanning line on the left image for an arbitrary point (x, y) of the right image that is the reference image, and finds a corresponding point (x ′, y) = (x + d, y). Ask.

d≧0となるため、探索の際には、視差算出部102は、図6(a)のように左画像上の同一座標より右側の点のみを調べればよい。より具体的には、視差算出部102は、図6(b)のように右画像上の点(x,y)の周囲にウィンドウを設定し、その内部の輝度パターンと最も類似した輝度パターンを周囲に持つ点を左画像の同一走査線から求める。   Since d ≧ 0, the parallax calculation unit 102 only needs to examine a point on the right side of the same coordinate on the left image as illustrated in FIG. More specifically, the parallax calculation unit 102 sets a window around a point (x, y) on the right image as shown in FIG. 6B, and selects a luminance pattern most similar to the internal luminance pattern. The surrounding points are obtained from the same scanning line of the left image.

輝度パターンの類似性の評価尺度としては、例えば、正規化相互相関Cを用いることができる。探索ウィンドウのサイズを(2w+1)×(2w+1)画素とし、左右画像に設定したウィンドウ内の輝度をそれぞれf(ξ,η),g(ξ,η)と表現すると、正規化相互相関Cは以下の(2)式で与えられる。

Figure 2010079582
For example, normalized cross-correlation C can be used as an evaluation measure of similarity of luminance patterns. When the size of the search window is (2w + 1) × (2w + 1) pixels and the luminance in the window set for the left and right images is expressed as f (ξ, η) and g (ξ, η), the normalized cross-correlation C is (2).
Figure 2010079582

基準画像上の任意の点に対して、正規化相互相関Cを用いて対応点を探索すれば、全ての点に対する視差を含む視差マップが得られる。   If a corresponding point is searched for any point on the reference image using the normalized cross-correlation C, a parallax map including the parallax for all the points can be obtained.

パラメータ算出部103は、視差算出部102によって算出された視差マップを用いて、面パラメータα及びβを算出する。まず、基準画像上の点(x,y)の視差dから、その点の3次元空間上での位置(X,Y,Z)を求める方法について説明する。空間中の点(X,Y,Z)と、その左右画像への投影像である(x’、y)及び(x,y)の間には以下の(5)式の関係式が成り立つ。

Figure 2010079582
The parameter calculation unit 103 calculates the plane parameters α and β using the parallax map calculated by the parallax calculation unit 102. First, a method for obtaining the position (X, Y, Z) of the point in the three-dimensional space from the parallax d of the point (x, y) on the reference image will be described. The following relational expression (5) is established between the point (X, Y, Z) in the space and (x ′, y) and (x, y) which are the projected images on the left and right images.
Figure 2010079582

(5)式をX,Y,Zについて解くと、以下の(6)式が得られる。

Figure 2010079582
When the equation (5) is solved for X, Y, and Z, the following equation (6) is obtained.
Figure 2010079582

パラメータ算出部103は、上記の各式を用いて、視差算出部102により視差が得られた基準画像上の点の3次元空間上での位置(3次元位置)を求める。そして、パラメータ算出部103は、求めた3次元位置のうち、道路面との距離が近い点を選択して、道路面の方程式である上記(1)式(Y=αZ+β)に代入することにより、面パラメータであるα及びβを算出する。   The parameter calculation unit 103 obtains the position (three-dimensional position) in the three-dimensional space of the point on the reference image from which the parallax is obtained by the parallax calculation unit 102 using each of the above equations. And the parameter calculation part 103 selects the point with the near distance with a road surface among the calculated | required three-dimensional positions, and substitutes in said (1) Formula (Y = (alpha) Z + (beta)) which is an equation of a road surface. Then, α and β which are surface parameters are calculated.

パラメータ算出部103は、道路面との距離が近い点を、以下の(7)式の条件を満たす点として抽出する。

Figure 2010079582
The parameter calculation unit 103 extracts a point that is close to the road surface as a point that satisfies the following expression (7).
Figure 2010079582

ここで、ΔYは閾値であり、適当な値を予め設定しておく。Yは、点(X,Y,Z)を通ってY軸に平行な直線と基準道路面との交点のY座標を表す。基準道路面とは、例えば平坦な道路などのように予め定められた基準となる道路面をいう。基準道路面のパラメータは、例えば、移動体が静止しているときに平坦な道路で計測する。基準道路面のパラメータをα’、β’とすると、Yは、以下の(7−1)式により与えられる。
=α’Z+β’ ・・・(7−1)
Here, ΔY is a threshold value, and an appropriate value is set in advance. Y p represents the point (X, Y, Z) Y coordinate of the intersection between a straight line parallel to the reference road surface in the Y-axis through. The reference road surface refers to a road surface that is a predetermined reference such as a flat road. The parameters of the reference road surface are measured on a flat road when the moving body is stationary, for example. If the parameters of the reference road surface are α ′ and β ′, Y p is given by the following equation (7-1).
Y p = α′Z + β ′ (7-1)

図3に戻り、候補矩形生成部104は、ステレオ画像の各画像で、歩行者を検出する矩形の候補である候補矩形を生成する。候補矩形生成部104は、領域算出部104aと、第1生成部104bと、第2生成部104cとを備えている。   Returning to FIG. 3, the candidate rectangle generation unit 104 generates a candidate rectangle that is a rectangle candidate for detecting a pedestrian in each image of the stereo image. The candidate rectangle generation unit 104 includes an area calculation unit 104a, a first generation unit 104b, and a second generation unit 104c.

領域算出部104aは、各画像を単眼処理領域とステレオ処理領域に分割する。ステレオ処理領域とは、左右カメラの共通視野範囲に相当する各画像上の領域を意味する。すなわち、ステレオ処理領域は、対応点が左右画像の両方にそれぞれ含まれる領域(共通領域)である。単眼処理領域とは、左右カメラの共通視野範囲外に相当する各画像上の領域(非共通領域)を意味する。   The area calculation unit 104a divides each image into a monocular processing area and a stereo processing area. The stereo processing area means an area on each image corresponding to the common visual field range of the left and right cameras. That is, the stereo processing area is an area (common area) in which corresponding points are included in both the left and right images. The monocular processing area means an area (non-common area) on each image that is outside the common visual field range of the left and right cameras.

まず、これら2つの領域の詳細について説明する。なお、歩行者を検出する候補領域の形状は任意であるが、以下では矩形を例に説明する。また、説明の便宜上、以下では画像の左上を原点とする画像座標系の場合を例として説明するが、他の座標系であっても同様の手法で領域を算出することができる。   First, details of these two areas will be described. In addition, although the shape of the candidate area | region which detects a pedestrian is arbitrary, below, a rectangle is demonstrated to an example. For convenience of explanation, an image coordinate system having the origin at the upper left of the image will be described below as an example. However, a region can be calculated by a similar method even in other coordinate systems.

基準画像上の点(x,y)が道路平面Y=αZ+β上の点であれば、点(x,y)の視差dは、上記(5)式から、以下の(8)式で与えられる。

Figure 2010079582
If the point (x, y) on the reference image is a point on the road plane Y = αZ + β, the parallax d p of the point (x, y) is given by the following equation (8) from the above equation (5). It is done.
Figure 2010079582

ここでα及びβは、パラメータ算出部103によって算出された面パラメータを用いる。すべての物体が道路面よりも上側(カメラ側)に存在すると仮定すれば、カメラから観察して道路平面よりも手前に物体が存在するので、視差dは視差dの下限(最小値)を表す。一方、上記(5)式よりdは非負であるから、視差dには以下の(9)式の拘束式が成り立つ。

Figure 2010079582
Here, α and β use the surface parameters calculated by the parameter calculation unit 103. If it is assumed that all objects are present above the road surface (camera side), since the object is present in front of the road plane as observed from the camera, the parallax d p represents the lower limit (minimum value) of the parallax d. To express. On the other hand, since d is non-negative according to the above equation (5), the following constraint equation (9) holds for the parallax d.
Figure 2010079582

したがって、y≧αの範囲では、右画像に対して、以下の(10)式が成り立つ。

Figure 2010079582
Therefore, in the range of y ≧ α, the following expression (10) holds for the right image.
Figure 2010079582

ここで、x’maxはx’の最大値、すなわち、画像の横幅を表す。同様に、左画像に対しては、xの最小値が0であるため、以下の(11)式のような不等式が成り立つ。

Figure 2010079582
Here, x ′ max represents the maximum value of x ′, that is, the horizontal width of the image. Similarly, for the left image, since the minimum value of x is 0, an inequality such as the following expression (11) holds.
Figure 2010079582

領域算出部104aは、左右の各画像上で、これらの条件を満たさない領域を、左右カメラの共通視野範囲外に相当する、対応点が存在しない単眼処理領域として算出する。また、領域算出部104aは、単眼処理領域以外の領域をステレオ処理領域として算出する。   The area calculation unit 104a calculates an area that does not satisfy these conditions on each of the left and right images as a monocular processing area that does not have a corresponding point and that is outside the common visual field range of the left and right cameras. The area calculation unit 104a calculates an area other than the monocular processing area as a stereo processing area.

図7は、左右の各画像の単眼処理領域の一例を示す図である。左画像では画像の左下に単眼処理領域701aが存在し、右画像では画像の右下に単眼処理領域701bが存在する。   FIG. 7 is a diagram illustrating an example of a monocular processing region for each of the left and right images. In the left image, a monocular processing area 701a exists at the lower left of the image, and in the right image, a monocular processing area 701b exists at the lower right of the image.

図3に戻り、候補矩形生成部104は、第1生成部104b及び第2生成部104cを用いることにより、ステレオ処理領域及び単眼処理領域でそれぞれ異なる方式で候補矩形を生成する。具体的には、第1生成部104bは、ステレオ処理領域で候補矩形を生成する。また、第2生成部104cは、単眼処理領域で候補矩形を生成する。まず、第1生成部104bによるステレオ処理領域での候補矩形の生成方法について説明する。   Returning to FIG. 3, the candidate rectangle generation unit 104 uses the first generation unit 104 b and the second generation unit 104 c to generate candidate rectangles using different methods for the stereo processing region and the monocular processing region. Specifically, the first generation unit 104b generates a candidate rectangle in the stereo processing area. The second generation unit 104c generates a candidate rectangle in the monocular processing area. First, a method for generating candidate rectangles in the stereo processing area by the first generation unit 104b will be described.

図8は、ステレオ処理領域に生成される候補矩形の一例を示す図である。第1生成部104bは、まず、ステレオ処理領域の任意の点(x,y)に対し、その点を下辺の中点とする矩形を設定する。第1生成部104bは、面パラメータα及びβを用いることにより、下辺が道路面と接しており、大きさが人間の縦横のサイズを考慮して決定した矩形を設定する。   FIG. 8 is a diagram illustrating an example of a candidate rectangle generated in the stereo processing area. The first generation unit 104b first sets a rectangle having an arbitrary point (x, y) in the stereo processing area with the lower side as a midpoint. The first generation unit 104b uses the surface parameters α and β to set a rectangle whose bottom side is in contact with the road surface and whose size is determined in consideration of the vertical and horizontal sizes of a person.

例えば、人間の身長及び人間の横幅の代表値をそれぞれH及びWとした場合、矩形の画像上の高さh及び幅wは以下のように求めることができる。すなわち、道路面の方程式である(1)式(Y=αZ+β)及び(5)式から、以下の(12)式が成り立つため、以下の(13)式が得られる。

Figure 2010079582
For example, when the representative values of the human height and the horizontal width are H and W, respectively, the height h and the width w on the rectangular image can be obtained as follows. That is, since the following equation (12) is established from the equation (1) (Y = αZ + β) and the equation (5) that are road surface equations, the following equation (13) is obtained.
Figure 2010079582

このように画像上の縦方向の位置、すなわちy座標によって、第1生成部104bが生成する矩形の画像上のサイズは変化する。また、第1生成部104bは、人間の様々な大きさに対応するため、図8のように画像上の各点(x,y)に対して、複数種類の矩形を生成する。図8では3種類の矩形を設定する例が示されている。   As described above, the size of the rectangular image generated by the first generation unit 104b varies depending on the vertical position on the image, that is, the y coordinate. The first generation unit 104b generates a plurality of types of rectangles for each point (x, y) on the image as illustrated in FIG. FIG. 8 shows an example in which three types of rectangles are set.

次に、第1生成部104bは、このようにして各点に設定した矩形内の視差から、矩形内に人物(歩行者)が含まれる可能性を評価し、可能性が高い矩形を候補矩形として生成する。具体的には、第1生成部104bは、矩形に含まれる視差の均一の度合いを表す均一度が所定の閾値より大きい矩形を、人物が含まれる可能性が高い矩形であると評価する。図9は、矩形の評価方法を説明するための模式図である。   Next, the first generation unit 104b evaluates the possibility that a person (pedestrian) is included in the rectangle from the parallax in the rectangle set to each point in this way, and selects a rectangle having a high possibility as a candidate rectangle. Generate as Specifically, the first generation unit 104b evaluates a rectangle having a degree of uniformity greater than a predetermined threshold representing a degree of parallax included in the rectangle as a rectangle having a high possibility of including a person. FIG. 9 is a schematic diagram for explaining a rectangular evaluation method.

図9(a)に示すように、矩形901内に人物が含まれる場合、矩形内の奥行きがほぼ一様となるので、対応する視差も一様となる。また、点(x,y)が道路面と接するため、この点の視差は上記(8)式により与えられる。したがって、矩形内の任意の点の視差をdとすると、第1生成部104bは、視差の均一度を以下の(14)式を満たす点の個数Nで評価することができる。ここで、Δdは予め定められた視差の差分の閾値(差分閾値)を表す。

Figure 2010079582
As shown in FIG. 9A, when a person is included in a rectangle 901, since the depth in the rectangle is substantially uniform, the corresponding parallax is also uniform. Further, since the point (x, y) is in contact with the road surface, the parallax at this point is given by the above equation (8). Therefore, if the parallax at an arbitrary point in the rectangle is d i , the first generation unit 104b can evaluate the uniformity of the parallax with the number N of points that satisfy the following expression (14). Here, Δd represents a predetermined parallax difference threshold (difference threshold).
Figure 2010079582

第1生成部104bは、矩形の大きさによる影響を考慮するため、矩形の面積S=w×hで個数Nを正規化し、正規化した個数Nが以下の(15)式を満たす矩形を候補矩形として登録する。

Figure 2010079582
In order to consider the influence of the size of the rectangle, the first generation unit 104b normalizes the number N with the area S = w × h of the rectangle, and the normalized number N satisfies the following formula (15) as candidates. Register as a rectangle.
Figure 2010079582

ここで、Nminは閾値であり、予め適切な値を設定しておく。なお、図9(b)に示すように、検出対象となる物体(歩行者等の人物)よりも小さい矩形902でも矩形内の視差が均一となり、上記(15)式を満たす場合がある。このような矩形が候補となることを防ぐため、第1生成部104bが、ある点に対して複数サイズの矩形が上記(15)式を満たす場合に、面積が最も大きな矩形だけを候補矩形として選択するように構成してもよい。例えば、図9(b)に示すように矩形901と矩形902とが候補矩形となる場合、矩形901のみを候補矩形として選択してもよい。 Here, N min is a threshold value, and an appropriate value is set in advance. Note that, as shown in FIG. 9B, even in a rectangle 902 smaller than an object to be detected (a person such as a pedestrian), the parallax in the rectangle becomes uniform, and the above equation (15) may be satisfied. In order to prevent such a rectangle from being a candidate, when the first generation unit 104b satisfies the above equation (15) for a plurality of rectangles for a certain point, only the rectangle having the largest area is set as a candidate rectangle. You may comprise so that it may select. For example, when a rectangle 901 and a rectangle 902 are candidate rectangles as shown in FIG. 9B, only the rectangle 901 may be selected as a candidate rectangle.

また、上記均一度の評価方法は一例であり、矩形内の視差の均一度を評価できるものであればあらゆる評価方法を適用できる。また、値が小さいほど均一の度合いが大きいことを表す均一度を用いるように構成してもよい。   Moreover, the evaluation method of the said uniformity is an example, and any evaluation method can be applied if it can evaluate the uniformity of the parallax within a rectangle. Moreover, you may comprise so that the uniformity which represents that a degree of uniformity is so large that a value is small may be used.

次に、第2生成部104cによる単眼処理領域での候補矩形の生成方法について説明する。第2生成部104cは、ステレオ処理領域での処理と同様に、任意の点(x,y)に対し、パラメータ算出部103によって算出された面パラメータα及びβを用いて、歩行者サイズの候補矩形を生成する。具体的には、第2生成部104cは、面パラメータα及びβを用いることにより、下辺が道路面と接しており、大きさが人間の縦横のサイズを考慮して決定した矩形を候補矩形として生成する。   Next, a method for generating candidate rectangles in the monocular processing area by the second generation unit 104c will be described. Similar to the processing in the stereo processing region, the second generation unit 104c uses the surface parameters α and β calculated by the parameter calculation unit 103 for any point (x, y), and uses the pedestrian size candidates. Generate a rectangle. Specifically, the second generation unit 104c uses the surface parameters α and β to determine, as candidate rectangles, rectangles whose bottom sides are in contact with the road surface and whose sizes are determined in consideration of human vertical and horizontal sizes. Generate.

図10は、左右の各画像上の単眼処理領域で生成された候補矩形の例を示す図である。また、図11は、生成された候補矩形のステレオカメラの実空間での位置を示す図である。例えば、図10及び図11では、左画像で生成された候補矩形の下辺の中点1001〜1004、及び右画像で生成された候補矩形の下辺の中点1011〜1014の対応が示されている。   FIG. 10 is a diagram illustrating an example of a candidate rectangle generated in a monocular processing region on each of the left and right images. FIG. 11 is a diagram illustrating the position of the generated candidate rectangular stereo camera in real space. For example, FIGS. 10 and 11 show correspondences between the midpoints 1001 to 1004 of the lower side of the candidate rectangle generated in the left image and the midpoints 1011 to 1014 of the lower side of the candidate rectangle generated in the right image. .

単眼処理領域701a及び701bの各矩形の横幅は、実空間に変換するとカメラ間隔Bに対応している。ここでは、カメラ間隔Bが、人間の横方向の大きさとほぼ同等か、それよりも小さい場合を例示している。また、各点ごとに1つの矩形を生成する場合を図示しているが、人物の様々なサイズに対応するため、第2生成部104cが各点に対して複数種類の大きさの矩形を生成してもよい。   The width of each rectangle of the monocular processing areas 701a and 701b corresponds to the camera interval B when converted into a real space. Here, the case where the camera interval B is substantially equal to or smaller than the size in the horizontal direction of a human is illustrated. Moreover, although the case where one rectangle is generated for each point is illustrated, the second generation unit 104c generates a plurality of types of rectangles for each point in order to correspond to various sizes of a person. May be.

図3に戻り、判定部105は、生成された候補矩形に検出対象である歩行者(人物)が含まれるか否かを判定し、候補矩形を人物を含む矩形と含まない矩形に分類する。例えば、判定部105は、人物と人物以外(非人物)を識別できるように、予め学習により求めておいた識別器を用いる。すなわち、人物を含む輝度パターンと、人物を含まない輝度パターンとをサンプル画像として多数用意し、それらを正しく識別できる識別関数を算出する。学習方式は任意であるが、AdaBoostやサポートベクターマシン(Support Vector Machine)等が比較的有効である。   Returning to FIG. 3, the determination unit 105 determines whether or not the generated candidate rectangle includes a pedestrian (person) to be detected, and classifies the candidate rectangle into a rectangle including a person and a rectangle not including a person. For example, the determination unit 105 uses a classifier that has been obtained in advance through learning so that a person and a person other than a person (non-person) can be identified. That is, a large number of luminance patterns including a person and luminance patterns not including a person are prepared as sample images, and an identification function that can correctly identify them is calculated. The learning method is arbitrary, but AdaBoost, Support Vector Machine, etc. are relatively effective.

出力部106は、判定部105により人物を含むと判定された矩形の位置を出力する。   The output unit 106 outputs the rectangular position determined by the determination unit 105 as including a person.

次に、このように構成された本実施の形態に係る物体検出装置100による物体検出処理について図12を用いて説明する。図12は、本実施の形態における物体検出処理の全体の流れを示すフローチャートである。   Next, an object detection process performed by the object detection apparatus 100 according to the present embodiment configured as described above will be described with reference to FIG. FIG. 12 is a flowchart showing the overall flow of the object detection process in the present embodiment.

まず、画像入力部101が、ステレオカメラを構成するカメラ11a及び11bにより撮像された左右画像を入力する(ステップS1201)。次に、視差算出部102が、入力した左画像と右画像の対応点を求め各点に対する視差を算出して視差マップを作成する(ステップS1202)。次に、パラメータ算出部103が、視差マップを用いて道路平面の面パラメータα及びβを算出する(ステップS1203)。   First, the image input unit 101 inputs left and right images captured by the cameras 11a and 11b constituting the stereo camera (step S1201). Next, the parallax calculation unit 102 obtains corresponding points between the input left image and right image, calculates the parallax for each point, and creates a parallax map (step S1202). Next, the parameter calculation unit 103 calculates the plane parameters α and β of the road plane using the parallax map (step S1203).

次に、候補矩形生成部104の領域算出部104aが、算出された視差を用いて、左右画像のそれぞれに対して単眼処理領域及びステレオ処理領域を算出する(ステップS1204)。   Next, the region calculation unit 104a of the candidate rectangle generation unit 104 calculates a monocular processing region and a stereo processing region for each of the left and right images using the calculated parallax (step S1204).

次に、候補矩形生成部104の第1生成部104bが、ステレオ処理領域に対して候補矩形を生成する(ステップS1205)。さらに、候補矩形生成部104の第2生成部104cが、単眼処理領域に対して候補矩形を生成する(ステップS1206)。   Next, the first generation unit 104b of the candidate rectangle generation unit 104 generates a candidate rectangle for the stereo processing area (step S1205). Further, the second generation unit 104c of the candidate rectangle generation unit 104 generates a candidate rectangle for the monocular processing region (step S1206).

次に、判定部105が、第1生成部104b及び第2生成部104cによって生成された各候補矩形に人物が含まれるか否かを判定する(ステップS1207)。そして、出力部106が、人物が含まれると判定された矩形の位置などの情報を出力し(ステップS1208)、物体検出処理を終了する。   Next, the determination unit 105 determines whether or not a person is included in each candidate rectangle generated by the first generation unit 104b and the second generation unit 104c (step S1207). Then, the output unit 106 outputs information such as the position of a rectangle determined to include a person (step S1208), and ends the object detection process.

上述のように、従来のステレオ視のみを用いた物体検出方法では、左右のカメラの共通視野外に存在する物体を検出することができなかった。すなわち、実際に各カメラで撮像した範囲より、物体検出の視野範囲が狭いという問題があった。一方、単眼視のみを用いる場合には、実際に撮像した範囲内で物体を検出可能だが、ステレオ視を用いる方法のように面パラメータ等を用いて候補領域を絞り込むことができないため、物体を高精度に検出することができなかった。   As described above, the conventional object detection method using only stereo vision cannot detect an object existing outside the common visual field of the left and right cameras. That is, there is a problem that the visual field range for object detection is narrower than the range actually captured by each camera. On the other hand, when only monocular vision is used, the object can be detected within the actually captured range, but the candidate area cannot be narrowed down using surface parameters or the like as in the method using stereo vision. It could not be detected with accuracy.

これに対し、本実施の形態の物体検出装置は上記のような処理により、単眼視とステレオ視を融合して利用することにより、両者をそれぞれ単独で用いる場合の欠点を補い、単眼視方式に比べると高精度に、ステレオ視方式に比べると広い視野範囲で物体検出が可能となる。すなわち、本実施の形態によれば、ステレオ処理領域のみでなく単眼処理領域も対象として広範囲に物体を検出できる。また、単眼処理領域に対しても面パラメータを用いて候補領域を絞り込むことができるため、高精度に物体を検出できる。   On the other hand, the object detection apparatus of the present embodiment makes use of the monocular vision and the stereo vision by the above-described processing, thereby compensating for the disadvantages when both are used alone, and adopting the monocular vision system. Compared with the stereo vision method, it is possible to detect an object in a wider visual field range with higher accuracy. That is, according to the present embodiment, it is possible to detect an object in a wide range not only for the stereo processing area but also for the monocular processing area. Also, candidate areas can be narrowed down using monochromatic processing areas using surface parameters, so that an object can be detected with high accuracy.

なお、本実施の形態では、移動体の前方に設置したカメラを用いて進行方向に存在する歩行者を検出する場合について説明したが、移動体の側方や後方にカメラを設置してもよい。また、例えば移動ロボットなどのような移動体以外の移動体にカメラを搭載する場合にも適用可能である。また、移動体にカメラを設置する場合に限定されるものではなく、固定位置に設置される監視カメラで撮像した画像から物体を検出する場合にも適用できる。   In this embodiment, the case where a pedestrian existing in the traveling direction is detected using a camera installed in front of the moving body has been described. However, a camera may be installed on the side or rear of the moving body. . Further, the present invention can also be applied when a camera is mounted on a moving body other than a moving body such as a mobile robot. Further, the present invention is not limited to the case where a camera is installed on a moving body, and can also be applied to a case where an object is detected from an image captured by a monitoring camera installed at a fixed position.

また、人物(歩行者)を検出する場合について説明したが、検出対象物はこれに限定されるものではなく、他の検出対象であっても適用可能である。また、人物と移動体の同時検出といった多クラスの物体を検出する場合にも適用できる。   Moreover, although the case where a person (pedestrian) was detected was demonstrated, a detection target object is not limited to this, Even if it is another detection target, it is applicable. Further, the present invention can also be applied when detecting multi-class objects such as simultaneous detection of a person and a moving object.

また、2台のカメラを左右平行に並べた場合のステレオ視について説明したが、2台以上であればカメラの台数は任意であり、また、視野に重なりが存在すればそれら複数のカメラをどのように配置してもよい。   In addition, the stereo view when two cameras are arranged in parallel on the left and right has been described. However, the number of cameras is arbitrary as long as there are two or more cameras. You may arrange as follows.

なお、本発明は上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせてもよい。その他、本発明の要旨を逸脱しない範囲で変形を実施できる。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. In addition, modifications can be made without departing from the scope of the present invention.

以下に、変形の具体例について説明する。   Below, the specific example of a deformation | transformation is demonstrated.

(変形例1)
変形例1では、移動体の進行方向に応じて単眼処理領域で生成する候補矩形の個数を増減する。図13は、本実施の形態の変形例1に係る物体検出装置1300の構成を示すブロック図である。物体検出装置1300は、画像入力部101と、視差算出部102と、パラメータ算出部103と、候補矩形生成部1304と、判定部105と、出力部106と、操舵角検出部1307と、を備えている。なお、画像入力部101は、物体検出装置1300の外部に配置されて物体検出装置1300に接続されてもよい。
(Modification 1)
In the first modification, the number of candidate rectangles generated in the monocular processing region is increased or decreased according to the traveling direction of the moving object. FIG. 13 is a block diagram illustrating a configuration of an object detection device 1300 according to the first modification of the present embodiment. The object detection apparatus 1300 includes an image input unit 101, a parallax calculation unit 102, a parameter calculation unit 103, a candidate rectangle generation unit 1304, a determination unit 105, an output unit 106, and a steering angle detection unit 1307. ing. Note that the image input unit 101 may be disposed outside the object detection device 1300 and connected to the object detection device 1300.

変形例1では、操舵角検出部1307を追加したこと、及び、候補矩形生成部1304の第2生成部1304cの機能が上記実施の形態と異なっている。その他の構成及び機能は、物体検出装置100の構成を表すブロック図である図3と同様であるので、同一符号を付し、ここでの説明は省略する。   In the first modification, the addition of the steering angle detection unit 1307 and the function of the second generation unit 1304c of the candidate rectangle generation unit 1304 are different from those in the above embodiment. Other configurations and functions are the same as those in FIG. 3, which is a block diagram showing the configuration of the object detection apparatus 100, and thus are denoted by the same reference numerals and description thereof is omitted here.

操舵角検出部1307は、ステレオカメラが搭載された移動体の操舵角を検出するセンサである。第2生成部1304cは、検出された操舵角から移動体の進行方向を推定し、進行方向に存在する単眼処理領域に対して、進行方向以外の方向に存在する単眼処理領域より多くの候補矩形を生成する点が、上記第2生成部104cと異なっている。   The steering angle detection unit 1307 is a sensor that detects the steering angle of the moving body on which the stereo camera is mounted. The second generation unit 1304c estimates the traveling direction of the moving body from the detected steering angle, and more candidate rectangles than the monocular processing region existing in the direction other than the traveling direction with respect to the monocular processing region existing in the traveling direction. Is different from the second generation unit 104c.

例えば、移動体が右折する場合は、移動体は右画像の単眼処理領域(以下「右端領域」という。)に向かうことになるので、この領域に存在する歩行者は、移動体が直進する場合に比べて衝突の危険性がより高くなる。一方、左画像の単眼処理領域(以下「左端領域」という。)から移動体が遠ざかることになるので、この領域に存在する歩行者と衝突する可能性は、移動体直進時と比較して低くなる。したがって、第2生成部1304cは、移動体右折時には右端領域の候補矩形を増やし、左端領域の候補矩形を減らす。逆に左折時には、第2生成部1304cは、左端領域の候補矩形を増やし、右端領域の候補矩形を減らす。このように操舵角を用いて候補矩形数を増減させることにより、より効率的な物体検出処理が可能となる。   For example, when the moving body turns to the right, the moving body goes to the monocular processing area (hereinafter referred to as “right end area”) of the right image. The risk of collision is higher than On the other hand, since the moving body moves away from the monocular processing area of the left image (hereinafter referred to as “left end area”), the possibility of colliding with a pedestrian existing in this area is lower than that when the moving body is going straight. Become. Therefore, the second generation unit 1304c increases the candidate rectangles in the right end region and decreases the candidate rectangles in the left end region when the mobile object turns right. Conversely, when making a left turn, the second generation unit 1304c increases the candidate rectangles in the left end region and decreases the candidate rectangles in the right end region. By increasing or decreasing the number of candidate rectangles using the steering angle in this way, more efficient object detection processing can be performed.

(変形例2)
変形例2では、時間的に連続する画像(フレーム)間の対応関係を利用して候補矩形を生成する。図14は、本実施の形態の変形例2に係る物体検出装置1400の構成を示すブロック図である。物体検出装置1400は、画像入力部101と、視差算出部102と、パラメータ算出部103と、候補矩形生成部1404と、判定部1405と、出力部106と、を備えている。なお、画像入力部101は、物体検出装置1400の外部に配置されて物体検出装置1400に接続されてもよい。
(Modification 2)
In the second modification, a candidate rectangle is generated using the correspondence between temporally continuous images (frames). FIG. 14 is a block diagram showing a configuration of an object detection apparatus 1400 according to the second modification of the present embodiment. The object detection device 1400 includes an image input unit 101, a parallax calculation unit 102, a parameter calculation unit 103, a candidate rectangle generation unit 1404, a determination unit 1405, and an output unit 106. The image input unit 101 may be disposed outside the object detection device 1400 and connected to the object detection device 1400.

変形例2では、候補矩形生成部1404の第2生成部1404cの機能が上記実施の形態と異なっている。その他の構成及び機能は、物体検出装置100の構成を表すブロック図である図3と同様であるので、同一符号を付し、ここでの説明は省略する。   In the second modification, the function of the second generation unit 1404c of the candidate rectangle generation unit 1404 is different from that of the above embodiment. Other configurations and functions are the same as those in FIG. 3, which is a block diagram showing the configuration of the object detection apparatus 100, and thus are denoted by the same reference numerals and description thereof is omitted here.

第2生成部1404cは、画像入力部101が時系列に入力する画像(フレーム)のうち、前の時刻で入力されたフレームに対して生成された候補矩形に対応する矩形を現在の時刻のフレームから求め、求めた矩形を候補矩形として生成する。   The second generation unit 1404c sets a rectangle corresponding to the candidate rectangle generated for the frame input at the previous time among the images (frames) input in time series by the image input unit 101 to the frame at the current time. The obtained rectangle is generated as a candidate rectangle.

図15は、変形例2での候補矩形の生成方法の一例を示す図である。図15(a)は右画像、図15(b)は左画像にそれぞれ対応する。図15(a)、(b)に示すように、時刻t−1では歩行者はステレオ処理領域内に存在し、左右画像のいずれにも映っている。このため、第1生成部104bによって視差を用いて候補領域を生成することができる。しかし、次の時刻tでは、歩行者は左画像上で画角外となり、右画像上で単眼処理領域に移動する。このため、時刻tではステレオ視差を用いて候補領域を生成することができない。したがってこの場合は、第2生成部1404cが単眼処理領域で候補矩形を生成することになる。   FIG. 15 is a diagram illustrating an example of a candidate rectangle generation method according to the second modification. FIG. 15A corresponds to the right image, and FIG. 15B corresponds to the left image. As shown in FIGS. 15A and 15B, at time t-1, the pedestrian is present in the stereo processing area and is reflected in both the left and right images. For this reason, a candidate area | region can be produced | generated using the parallax by the 1st production | generation part 104b. However, at the next time t, the pedestrian moves out of the angle of view on the left image and moves to the monocular processing region on the right image. For this reason, a candidate area cannot be generated using stereo parallax at time t. Therefore, in this case, the second generation unit 1404c generates a candidate rectangle in the monocular processing region.

本変形例では、第2生成部1404cは、前の時刻t−1で生成された候補矩形に対応する矩形を、時刻tのフレームから抽出し、抽出した矩形を候補矩形として生成する。第2生成部1404cは、例えば、時刻tのフレーム内の任意の矩形のうち、時刻t−1で生成された候補矩形との類似度が最も大きい矩形を、対応する矩形として抽出する。   In the present modification, the second generation unit 1404c extracts a rectangle corresponding to the candidate rectangle generated at the previous time t-1 from the frame at the time t, and generates the extracted rectangle as a candidate rectangle. For example, the second generation unit 1404c extracts, as an associated rectangle, a rectangle having the highest degree of similarity with the candidate rectangle generated at time t-1 among arbitrary rectangles in the frame at time t.

このような処理により、前フレームの候補矩形を用いて、現フレームの単眼処理領域に対して、より正確な候補矩形を生成することができる。なお、抽出した候補矩形によって遮蔽される領域には候補矩形を生成しないことにより、候補矩形の数を減少させるように構成してもよい。最も移動体に近い人物のみを検出できれば、その後方に存在する人物を検出する必要がないためである。この場合、完全に遮蔽される領域内に候補矩形を生成しないように構成してもよいし、所定の割合以上遮蔽される候補矩形を除外するように構成してもよい。   By such processing, a more accurate candidate rectangle can be generated for the monocular processing area of the current frame using the candidate rectangle of the previous frame. In addition, you may comprise so that the number of candidate rectangles may be decreased by not producing | generating a candidate rectangle in the area | region shielded by the extracted candidate rectangle. This is because if only the person closest to the moving body can be detected, it is not necessary to detect the person existing behind the person. In this case, it may be configured not to generate candidate rectangles in a completely shielded area, or may be configured to exclude candidate rectangles shielded more than a predetermined ratio.

(変形例3)
変形例3では、ステレオ処理領域で生成された候補矩形に対する人物検出の判定結果にしたがって、単眼処理領域の候補矩形数を増減する。図16は、本実施の形態の変形例3に係る物体検出装置1500の構成を示すブロック図である。物体検出装置1500は、画像入力部101と、視差算出部102と、パラメータ算出部103と、候補矩形生成部1504と、判定部1505と、出力部106と、を備えている。なお、画像入力部101は、物体検出装置1500の外部に配置されて物体検出装置1500に接続されてもよい。
(Modification 3)
In the third modification, the number of candidate rectangles in the monocular processing region is increased or decreased according to the determination result of person detection for the candidate rectangles generated in the stereo processing region. FIG. 16 is a block diagram showing a configuration of an object detection apparatus 1500 according to the third modification of the present embodiment. The object detection device 1500 includes an image input unit 101, a parallax calculation unit 102, a parameter calculation unit 103, a candidate rectangle generation unit 1504, a determination unit 1505, and an output unit 106. The image input unit 101 may be disposed outside the object detection device 1500 and connected to the object detection device 1500.

変形例3では、候補矩形生成部1504の第2生成部1504cの機能、及び、判定部1505の機能が上記実施の形態と異なっている。その他の構成及び機能は、物体検出装置100の構成を表すブロック図である図3と同様であるので、同一符号を付し、ここでの説明は省略する。   In Modification 3, the function of the second generation unit 1504c of the candidate rectangle generation unit 1504 and the function of the determination unit 1505 are different from those of the above embodiment. Other configurations and functions are the same as those in FIG. 3, which is a block diagram showing the configuration of the object detection apparatus 100, and thus are denoted by the same reference numerals and description thereof is omitted here.

判定部1505は、最初に第1生成部104bによって生成された候補矩形に対して人物の有無を判定する点が上記判定部105と異なっている。   The determination unit 1505 is different from the determination unit 105 in that the determination unit 1505 first determines the presence or absence of a person with respect to the candidate rectangle generated by the first generation unit 104b.

第2生成部1504cは、判定部1505が、第1生成部によって生成された候補矩形に人物が含まれると判定した場合に、単眼処理領域で生成する候補矩形の数を減少させる。例えば、移動体が直進している時、ステレオ処理領域の移動体の直前に相当する位置で歩行者が検出されたとすると、両端の単眼処理領域に他の歩行者が存在したとしても、その重要性はステレオ処理領域内の歩行者に比べて低いと考えることができる。このため、第2生成部1504cが、単眼処理領域の候補矩形の個数を削減する、又は、候補矩形を生成しないように構成する。   When the determination unit 1505 determines that the candidate rectangle generated by the first generation unit includes a person, the second generation unit 1504c reduces the number of candidate rectangles generated in the monocular processing region. For example, if a pedestrian is detected at a position corresponding to the position immediately before the moving object in the stereo processing area when the moving object is moving straight, even if there are other pedestrians in the monocular processing area at both ends It can be considered that the sex is low compared to pedestrians in the stereo processing area. For this reason, the second generation unit 1504c is configured to reduce the number of candidate rectangles in the monocular processing region or not generate candidate rectangles.

次に、本実施の形態に係る物体検出装置のハードウェア構成について図17を用いて説明する。図17は、本実施の形態に係る物体検出装置のハードウェア構成を示す説明図である。   Next, the hardware configuration of the object detection apparatus according to the present embodiment will be described with reference to FIG. FIG. 17 is an explanatory diagram illustrating a hardware configuration of the object detection device according to the present embodiment.

本実施の形態に係る物体検出装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。   The object detection device according to the present embodiment is connected to a control device such as a CPU (Central Processing Unit) 51, a storage device such as a ROM (Read Only Memory) 52 and a RAM (Random Access Memory) 53, and a network. A communication I / F 54 that performs communication and a bus 61 that connects each unit are provided.

本実施の形態に係る物体検出装置で実行される物体検出プログラムは、ROM52等に予め組み込まれて提供される。   An object detection program executed by the object detection apparatus according to the present embodiment is provided by being incorporated in advance in the ROM 52 or the like.

本実施の形態に係る物体検出装置で実行される物体検出プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータ読み取り可能な記録媒体に記録して提供するように構成してもよい。   The object detection program executed by the object detection apparatus according to the present embodiment is a file in an installable format or an executable format, and is a CD-ROM (Compact Disk Read Only Memory), a flexible disk (FD), a CD-R. (Compact Disk Recordable), DVD (Digital Versatile Disk), and the like may be provided by being recorded on a computer-readable recording medium.

さらに、本実施の形態に係る物体検出装置で実行される物体検出プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態に係る物体検出装置で実行される物体検出プログラムをインターネット等のネットワーク経由で提供又は配布するように構成してもよい。   Furthermore, the object detection program executed by the object detection apparatus according to the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. . The object detection program executed by the object detection apparatus according to the present embodiment may be configured to be provided or distributed via a network such as the Internet.

本実施の形態に係る物体検出装置で実行される物体検出プログラムは、上述した各部(画像入力部、視差算出部、パラメータ算出部、候補矩形生成部、判定部、出力部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU51が上記ROM52から物体検出プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。   The object detection program executed by the object detection device according to the present embodiment includes a module configuration including the above-described units (image input unit, parallax calculation unit, parameter calculation unit, candidate rectangle generation unit, determination unit, output unit) As the actual hardware, the CPU 51 reads out and executes the object detection program from the ROM 52, so that the respective units are loaded onto the main storage device, and the respective units are generated on the main storage device. Yes.

ステレオカメラの共通視野の一例を示す図である。It is a figure which shows an example of the common visual field of a stereo camera. 歩行者が右側から移動体の進行方向に進入してきた場合に撮影される画像の一例を示す図である。It is a figure which shows an example of the image image | photographed when a pedestrian enters into the advancing direction of a moving body from the right side. 本実施の形態に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on this Embodiment. 物体検出装置と検出する物体との関係を示す図である。It is a figure which shows the relationship between an object detection apparatus and the object to detect. 本実施の形態で使用するステレオカメラ座標系の一例を示す図である。It is a figure which shows an example of the stereo camera coordinate system used by this Embodiment. 視差の算出方法の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the calculation method of parallax. 左右の各画像の単眼処理領域の一例を示す図である。It is a figure which shows an example of the monocular process area | region of each image on either side. ステレオ処理領域に生成される候補矩形の一例を示す図である。It is a figure which shows an example of the candidate rectangle produced | generated in a stereo process area | region. 矩形の評価方法を説明するための模式図である。It is a schematic diagram for demonstrating the evaluation method of a rectangle. 左右の各画像上の単眼処理領域で生成された候補矩形の例を示す図である。It is a figure which shows the example of the candidate rectangle produced | generated by the monocular process area | region on each image on either side. 生成された候補矩形のステレオカメラの実空間での位置を示す図である。It is a figure which shows the position in the real space of the produced | generated candidate rectangle stereo camera. 本実施の形態における物体検出処理の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the object detection process in this Embodiment. 本実施の形態の変形例1に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on the modification 1 of this Embodiment. 本実施の形態の変形例2に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on the modification 2 of this Embodiment. 変形例2での候補矩形の生成方法の一例を示す図である。It is a figure which shows an example of the production | generation method of the candidate rectangle in the modification 2. 本実施の形態の変形例3に係る物体検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object detection apparatus which concerns on the modification 3 of this Embodiment. 本実施の形態に係る物体検出装置のハードウェア構成を示す説明図である。It is explanatory drawing which shows the hardware constitutions of the object detection apparatus which concerns on this Embodiment.

符号の説明Explanation of symbols

102 視差算出部
103 パラメータ算出部
104a 領域算出部
104b 第1生成部
104c 第2生成部
105 判定部
102 parallax calculation unit 103 parameter calculation unit 104a region calculation unit 104b first generation unit 104c second generation unit 105 determination unit

Claims (11)

基準面上に存在する物体を検出する物体検出装置であって、
複数の撮像装置のそれぞれで撮像された画像間の視差を算出する視差算出部と、
前記視差に基づいて、前記複数の画像の共通領域と、前記共通領域以外の非共通領域と、を算出する領域算出部と、
前記共通領域内の矩形であって、前記矩形に含まれる各点の前記視差の均一度が予め定められた閾値より大きい矩形を、前記物体を検出するための矩形の候補である候補矩形として生成する第1生成部と、
前記非共通領域内の矩形を前記候補矩形として生成する第2生成部と、
生成された前記候補矩形に検出対象の物体が含まれるか否かを判定する判定部と、
を備えることを特徴とする物体検出装置。
An object detection device for detecting an object existing on a reference plane,
A parallax calculator that calculates parallax between images captured by each of a plurality of imaging devices;
An area calculation unit that calculates a common area of the plurality of images and a non-common area other than the common area based on the parallax;
A rectangle in the common area, in which the uniformity of the parallax at each point included in the rectangle is greater than a predetermined threshold, is generated as a candidate rectangle that is a candidate for detecting the object. A first generator that
A second generation unit that generates a rectangle in the non-common area as the candidate rectangle;
A determination unit that determines whether or not the generated object rectangle includes an object to be detected;
An object detection apparatus comprising:
前記均一度は、矩形に含まれる前記基準面上の点に対する前記視差と矩形に含まれる前記基準面上に存在しない各点に対して算出された前記視差との間の差分が予め定められた差分閾値より小さい点の個数であることを特徴とする請求項1に記載の物体検出装置。   The uniformity is determined in advance by a difference between the parallax with respect to a point on the reference plane included in a rectangle and the parallax calculated for each point that does not exist on the reference plane included in the rectangle. The object detection apparatus according to claim 1, wherein the number of points is smaller than the difference threshold. 前記複数の撮像装置が搭載された移動体の操舵角を検出する操舵角検出部をさらに備え、
前記第2生成部は、前記操舵角に基づいて前記移動体の進行方向を推定し、前記非共通領域のうち、推定した進行方向に存在する前記非共通領域に対して生成する前記候補矩形の個数を、推定した進行方向と異なる方向に存在する前記非共通領域に生成する前記候補矩形の個数より増加させることを特徴とする請求項1に記載の物体検出装置。
A steering angle detector that detects a steering angle of a moving body on which the plurality of imaging devices are mounted;
The second generation unit estimates a traveling direction of the mobile body based on the steering angle, and generates the candidate rectangle generated for the non-common region existing in the estimated traveling direction among the non-common regions. The object detection apparatus according to claim 1, wherein the number is increased from the number of the candidate rectangles generated in the non-common area existing in a direction different from the estimated traveling direction.
前記複数の画像は、時系列画像であり、
前記第2生成部は、第1時刻に撮像された前記複数の画像に対して、前記第1時刻の前の第2時刻で撮像された前記複数の画像から生成された前記候補矩形に対応する前記非共通領域の前記基準面上の矩形を前記候補矩形として生成することを特徴とする請求項1に記載の物体検出装置。
The plurality of images are time-series images;
The second generation unit corresponds to the candidate rectangles generated from the plurality of images captured at the second time before the first time with respect to the plurality of images captured at the first time. The object detection apparatus according to claim 1, wherein a rectangle on the reference plane of the non-common area is generated as the candidate rectangle.
前記第1生成部は、前記共通領域の前記基準面上の矩形であって、前記共通領域の前記基準面上の矩形に含まれる各点の前記視差の均一度が予め定められた閾値より大きい矩形のうち、面積が最大の矩形を前記候補矩形として生成することを特徴とする請求項1に記載の物体検出装置。   The first generation unit is a rectangle on the reference plane of the common area, and the uniformity of the parallax of each point included in the rectangle on the reference plane of the common area is greater than a predetermined threshold value The object detection apparatus according to claim 1, wherein a rectangle having the largest area among the rectangles is generated as the candidate rectangle. 前記第1生成部は、前記共通領域の前記基準面上の各点を下辺の中点とする予め定められた大きさの矩形であって、前記共通領域の前記基準面上の矩形に含まれる各点の前記視差の均一度が予め定められた閾値より大きい矩形を前記候補矩形として生成することを特徴とする請求項1に記載の物体検出装置。   The first generation unit is a rectangle having a predetermined size with each point on the reference plane of the common area as a midpoint of a lower side, and is included in the rectangle on the reference plane of the common area The object detection apparatus according to claim 1, wherein a rectangle having a parallax uniformity at each point larger than a predetermined threshold is generated as the candidate rectangle. 前記第2生成部は、前記非共通領域の前記基準面上の各点を下辺の中点とする予め定められた大きさの矩形を前記候補矩形として生成することを特徴とする請求項1に記載の物体検出装置。   The said 2nd production | generation part produces | generates the rectangle of the predetermined magnitude | size which makes each point on the said reference plane of the said non-common area | region the midpoint of a lower side as said candidate rectangle, The said rectangle is characterized by the above-mentioned. The object detection apparatus described. 前記第2生成部は、前記非共通領域の前記基準面上の各点を下辺の中点とする複数の大きさの矩形を前記候補矩形として生成することを特徴とする請求項1に記載の物体検出装置。   The said 2nd production | generation part produces | generates the rectangle of several magnitude | size which makes each point on the said reference planes of the said non-common area | region the midpoint of a lower side as said candidate rectangle. Object detection device. 前記第2生成部は、前記判定部によって前記第1生成部で生成された前記候補矩形に検出対象の物体が含まれると判定された場合に、前記判定部によって前記第1生成部で生成された前記候補矩形に検出対象の物体が含まれないと判定された場合より多くの前記候補矩形を生成することを特徴とする請求項1に記載の物体検出装置。   The second generation unit is generated by the determination unit by the first generation unit when the determination unit determines that an object to be detected is included in the candidate rectangle generated by the first generation unit. The object detection apparatus according to claim 1, wherein more candidate rectangles are generated than when the candidate rectangle does not include an object to be detected. 基準面上に存在する物体を検出する物体検出方法であって、
視差算出部が、複数の撮像装置のそれぞれで撮像された画像間の視差を算出する視差算出ステップと、
領域算出部が、前記視差に基づいて、前記複数の画像の共通領域と、前記共通領域以外の非共通領域と、を算出する領域算出ステップと、
第1生成部が、前記共通領域内の矩形であって、前記矩形に含まれる各点の前記視差の均一度が予め定められた閾値より大きい矩形を、前記物体を検出するための矩形の候補である候補矩形として生成する第1生成ステップと、
第2生成部が、前記非共通領域内の矩形を前記候補矩形として生成する第2生成ステップと、
判定部が、生成された前記候補矩形に検出対象の物体が含まれるか否かを判定する判定ステップと、
を備えることを特徴とする物体検出方法。
An object detection method for detecting an object existing on a reference plane,
A parallax calculating step in which a parallax calculating unit calculates parallax between images captured by each of the plurality of imaging devices;
An area calculation step in which an area calculation unit calculates a common area of the plurality of images and a non-common area other than the common area based on the parallax;
Rectangle candidates for detecting the object by the first generation unit that is a rectangle in the common area and in which the parallax uniformity of each point included in the rectangle is larger than a predetermined threshold value A first generation step for generating as a candidate rectangle,
A second generation step in which a second generation unit generates a rectangle in the non-common area as the candidate rectangle;
A determination step for determining whether the determination unit includes an object to be detected in the generated candidate rectangle;
An object detection method comprising:
コンピュータを、
複数の撮像装置のそれぞれで撮像された画像間の視差を算出する視差算出部と、
前記視差に基づいて、前記複数の画像の共通領域と、前記共通領域以外の非共通領域と、を算出する領域算出部と、
前記共通領域内の矩形であって、前記矩形に含まれる各点の前記視差の均一度が予め定められた閾値より大きい矩形を、前記物体を検出するための矩形の候補である候補矩形として生成する第1生成部と、
前記非共通領域内の矩形を前記候補矩形として生成する第2生成部と、
生成された前記候補矩形に検出対象の物体が含まれるか否かを判定する判定部と、
として機能させるための物体検出プログラム。
Computer
A parallax calculator that calculates parallax between images captured by each of a plurality of imaging devices;
An area calculation unit that calculates a common area of the plurality of images and a non-common area other than the common area based on the parallax;
A rectangle in the common area, in which the uniformity of the parallax at each point included in the rectangle is greater than a predetermined threshold, is generated as a candidate rectangle that is a candidate for detecting the object. A first generator that
A second generation unit that generates a rectangle in the non-common area as the candidate rectangle;
A determination unit that determines whether or not the generated object rectangle includes an object to be detected;
Object detection program to function as
JP2008246838A 2008-09-25 2008-09-25 Apparatus, method and program for detecting object Pending JP2010079582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008246838A JP2010079582A (en) 2008-09-25 2008-09-25 Apparatus, method and program for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008246838A JP2010079582A (en) 2008-09-25 2008-09-25 Apparatus, method and program for detecting object

Publications (1)

Publication Number Publication Date
JP2010079582A true JP2010079582A (en) 2010-04-08

Family

ID=42209951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008246838A Pending JP2010079582A (en) 2008-09-25 2008-09-25 Apparatus, method and program for detecting object

Country Status (1)

Country Link
JP (1) JP2010079582A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073516A (en) * 2011-09-28 2013-04-22 Sumitomo Heavy Ind Ltd Mobile object equipped with object detection device
JP2014197378A (en) * 2013-03-06 2014-10-16 株式会社リコー Object detection device, moving vehicle device control system, and object detection program
WO2016063545A1 (en) * 2014-10-24 2016-04-28 京セラ株式会社 Stereo camera apparatus and vehicle provided with stereo camera apparatus
KR20160054925A (en) * 2014-11-07 2016-05-17 현대모비스 주식회사 Apparatus and method for specific object detection
JP2017062638A (en) * 2015-09-25 2017-03-30 日立オートモティブシステムズ株式会社 Image recognition processing device and program
WO2017090410A1 (en) * 2015-11-25 2017-06-01 日立オートモティブシステムズ株式会社 Stereo camera device
WO2019116958A1 (en) * 2017-12-13 2019-06-20 日立オートモティブシステムズ株式会社 Onboard environment recognition device
JP2021163203A (en) * 2020-03-31 2021-10-11 株式会社Soken Object detection device
JP2021190093A (en) * 2020-05-25 2021-12-13 株式会社Subaru External environment recognition device
WO2022080049A1 (en) * 2020-10-14 2022-04-21 日立Astemo株式会社 Object recognition device
WO2024147223A1 (en) * 2023-01-06 2024-07-11 株式会社日立製作所 Environment recognition device and environment recognition method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222665A (en) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd Image recognition device
JP2003157435A (en) * 2001-09-04 2003-05-30 Matsushita Electric Ind Co Ltd Image processing apparatus, image processing method, and image processing program
JP2004280194A (en) * 2003-03-12 2004-10-07 Toshiba Corp Forward monitoring apparatus and method
JP2005311691A (en) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc Object detection apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222665A (en) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd Image recognition device
JP2003157435A (en) * 2001-09-04 2003-05-30 Matsushita Electric Ind Co Ltd Image processing apparatus, image processing method, and image processing program
JP2004280194A (en) * 2003-03-12 2004-10-07 Toshiba Corp Forward monitoring apparatus and method
JP2005311691A (en) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc Object detection apparatus and method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073516A (en) * 2011-09-28 2013-04-22 Sumitomo Heavy Ind Ltd Mobile object equipped with object detection device
JP2014197378A (en) * 2013-03-06 2014-10-16 株式会社リコー Object detection device, moving vehicle device control system, and object detection program
US10595003B2 (en) 2014-10-24 2020-03-17 Kyocera Corporation Stereo camera apparatus and vehicle comprising the same
WO2016063545A1 (en) * 2014-10-24 2016-04-28 京セラ株式会社 Stereo camera apparatus and vehicle provided with stereo camera apparatus
JPWO2016063545A1 (en) * 2014-10-24 2017-06-29 京セラ株式会社 Stereo camera device and vehicle equipped with stereo camera device
KR20160054925A (en) * 2014-11-07 2016-05-17 현대모비스 주식회사 Apparatus and method for specific object detection
KR102310286B1 (en) 2014-11-07 2021-10-07 현대모비스 주식회사 Apparatus and method for specific object detection
JP2017062638A (en) * 2015-09-25 2017-03-30 日立オートモティブシステムズ株式会社 Image recognition processing device and program
WO2017090410A1 (en) * 2015-11-25 2017-06-01 日立オートモティブシステムズ株式会社 Stereo camera device
US10501059B2 (en) 2015-11-25 2019-12-10 Hitachi Automotive Systems, Ltd. Stereo camera device
JP7025912B2 (en) 2017-12-13 2022-02-25 日立Astemo株式会社 In-vehicle environment recognition device
US11093763B2 (en) 2017-12-13 2021-08-17 Hitachi Automotive Systems, Ltd. Onboard environment recognition device
WO2019116958A1 (en) * 2017-12-13 2019-06-20 日立オートモティブシステムズ株式会社 Onboard environment recognition device
JP2019106026A (en) * 2017-12-13 2019-06-27 日立オートモティブシステムズ株式会社 On-vehicle environment recognizing device
JP2021163203A (en) * 2020-03-31 2021-10-11 株式会社Soken Object detection device
JP7307699B2 (en) 2020-03-31 2023-07-12 株式会社Soken object detector
JP2021190093A (en) * 2020-05-25 2021-12-13 株式会社Subaru External environment recognition device
JP7644620B2 (en) 2020-05-25 2025-03-12 株式会社Subaru Outside environment recognition device
WO2022080049A1 (en) * 2020-10-14 2022-04-21 日立Astemo株式会社 Object recognition device
JP2022064388A (en) * 2020-10-14 2022-04-26 日立Astemo株式会社 Object recognition device
CN116348937A (en) * 2020-10-14 2023-06-27 日立安斯泰莫株式会社 Object recognition device
WO2024147223A1 (en) * 2023-01-06 2024-07-11 株式会社日立製作所 Environment recognition device and environment recognition method

Similar Documents

Publication Publication Date Title
JP2010079582A (en) Apparatus, method and program for detecting object
JP5944781B2 (en) Mobile object recognition system, mobile object recognition program, and mobile object recognition method
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP6614247B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6550881B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP7675339B2 (en) Object Tracking Device
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
US12190601B2 (en) Advanced driver assist system and method of detecting object in the same
KR20180047149A (en) Apparatus and method for risk alarming of collision
JP4609603B2 (en) 3D information display device and 3D information display method
JP2017162116A (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP2009053818A (en) Image processing apparatus and method
JPWO2017130640A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP4553071B1 (en) 3D information display device and 3D information display method
JP2004013400A (en) Object recognition apparatus and object recognition method
JP2017151535A (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JPWO2017099199A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP4887537B2 (en) Vehicle periphery monitoring device
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP6519138B2 (en) PARALLEL VALUE DERIVING DEVICE, MOBILE OBJECT, ROBOT, PARALLEL VALUE PRODUCTION METHOD, AND PROGRAM
JP2017167970A (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
JP2006318062A (en) Image processor, image processing method and image processing program
JP2013069045A (en) Image recognition device, image recognition method, and image recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120710