[go: up one dir, main page]

JP2001273488A - Obstacle detection device - Google Patents

Obstacle detection device

Info

Publication number
JP2001273488A
JP2001273488A JP2000087470A JP2000087470A JP2001273488A JP 2001273488 A JP2001273488 A JP 2001273488A JP 2000087470 A JP2000087470 A JP 2000087470A JP 2000087470 A JP2000087470 A JP 2000087470A JP 2001273488 A JP2001273488 A JP 2001273488A
Authority
JP
Japan
Prior art keywords
image
predetermined area
area
obstacle
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000087470A
Other languages
Japanese (ja)
Inventor
Nobuyuki Takeda
信之 武田
Hiroshi Hattori
寛 服部
Kazunori Onoguchi
一則 小野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000087470A priority Critical patent/JP2001273488A/en
Priority to US09/779,619 priority patent/US6801244B2/en
Publication of JP2001273488A publication Critical patent/JP2001273488A/en
Priority to US10/919,285 priority patent/US7317474B2/en
Priority to US10/923,048 priority patent/US7436430B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 自動車の安全運転の支援や、自動走行を実現
するための技術であって、車載のステレオカメラを用い
て先行車や歩行者等、道路面上に存在する障害物を高速
かつ高精度に検出する障害物検出装置の提供。 【解決手段】 画像を入力する複数台のテレビカメラを
有する画像入力部1と、複数のカメラにより入力された
複数枚の画像を蓄積する画像蓄積部2と、任意のカメラ
が撮像した画像を他のカメラの視点から見た画像に変換
する画像変換部3と、変換された画像内の第1の所定領
域と他のカメラが撮像した画像内の第1の所定領域に対
応する第2の所定領域とのマッチング処理を行う上で、
第1の所定領域を第2の所定領域よりも小さくし、第2
の所定領域で第1の所定領域と最も一致度の低い領域を
抽出するマッチング処理部4と、各第1の所定領域の一
致度の最小領域を障害物とする障害物検出部5とから構
成される。
(57) [Summary] [Problem] This is a technology for supporting safe driving of a car and realizing automatic driving, and a obstacle existing on a road surface such as a preceding car or a pedestrian using a vehicle-mounted stereo camera. Provide an obstacle detection device that detects an object at high speed and with high accuracy. SOLUTION: An image input unit 1 having a plurality of television cameras for inputting images, an image storage unit 2 for storing a plurality of images input by the plurality of cameras, and an image storage unit for storing images taken by an arbitrary camera. An image conversion unit 3 that converts the image into an image viewed from the viewpoint of the camera, and a second predetermined area corresponding to a first predetermined area in the converted image and a first predetermined area in an image captured by another camera. In performing the matching process with the area,
Making the first predetermined area smaller than the second predetermined area,
A matching processing unit 4 for extracting a region having the lowest matching degree with the first predetermined region among the predetermined regions, and an obstacle detecting unit 5 having an area having the minimum matching degree of each first predetermined region as an obstacle. Is done.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、障害物検出装置に
係り、自車両が走行中に、先行車、駐車車両、または歩
行者等の道路上に存在する障害物を検出する障害物検出
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle detecting device, and more particularly to an obstacle detecting device for detecting an obstacle existing on a road such as a preceding vehicle, a parked vehicle, or a pedestrian while a host vehicle is running. About.

【0002】[0002]

【従来の技術】自動車の安全運転の支援や自動走行を実
現するために、自車両の走行方向前方に存在する障害物
を検知することは重要である。
2. Description of the Related Art It is important to detect an obstacle existing in the traveling direction of a vehicle in order to realize safe driving assistance and automatic traveling of a vehicle.

【0003】従来、障害物を検知するための技術には、
レーザや超音波等を利用するものと、テレビカメラを利
用するものがあった。レーザを利用するものは装置が高
価となり、超音波を利用するものは超音波の解像度が低
いため、障害物の検出精度に問題が生じる可能性があり
実用性は低かった。また、レーザや超音波等を用いる能
動センサ単独では走行レーンを認識することができなか
った。
Conventionally, techniques for detecting obstacles include:
Some use lasers or ultrasonic waves, and others use television cameras. The apparatus using a laser requires an expensive apparatus, and the apparatus using an ultrasonic wave has a low resolution of the ultrasonic wave. Therefore, there is a possibility that a problem may occur in the detection accuracy of an obstacle, and the practicality is low. In addition, the active lane using the laser or the ultrasonic wave alone cannot recognize the traveling lane.

【0004】これに対し、テレビカメラは比較的安価で
あり、解像度や計測精度、計測範囲の面からも障害物検
出に適する。また、走行レーンの認識も可能である。テ
レビカメラを用いる場合には、1台のカメラを使用する
方法と複数台のカメラ(ステレオカメラ)を使用する方
法がある。
On the other hand, a television camera is relatively inexpensive and is suitable for obstacle detection in terms of resolution, measurement accuracy, and measurement range. It is also possible to recognize the traveling lane. When a television camera is used, there is a method using one camera and a method using a plurality of cameras (stereo cameras).

【0005】1台のカメラを使用する方法は、そのカメ
ラで撮像した1枚の画像から、輝度や色、あるいはテク
スチャ等の情報を手がかりにして道路領域と障害物領域
とを分離する。
In a method using one camera, a road area and an obstacle area are separated from one image picked up by the camera by using information such as luminance, color, and texture.

【0006】例えば、撮像された画像中で彩度の低い中
程度の輝度領域、つまり灰色の領域を抽出して道路領域
とすることや、テクスチャの少ない領域を求めて、この
領域を道路領域として抽出し、それ以外の領域を障害物
領域とする場合もある。しかしながら、道路と似た輝
度、色、あるいはテクスチャを持った障害物も数多く存
在するため、この方法では障害物領域と道路領域とを切
り分けるのは困難であった。
For example, a medium luminance region having low saturation, that is, a gray region in a captured image, that is, a gray region is extracted and used as a road region. In some cases, the area is extracted and the other area is set as an obstacle area. However, since there are many obstacles having the same brightness, color, or texture as roads, it is difficult to separate the obstacle region from the road region by this method.

【0007】これに対し、複数台のカメラを用いる方法
は3次元情報を手がかりにして障害物を検出する。この
方法は一般にステレオ視と呼ばれており、例えば2つの
カメラを左右に配置し、3次元空間中で同一点である点
を左右画像間で対応づけ、三角測量の要領で、その点の
3次元位置を求めるものである。各カメラの道路平面に
対する位置や姿勢等をあらかじめ求めておくと、ステレ
オ視により画像中の任意の点の道路平面からの高さを得
ることができる。
On the other hand, the method using a plurality of cameras detects an obstacle using three-dimensional information as a clue. This method is generally called stereo vision. For example, two cameras are arranged on the left and right, a point that is the same point in a three-dimensional space is associated between left and right images, and the three points of the point are determined in a triangulation manner. This is for obtaining a dimensional position. If the position, posture, and the like of each camera with respect to the road plane are obtained in advance, the height of an arbitrary point in the image from the road plane can be obtained by stereo vision.

【0008】このようなステレオ視の技術によって、高
さの有無を求め障害物領域と道路領域とを分離すること
ができる。
With such a stereoscopic technique, it is possible to determine the presence or absence of a height and to separate an obstacle area from a road area.

【0009】しかしながら、通常のステレオ視には、対
応点探索という問題がある。ステレオ視とは、一般的に
は画像上の任意の点のステレオカメラに固定した座標系
(以下ではステレオカメラ座標系と称する)に対する3
次元位置を求める技術である。対応点探索は空間中で同
一である点を左右の画像間で対応づける際に必要な探索
計算を意味し、計算費用が極めて高くなるという問題が
ある。この対応点探索は、ステレオ視の実用化を妨げる
要因となっている。
However, ordinary stereo vision has a problem of corresponding point search. Stereo vision generally refers to a coordinate system fixed to a stereo camera at an arbitrary point on an image (hereinafter referred to as a stereo camera coordinate system).
This is a technique for determining the dimensional position. Corresponding point search means a search calculation required for associating the same point in space between left and right images, and has a problem that the calculation cost is extremely high. This search for corresponding points is a factor hindering the practical use of stereo vision.

【0010】しかし、画像上で道路領域と障害物領域と
を分離すればよいのであれば、対応点探索は必要でな
く、道路平面からの高さの有無は、例えば以下のように
して判別できる。
However, if it is only necessary to separate the road area and the obstacle area on the image, the corresponding point search is not necessary, and the presence or absence of the height from the road plane can be determined as follows, for example. .

【0011】道路平面上の点の左右画像への投影点を各
々(u,v),(u',v')とすれば、
If the projection points of points on the road plane to the left and right images are (u, v) and (u ', v'),

【数1】 という関係式が成り立つ。(Equation 1) Holds.

【外1】 路平面に対する位置と姿勢、さらに、各カメラのレンズ
の焦点距離、画像原点に依存するパラメータである。
[Outside 1] These parameters are dependent on the position and orientation with respect to the road plane, the focal length of each camera lens, and the image origin.

【外2】 点Pが道路平面上に存在すれば、点PとP´が正しい対
応点の組となるので、2点の輝度は一致する。したがっ
て、点PとP´の輝度が異なる場合には、点Pは障害物
領域に属すると判定することができる。この方式は、式
(1)のみから直接的に画像上の任意の点の道路面から
の高さの有無を判定可能であり、式(1)の係数は道路
上の4点以上の特徴点の左右画像への投影点だけから求
めることができ、左右画像間の対応点探索が不要であ
る。
[Outside 2] If the point P exists on the road plane, the points P and P 'form a correct set of corresponding points, and the two points have the same luminance. Therefore, when the luminances of the points P and P ′ are different, it can be determined that the point P belongs to the obstacle area. According to this method, it is possible to directly determine the presence or absence of an arbitrary point on the image from the road surface from only the equation (1), and the coefficient of the equation (1) is four or more feature points on the road. Can be obtained only from the projection points on the left and right images, and a corresponding point search between the left and right images is unnecessary.

【外3】 しかしながら、車両が屋外を走行する場合には、車両自
身の振動や道路の傾斜の変化等のため、道路平面と各カ
メラの相対的な位置や姿勢との関係は時々刻々変化す
る。
[Outside 3] However, when the vehicle travels outdoors, the relationship between the road plane and the relative position and attitude of each camera changes from moment to moment due to the vibration of the vehicle itself and changes in the inclination of the road.

【外4】 し他のカメラ画像と単なる差分などによって障害物を検
出すると、障害物の検出精度が著しく低下するという問
題があった。
[Outside 4] However, when an obstacle is detected based on a mere difference from another camera image, there is a problem that the accuracy of detecting the obstacle is significantly reduced.

【0012】[0012]

【発明が解決しようとする課題】上述のように従来のテ
レビカメラを利用する障害物検出装置では、使用環境が
限定されていたり、計算費用が高い対応探索が必要であ
ったり、車両の走行中の振動や道路の傾斜に対処できな
いため、屋外環境では性能が著しく悪くなるという問題
があった。
As described above, in the conventional obstacle detection device using a television camera, the use environment is limited, a corresponding search requiring a high calculation cost is required, or the vehicle is running. Since it cannot cope with the vibration of the road and the inclination of the road, there is a problem that the performance is significantly deteriorated in an outdoor environment.

【0013】そこで、本発明は上記従来の問題点に鑑み
てなされたもので、車両がどのような道路上を走行中で
あっても、振動や道路自身の傾斜による影響を抑制し安
定して障害物を検出する障害物検出装置の提供を目的と
する。
In view of the above, the present invention has been made in view of the above-mentioned conventional problems, and suppresses the influence of vibration and the inclination of the road itself and stably suppresses the vehicle on any road. An object of the present invention is to provide an obstacle detection device that detects an obstacle.

【0014】[0014]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の障害物検出装置では、自車両に互いの光
軸が平行になるように互いに離間した受光部から、この
車両の進行方向の領域を画像として同時に撮像する複数
の撮像手段と、前記撮像手段により撮像された画像を記
憶する画像蓄積部と、前記画像蓄積部に記憶された第1
の撮像手段により撮像された第1の画像中の領域を、第
2の撮像手段により撮像された第2の画像中の前記領域
に対応するエピポーラライン上の所定領域に変換して、
この変換された画像を変換画像として得る画像変換部
と、前記第1の画像もしくは前記第2の画像の一方から
変換された変換画像内の第1の所定領域と、他方の画像
内の第2の所定領域とのマッチングを行う際に、前記第
1の所定領域よりも前記第2の所定領域を大きくし、前
記第2の所定領域内を前記第1の所定領域が移動して前
記第1の所定領域と前記第2の所定領域との一致度が最
大となる位置をマッチング領域とし、このマッチング領
域を前記第1の領域ごとに検出して、複数のマッチング
領域からなるマッチング画像を得るマッチング処理部
と、前記マッチング処理部により得られた前記マッチン
グ画像のうち、基準値より低い領域を障害物とする障害
物検出部とから構成される。
In order to achieve the above object, in the obstacle detecting device according to the present invention, a light receiving section of the vehicle is separated from a light receiving section separated from the own vehicle so that the optical axes thereof are parallel to each other. A plurality of image capturing means for simultaneously capturing an area in the traveling direction as an image; an image storage unit for storing an image captured by the image capturing means; and a first image storage unit stored in the image storage unit.
Converting an area in the first image captured by the imaging means to a predetermined area on an epipolar line corresponding to the area in the second image captured by the second imaging means;
An image conversion unit that obtains the converted image as a converted image, a first predetermined area in the converted image converted from one of the first image and the second image, and a second predetermined area in the other image. When performing the matching with the predetermined region, the second predetermined region is made larger than the first predetermined region, and the first predetermined region moves within the second predetermined region and the first predetermined region moves. The position where the degree of coincidence between the predetermined region and the second predetermined region is maximum is defined as a matching region, and the matching region is detected for each of the first regions to obtain a matching image including a plurality of matching regions. The image processing apparatus includes a processing unit, and an obstacle detection unit that sets an area lower than a reference value in the matching image obtained by the matching processing unit as an obstacle.

【0015】ここで、画像変換部の動作について図1乃
至図5を参照して説明する。
Here, the operation of the image conversion unit will be described with reference to FIGS.

【0016】画像変換部の動作は、第1の撮像手段によ
り撮像された第1の画像を、第2の撮像手段の視点から
見える画像に変換して、この変換された変換画像を得る
ことである。
The operation of the image conversion section is to convert the first image picked up by the first image pickup means into an image which can be seen from the viewpoint of the second image pickup means, and to obtain this converted image. is there.

【0017】尚、この変換に使用されるパラメータは、
複数の撮像手段であるカメラと、自車両が走行する道路
平面が典型的な幾何学的関係を持つ(例えば傾きのない
道路面上に静止した車両を配置した場合)ようにして予
め一回だけ求め得たものであり、車両の走行中、つまり
障害物検出の動作が行われている時には、変更されない
ものとする。
The parameters used for this conversion are:
The camera serving as a plurality of imaging means and the road plane on which the own vehicle travels have a typical geometric relationship (for example, when a stationary vehicle is placed on an unsloped road surface) only once in advance. It is obtained, and is not changed while the vehicle is running, that is, when the operation of obstacle detection is being performed.

【0018】まず、図1の動作を説明するための斜視図
に示す通り、2台のカメラ10a、10bが搭載された
車両を傾きのない平坦な道路面上に配置する。道路面上
には車両の進行方向に互いに平行に引かれている白線が
あり、この白線をl、l´とする。
First, as shown in a perspective view for explaining the operation of FIG. 1, a vehicle on which two cameras 10a and 10b are mounted is arranged on a flat road surface without inclination. On the road surface, there are white lines drawn in parallel to the traveling direction of the vehicle, and these white lines are denoted by l and l '.

【0019】これら2台のカメラ10a、10bの互い
の位置や姿勢の関係は障害物検出装置にとっては未知で
あり、エピポーラ拘束のみが既知であるとし、車両の走
行中ではカメラ10a、10bの位置、姿勢、エピポー
ラ拘束は変化しないものとする。
It is assumed that the relationship between the positions and postures of these two cameras 10a and 10b is unknown to the obstacle detection device, and only the epipolar constraint is known. , Posture, and epipolar constraint do not change.

【0020】尚、このエピポーラ拘束とは、一般的なス
テレオ画像に対して成り立つ拘束であり、図2のエピポ
ーラ拘束の説明図に示す通り、カメラ10aにて撮像さ
れた画像(左画像)上の任意の点Pは、カメラ10bに
より撮像された画像(右画像)上の対応点P´を含む所
定の直線上に存在するよう拘束される状態をいう。この
直線をエピポーララインと呼ぶ。
The epipolar constraint is a constraint that holds for a general stereo image. As shown in the explanatory diagram of the epipolar constraint in FIG. 2, an epipolar constraint on an image (left image) captured by the camera 10a is used. The arbitrary point P refers to a state in which the point P is constrained to be on a predetermined straight line including the corresponding point P ′ on the image (right image) captured by the camera 10b. This straight line is called an epipolar line.

【0021】例えば、各カメラの光軸を互いに平行にな
るよう配置した場合には、左画像の任意の点Pの対応点
は、右画面上では同一走査線上に存在するため、エピポ
ーララインと走査線とは一致することになる。エピポー
ラ拘束は、ステレオカメラ間の相対的な位置、姿勢の関
係と、各カメラの内部パラメータ、すなわちカメラレン
ズの焦点距離、画像原点に依存するため、エピポーラ拘
束が変更せず不変であることはステレオカメラの相対的
な位置関係や、内部パラメータが車両の走行中に変化し
ないことを意味している。
For example, when the optical axes of the cameras are arranged so as to be parallel to each other, the point corresponding to an arbitrary point P in the left image exists on the same scanning line on the right screen, so that the epipolar line and the scanning Will match the line. Since the epipolar constraint depends on the relationship between the relative position and orientation between the stereo cameras and the internal parameters of each camera, that is, the focal length of the camera lens and the image origin, it is stereo that the epipolar constraint does not change and remains unchanged. This means that the relative positional relationship of the cameras and the internal parameters do not change while the vehicle is running.

【0022】このエピポーラ拘束は、以下に示す式
(2)のとおり定式化される。
This epipolar constraint is formulated as shown in the following equation (2).

【数2】 (Equation 2)

【外5】 Fは3×3の行列であり、基礎行列と呼ばれる。式
(2)を展開して整理すると以下に示す(3)のように
表せる。
[Outside 5] F is a 3 × 3 matrix and is called a fundamental matrix. When formula (2) is developed and arranged, it can be expressed as (3) shown below.

【数3】 (Equation 3)

【外6】 行列Fは9つの要素からなるが各要素は独立ではなく、
理論的には7つ以上の対応点の組から各要素を求めるこ
とができる。各対応点の組の3次元位置は不要であるの
で、行列F、つまりエピポーラ高速の算出は比較的容易
である。
[Outside 6] The matrix F consists of 9 elements, but each element is not independent,
Theoretically, each element can be obtained from a set of seven or more corresponding points. Since the three-dimensional position of each set of corresponding points is unnecessary, the calculation of the matrix F, that is, the epipolar high speed, is relatively easy.

【0023】各画像におけるl,l´は3次元空間中で
は互いに平行であるが、左右のカメラが撮像した画像上
では、図3の各カメラが撮像した白線領域に示すとお
り、各画像のl,l´は画面上では消失点と呼ばれる無
限遠方の点で交差する。
Although l and l 'in each image are parallel to each other in the three-dimensional space, on the images picked up by the left and right cameras, as shown in the white line area picked up by each camera in FIG. , l 'intersect at a point at infinity called a vanishing point on the screen.

【0024】次に、道路面上の対応点同士の間に成り立
つ関係式を求めていく。図4の対応点を説明する図に示
す通り、左画像において直線l上の任意の2点をA、C
とし、直線l´上の任意の2点をB、Dとする。
Next, a relational expression that is established between corresponding points on the road surface will be obtained. As shown in the diagram for explaining the corresponding points in FIG. 4, arbitrary two points on the straight line 1 in the left image are A and C.
And two arbitrary points on the straight line l ′ are B and D.

【0025】これら4点の右画像上の対応点を、A´、
B´、C´、D´は予め求め得ていたエピポーラ拘束を
用いることで容易に算出することができる。すなわち、
点Aの対応点A´は、右画像上において直線lと点Aの
エピポーララインLAとの交点に一致する。同様に、点
B´、C´、D´についても、各点B、C、Dと各エピ
ポーララインLB、LC、LDとの交点として求めるこ
とができる。
The corresponding points on the right image of these four points are A ',
B ′, C ′, and D ′ can be easily calculated by using the previously obtained epipolar constraint. That is,
The corresponding point A ′ of the point A coincides with the intersection of the straight line 1 and the epipolar line LA of the point A on the right image. Similarly, the points B ′, C ′, and D ′ can be obtained as intersections between the points B, C, and D and the epipolar lines LB, LC, and LD.

【外7】 [Outside 7]

【外8】 [Outside 8]

【数4】 なる関係式が成り立つ。(Equation 4) The following relational expression holds.

【外9】 [Outside 9]

【数5】 このようにして求めた変換は、例えば図5の変換画像例
に示す通り、ステレオ画像では、左カメラ画像(a)を
右カメラ視点に変換した場合、(c)に示されるような
画像となる。つまり、道路面上の画素、同図中では車両
のタイヤと道路路面との接地点では正しく対応点に変換
されることができるのに対し、空間的に高さを持った物
体は画像中で倒れ込むような歪みを伴って変換される。
(Equation 5) The conversion thus obtained is, for example, as shown in the converted image example of FIG. 5, in the case of a stereo image, when the left camera image (a) is converted to the right camera viewpoint, an image as shown in (c) is obtained. . In other words, pixels on the road surface, in the figure, at the point of contact between the tire of the vehicle and the road surface can be correctly converted to corresponding points, whereas objects with a spatial height are displayed in the image. It is transformed with falling distortion.

【外10】 対応点の組となるから、基本的には点PとP´の輝度が
同じになる。逆に、両者の輝度が異なれば、点P、点P
´は道路面上にはない点であることになる。
[Outside 10] Since a set of corresponding points is formed, the brightness of the points P and P 'is basically the same. Conversely, if the brightness is different, the points P and P
'Is a point not on the road surface.

【0026】道路路面とカメラとの関係が一定であれ
ば、
If the relationship between the road surface and the camera is constant,

【数6】 (ただし、||は絶対値を示す。)として、D≠0、あ
るいは左右のカメラの特性の違い等の誤差を考慮して、
閾値Thrを設定し、D>Thrとなる点Pを障害物領
域に属すると判定することが可能である。
(Equation 6) (However, || indicates an absolute value.) In consideration of D ≠ 0 or an error such as a difference in characteristics between the right and left cameras,
By setting the threshold value Thr, it is possible to determine that the point P satisfying D> Thr belongs to the obstacle area.

【0027】しかしながら実際には、車両の移動に伴う
カメラの振動や道路面の傾きなど様々な変化が発生し、
上述した式(6)によって障害物を判別することは困難
である。例えば、ランドマーク(「止」や速度制限表
示、白線等)と道路面との輝度差が大きいため、仮定し
ている道路面とカメラとの幾何学的関係(前述の画像変
換パラメータを求めた時のカメラと路面の関係)と実際
の道路面とカメラとの幾何学的関係のずれによって、障
害物ではないにもかかわらず式(6)はランドマーク周
辺(=エッジ周辺)で大きな値を持つからである。
However, in practice, various changes occur, such as camera vibration and road surface inclination accompanying the movement of the vehicle.
It is difficult to determine an obstacle by the above equation (6). For example, since the luminance difference between a landmark ("stop", speed limit display, white line, etc.) and the road surface is large, the assumed geometrical relationship between the road surface and the camera (the image conversion parameters described above were obtained). Due to the difference between the camera and the road surface at the time) and the geometric relationship between the actual road surface and the camera, Equation (6) gives a large value around the landmark (= around the edge) even though it is not an obstacle. Because we have.

【0028】[0028]

【発明の実施の形態】以下、本発明の実施の形態の構成
を図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0029】図6乃至図7は本発明の障害物検出装置を
示す図である。
FIGS. 6 and 7 show an obstacle detecting device according to the present invention.

【0030】図6は本発明の障害物検出装置のブロック
構成図であり、障害物検出装置は、使用者が乗車する自
車両に設けられており、互いの光軸が実質的に平行にな
るように、また互いにレンズである受光部が離間して配
置される2台のステレオカメラからなる画像入力部1
(撮像手段)と、画像入力部1により撮像された画像を
記憶する画像蓄積部2と、撮像された画像に処理(詳細
は後述)を施す画像変換部3と、処理が施された複数の
画像間でマッチング処理を行うマッチング処理部4と、
マッチング処理部4からのマッチング処理された結果を
もとにして障害物を検出する障害物検出部5とから構成
される。
FIG. 6 is a block diagram of an obstacle detection device according to the present invention. The obstacle detection device is provided in a host vehicle on which a user rides, and their optical axes are substantially parallel to each other. Input unit 1 composed of two stereo cameras in which the light receiving units as lenses are spaced apart from each other as described above.
(Imaging means), an image accumulating section 2 for storing an image captured by the image input section 1, an image converting section 3 for performing processing (to be described in detail later) on the captured image, and a plurality of processed images. A matching processing unit 4 for performing a matching process between images;
An obstacle detection unit 5 detects an obstacle based on the result of the matching processing from the matching processing unit 4.

【0031】尚、障害物の検出は、自車両が走行する際
に発生するであろう振動や道路面に傾斜変化などが存在
する条件のもとで、歩行者、先行車両、または道路面上
に存在しえる障害物を検出する状況を想定している。ま
た、2台のステレオカメラの幾何学的関係や自車両への
搭載時の構成は、前述の画像変換パラメータ算出時から
変更、変化がないものとする。また、左側に配置された
画像入力部1によって撮像された画像を第1の画像なる
左カメラ画像とし、右側に配置された画像入力部1によ
って撮像された画像を第2の画像なる右カメラ画像とす
る。
It should be noted that obstacles are detected under the condition that vibrations that may occur when the vehicle travels and changes in the slope of the road surface are present. It is assumed that an obstacle that can exist in the vehicle is detected. It is assumed that the geometric relationship between the two stereo cameras and the configuration when the stereo cameras are mounted on the own vehicle do not change or change from the above-described calculation of the image conversion parameters. Further, an image captured by the image input unit 1 disposed on the left is a first camera left camera image, and an image captured by the image input unit 1 disposed on the right is a second camera right camera image. And

【0032】このような構成からなる障害物検出装置の
動作について説明する。
The operation of the obstacle detecting device having such a configuration will be described.

【0033】まず、2台のテレビカメラを用いて、自車
両の進行方向の領域を2枚の画像として同時に撮像す
る。
First, an area in the traveling direction of the host vehicle is simultaneously imaged as two images using two television cameras.

【0034】次に、画像蓄積部2は、画像入力部1によ
り入力された2枚の画像を画像メモリに蓄積する。
Next, the image storage unit 2 stores the two images input by the image input unit 1 in an image memory.

【0035】次に、画像変換部3は、画像蓄積部2に記
憶された第1の画像なる左カメラ画像を読み出して、前
述したような方法で予め求め得た変換パラメータによ
り、一方の画像入力部1(例えば左側のステレオカメ
ラ)で撮像された画像を他方の画像入力部1(例えば右
側のステレオカメラ)の視点へ変換し、この変換された
画像を変換画像として得る。ここで左カメラ画像中の任
意の領域(例えば1画素)は、第2の画像なる右カメラ
画像中の、この領域に対応するエピポーラライン上の所
定領域(1画素)に変換して得たものである。なお、以
下では左カメラ画像を右カメラ視点へと画像変換する場
合を説明するが、右カメラ画像を左カメラ視点へと画像
変換しても本質的には同じ処理である。
Next, the image conversion unit 3 reads the left camera image as the first image stored in the image storage unit 2 and uses one of the image input parameters according to the conversion parameters obtained in advance by the method described above. The image captured by the unit 1 (for example, the left stereo camera) is converted to the viewpoint of the other image input unit 1 (for example, the right stereo camera), and the converted image is obtained as a converted image. Here, an arbitrary region (for example, one pixel) in the left camera image is obtained by converting into a predetermined region (one pixel) on the epipolar line corresponding to this region in the right camera image as the second image. It is. In the following, a case in which the left camera image is converted to the right camera viewpoint will be described. However, the same processing is essentially performed even when the right camera image is converted to the left camera viewpoint.

【0036】次に、マッチング処理部4では、図7に示
すマッチング処理の説明図に示す通り、変換画像の第1
の所定領域と右カメラ画像の第1の所定領域に対応する
第2の所定領域とのマッチング処理を行う。マッチング
処理によって得られた第1の所定領域に対応する第2の
領域中の位置はマッチング領域とし、複数のマッチング
領域からなるマッチング画像を得る。ここで、第1の所
定領域、第2の所定領域は少なくとも1つ以上の画素を
含む領域であって、第1の所定領域の大きさは第2の所
定領域の大きさよりも小さいものとする。同図(a)の
変換画像上では道路面はほぼ正しく投影される一方、自
車両の前方の車両や歩行者等の高さのある物体は、道路
面からの高さが高くなるに従って、大きな歪みを持って
投影されることになるため、道路面上の位置(高さがほ
とんどない位置)では高い一致度を持ち、高さのある物
体は低い一致度となる。
Next, in the matching processing section 4, as shown in the explanatory diagram of the matching processing shown in FIG.
And a second predetermined region corresponding to the first predetermined region of the right camera image. A position in the second area corresponding to the first predetermined area obtained by the matching processing is set as a matching area, and a matching image including a plurality of matching areas is obtained. Here, the first predetermined area and the second predetermined area are areas including at least one pixel, and the size of the first predetermined area is smaller than the size of the second predetermined area. . On the converted image of FIG. 3A, the road surface is almost correctly projected, while a tall object such as a vehicle or a pedestrian in front of the own vehicle becomes larger as the height from the road surface increases. Since the projection is performed with distortion, a high degree of coincidence is obtained at a position on the road surface (a position where there is almost no height), and an object with a height has low degree of coincidence.

【0037】また、マッチング処理とは、第2の所定領
域内を第1の所定領域が移動され移動された位置ごと
に、第2の所定領域と第1の所定領域との類似度を計算
し、この得られた類似度のうち最大なる一致度を、第2
の所定領域中の第1の所定領域として求めることをい
う。一致度を計算するにあたっては、正規化相関やSA
D(Sum of Absolute Differe
nce)、SSD(Sumof Square Dif
ference)等の画像処理で用いられるマッチング
方法を用いる。ただし、正規化相関は一致度が高い程大
きな値を持つのに対し、SADやSSDは小さな値程高
い一致度となるものであり適宜使い分けることができ
る。
The matching process is to calculate the similarity between the second predetermined region and the first predetermined region at each position where the first predetermined region is moved and moved in the second predetermined region. , The maximum degree of coincidence of the obtained similarities
Is determined as the first predetermined area in the predetermined area. When calculating the degree of coincidence, the normalized correlation or SA
D (Sum of Absolute Differe)
nce), SSD (Sumof Square Dif)
For example, a matching method used in image processing such as a reference is used. However, the normalized correlation has a larger value as the degree of coincidence is higher, whereas the SAD and SSD have a higher degree of coincidence as the value is smaller, and can be appropriately used.

【0038】尚、第2の所定領域中を移動する第1の所
定領域は、移動する前の第1の領域と、類似度の計算が
終わって新たな場所に移動した後の第1の領域とは、そ
の領域の一部が重なるように移動しても、その領域が重
ならず隣接するように移動することもできる。
The first predetermined area moving in the second predetermined area is the first area before the movement and the first area after the similarity calculation is completed and moved to a new place. That is, even if the region moves so that a part of the region overlaps, the region can move so as to be adjacent to the region without overlapping.

【0039】第2の所定領域と第1の所定領域とのマッ
チング処理が終わったら、マッチング処理が終了した第
1の所定領域とは異なる第1の所定領域と、この新たな
第1の所定領域に対応する第2の所定領域とのマッチン
グ処理を行っていき、左カメラ画像に存在する第1の所
定領域全てに対してマッチング処理を行う。尚、第1の
所定領域ごとに対応する第2の所定領域は、互いにその
領域が重なっても、隣接してもどちらでも構わない。ま
た、変換画像内を全て第1の所定領域に設定すること
も、また第1の所定領域が得られる位置のみを第1の所
定領域とすることも適宜可能である。
When the matching processing between the second predetermined area and the first predetermined area is completed, a first predetermined area different from the first predetermined area for which the matching processing has been completed, and this new first predetermined area Is performed with the second predetermined region corresponding to the first camera region, and the matching process is performed on all the first predetermined regions existing in the left camera image. The second predetermined regions corresponding to the first predetermined regions may be either overlapping or adjacent to each other. Further, it is possible to set the entirety of the converted image as the first predetermined area, or to set only the position where the first predetermined area is obtained as the first predetermined area.

【0040】全ての第1の所定領域に対するマッチング
処理が終了したら、各第1の所定領域と一致度が最大と
なるもので作られる2次元の画像(同図(c)参照)を
生成する。
When the matching processing for all the first predetermined areas is completed, a two-dimensional image (see FIG. 10C) made of the first predetermined area and the one having the highest degree of coincidence is generated.

【0041】次に、障害物検出部5では、マッチング処
理部4で求め生成された2次元の画像を、しきい値処理
することにより、この画像上で基準値より低い一致度の
領域を障害物領域として出力する。なお、基準値には、
経験的に求められた値を使うことも、一致度を複数例え
ば9段階に分割し一致度の低いものから例えば4番目以
下の領域の一致度と設定することも、自車両を操作する
操作者が2次元の画像から任意の一致度を基準値にする
ことも、また2次元の画像中を占有する面積が最大であ
るものは道路面であるためこの一番多い一致度の領域以
外の部分を基準値と設定することもできる。
Next, the obstacle detection unit 5 performs threshold processing on the two-dimensional image obtained and generated by the matching processing unit 4 so that an area having a degree of coincidence lower than the reference value on this image is determined as an obstacle. Output as object area. In addition, the reference value includes
The operator who operates the own vehicle can use the value obtained empirically or can divide the coincidence into a plurality of, for example, nine levels and set the coincidence from the one with the lowest coincidence to the fourth or lower region, for example. It is also possible to use an arbitrary degree of coincidence as a reference value from a two-dimensional image, and to use a road surface that occupies the largest area in a two-dimensional image, because the road surface is the part other than the area with the highest degree of coincidence. Can be set as the reference value.

【0042】また、マッチング処理部4では、第1の所
定領域ごとの一致度を、一致度の2次元の画像として得
たが、第1の所定領域ごとに得られた一致度に対して、
予め閾値(例えば上述したような基準値)を設けてお
き、この閾値よりも低いもののみ2次元の画像として出
力することもできる。
The matching processing section 4 obtains the degree of coincidence for each first predetermined area as a two-dimensional image of the degree of coincidence.
A threshold (for example, the above-described reference value) may be provided in advance, and only those lower than this threshold may be output as a two-dimensional image.

【0043】また、障害物検出部5では基準値よりも低
い領域を障害物として検出しているため、第1の所定領
域に対する第2の所定領域の一致度が計算された後に、
その一致度が任意の閾値(たとえば上述したような基準
値)以下であれば、この一致度を第1の所定領域に対す
る一致度とし、この第1の所定領域における以降の一致
度計算は行わないように処理を行うこともできる。
Since the obstacle detection unit 5 detects an area lower than the reference value as an obstacle, after the degree of coincidence of the second predetermined area with the first predetermined area is calculated,
If the degree of coincidence is equal to or less than an arbitrary threshold value (for example, the above-described reference value), the degree of coincidence is set as the degree of coincidence with the first predetermined area, and the subsequent degree of coincidence calculation in the first predetermined area is not performed. The processing can be performed as follows.

【0044】また、障害物検出部5で検出された障害物
情報は、使用者に対して、音声などの聴覚的手段、光
(画像を含む)などの視覚的手段、振動などの体感的手
段により適宜提供することができる。
The obstacle information detected by the obstacle detection unit 5 is transmitted to the user by auditory means such as voice, visual means such as light (including images), and sensible means such as vibration. Can be provided as appropriate.

【0045】以上述べたような障害物検出装置では、自
車両がどのような道路上を走行中であっても、明るさの
変動や先行車両などの影の影響をうけず、振動や道路自
身の傾斜による影響を抑制し安定して障害物を検出する
ことができる。また、障害物の存在を使用者に警告する
ことにより、障害物が存在することによって発生する可
能性のある使用者にとっての回避したい事象を避けるこ
とができる。
In the above-described obstacle detecting device, no matter what road the host vehicle is traveling on, it is not affected by the fluctuation of brightness or the shadow of the preceding vehicle, etc. And the obstacle can be detected stably. Further, by alerting the user of the existence of the obstacle, it is possible to avoid an event that the user may want to avoid due to the presence of the obstacle.

【0046】また、マッチング処理をする際に閾値をも
うけ計算を行うことで、マッチング処理にかかる計算時
間を短縮し、高速な障害物検出が可能となる。これは、
例えば、変換画像を得るためのパラメータと、実際のカ
メラと道路面の関係から導き出される最適な画像変換パ
ラメータとの間に誤差が生じ、左カメラ画像の変換に誤
差が生じたとしても、道路面上のテクスチャ(模様)の
無い領域では、対応する右カメラ画像の第2の所定領域
内においてもテクスチャが無い場合が多いため、このよ
うな領域は第2の所定領域全体を探索したとしても、第
2の所定領域全てを探索して得た結果と大きな差は無
く、探索処理を打ち切ったとしても障害物検出性能は悪
化しないためである。
Further, by performing a calculation with a threshold value when performing the matching process, the calculation time required for the matching process can be reduced, and high-speed obstacle detection can be performed. this is,
For example, if an error occurs between a parameter for obtaining a converted image and an optimal image conversion parameter derived from the relationship between the actual camera and the road surface, and even if an error occurs in the conversion of the left camera image, In an area without a texture (pattern) above, there is often no texture even in the second predetermined area of the corresponding right camera image, so even if such an area is searched for the entire second predetermined area, This is because there is no significant difference from the result obtained by searching all the second predetermined areas, and even if the search processing is terminated, the obstacle detection performance does not deteriorate.

【0047】尚、本発明は上記実施の形態には限定され
ず、その主旨を逸脱しない範囲で種々変形して実施でき
ることは言うまでもない。例えば、道路面として平面を
仮定して説明してきたが、道路面を曲面として仮定した
場合であっても、例えば曲面を複数の区分的な平面に近
似し、画像変換パラメータを複数用意し、画像上で区分
的に画像変換を行うことにより、障害物を検出すること
ができる。
The present invention is not limited to the above embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention. For example, although the description has been made assuming that the road surface is a plane, even when the road surface is assumed to be a curved surface, for example, the curved surface is approximated to a plurality of piecewise planes, and a plurality of image conversion parameters are prepared, By performing the above-described piecewise image conversion, an obstacle can be detected.

【0048】また、マッチング処理部などの各構成要素
のハードウェア化、並列化が容易に実現可能であり、更
に最近のプロセッサでマルチメディアデータ処理を高速
化するために用意されているSIMD(Single
Instruction stream Multip
le Date stream)演算機能を利用しての
高速化も非常に容易である。
Further, it is possible to easily realize hardware and parallelization of each component such as a matching processing unit, and to prepare SIMD (Single) which is prepared for speeding up multimedia data processing by a recent processor.
Instruction stream Multip
It is very easy to increase the speed by using the “le Date stream” calculation function.

【0049】また、第1または第2の所定領域の大きさ
は、一定でなくとも、一致度を計算できれば、この大き
さは適宜変更することもできる。
The size of the first or second predetermined area is not constant, but can be changed as long as the degree of coincidence can be calculated.

【0050】[0050]

【発明の効果】以上説明したように本発明によれば、撮
像手段に加わる振動や自車両が走行する道路面の傾きに
よる影響を受けず安定した障害物検出が可能である。
As described above, according to the present invention, a stable obstacle can be detected without being affected by the vibration applied to the image pickup means or the inclination of the road surface on which the vehicle runs.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の障害物検出装置の撮像手段と道路面
との位置関係を説明する図。
FIG. 1 is a view for explaining a positional relationship between an image pickup means of an obstacle detection device of the present invention and a road surface.

【図2】 本発明の障害物検出装置のエピポーラ拘束の
説明図。
FIG. 2 is an explanatory view of an epipolar constraint of the obstacle detection device of the present invention.

【図3】 本発明の障害物検出装置のエピポーラ拘束の
説明図。
FIG. 3 is an explanatory diagram of epipolar constraint of the obstacle detection device of the present invention.

【図4】 本発明の障害物検出装置のエピポーラ拘束の
説明図。
FIG. 4 is an explanatory diagram of epipolar constraint of the obstacle detection device of the present invention.

【図5】 本発明の障害物検出装置の画像変幹部の動作
の説明図。
FIG. 5 is an explanatory diagram of an operation of an image metamorphosis section of the obstacle detection device of the present invention.

【図6】 本発明の障害物検出装置のブロック図。FIG. 6 is a block diagram of an obstacle detection device according to the present invention.

【図7】 本発明の障害物検出装置のマッチング処理部
の動作の説明図。
FIG. 7 is an explanatory diagram of an operation of a matching processing unit of the obstacle detection device of the present invention.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 画像蓄積部 3 画像変換部 4 マッチング処理部 5 障害物検出部 Reference Signs List 1 image input unit 2 image storage unit 3 image conversion unit 4 matching processing unit 5 obstacle detection unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 626 B60R 21/00 626G G01B 11/00 G01B 11/00 H G01C 3/06 G01C 3/06 V G06T 7/00 300 G06T 7/00 300C G08G 1/16 G08G 1/16 C (72)発明者 小野口 一則 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 Fターム(参考) 2F065 AA00 AA02 AA06 CC11 FF05 JJ05 QQ00 QQ08 QQ23 QQ36 QQ38 2F112 AC04 AC06 BA01 CA00 CA05 CA12 FA03 FA09 FA21 FA36 FA38 5B057 AA16 BA02 BA11 CA13 CA16 CB13 CB16 DA11 DB03 DC09 5H180 AA01 CC04 CC07 LL01 LL04 LL08 5L096 AA09 BA04 CA05 GA51 JA06 JA26 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) B60R 21/00 626 B60R 21/00 626G G01B 11/00 G01B 11/00 H G01C 3/06 G01C 3/06 V G06T 7/00 300 G06T 7/00 300C G08G 1/16 G08G 1/16 C (72) Inventor Kazunori Onoguchi 1-1-30 Oyodonaka, Kita-ku, Osaka City, Osaka Toshiba Kansai Branch Office F-term ( (Reference) 2F065 AA00 AA02 AA06 CC11 FF05 JJ05 QQ00 QQ08 QQ23 QQ36 QQ38 2F112 AC04 AC06 BA01 CA00 CA05 CA12 FA03 FA09 FA21 FA36 FA38 5B057 AA16 BA02 BA11 CA13 CA16 CB13 CB16 DA11 DB03 DC09 504 A04 CC04 CC04 JA26

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】自車両に互いの光軸が実質的に平行になる
よう互いに離間した受光部から、この車両の進行方向の
領域を画像として同時に撮像する複数の撮像手段と、 前記撮像手段により撮像された画像を記憶する画像蓄積
部と、 前記画像蓄積部に記憶された第1の撮像手段により撮像
された第1の画像中の領域を、第2の撮像手段により撮
像された第2の画像中の前記領域に対応するエピポーラ
ライン上の所定領域に変換して、この変換された画像を
変換画像として得る画像変換部と、 前記第1の画像もしくは前記第2の画像の一方から変換
された変換画像内の第1の所定領域と、他方の画像内の
第2の所定領域とのマッチングを行う際に、前記第1の
所定領域よりも前記第2の所定領域を大きくし、前記第
2の所定領域内を前記第1の所定領域が移動して前記第
1の所定領域と前記第2の所定領域との一致度が最大と
なる位置をマッチング領域とし、このマッチング領域を
前記第1の領域ごとに検出して、複数のマッチング領域
からなるマッチング画像を得るマッチング処理部と、 前記マッチング処理部により得られた前記マッチング画
像のうち、基準値より低い領域を障害物とする障害物検
出部とを具備することを特徴とする障害物検出装置。
A plurality of image pickup means for simultaneously picking up an image of a region in the traveling direction of the vehicle as an image from a light receiving section which is separated from the own vehicle so that the optical axes thereof are substantially parallel to each other; An image storage unit for storing the captured image; and a second image captured by the second imaging unit, the area in the first image captured by the first imaging unit stored in the image storage unit. An image conversion unit that converts the image into a predetermined region on an epipolar line corresponding to the region in the image, and obtains the converted image as a conversion image; and an image conversion unit that converts the image from one of the first image and the second image. When performing matching between the first predetermined area in the converted image and the second predetermined area in the other image, the second predetermined area is made larger than the first predetermined area, 2 in the first area. A position where the area moves and the degree of coincidence between the first predetermined area and the second predetermined area is maximized is determined as a matching area. An obstacle, comprising: a matching processing unit that obtains a matching image including a region; and an obstacle detection unit that uses a region lower than a reference value as an obstacle in the matching image obtained by the matching processing unit. Object detection device.
【請求項2】前記マッチング処理部は、前記第1の所定
領域と、この第1の所定領域とマッチングが行われてい
る前記第2の所定領域との一致度が一定の閾値以上とな
った場合には、この一致度が一定の閾値となった位置を
一致度が最大の位置であるとし、これ以降のマッチング
を中止することを特徴とする請求項1に記載の障害物検
出装置。
2. The matching processing unit according to claim 1, wherein a degree of coincidence between the first predetermined area and the second predetermined area that has been matched with the first predetermined area is equal to or greater than a predetermined threshold. 2. The obstacle detecting device according to claim 1, wherein in this case, a position where the degree of coincidence is a certain threshold value is determined to be a position where the degree of coincidence is the maximum, and subsequent matching is stopped.
JP2000087470A 2000-02-29 2000-03-27 Obstacle detection device Pending JP2001273488A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2000087470A JP2001273488A (en) 2000-03-27 2000-03-27 Obstacle detection device
US09/779,619 US6801244B2 (en) 2000-02-29 2001-02-09 Obstacle detection apparatus and method
US10/919,285 US7317474B2 (en) 2000-02-29 2004-08-17 Obstacle detection apparatus and method
US10/923,048 US7436430B2 (en) 2000-02-29 2004-08-23 Obstacle detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000087470A JP2001273488A (en) 2000-03-27 2000-03-27 Obstacle detection device

Publications (1)

Publication Number Publication Date
JP2001273488A true JP2001273488A (en) 2001-10-05

Family

ID=18603475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000087470A Pending JP2001273488A (en) 2000-02-29 2000-03-27 Obstacle detection device

Country Status (1)

Country Link
JP (1) JP2001273488A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007518970A (en) * 2003-11-21 2007-07-12 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting occupant and head poses using a stereo detector
JP2014059646A (en) * 2012-09-14 2014-04-03 Toshiba Corp Object detection device and object detection method
WO2020017334A1 (en) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 Vehicle-mounted environment recognition device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007518970A (en) * 2003-11-21 2007-07-12 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting occupant and head poses using a stereo detector
JP2009169957A (en) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc How to test image pairs
JP2009169958A (en) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc Method for detecting vehicle occupants
JP2014059646A (en) * 2012-09-14 2014-04-03 Toshiba Corp Object detection device and object detection method
WO2020017334A1 (en) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 Vehicle-mounted environment recognition device
JP2020012735A (en) * 2018-07-18 2020-01-23 日立オートモティブシステムズ株式会社 In-vehicle environment recognition device
JP7219561B2 (en) 2018-07-18 2023-02-08 日立Astemo株式会社 In-vehicle environment recognition device

Similar Documents

Publication Publication Date Title
CN111882612B (en) A multi-scale vehicle positioning method based on three-dimensional laser detection of lane lines
CN108406731B (en) A positioning device, method and robot based on depth vision
JP3539788B2 (en) Image matching method
JP3868876B2 (en) Obstacle detection apparatus and method
JP6270102B2 (en) Moving surface boundary line recognition apparatus, moving body device control system using the moving surface boundary line recognition method, and moving surface boundary line recognition program
CN110146869A (en) Method, device, electronic device and storage medium for determining coordinate system conversion parameters
CN111830953A (en) Vehicle self-positioning method, device and system
JP2002352225A (en) Obstacle detection apparatus and method
JP2004354257A (en) Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
KR101544021B1 (en) Apparatus and method for generating 3d map
TW202244680A (en) Pose acquisition method, electronic equipment and storage medium
JP2001092048A (en) Stereo camera mounting structure
CN111932627B (en) Marker drawing method and system
CN112700486B (en) Method and device for estimating depth of road surface lane line in image
JP2003304561A (en) Stereo image processing device
JP4256992B2 (en) Obstacle detection device
JP2000293693A (en) Obstacle detection method and device
JP2001243456A (en) Obstacle detection device and obstacle detection method
JP2001273488A (en) Obstacle detection device
JP2007316856A (en) Moving object detection apparatus, computer program, and moving object detection method
JP4106163B2 (en) Obstacle detection apparatus and method
JP4156780B2 (en) Obstacle detection device
JP3253328B2 (en) Distance video input processing method
JP3419968B2 (en) Image recognition device and method
JP2006318061A (en) Apparatus, method, and program for image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050304

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080916