[go: up one dir, main page]

JP2010002985A - Moving vector calculation device, obstacle detection device and moving vector calculation method - Google Patents

Moving vector calculation device, obstacle detection device and moving vector calculation method Download PDF

Info

Publication number
JP2010002985A
JP2010002985A JP2008159264A JP2008159264A JP2010002985A JP 2010002985 A JP2010002985 A JP 2010002985A JP 2008159264 A JP2008159264 A JP 2008159264A JP 2008159264 A JP2008159264 A JP 2008159264A JP 2010002985 A JP2010002985 A JP 2010002985A
Authority
JP
Japan
Prior art keywords
vehicle
tracking target
image
motion vector
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008159264A
Other languages
Japanese (ja)
Inventor
Kenya Takamido
賢哉 高見堂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2008159264A priority Critical patent/JP2010002985A/en
Publication of JP2010002985A publication Critical patent/JP2010002985A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving vector calculation device, an obstacle detection device and a moving vector calculation method for accurately calculating the moving vector of a vehicle even when the vehicle is traveling at a low speed in the case of detecting an obstacle by using only one camera. <P>SOLUTION: This moving vector calculation device is provided with: a tracking target image extraction part 340 for extracting a partial image at a predetermined position as a tracking target image in a vehicle peripheral image picked up by an in-vehicle camera 140; and a moving vector calculation part 380 for calculating the moving vector of the vehicle based on the change of the position of the tracking target image detected by a position detection part 360 in each of the plurality of vehicle peripheral images. Thus, it is possible to calculate the moving vector of the vehicle by image processing without using the detection result of a vehicle speed sensor. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動きベクトル算出装置、障害物検出装置および動きベクトル算出方法に関し、特に、所定時間における車両の画像上の動きベクトルを算出する技術および算出した動きベクトルから障害物を検出する技術に関する。   The present invention relates to a motion vector calculation device, an obstacle detection device, and a motion vector calculation method, and more particularly to a technique for calculating a motion vector on a vehicle image at a predetermined time and a technique for detecting an obstacle from the calculated motion vector.

従来、駐車を行う場合の運転支援システムとして、車両の後方を監視する車載カメラによって撮像された画像を俯瞰画像に変換する機能を備え、異なる2地点において得られた俯瞰画像から障害物を検出し、検出した障害物をモニタに表示するシステムが開発されている。しかしながら、このシステムでは、障害物を検出するためには、車両が静止状態でないことが必要であるとともに、車速センサ、操舵角センサ等を用いて所定時間における車両の動きベクトル(移動量および移動方向)をリアルタイムに正確に計測することが必要となる。   Conventionally, as a driving support system in the case of parking, it has a function of converting an image captured by an in-vehicle camera that monitors the back of a vehicle into an overhead image, and detects an obstacle from overhead images obtained at two different points. A system for displaying the detected obstacle on the monitor has been developed. However, in this system, in order to detect an obstacle, it is necessary that the vehicle is not in a stationary state, and a vehicle motion vector (movement amount and movement direction) at a predetermined time using a vehicle speed sensor, a steering angle sensor, or the like. ) Must be accurately measured in real time.

また、ステレオカメラを用いて障害物を検出する技術も開発されている。しかしながら、ステレオカメラを用いて障害物を検出するには、2台のカメラが必要であるためコストがかかるとともに、2台のカメラで撮像された画像間のマッチング処理が必要となるため、計算量が莫大となる。そこで、1台のカメラのみを用いて障害物を検出する手法が提案されている(例えば、特許文献1を参照)。
特開2008−48094号公報
A technique for detecting an obstacle using a stereo camera has also been developed. However, detecting obstacles using a stereo camera requires two cameras, which is expensive and requires matching processing between images taken by the two cameras. Becomes enormous. Therefore, a technique for detecting an obstacle using only one camera has been proposed (see, for example, Patent Document 1).
JP 2008-48094 A

特許文献1に記載の技術では、時刻(t−Δt)にカメラで車両の後方を撮像した画像を2次元変換して第1の俯瞰画像を生成するとともに、時刻tにカメラで撮像された画像を2次元変換して第2の俯瞰画像を生成する。そして、第1の俯瞰画像を車両の移動量に基づいてシフトし、シフトした第1の俯瞰画像と、第2の俯瞰画像との差分を抽出して差分俯瞰画像を生成し、この差分俯瞰画像より障害物を検出している。   In the technique described in Patent Literature 1, an image obtained by capturing the rear of the vehicle with a camera at time (t−Δt) is two-dimensionally converted to generate a first overhead image, and an image captured with the camera at time t. Is converted into a two-dimensional image to generate a second overhead image. Then, the first overhead image is shifted based on the amount of movement of the vehicle, the difference between the shifted first overhead image and the second overhead image is extracted to generate a differential overhead image, and this difference overhead image More obstacles are detected.

ところで、特許文献1に記載の技術では、車速信号に基づいて、所定時間(Δt)における車両の移動量を求めている。したがって、車速センサに検出誤差が生じる(すなわち、車両の移動量に誤差が生じる)と、障害物を検出するために生成する差分俯瞰画像の元となる第1の俯瞰画像にも誤差が生じ、実際には障害物でないものを障害物と誤って検出してしまう場合がある。特に駐車を行う場合等の低速走行時には、タイヤの回転数が少なくなり車速センサの検出精度が低下するため、車速センサの検出値に誤差が生じやすく、実際には障害物でないものを障害物と誤って検出しやすくなるという問題がある。   By the way, in the technique described in Patent Document 1, the amount of movement of the vehicle in a predetermined time (Δt) is obtained based on the vehicle speed signal. Therefore, when a detection error occurs in the vehicle speed sensor (that is, an error occurs in the movement amount of the vehicle), an error also occurs in the first overhead image that is the basis of the differential overhead image that is generated in order to detect an obstacle, In some cases, an object that is not an obstacle is erroneously detected as an obstacle. Especially when driving at low speeds, such as when parking, the rotation speed of the tire decreases and the detection accuracy of the vehicle speed sensor decreases, so errors are likely to occur in the detection value of the vehicle speed sensor. There is a problem that it is easy to detect by mistake.

本発明は、このような問題を解決するために成されたものであり、1台のカメラのみを用いて障害物を検出する場合、車両が低速走行しているときでも、所定時間における車両の動きベクトル(移動量および移動方向)を正確に算出できるようにすることを目的とする。   The present invention has been made to solve such a problem. When an obstacle is detected using only one camera, the vehicle at a predetermined time can be detected even when the vehicle is traveling at a low speed. It is an object to make it possible to accurately calculate a motion vector (movement amount and movement direction).

上記した課題を解決するために、本発明では、車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出し、撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれから当該抽出したトラッキング対象画像の位置を検出し、その検出したトラッキング対象画像の位置の変化に基づいて、車両の動きベクトルを算出するようにしている。   In order to solve the above-described problems, in the present invention, a partial image at a predetermined position in a vehicle surrounding image captured by an imaging device installed in a vehicle is extracted as a tracking target image and sequentially captured by the imaging device. Further, the position of the extracted tracking target image is detected from each of the plurality of vehicle surrounding images, and the motion vector of the vehicle is calculated based on the change in the position of the detected tracking target image.

上記のように構成した本発明によれば、撮像装置により逐次撮像された車両周囲画像に基づいて、所定時間における車両の動きベクトルが算出されるため、車速センサの検出結果を使用しなくても車両の動きベクトルを算出することができる。これにより、車速センサの検出精度が低下する車両の低速走行時でも、車両の動きベクトルを正確に算出することができる。よって、車両が低速走行している場合でも、正確に算出した動きベクトルに基づいて正確な差分画像を生成することができ、実際には障害物でないものを障害物と誤って検出することを確実に防止することができる。   According to the present invention configured as described above, since the motion vector of the vehicle at a predetermined time is calculated based on the vehicle surrounding image sequentially captured by the imaging device, it is not necessary to use the detection result of the vehicle speed sensor. A motion vector of the vehicle can be calculated. Thereby, even when the vehicle travels at a low speed where the detection accuracy of the vehicle speed sensor is lowered, the motion vector of the vehicle can be accurately calculated. Therefore, even when the vehicle is traveling at a low speed, an accurate difference image can be generated based on the accurately calculated motion vector, and it is ensured that an object that is not actually an obstacle is erroneously detected as an obstacle. Can be prevented.

以下、本発明の一実施形態について図面に基づいて説明する。図1は、本実施形態による障害物検出装置100の構成例を示すブロック図である。障害物検出装置100は、車両に搭載される。障害物検出装置100は、車載カメラ140(本願発明の撮像装置に対応)およびモニタ160と車載ネットワークを介して接続されている。障害物検出装置100は、図1に示すように、動きベクトル算出装置200、差分画像生成部220、障害物検出部240、表示画面生成部260、出力バッファ270および表示制御部280を備えて構成されている。なお、車載カメラ140は、所定の撮像時間間隔Δt(例えば、1/30秒)で車両の後方周辺を逐次撮像する。また、Δtの前の方のタイミングをt、後の方のタイミングを(t+Δt)で表すものとする。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of an obstacle detection apparatus 100 according to the present embodiment. Obstacle detection device 100 is mounted on a vehicle. The obstacle detection apparatus 100 is connected to an in-vehicle camera 140 (corresponding to the imaging apparatus of the present invention) and a monitor 160 via an in-vehicle network. As shown in FIG. 1, the obstacle detection device 100 includes a motion vector calculation device 200, a difference image generation unit 220, an obstacle detection unit 240, a display screen generation unit 260, an output buffer 270, and a display control unit 280. Has been. The in-vehicle camera 140 sequentially captures the rear periphery of the vehicle at a predetermined imaging time interval Δt (for example, 1/30 seconds). In addition, a timing earlier than Δt is represented by t, and a timing later is represented by (t + Δt).

動きベクトル算出装置200は、車載カメラ140により撮像された撮像画像(以下、「車両周囲画像」という)を用いて、撮像時間間隔Δtにおける車両周囲画像から車両の動きベクトルを算出する。動きベクトル算出装置200は、図1に示すように、撮像画像取得部300、歪補正部320、入力バッファ330、トラッキング対象画像抽出部340、位置検出部360および動きベクトル算出部380を備えて構成されている。   The motion vector calculation device 200 uses a captured image captured by the in-vehicle camera 140 (hereinafter referred to as “vehicle surrounding image”) to calculate a vehicle motion vector from the vehicle surrounding image at the imaging time interval Δt. As shown in FIG. 1, the motion vector calculation apparatus 200 includes a captured image acquisition unit 300, a distortion correction unit 320, an input buffer 330, a tracking target image extraction unit 340, a position detection unit 360, and a motion vector calculation unit 380. Has been.

撮像画像取得部300は、車載カメラ140によって撮像された車両周囲画像を逐次取得し、歪補正部320に逐次出力する。歪補正部320は、撮像画像取得部300から取得した車両周囲画像について、各画素の値を補正して車載カメラ140のレンズ歪による影響を補正する。具体的には、歪補正部320は、車載カメラ140によって撮像された車両周囲画像のある画素が補正後の車両周囲画像のどの画素に対応するかを記載したマッピングテーブルを用いて、車両周囲画像における各画素の値を補正する。歪補正部320は、車両周囲画像に対して補正処理を行った後に、補正した車両周囲画像を入力バッファ330に逐次記憶させる。   The captured image acquisition unit 300 sequentially acquires vehicle surrounding images captured by the in-vehicle camera 140 and sequentially outputs them to the distortion correction unit 320. The distortion correction unit 320 corrects the influence of lens distortion of the in-vehicle camera 140 by correcting the value of each pixel in the vehicle surrounding image acquired from the captured image acquisition unit 300. Specifically, the distortion correction unit 320 uses a mapping table that describes which pixel of the vehicle surrounding image captured by the in-vehicle camera 140 corresponds to which pixel of the vehicle surrounding image after correction. The value of each pixel in is corrected. The distortion correction unit 320 performs correction processing on the vehicle surrounding image, and then sequentially stores the corrected vehicle surrounding image in the input buffer 330.

トラッキング対象画像抽出部340は、入力バッファ330に記憶された車両周囲画像を読み出して、その読み出した車両周囲画像から予め定めた3つの位置の部分画像(例えば、16×16画素からなる部分画像)を3つのトラッキング対象画像として抽出する。トラッキング対象画像抽出部340は、入力バッファ330に最初に車両周囲画像が記憶されたとき、その記憶された車両周囲画像から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として抽出する。また、トラッキング対象画像抽出部340は、後述する消失点算出部400が消失点を算出することができなかったとき、最新の車両周囲画像上から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として新たに抽出する。また、トラッキング対象画像抽出部340は、消失点算出部400が消失点を算出することができた場合でも、算出した消失点を通らない延長線が1つでも存在するときには、その消失点を通らない延長線を形成するトラッキング対象画像に替えて、最新の車両周囲画像から予め定めた1つの位置の部分画像をトラッキング対象画像として抽出する。トラッキング対象画像抽出部340は、抽出したトラッキング対象画像を位置検出部360および動きベクトル算出部380に出力する。なお、消失点や延長線の詳細は後述する。   The tracking target image extraction unit 340 reads the vehicle surrounding image stored in the input buffer 330, and partial images at three positions determined in advance from the read vehicle surrounding image (for example, a partial image including 16 × 16 pixels). Are extracted as three tracking target images. When a vehicle surrounding image is first stored in the input buffer 330, the tracking target image extracting unit 340 extracts partial images at three predetermined positions from the stored vehicle surrounding image as three tracking target images. In addition, the tracking target image extraction unit 340, when the vanishing point calculation unit 400 (to be described later) cannot calculate the vanishing point, performs tracking of the partial images at three predetermined positions from the latest vehicle surrounding image. A new target image is extracted. Further, even when the vanishing point calculating unit 400 can calculate the vanishing point, the tracking target image extracting unit 340 passes through the vanishing point when there is at least one extension line that does not pass through the calculated vanishing point. Instead of the tracking target image that forms a non-extended line, a partial image at one predetermined position is extracted as the tracking target image from the latest vehicle surrounding image. The tracking target image extraction unit 340 outputs the extracted tracking target image to the position detection unit 360 and the motion vector calculation unit 380. Details of vanishing points and extension lines will be described later.

位置検出部360は、入力バッファ330に記憶された車両周囲画像を逐次読み出して、読み出した車両周囲画像上のそれぞれにおいて、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像の位置を検出する。具体的には、位置検出部360は、入力バッファ330から読み出した車両周囲画像から、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像と同一の部分画像を探し出して、その部分画像の車両周囲画像上における位置座標をトラッキング対象画像の位置として検出する。ここで、トラッキング対象画像と同一か否かの判定は、例えば、色分布の特性や輝度の値などの画像の特徴量を用いた相関演算により行う。実際には、位置検出部360は、類似度が一定値以上の部分画像を同一であるとみなしてトラッキング対象画像の位置を検出する。位置検出部360は、入力バッファ330から読み出した車両周囲画像上における3つのトラッキング対象画像の位置を検出する度に、検出した3つのトラッキング対象画像の位置を動きベクトル算出部380に出力する。   The position detection unit 360 sequentially reads the vehicle surrounding images stored in the input buffer 330 and detects the positions of the three tracking target images output from the tracking target image extraction unit 340 on each of the read vehicle surrounding images. To do. Specifically, the position detection unit 360 searches for the same partial images as the three tracking target images output from the tracking target image extraction unit 340 from the vehicle surrounding image read from the input buffer 330, and Position coordinates on the vehicle surrounding image are detected as the position of the tracking target image. Here, the determination as to whether or not the image is the same as the tracking target image is performed by, for example, correlation calculation using image feature amounts such as color distribution characteristics and luminance values. Actually, the position detection unit 360 detects the position of the tracking target image by regarding the partial images having a similarity equal to or greater than a certain value as the same. Each time the position detection unit 360 detects the positions of the three tracking target images on the vehicle surrounding image read from the input buffer 330, the position detection unit 360 outputs the detected positions of the three tracking target images to the motion vector calculation unit 380.

動きベクトル算出部380は、撮像タイミングが連続する撮像時刻tおよび撮像時刻(t+Δt)で車載カメラ140によって撮像された車両周囲画像において位置検出部360により検出された3つのトラッキング対象画像の位置の変化に基づいて、撮像時間間隔Δtにおける車両の動きベクトルを算出する。撮像時刻tから撮像時刻(t+Δt)までの間に車両が移動していれば、撮像時刻tでのトラッキング対象画像の検出位置と、撮像時刻(t+Δt)でのトラッキング対象画像の検出位置とに差が生じる。動きベクトル算出部380は、その差を動きベクトルとして検出する。そのための具体的な構成として、動きベクトル算出部380は、消失点算出部400、俯瞰画像生成部420、第2の位置検出部440および算出部460を備えて構成されている。   The motion vector calculation unit 380 changes the positions of the three tracking target images detected by the position detection unit 360 in the vehicle surrounding image captured by the in-vehicle camera 140 at the imaging time t and the imaging time (t + Δt) at which the imaging timing continues. Based on the above, the motion vector of the vehicle at the imaging time interval Δt is calculated. If the vehicle is moving between the imaging time t and the imaging time (t + Δt), there is a difference between the detection position of the tracking target image at the imaging time t and the detection position of the tracking target image at the imaging time (t + Δt). Occurs. The motion vector calculation unit 380 detects the difference as a motion vector. As a specific configuration therefor, the motion vector calculation unit 380 includes a vanishing point calculation unit 400, an overhead image generation unit 420, a second position detection unit 440, and a calculation unit 460.

消失点算出部400は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された車両周囲画像のそれぞれにおいて位置検出部360により検出された3つのトラッキング対象画像の位置であって同じトラッキング対象画像どうしの位置を結ぶ線の延長線をそれぞれ求め、撮像時刻(t+Δt)で撮像された車両周囲画像上においてその求めた延長線が交わる消失点の算出を試みる。消失点算出部400は、消失点を算出することができた場合(3つの延長線が1点で交わった場合)、その旨を俯瞰画像生成部420に通知する。また、消失点算出部400は、消失点を算出することができた場合(2つの延長線が1点で交わった場合)、その旨およびどのトラッキング対象画像の延長線が交わったかを俯瞰画像生成部420に通知する。   The vanishing point calculation unit 400 is the same tracking for the positions of the three tracking target images detected by the position detection unit 360 in each of the vehicle surrounding images captured by the in-vehicle camera 140 at the imaging time t and the imaging time (t + Δt). An extension line of a line connecting the positions of the target images is obtained, and an attempt is made to calculate a vanishing point where the obtained extension lines intersect on the vehicle surrounding image captured at the imaging time (t + Δt). When the vanishing point can be calculated (when three extension lines intersect at one point), the vanishing point calculation unit 400 notifies the overhead image generation unit 420 to that effect. In addition, when the vanishing point can be calculated (when two extension lines intersect at one point), the vanishing point calculation unit 400 generates a bird's-eye view image to that effect and which extension line of the tracking target image intersects. Notification to the unit 420.

また、消失点算出部400は、消失点を算出することができなかった場合、その旨をトラッキング対象画像抽出部340に通知する。トラッキング対象画像抽出部340は、消失点算出部400から消失点を算出することができなかった旨の通知を受けて、入力バッファ330から撮像時刻(t+Δt)で撮像された車両周囲画像を読み出す。そして、トラッキング対象画像抽出部340は、その読み出した車両周囲画像から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として新たに抽出して位置検出部360に出力する。位置検出部360は、それ以降入力バッファ330に記憶される車両周囲画像上において、トラッキング対象画像抽出部340から新たに出力された3つのトラッキング対象画像の位置を検出して動きベクトル算出部380に出力する。   In addition, when the vanishing point cannot be calculated, the vanishing point calculation unit 400 notifies the tracking target image extraction unit 340 to that effect. In response to the notification that the vanishing point cannot be calculated from the vanishing point calculation unit 400, the tracking target image extraction unit 340 reads the vehicle surrounding image captured at the imaging time (t + Δt) from the input buffer 330. Then, the tracking target image extraction unit 340 newly extracts partial images at three predetermined positions from the read vehicle surrounding image as three tracking target images, and outputs them to the position detection unit 360. Thereafter, the position detection unit 360 detects the positions of the three tracking target images newly output from the tracking target image extraction unit 340 on the vehicle surrounding image stored in the input buffer 330, and sends it to the motion vector calculation unit 380. Output.

消失点算出部400は、消失点を算出することができた場合でも、算出した消失点を通らない延長線が1つでも存在するとき(本実施形態では、3つの延長線のうち1つの延長線のみが消失点を通らないとき)には、その消失点を通らない延長線を形成するトラッキング対象画像を特定する情報(以下、「トラッキング対象画像特定情報」という)をトラッキング対象画像抽出部340に出力する。このトラッキング対象画像特定情報を取得したトラッキング対象画像抽出部340は、入力バッファ330から撮像時刻(t+Δt)で撮像された車両周囲画像を読み出す。そして、トラッキング対象画像抽出部340は、取得したトラッキング対象画像特定情報により示されるトラッキング対象画像に替えて、入力バッファ330から読み出した車両周囲画像から予め定めた1つの位置の部分画像を1つのトラッキング対象画像として新たに抽出して位置検出部360に出力する。位置検出部360は、それ以降入力バッファ330に記憶される車両周囲画像上において、新たに抽出された1つのトラッキング対象画像を含む3つのトラッキング対象画像の位置を検出して動きベクトル算出部380に出力する。   Even if the vanishing point calculation unit 400 can calculate the vanishing point, when there is at least one extension line that does not pass through the calculated vanishing point (in the present embodiment, one of the three extension lines is extended). When only the line does not pass through the vanishing point), information for specifying the tracking target image forming the extension line that does not pass through the vanishing point (hereinafter referred to as “tracking target image specifying information”) is used as the tracking target image extracting unit 340. Output to. The tracking target image extraction unit 340 that has acquired the tracking target image specifying information reads the vehicle surrounding image captured at the imaging time (t + Δt) from the input buffer 330. Then, the tracking target image extraction unit 340 replaces the tracking target image indicated by the acquired tracking target image identification information with one partial image at a predetermined position from the vehicle surrounding image read from the input buffer 330 as one tracking. A new target image is extracted and output to the position detection unit 360. Thereafter, the position detection unit 360 detects the positions of three tracking target images including one newly extracted tracking target image on the vehicle surrounding image stored in the input buffer 330, and sends it to the motion vector calculation unit 380. Output.

俯瞰画像生成部420は、消失点を算出することができた旨の通知を消失点算出部400から受けて、撮像時刻tおよび撮像時刻(t+Δt)の車両周囲画像を入力バッファ330から読み出す。俯瞰画像生成部420は、車載カメラ140により撮像された車両周囲画像の画素と車両の後方周辺を上方の仮想視点から見た車両周囲俯瞰画像の画素との対応関係を記載した視点変換情報を用いて、読み出した車両周囲画像を視点変換処理することによって、車両の上方の仮想視点から見た車両周囲俯瞰画像をそれぞれ生成する。俯瞰画像生成部420は、その生成した車両周囲俯瞰画像を第2の位置検出部440および差分画像生成部220に出力する。   The bird's-eye view image generation unit 420 receives a notification that the vanishing point can be calculated from the vanishing point calculation unit 400, and reads the vehicle surrounding image at the imaging time t and the imaging time (t + Δt) from the input buffer 330. The bird's-eye view image generation unit 420 uses viewpoint conversion information that describes the correspondence between the pixels of the vehicle surrounding image captured by the in-vehicle camera 140 and the pixels of the vehicle surrounding bird's-eye view image of the rear periphery of the vehicle viewed from the upper virtual viewpoint. Then, by performing viewpoint conversion processing on the read vehicle surrounding image, a vehicle surrounding overhead image viewed from a virtual viewpoint above the vehicle is generated. The overhead image generation unit 420 outputs the generated vehicle surroundings overhead view image to the second position detection unit 440 and the difference image generation unit 220.

第2の位置検出部440は、俯瞰画像生成部420から出力された撮像時刻t、撮像時刻(t+Δt)の車両周囲俯瞰画像上のそれぞれにおいて、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像の位置を検出する。具体的には、第2の位置検出部440は、俯瞰画像生成部420から出力された車両周囲俯瞰画像から、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像を視点変換処理したものと同一の部分画像を探し出して、その部分画像の車両周囲俯瞰画像上における位置座標をトラッキング対象画像の位置として検出する。第2の位置検出部440は、検出した3つのトラッキング対象画像の位置を算出部460に出力する。   The second position detection unit 440 includes the three tracking outputs output from the tracking target image extraction unit 340 at the imaging time t output from the overhead image generation unit 420 and the overhead view image around the vehicle at the imaging time (t + Δt). The position of the target image is detected. Specifically, the second position detection unit 440 performs viewpoint conversion processing on the three tracking target images output from the tracking target image extraction unit 340 from the vehicle surroundings overhead view image output from the overhead view image generation unit 420. The same partial image is searched for, and the position coordinates of the partial image on the vehicle surroundings overhead image are detected as the position of the tracking target image. The second position detection unit 440 outputs the detected positions of the three tracking target images to the calculation unit 460.

算出部460は、第2の位置検出部440から出力されたトラッキング対象画像の位置を取得する。そして、算出部460は、第2の位置検出部440から今回(撮像時刻t+Δt)取得した車両周囲俯瞰画像上におけるトラッキング対象画像の位置と前回(撮像時刻t)取得した車両周囲俯瞰画像上におけるトラッキング対象画像の位置とから、当該トラッキング対象画像の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する。算出部460は、算出した撮像時間間隔Δtにおける車両の動きベクトルを差分画像生成部220に出力する。   The calculation unit 460 acquires the position of the tracking target image output from the second position detection unit 440. Then, the calculation unit 460 tracks the position of the tracking target image on the vehicle surroundings overhead image acquired this time (imaging time t + Δt) from the second position detection unit 440 and the tracking on the vehicle surroundings overhead image acquired previously (imaging time t). From the position of the target image, a change in the position of the tracking target image is calculated as a vehicle motion vector in the imaging time interval Δt. The calculation unit 460 outputs the motion vector of the vehicle at the calculated imaging time interval Δt to the difference image generation unit 220.

次に、車載カメラ140により連続撮像された車両周囲画像から所定時間における車両の動きベクトルを算出する動作例について図2を参照しながら説明する。図2(a)は、車載カメラ140によりある撮像タイミング(撮像時刻t)で撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示す図である。図2(a)において、502、504および506は、車載カメラ140により撮像された車両周囲画像からトラッキング対象画像抽出部340が抽出した3つのトラッキング対象画像である。この3つのトラッキング対象画像の位置は、道路が写っている可能性が高く、消失点を求めることが可能な位置である。したがって、3つのトラッキング対象画像の位置は、車両周囲画像上において、水平線より下側、かつ、同じ水平ライン上で等間隔に位置することになる。なお、道路上の画像は見た目に大きな特徴はないが、隣接画素間の値に差があるので、特徴量として利用することができる。   Next, an example of an operation for calculating the motion vector of the vehicle at a predetermined time from the vehicle surrounding images continuously captured by the in-vehicle camera 140 will be described with reference to FIG. FIG. 2A is a diagram illustrating a vehicle surrounding image (here, it is assumed that correction processing by the distortion correction unit 320 has already been performed) captured by the in-vehicle camera 140 at a certain imaging timing (imaging time t). is there. In FIG. 2A, 502, 504 and 506 are three tracking target images extracted by the tracking target image extracting unit 340 from the vehicle surrounding image captured by the in-vehicle camera 140. The positions of the three tracking target images are positions where a road is highly likely to be captured and the vanishing point can be obtained. Therefore, the positions of the three tracking target images are positioned at equal intervals below the horizontal line and on the same horizontal line on the vehicle surrounding image. Although the image on the road does not have a large feature in appearance, it can be used as a feature amount because there is a difference in values between adjacent pixels.

図2(b)は、図2(a)の撮像タイミングより後の撮像タイミング(撮像時刻(t+Δt))で車載カメラ140により撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示している。図2(b)において、502(Δt)、504(Δt)および506(Δt)は、図2(a)の撮像タイミングよりΔt後の撮像タイミングで撮像された車両周囲画像から、図2(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像502、504、506と同一であると位置検出部360が判断した部分画像(以下、移動後のトラッキング対象画像という)である。なお、図2(b)には、図2(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像502、504、506を重ねて表示している。すなわち、撮像時刻tから撮像時刻(t+Δt)までの時間Δtの間に車両が後方に進むことにより、図2(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像502、504、506の位置が移動後のトラッキング対象画像502(Δt)、504(Δt)、506(Δt)の位置まで移動していることがわかる。   2B shows a vehicle surrounding image (here, correction processing by the distortion correction unit 320) captured by the in-vehicle camera 140 at an imaging timing (imaging time (t + Δt)) after the imaging timing of FIG. It has already been done). In FIG. 2B, 502 (Δt), 504 (Δt) and 506 (Δt) are obtained from the vehicle surrounding image captured at the imaging timing after Δt from the imaging timing in FIG. ) Is a partial image (hereinafter referred to as a tracking target image after movement) determined by the position detection unit 360 to be the same as the three tracking target images 502, 504, and 506 extracted by the tracking target image extraction unit 340. In FIG. 2B, the three tracking target images 502, 504, and 506 extracted by the tracking target image extraction unit 340 in FIG. That is, the three tracking target images 502 and 504 extracted by the tracking target image extraction unit 340 in FIG. 2A by the vehicle traveling backward during the time Δt from the imaging time t to the imaging time (t + Δt). , 506 have moved to the positions of the tracking target images 502 (Δt), 504 (Δt), and 506 (Δt) after the movement.

図2(c)には、消失点算出部400により算出することができた消失点530を示している。具体的には、消失点算出部400は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図2(a)、(b)の車両周囲画像のそれぞれにおいて位置検出部360により検出されたトラッキング対象画像502、504、506の位置であって、同じトラッキング対象画像502、504、506どうしの位置(すなわち、トラッキング対象画像502の位置と移動後のトラッキング対象画像502(Δt)の位置、トラッキング対象画像504と移動後のトラッキング対象画像504(Δt)の位置、トラッキング対象画像506の位置と移動後のトラッキング対象画像506(Δt)の位置)を結ぶ3本の延長線520、522、524をそれぞれ求め、その求めた延長線520、522、524が交わる点を消失点530として算出する。   FIG. 2C shows a vanishing point 530 that can be calculated by the vanishing point calculation unit 400. Specifically, the vanishing point calculation unit 400 is detected by the position detection unit 360 in each of the vehicle surrounding images in FIGS. 2A and 2B captured at the imaging time t and the imaging time (t + Δt) by the in-vehicle camera 140. The positions of the detected tracking target images 502, 504, and 506, and the positions of the same tracking target images 502, 504, and 506 (that is, the position of the tracking target image 502 and the tracking target image 502 (Δt) after the movement). Three extended lines 520 and 522 connecting the position, the position of the tracking target image 504 and the tracking target image 504 (Δt) after movement, and the position of the tracking target image 506 and the position of the tracking target image 506 (Δt) after movement. 524, and the points where the obtained extension lines 520, 522, 524 intersect Calculated as runs 530.

この後の動きベクトル算出部380の動作として、俯瞰画像生成部420は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図2(a)、(b)の車両周囲画像をそれぞれ視点変換処理することによって、車両の上方の仮想視点から見た車両周囲俯瞰画像をそれぞれ生成する。その後、第2の位置検出部440は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて、トラッキング対象画像502、504、506および移動後のトラッキング対象画像502(Δt)、504(Δt)、506(Δt)の位置を検出する。最後に、算出部460は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて第2の位置検出部440により検出されたトラッキング対象画像502、504、506および移動後のトラッキング対象画像502(Δt)、504(Δt)、506(Δt)の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する。   As an operation of the motion vector calculation unit 380 thereafter, the overhead image generation unit 420 uses the vehicle surrounding images in FIGS. 2A and 2B captured by the in-vehicle camera 140 at the imaging time t and the imaging time (t + Δt). Each viewpoint conversion process generates a vehicle surroundings overhead image viewed from a virtual viewpoint above the vehicle. Thereafter, the second position detection unit 440 includes the tracking target images 502, 504, and 506 and the tracking target image 502 after movement (Δt) on each of the two vehicle surrounding overhead images generated by the overhead image generation unit 420. , 504 (Δt) and 506 (Δt) are detected. Finally, the calculation unit 460 includes the tracking target images 502, 504, and 506 detected by the second position detection unit 440 on the two vehicle surroundings overhead view images generated by the overhead view image generation unit 420 and the moved images. Changes in the positions of the tracking target images 502 (Δt), 504 (Δt), and 506 (Δt) are calculated as vehicle motion vectors in the imaging time interval Δt.

図2(d)には、算出部460により算出された撮像時間間隔Δtにおける車両の動きベクトル550、552、554(トラッキング対象画像502、504、506にそれぞれ対応)を示している。図2(c)に示すように、消失点算出部400により算出された消失点530を延長線520、522、524が全て通る場合には、その消失点530を通る延長線520、522、524を形成するトラッキング対象画像502、504、506の車両周囲俯瞰画像上における位置の変化に基づいて算出された車両の動きベクトル550、552、554は大きさ、方向ともに一致する。   FIG. 2D shows vehicle motion vectors 550, 552, and 554 (corresponding to the tracking target images 502, 504, and 506, respectively) at the imaging time interval Δt calculated by the calculation unit 460. As shown in FIG. 2 (c), when all the extension lines 520, 522, 524 pass through the vanishing point 530 calculated by the vanishing point calculation unit 400, the extension lines 520, 522, 524 passing through the vanishing point 530. The vehicle motion vectors 550, 552, and 554 calculated based on the change in the position of the tracking target images 502, 504, and 506 on the vehicle surroundings bird's-eye view image that coincide with each other have the same size and direction.

次に、車載カメラ140により連続撮像された車両周囲画像から所定時間における車両の動きベクトルを算出する他の動作例について図3を参照しながら説明する。図3(a)は、車載カメラ140によりある撮像タイミング(撮像時刻t)で撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示す図である。図3(a)において、602、604および606は、車載カメラ140により撮像された車両周囲画像からトラッキング対象画像抽出部340が抽出した3つのトラッキング対象画像である。   Next, another operation example for calculating the motion vector of the vehicle at a predetermined time from the vehicle surrounding images continuously captured by the in-vehicle camera 140 will be described with reference to FIG. FIG. 3A is a diagram illustrating a vehicle surrounding image (here, it is assumed that correction processing by the distortion correction unit 320 has already been performed) captured at a certain imaging timing (imaging time t) by the in-vehicle camera 140. is there. In FIG. 3A, reference numerals 602, 604, and 606 denote three tracking target images extracted by the tracking target image extraction unit 340 from the vehicle surrounding image captured by the in-vehicle camera 140.

図3(b)は、図3(a)の撮像タイミングより後の撮像タイミング(撮像時刻(t+Δt))で車載カメラ140により撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示している。図3(b)において、602(Δt)、604(Δt)および606(Δt)は、図2(a)の撮像タイミングよりΔt後の撮像タイミングで撮像された車両周囲画像から、図3(a)においてトラッキング対象画像抽出部340に抽出された3つのトラッキング対象画像602、604、606と同一であると位置検出部360が判断した部分画像(移動後のトラッキング対象画像)である。なお、図3(b)には、図3(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像602、604、606を重ねて表示している。すなわち、撮像時刻tから撮像時刻(t+Δt)までの時間Δtの間に、車両が後方に進むことにより、図3(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像602、604、606の位置が移動後のトラッキング対象画像602(Δt)、604(Δt)、606(Δt)の位置まで移動していることがわかる。   FIG. 3B shows a vehicle surrounding image (here, correction processing by the distortion correction unit 320) captured by the in-vehicle camera 140 at an imaging timing (imaging time (t + Δt)) after the imaging timing of FIG. It has already been done). In FIG. 3B, 602 (Δt), 604 (Δt), and 606 (Δt) are obtained from the vehicle surrounding image captured at the imaging timing after Δt from the imaging timing in FIG. ) Is a partial image (tracking target image after movement) determined by the position detection unit 360 to be the same as the three tracking target images 602, 604, and 606 extracted by the tracking target image extraction unit 340. In FIG. 3B, the three tracking target images 602, 604, and 606 extracted by the tracking target image extraction unit 340 in FIG. That is, the three tracking target images 602 extracted by the tracking target image extraction unit 340 in FIG. 3A when the vehicle travels backward during the time Δt from the imaging time t to the imaging time (t + Δt), It can be seen that the positions 604 and 606 have moved to the positions of the tracking target images 602 (Δt), 604 (Δt), and 606 (Δt) after the movement.

ただし、トラッキング対象画像606の位置だけは、図2(b)に示す例とは異なり、図3(b)の車両周囲画像に新たに写りこんできた影610の影響を受けて影610を避ける位置に移動している。これは、トラッキング対象画像抽出部340から出力されたトラッキング対象画像に該当する道路の位置が影610の範囲に含まれ、影610の影響を受けてその道路位置の画素値が大きく変わってしまうため、同じ道路位置が相関演算で抽出されなくなってしまうからである。すなわち、車両周囲画像から影610を除いた範囲内でトラッキング対象画像と同一の部分画像が探し出され、その部分画像の車両周囲画像上における位置座標がトラッキング対象画像の位置として検出されてしまう。   However, only the position of the tracking target image 606 is different from the example shown in FIG. 2B, and the shadow 610 is avoided due to the influence of the shadow 610 newly reflected in the vehicle surrounding image of FIG. Moved to position. This is because the position of the road corresponding to the tracking target image output from the tracking target image extraction unit 340 is included in the range of the shadow 610, and the pixel value of the road position greatly changes due to the influence of the shadow 610. This is because the same road position is not extracted by the correlation calculation. That is, a partial image that is the same as the tracking target image is found within a range excluding the shadow 610 from the vehicle surrounding image, and the position coordinates of the partial image on the vehicle surrounding image are detected as the position of the tracking target image.

図3(c)には、消失点算出部400により算出することができた消失点630を示している。具体的には、消失点算出部400は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図3(a)、(b)の車両周囲画像のそれぞれにおいて位置検出部360により検出されたトラッキング対象画像602、604、606の位置であって、同じトラッキング対象画像602、604、606どうしの位置(すなわち、トラッキング対象画像602の位置と移動後のトラッキング対象画像602(Δt)の位置、トラッキング対象画像604と移動後のトラッキング対象画像604(Δt)の位置、トラッキング対象画像606の位置と移動後のトラッキング対象画像606(Δt)の位置)を結ぶ3本の延長線620、622、624をそれぞれ求め、その求めた延長線620、622、624のうち2本の延長線620、622が交わる点を消失点630として算出する。ここで、トラッキング対象画像606、606(Δt)の位置から形成される延長線624だけは、図3(b)の車両周囲画像に写りこんできた影610の影響により消失点630を通らない。この場合、トラッキング対象画像抽出部340は、撮像時刻tで撮像された車両周囲画像から抽出されたトラッキング対象画像606に替えて、撮像時刻(t+Δt)で撮像された車両周囲画像上において同じ位置から新たなトラッキング対象画像を抽出する。   FIG. 3C shows the vanishing point 630 that can be calculated by the vanishing point calculation unit 400. Specifically, the vanishing point calculator 400 uses the position detector 360 in each of the vehicle surrounding images in FIGS. 3A and 3B captured at the imaging time t and the imaging time (t + Δt) by the in-vehicle camera 140. The positions of the detected tracking target images 602, 604, and 606, and the positions of the same tracking target images 602, 604, and 606 (that is, the position of the tracking target image 602 and the tracking target image 602 (Δt) after the movement). Three extension lines 620 and 622 that connect the position, the position of the tracking target image 604 and the tracking target image 604 (Δt) after movement, and the position of the tracking target image 606 and the position of the tracking target image 606 (Δt) after movement. , 624, and two of the obtained extension lines 620, 622, 624 Calculating a point at which the long line 620, 622 intersect the vanishing point 630. Here, only the extension line 624 formed from the positions of the tracking target images 606 and 606 (Δt) does not pass through the vanishing point 630 due to the influence of the shadow 610 reflected in the vehicle surrounding image of FIG. In this case, the tracking target image extraction unit 340 replaces the tracking target image 606 extracted from the vehicle surrounding image captured at the imaging time t with the same position on the vehicle surrounding image captured at the imaging time (t + Δt). A new tracking target image is extracted.

この後の動きベクトル算出部380の動作として、俯瞰画像生成部420は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図3(a)、(b)の車両周囲画像をそれぞれ視点変換処理することによって、車両の上方の仮想視点から見た2つの車両周囲俯瞰画像をそれぞれ生成する。その後、第2の位置検出部440は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて、消失点630を通る延長線602、622を形成するトラッキング対象画像602、604および移動後のトラッキング対象画像602(Δt)、604(Δt)の位置を検出する。最後に、算出部460は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて第2の位置検出部440により検出されたトラッキング対象画像602、604および移動後のトラッキング対象画像602(Δt)、604(Δt)の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する。   As an operation of the motion vector calculation unit 380 thereafter, the overhead image generation unit 420 uses the vehicle surrounding images in FIGS. 3A and 3B captured by the in-vehicle camera 140 at the imaging time t and the imaging time (t + Δt). Each viewpoint conversion process generates two vehicle surrounding overhead images viewed from a virtual viewpoint above the vehicle. Thereafter, the second position detection unit 440 forms tracking target images 602 and 604 that form extension lines 602 and 622 that pass through the vanishing point 630 on the two vehicle surroundings overhead images generated by the overhead image generation unit 420, respectively. In addition, the positions of the tracking target images 602 (Δt) and 604 (Δt) after the movement are detected. Finally, the calculation unit 460 includes the tracking target images 602 and 604 detected by the second position detection unit 440 and the tracking target after movement on each of the two vehicle surrounding overhead images generated by the overhead image generation unit 420. Changes in the positions of the images 602 (Δt) and 604 (Δt) are calculated as vehicle motion vectors in the imaging time interval Δt.

図3(d)には、算出部460により算出された撮像時間間隔Δtにおける車両の動きベクトル650、652(トラッキング対象画像602、604にそれぞれ対応)を示している。図3(c)に示すように、消失点算出部400により算出された消失点630を延長線620、622が通る場合には、その消失点630を通る延長線620、622を形成するトラッキング対象画像602、604の車両周囲俯瞰画像上における位置の変化に基づいて算出された車両の動きベクトル650、652は大きさ、方向ともに一致する。ここで、図3(c)に示すように、消失点630を通らない延長線624を形成するトラッキング対象画像606,606(Δt)は、算出部460による車両の動きベクトルの算出に使用しないため、トラッキング対象画像606,606(Δt)に対応する動きベクトルは図3(d)には示していない。   FIG. 3D shows vehicle motion vectors 650 and 652 (corresponding to tracking target images 602 and 604, respectively) in the imaging time interval Δt calculated by the calculation unit 460. As shown in FIG. 3C, when the extension lines 620 and 622 pass through the vanishing point 630 calculated by the vanishing point calculation unit 400, the tracking target that forms the extension lines 620 and 622 passing through the vanishing point 630. The vehicle motion vectors 650 and 652 calculated based on the change in the position of the images 602 and 604 on the vehicle surroundings bird's-eye view image match in both size and direction. Here, as shown in FIG. 3C, the tracking target images 606 and 606 (Δt) forming the extended line 624 that does not pass through the vanishing point 630 are not used for the calculation of the vehicle motion vector by the calculation unit 460. The motion vectors corresponding to the tracking target images 606 and 606 (Δt) are not shown in FIG.

差分画像生成部220は、算出部460から出力された撮像時間間隔Δtにおける車両の動きベクトルを取得する。また、差分画像生成部220は、俯瞰画像生成部420から出力された撮像時刻tおよび撮像時刻(t+Δt)の車両周囲俯瞰画像を取得する。また、差分画像生成部220は、取得した撮像時間間隔Δtにおける車両の動きベクトルに基づいて、撮像時刻tの車両周囲俯瞰画像を動きベクトルの分だけ移動させる。そして、この移動させた車両周囲俯瞰画像と、撮像時刻(t+Δt)の車両周囲俯瞰画像との画素毎の差分を抽出して差分画像を生成する。差分画像生成部220は、生成した差分画像を障害物検出部240に出力する。   The difference image generation unit 220 acquires the vehicle motion vector in the imaging time interval Δt output from the calculation unit 460. Further, the difference image generation unit 220 acquires the vehicle surroundings overhead view image at the imaging time t and the imaging time (t + Δt) output from the overhead image generation unit 420. In addition, the difference image generation unit 220 moves the vehicle surroundings overhead image at the imaging time t by the motion vector based on the acquired vehicle motion vector at the imaging time interval Δt. And the difference for every pixel of this moved vehicle surroundings bird's-eye view image and the vehicle surroundings bird's-eye view image of imaging time (t + Δt) is extracted, and a difference image is generated. The difference image generation unit 220 outputs the generated difference image to the obstacle detection unit 240.

障害物検出部240は、差分画像生成部220から出力された差分画像を画像解析して、車両の後方に存在する障害物の検出を試みる。具体的には、障害物検出部240は、差分画像から予め設定しておいた閾値以上の画素値を持つ領域のみを抽出し、その抽出した領域を障害物として検出する。障害物検出部240は、障害物を検出した場合、その旨を表示画面生成部260に通知する。また、障害物検出部240は、検出した障害物の車両周囲画像上における位置を検出する。具体的には、障害物検出部240は、自身が有する視点変換情報を参照して、検出した障害物の差分画像(撮像時刻tおよび撮像時刻(t+Δt)で撮像された車両周囲画像に基づいて生成された車両周囲俯瞰画像の差分)上における位置から、撮像時刻(t+Δt)で撮像された車両周囲画像上における当該障害物の位置を算出し、表示画面生成部260に出力する。また、障害物検出部240は、障害物を検出しなかった場合、その旨を表示画面生成部260に通知する。   The obstacle detection unit 240 analyzes the difference image output from the difference image generation unit 220 and attempts to detect an obstacle existing behind the vehicle. Specifically, the obstacle detection unit 240 extracts only an area having a pixel value equal to or greater than a preset threshold value from the difference image, and detects the extracted area as an obstacle. When the obstacle detection unit 240 detects an obstacle, the obstacle detection unit 240 notifies the display screen generation unit 260 to that effect. The obstacle detection unit 240 detects the position of the detected obstacle on the vehicle surrounding image. Specifically, the obstacle detection unit 240 refers to the viewpoint conversion information that the obstacle detection unit 240 has, based on the difference image of the detected obstacle (the vehicle surrounding image captured at the imaging time t and the imaging time (t + Δt)). The position of the obstacle on the vehicle surrounding image captured at the imaging time (t + Δt) is calculated from the position on the generated vehicle surrounding overhead view image) and output to the display screen generation unit 260. Further, when the obstacle detection unit 240 does not detect the obstacle, the obstacle detection unit 240 notifies the display screen generation unit 260 to that effect.

表示画面生成部260は、障害物を検出した旨の通知を障害物検出部240から受けた場合、撮像時刻(t+Δt)で撮像された車両周囲画像を入力バッファ330から読み出す。また、表示画面生成部260は、撮像時刻(t+Δt)で撮像された車両周囲画像上における障害物の位置を障害物検出部240から取得する。そして、表示画面生成部260は、入力バッファ330から読み出した車両周囲画像と障害物検出部240から取得した障害物の位置とから、車両の後方に障害物が存在することを運転者に報知するための警告表示画面を生成する。表示画面生成部260により生成された警告表示画面では、障害物検出部240により検出された障害物の存在を強調するために、当該障害物が存在する位置を所定サイズの枠で囲むとともに、その所定サイズの枠を所定の時間間隔で点滅させるようになっている。また、表示画面生成部260は、生成した警告表示画面を出力バッファ270に記憶させる。   When the display screen generation unit 260 receives a notification that an obstacle has been detected from the obstacle detection unit 240, the display screen generation unit 260 reads the vehicle surrounding image captured at the imaging time (t + Δt) from the input buffer 330. In addition, the display screen generation unit 260 acquires the position of the obstacle on the vehicle surrounding image captured at the imaging time (t + Δt) from the obstacle detection unit 240. Then, the display screen generation unit 260 notifies the driver that there is an obstacle behind the vehicle from the vehicle surrounding image read from the input buffer 330 and the position of the obstacle acquired from the obstacle detection unit 240. A warning display screen is generated. In the warning display screen generated by the display screen generation unit 260, in order to emphasize the presence of the obstacle detected by the obstacle detection unit 240, the position where the obstacle exists is surrounded by a frame of a predetermined size. A frame of a predetermined size is blinked at a predetermined time interval. Further, the display screen generation unit 260 stores the generated warning display screen in the output buffer 270.

また、表示画面生成部260は、障害物検出部240から障害物を検出しなかった旨の通知を受けた場合には、入力バッファ330から読み出した車両周囲画像から車両後方の様子を表す通常表示画面を生成する。表示画面生成部260は、生成した通常表示画面を出力バッファ270に記憶させる。   In addition, when the display screen generation unit 260 receives a notification from the obstacle detection unit 240 that the obstacle has not been detected, the display screen generation unit 260 normally displays the state behind the vehicle from the vehicle surrounding image read from the input buffer 330. Generate a screen. The display screen generation unit 260 stores the generated normal display screen in the output buffer 270.

表示制御部280は、出力バッファ270に記憶される警告表示画面を読み出して、読み出した警告表示画面をモニタ160に表示する。また、表示制御部280は、出力バッファ270に記憶される通常表示画面を読み出して、読み出した通常表示画面をモニタ160に表示する。運転者は、モニタ160に表示された警告表示画面を確認することによって、車両後方に存在する障害物を認識し、その後の適切な対処を行うことができる。   The display control unit 280 reads the warning display screen stored in the output buffer 270 and displays the read warning display screen on the monitor 160. In addition, the display control unit 280 reads the normal display screen stored in the output buffer 270 and displays the read normal display screen on the monitor 160. By checking the warning display screen displayed on the monitor 160, the driver can recognize an obstacle existing behind the vehicle and take appropriate measures thereafter.

次に、本実施形態による障害物検出装置100の表示制御部280による表示動作について図4を用いて説明する。図4は、本実施形態による障害物検出装置100の表示制御部280によってモニタ160に表示される警告表示画面の例を示す図である。   Next, the display operation by the display control unit 280 of the obstacle detection apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a warning display screen displayed on the monitor 160 by the display control unit 280 of the obstacle detection apparatus 100 according to the present embodiment.

図4(a)は、車載カメラ140によってある撮像タイミング(撮像時刻(t+Δt)で撮像された車両周囲画像を示している。図4(a)に示すように、車両後方には、駐車車両やコーン等の障害物700、702、704が存在している。上述したように、車両周囲画像上の障害物700、702、704は、障害物検出装置100の動作により検出される。   4A shows a vehicle surrounding image captured at a certain imaging timing (imaging time (t + Δt)) by the in-vehicle camera 140. As shown in FIG. There are obstacles 700, 702, 704 such as cones, etc. As described above, the obstacles 700, 702, 704 on the vehicle surrounding image are detected by the operation of the obstacle detection apparatus 100.

図4(b)は、図4(a)の車両周囲画像に基づいて生成された警告表示画面の例を示す図である。この警告表示画面では、車載カメラ140によって撮像された車両周囲画像の全体をカラー映像で表示するとともに、障害物検出部240により検出された障害物700、702、704の存在を強調するために、障害物700、702、704が存在する位置を所定サイズの枠708、710、712でそれぞれ囲むとともに、その所定サイズの枠708、710、712を所定の時間間隔(例えば、1秒)で点滅させる態様で付加的に表示するようになっている。   FIG. 4B is a diagram illustrating an example of a warning display screen generated based on the vehicle surrounding image in FIG. In this warning display screen, the entire vehicle surrounding image captured by the in-vehicle camera 140 is displayed in color video, and the presence of the obstacles 700, 702, and 704 detected by the obstacle detection unit 240 is emphasized. The positions where the obstacles 700, 702, and 704 exist are surrounded by predetermined size frames 708, 710, and 712, respectively, and the predetermined size frames 708, 710, and 712 are blinked at predetermined time intervals (for example, 1 second). It is additionally displayed in a manner.

なお、警告表示画面において、障害物700、702、704の存在を強調する態様は、上述の例に限らない。例えば、障害物700、702、704に対応する部分のみをカラー映像として表示し、それ以外の部分をモノクロ画像として表示することにより障害物とその他の部分とを明瞭に認識できるように表示しても良い。   Note that the aspect of emphasizing the presence of the obstacles 700, 702, and 704 on the warning display screen is not limited to the above example. For example, only the portions corresponding to the obstacles 700, 702, and 704 are displayed as color images, and the other portions are displayed as monochrome images so that the obstacles and other portions can be clearly recognized. Also good.

次に、本実施形態における障害物検出装置100の動作について詳しく説明する。図5は、本実施形態による障害物検出装置100の動作例を示すフローチャートである。図5におけるステップS100の処理は、例えば、車両のイグニッションキー(図示せず)がユーザによって操作されて障害物検出装置100に電源が投入されたことにより開始する。   Next, the operation of the obstacle detection apparatus 100 in this embodiment will be described in detail. FIG. 5 is a flowchart showing an operation example of the obstacle detection apparatus 100 according to the present embodiment. The process of step S100 in FIG. 5 is started when, for example, an ignition key (not shown) of the vehicle is operated by the user to turn on the obstacle detection device 100.

まず、障害物検出装置100は、シフトレバーがR(後退)に入ったか否かについて判定する(ステップS100)。もし、シフトレバーがR(後退)に入っていないと障害物検出装置100にて判定した場合(ステップS100にてNO)、障害物検出装置100は、前回シフトレバーがR(後退)に入ってから所定時間が経過したか否かについて判定する(ステップS120)。もし、所定時間が経過したと障害物検出装置100にて判定した場合(ステップS120にてYES)、図5における処理を終了する。一方、所定時間が経過していないと障害物検出装置100にて判定した場合(ステップS120にてNO)、処理はステップS140に遷移する。   First, the obstacle detection apparatus 100 determines whether or not the shift lever has entered R (reverse) (step S100). If the obstacle detection device 100 determines that the shift lever has not entered R (reverse) (NO in step S100), the obstacle detection device 100 has detected that the previous shift lever has entered R (reverse). It is determined whether or not a predetermined time has passed since step S120 (step S120). If obstacle detection device 100 determines that the predetermined time has elapsed (YES in step S120), the process in FIG. 5 is terminated. On the other hand, when obstacle detection device 100 determines that the predetermined time has not elapsed (NO in step S120), the process transitions to step S140.

一方、シフトレバーがR(後退)に入ったと障害物検出装置100にて判定した場合(ステップS100にてYES)、動きベクトル算出装置200は撮像時間間隔Δtにおける車両の動きベクトルを算出する処理を行う(ステップS140)。図6は、本実施形態による動きベクトル算出装置200の動きベクトル算出処理の流れの例を示すフローチャートである。まず、撮像画像取得部300は、車載カメラ140によって撮像された車両周囲画像を取得する(ステップS300)。そして、撮像画像取得部300は、車載カメラ140から取得した車両周囲画像を歪補正部320に出力する。歪補正部320は、撮像画像取得部300から出力された車両周囲画像について、車載カメラ140のレンズ歪による影響を補正する(ステップS320)。そして、歪補正部320は、補正した車両周囲画像を入力バッファ330に記憶させる。   On the other hand, when the obstacle detection device 100 determines that the shift lever has entered R (reverse) (YES in step S100), the motion vector calculation device 200 performs processing for calculating the vehicle motion vector in the imaging time interval Δt. This is performed (step S140). FIG. 6 is a flowchart showing an example of the flow of motion vector calculation processing of the motion vector calculation apparatus 200 according to the present embodiment. First, the captured image acquisition unit 300 acquires a vehicle surrounding image captured by the in-vehicle camera 140 (step S300). Then, the captured image acquisition unit 300 outputs the vehicle surrounding image acquired from the in-vehicle camera 140 to the distortion correction unit 320. The distortion correction unit 320 corrects the influence of the lens distortion of the in-vehicle camera 140 on the vehicle surrounding image output from the captured image acquisition unit 300 (step S320). Then, the distortion correction unit 320 stores the corrected vehicle surrounding image in the input buffer 330.

次に、トラッキング対象画像抽出部340は、車両周囲画像からトラッキング対象画像が既に抽出されている否かを判定する(ステップS340)。もし、まだ抽出されていない場合(ステップS340にてNO)、すなわちシフトレバーがR(後退)に入ってから動きベクトル算出装置200の最初の処理タイミング(最初の車両周囲画像を処理するタイミング)では、トラッキング対象画像抽出部340は、入力バッファ330に記憶された車両周囲画像を読み出して、車両周囲画像から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として抽出する(ステップS360)。そして、トラッキング対象画像抽出部340は、抽出した3つのトラッキング対象画像を位置検出部360および動きベクトル算出部380に出力する。動きベクトル算出部380には、抽出した3つのトラッキング対象画像の位置も出力する。その後、処理はステップS300に遷移する。   Next, the tracking target image extraction unit 340 determines whether or not the tracking target image has already been extracted from the vehicle surrounding image (step S340). If it has not been extracted yet (NO in step S340), that is, the first processing timing (timing for processing the first vehicle surrounding image) of motion vector calculation apparatus 200 after the shift lever enters R (reverse). The tracking target image extraction unit 340 reads the vehicle surrounding image stored in the input buffer 330 and extracts partial images at three predetermined positions from the vehicle surrounding image as three tracking target images (step S360). Then, the tracking target image extraction unit 340 outputs the extracted three tracking target images to the position detection unit 360 and the motion vector calculation unit 380. The motion vector calculation unit 380 also outputs the positions of the extracted three tracking target images. Thereafter, the process proceeds to step S300.

一方、車両周囲画像からトラッキング対象画像が既に抽出されている場合(ステップS340にてYES)、すなわちシフトレバーがR(後退)に入ってから動きベクトル算出装置200の2回目以降の処理タイミング(2枚目以降の車両周囲画像を処理するタイミング)では、位置検出部360は、ステップS320の処理後に入力バッファ330に記憶された最新の車両周囲画像を読み出して、その読み出した車両周囲画像上において、ステップS360にてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像の位置を検出する(ステップS380)。そして、位置検出部360は、検出した3つのトラッキング対象画像の位置を動きベクトル算出部380に出力する。   On the other hand, when the tracking target image has already been extracted from the vehicle surrounding image (YES in step S340), that is, after the shift lever enters R (reverse), the second and subsequent processing timings (2 At the timing of processing the vehicle surrounding image after the first sheet), the position detection unit 360 reads the latest vehicle surrounding image stored in the input buffer 330 after the processing of step S320, and on the read vehicle surrounding image, In step S360, the positions of the three tracking target images extracted by the tracking target image extraction unit 340 are detected (step S380). Then, the position detection unit 360 outputs the detected positions of the three tracking target images to the motion vector calculation unit 380.

次に、消失点算出部400は、車載カメラ140によって連続する撮像タイミング(例えば、撮像時刻tおよび撮像時刻(t+Δt))で撮像された車両周囲画像のそれぞれにおいて位置検出部360により検出された3つのトラッキング対象画像の位置から消失点の算出を試みる(ステップS400)。   Next, the vanishing point calculation unit 400 is detected by the position detection unit 360 in each of the vehicle surrounding images imaged at successive imaging timings (for example, imaging time t and imaging time (t + Δt)) by the in-vehicle camera 140. An attempt is made to calculate the vanishing point from the positions of the two tracking target images (step S400).

もし、消失点を算出することができなかった場合(ステップS420にてNO)、消失点算出部400は、その旨をトラッキング対象画像抽出部340に通知する。トラッキング対象画像抽出部340は、消失点算出部400から消失点を算出することができなかった旨の通知を受けて、撮像時刻(t+Δt)で撮像された車両周囲画像を入力バッファ330から読み出して、読み出した車両周囲画像上の異なる位置から、前回抽出した3つのトラッキング対象画像に替えて、新たに3つのトラッキング対象画像を抽出する(ステップS440)。そして、トラッキング対象画像抽出部340は、新たに抽出した3つのトラッキング対象画像を位置検出部360に出力する。   If the vanishing point cannot be calculated (NO in step S420), vanishing point calculation unit 400 notifies tracking target image extraction unit 340 to that effect. In response to the notification that the vanishing point cannot be calculated from the vanishing point calculating unit 400, the tracking target image extracting unit 340 reads the vehicle surrounding image captured at the imaging time (t + Δt) from the input buffer 330. Then, three tracking target images are newly extracted from different positions on the read vehicle surrounding image in place of the previously extracted three tracking target images (step S440). Then, the tracking target image extraction unit 340 outputs the three newly extracted tracking target images to the position detection unit 360.

一方、消失点を算出することができた場合(ステップS420にてYES)、消失点算出部400は、算出することができた消失点を通らない延長線が1つでも存在するか否かについて判定する(ステップS460)。もし、消失点を通らない延長線が存在すると消失点算出部400にて判定した場合(ステップS460にてYES)、消失点算出部400は、その消失点を通らない延長線を形成するトラッキング対象画像を特定するトラッキング対象画像特定情報をトラッキング対象画像抽出部340に出力する。   On the other hand, if the vanishing point can be calculated (YES in step S420), vanishing point calculation unit 400 determines whether or not there is even one extension line that does not pass through the vanishing point that can be calculated. Determination is made (step S460). If the vanishing point calculation unit 400 determines that there is an extension line that does not pass through the vanishing point (YES in step S460), the vanishing point calculation unit 400 forms the extension line that does not pass through the vanishing point. The tracking target image specifying information for specifying the image is output to the tracking target image extracting unit 340.

トラッキング対象画像特定情報を取得したトラッキング対象画像抽出部340は、撮像時刻(t+Δt)で撮像された車両周囲画像を入力バッファ330から読み出して、その読み出した車両周囲画像上から、当該トラッキング対象画像特定情報により示されるトラッキング対象画像に替えて、新たにトラッキング対象画像を抽出する(ステップS480)。そして、トラッキング対象画像抽出部340は、新たに抽出したトラッキング対象画像を位置検出部360に出力する。その後、処理はステップS560に遷移する。一方、消失点を通らない延長線は存在しない(すなわち、全ての延長線が消失点を通る)と消失点算出部400にて判定した場合(ステップS460にてNO)、処理はステップS500に遷移する。   The tracking target image extracting unit 340 that has acquired the tracking target image specifying information reads the vehicle surrounding image captured at the imaging time (t + Δt) from the input buffer 330, and specifies the tracking target image from the read vehicle surrounding image. Instead of the tracking target image indicated by the information, a new tracking target image is extracted (step S480). Then, the tracking target image extraction unit 340 outputs the newly extracted tracking target image to the position detection unit 360. Thereafter, the process proceeds to step S560. On the other hand, when the vanishing point calculation unit 400 determines that there is no extension line that does not pass through the vanishing point (that is, all extension lines pass through the vanishing point) (NO in step S460), the process transitions to step S500. To do.

ステップS500では、俯瞰画像生成部420は、消失点を算出することができた旨の通知を消失点算出部400から受けて、車載カメラ140によって撮像された撮像時刻tおよび撮像時刻(t+Δt)の車両周囲画像を入力バッファ330から読み出して、その読み出した車両周囲画像を視点変換処理することによって、車両の上方の仮想視点から見た車両周囲俯瞰画像を生成する。そして、俯瞰画像生成部420は、その生成した車両周囲俯瞰画像を第2の位置検出部440および差分画像生成部220に出力する。   In step S500, the bird's-eye view image generation unit 420 receives a notification that the vanishing point can be calculated from the vanishing point calculation unit 400 and captures the imaging time t and imaging time (t + Δt) captured by the in-vehicle camera 140. By reading the vehicle surrounding image from the input buffer 330 and subjecting the read vehicle surrounding image to viewpoint conversion processing, a vehicle surroundings overhead image viewed from a virtual viewpoint above the vehicle is generated. Then, the bird's-eye view image generation unit 420 outputs the generated vehicle surroundings bird's-eye view image to the second position detection unit 440 and the difference image generation unit 220.

次に、第2の位置検出部440は、俯瞰画像生成部420から出力された撮像時刻tおよび撮像時刻(t+Δt)の車両周囲俯瞰画像上のそれぞれにおいて、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像の位置を検出する(ステップS520)。そして、第2の位置検出部440は、検出した3つのトラッキング対象画像の位置を算出部460に出力する。次に、算出部460は、第2の位置検出部440から出力されたトラッキング対象画像の位置を取得して、撮像時刻tの車両周囲俯瞰画像上における3つのトラッキング対象画像の位置と撮像時刻(t+Δt)の車両周囲俯瞰画像上におけるトラッキング対象画像の位置とから、当該トラッキング対象画像の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する(ステップS540)。そして、算出部460は、算出した撮像時間間隔Δtにおける車両の動きベクトルを差分画像生成部220に出力する。その後、動きベクトル算出装置200は図6における処理を終了し、図5のステップS160に進む。   Next, the second position detection unit 440 outputs the tracking target image extraction unit 340 at each of the imaging time t and the imaging time (t + Δt) on the vehicle surroundings overhead image output from the overhead image generation unit 420. The positions of the three tracking target images are detected (step S520). Then, the second position detection unit 440 outputs the detected positions of the three tracking target images to the calculation unit 460. Next, the calculation unit 460 acquires the position of the tracking target image output from the second position detection unit 440, and the position of the three tracking target images on the vehicle surroundings overhead image at the imaging time t and the imaging time ( From the position of the tracking target image on the vehicle surroundings overhead view image at (t + Δt), a change in the position of the tracking target image is calculated as a vehicle motion vector at the imaging time interval Δt (step S540). Then, the calculation unit 460 outputs the motion vector of the vehicle at the calculated imaging time interval Δt to the difference image generation unit 220. Thereafter, the motion vector calculation apparatus 200 ends the processing in FIG. 6 and proceeds to step S160 in FIG.

図5のステップS160では、差分画像生成部220は、算出部460から出力された撮像時間間隔Δtにおける車両の動きベクトルに基づいて、俯瞰画像生成部220から出力された撮像時刻tの車両周囲俯瞰画像を動きベクトルの分だけ移動させる。そして、この移動させた撮像時刻tの車両周囲俯瞰画像と、俯瞰画像生成部220から出力された撮像時刻(t+Δt)の車両周囲俯瞰画像との差分を抽出して差分画像を生成する。   In step S160 of FIG. 5, the difference image generation unit 220 is a bird's-eye view of the surroundings of the imaging time t output from the overhead image generation unit 220 based on the motion vector of the vehicle at the imaging time interval Δt output from the calculation unit 460. Move the image by the motion vector. And the difference image is produced | generated by extracting the difference of the vehicle surroundings bird's-eye view image of this moved imaging time t, and the vehicle surroundings bird's-eye view image of the imaging time (t + (DELTA) t) output from the bird's-eye view image generation part 220.

次に、障害物検出部240は、差分画像生成部220から出力された差分画像を画像解析して、車両の後方に存在する障害物の検出を試みる(ステップS180)。もし、障害物検出部240が障害物を検出しなかった場合(ステップS200にてNO)、表示画面生成部260は、障害物検出部240から障害物を検出しなかった旨の通知を受けて、入力バッファ330から読み出した車両周囲画像から車両後方の様子を表す通常表示画面を生成する(ステップS220)。そして、表示画面生成部260は、生成した通常表示画面を出力バッファ270に記憶させる。最後に、表示制御部280は、出力バッファ270に記憶された通常表示画面を読み出して、読み出した通常表示画面をモニタ160に表示する(ステップS240)。   Next, the obstacle detection unit 240 analyzes the difference image output from the difference image generation unit 220 and attempts to detect an obstacle existing behind the vehicle (step S180). If obstacle detection unit 240 has not detected an obstacle (NO in step S200), display screen generation unit 260 receives notification from obstacle detection unit 240 that no obstacle has been detected. Then, a normal display screen representing the state behind the vehicle is generated from the vehicle surrounding image read from the input buffer 330 (step S220). Then, the display screen generation unit 260 stores the generated normal display screen in the output buffer 270. Finally, the display control unit 280 reads the normal display screen stored in the output buffer 270 and displays the read normal display screen on the monitor 160 (step S240).

一方、障害物検出部240が障害物を検出した場合(ステップS200にてYES)、障害物検出部240は、検出した障害物の車両周囲画像上における位置を検出する。そして、障害物検出部240は、検出した車両周囲画像上における障害物の位置を表示画面生成部260に出力する。   On the other hand, when obstacle detection unit 240 detects an obstacle (YES in step S200), obstacle detection unit 240 detects the position of the detected obstacle on the vehicle surrounding image. Then, the obstacle detection unit 240 outputs the detected position of the obstacle on the vehicle surrounding image to the display screen generation unit 260.

次に、表示画面生成部260は、障害物検出部240から障害物を検出した旨の通知を受けて、入力バッファ330から読み出した車両周囲画像と障害物検出部240から取得した障害物の位置とから、車両の後方に障害物が存在することを運転者に報知するための警告表示画面を生成する(ステップS260)。そして、表示画面生成部260は、生成した警告表示画面を出力バッファ270に記憶させる。最後に、表示制御部280は、出力バッファ270に記憶された警告表示画面を読み出して、読み出した警告表示画面をモニタ160に表示する(ステップS280)。なお、ステップS240またはステップS280における表示処理が終了することにより、処理はステップS100に遷移する。   Next, the display screen generation unit 260 receives the notification that the obstacle is detected from the obstacle detection unit 240, and the vehicle surrounding image read from the input buffer 330 and the position of the obstacle acquired from the obstacle detection unit 240. Thus, a warning display screen for notifying the driver that there is an obstacle behind the vehicle is generated (step S260). Then, the display screen generation unit 260 stores the generated warning display screen in the output buffer 270. Finally, the display control unit 280 reads the warning display screen stored in the output buffer 270, and displays the read warning display screen on the monitor 160 (step S280). Note that when the display process in step S240 or step S280 ends, the process transitions to step S100.

以上詳しく説明したように、本実施形態では、トラッキング対象画像抽出部340が、車載カメラ140によって撮像された車両周囲画像内の予め定めた3つの位置の部分画像をトラッキング対象画像として抽出し、車載カメラ140によって連続撮像された2つの車両周囲画像のそれぞれにおいて、位置検出部360がトラッキング対象画像の位置を検出する。そして、動きベクトル算出部380が、位置検出部360にて検出したトラッキング対象画像の位置の変化に基づいて、所定時間(撮像時間間隔Δt)における車両の動きベクトルを算出する。   As described above in detail, in this embodiment, the tracking target image extraction unit 340 extracts partial images at three predetermined positions in the vehicle surrounding image captured by the in-vehicle camera 140 as the tracking target image, and the in-vehicle In each of the two vehicle surrounding images continuously captured by the camera 140, the position detection unit 360 detects the position of the tracking target image. Then, based on the change in the position of the tracking target image detected by the position detection unit 360, the motion vector calculation unit 380 calculates a vehicle motion vector at a predetermined time (imaging time interval Δt).

これにより、車載カメラ140により連続撮像された車両周囲画像に基づいて車両の動きベクトルが算出されるため、車速センサの検出結果を使用しなくても車両の動きベクトルを算出することができる。すなわち、車速センサの検出精度が低下する車両の低速走行時でも、車載カメラ140により連続撮像された車両周囲画像上における車両の移動量(ピクセル)さえ分かれば、車両の動きベクトルを正確に算出することができる。よって、車両が低速走行している場合でも、正確に算出した動きベクトルに基づいて正確な差分画像を生成することができ、実際には障害物でないものを障害物と誤って検出することを確実に防止することができる。   Accordingly, since the vehicle motion vector is calculated based on the vehicle surrounding images continuously captured by the in-vehicle camera 140, the vehicle motion vector can be calculated without using the detection result of the vehicle speed sensor. That is, even when the vehicle is traveling at a low speed where the detection accuracy of the vehicle speed sensor is reduced, the vehicle motion vector is accurately calculated as long as the amount of movement (pixels) of the vehicle on the vehicle surrounding image continuously captured by the in-vehicle camera 140 is known. be able to. Therefore, even when the vehicle is traveling at a low speed, an accurate difference image can be generated based on the accurately calculated motion vector, and it is ensured that an object that is not actually an obstacle is erroneously detected as an obstacle. Can be prevented.

また、本実施形態では、動きベクトル算出部380は、消失点を算出できた場合に限って、当該消失点を通る延長線を形成するトラッキング対象画像の位置の変化に基づいて、車両の動きベクトルを算出する。車両周囲画像上で消失点を求めることなく、車両周囲俯瞰画像上から動きベクトルを求めるようにしても良いが、消失点が求まるか否かを確認することにより、正確でない車両の動きベクトルが誤って算出されることを回避することができる。例えば、路面上に存在する影の影響を受けて、車両周囲画像上におけるトラッキング対象画像の位置を正しく検出できなくなると、消失点が算出できなくなるので、消失点を求めることは、正しい動きベクトルを算出できるか否かの判定として有効である。   Further, in the present embodiment, the motion vector calculation unit 380, only when the vanishing point can be calculated, based on the change in the position of the tracking target image that forms the extension line passing through the vanishing point, Is calculated. The motion vector may be obtained from the vehicle surroundings overhead image without obtaining the vanishing point on the vehicle surrounding image. However, by checking whether the vanishing point is obtained, an incorrect vehicle motion vector is erroneously determined. Can be avoided. For example, if the position of the tracking target image on the vehicle surrounding image cannot be correctly detected due to the influence of a shadow existing on the road surface, the vanishing point cannot be calculated. This is effective for determining whether or not it can be calculated.

また、本実施形態では、消失点を通らない延長線が存在した場合でも、その延長線を形成するトラッキング対象画像に替えて最新の車両周囲画像から新たなトラッキング対象画像を抽出する。新たにトラッキング対象画像を抽出しない態様でも良いが、それだと延長線が消失点を通らない状態が続いてしまう。これに対して、新たに抽出すれば、次回以降の撮像タイミングにおいて、新たにトラッキング対象画像を抽出したトラッキング対象画像の位置により形成される延長線が消失点を通る可能性を復活させることができる。   In the present embodiment, even if an extension line that does not pass through the vanishing point exists, a new tracking target image is extracted from the latest vehicle surrounding image instead of the tracking target image that forms the extension line. A mode in which a new tracking target image is not extracted may be used, but in that case, the extension line does not pass through the vanishing point. On the other hand, if a new extraction is performed, the possibility that an extension line formed by the position of the tracking target image from which the tracking target image is newly extracted passes through the vanishing point at the next and subsequent imaging timings can be restored. .

また、本実施形態では、トラッキング対象画像抽出部340が車両周囲画像内の予め定めた位置からトラッキング対象画像を抽出する。これにより、位置検出部360による相関演算の前提として、車両周囲画像内からエッジ部分等の特徴点を探し出して抽出する画像処理が不要になる。したがって、車両の動きベクトル算出処理の負荷が低くなり、高速処理が可能になる。   In the present embodiment, the tracking target image extraction unit 340 extracts the tracking target image from a predetermined position in the vehicle surrounding image. Thereby, as a premise of the correlation calculation by the position detection unit 360, image processing for searching for and extracting feature points such as edge portions from the vehicle surrounding image becomes unnecessary. Accordingly, the load of the vehicle motion vector calculation process is reduced, and high-speed processing is possible.

なお、本実施形態では、トラッキング対象画像抽出部340が車両周囲画像内の予め定めた位置からトラッキング対象画像を抽出する例について説明したが、これに限定されない。例えば、トラッキング対象画像抽出部340は、車両周囲画像について各画素のエッジ強度を算出し、当該算出したエッジ強度が第1の所定値以上であり、かつ、第1の所定値より高い第2の所定値未満である部分画像をトラッキング対象画像として抽出しても良い。このようにすれば、画像内の明るさが急激に変化する点(例えば人や車両など、自車とは独立に移動する可能性が高いために動きベクトルが自車の動きと無関係になりやすい点)、または画像内の明るさがほとんど変化しない点(すなわち、画像としての特徴がほとんどないために車両周囲画像上におけるトラッキング対象画像の位置検出の誤差が生じやすい点)がトラッキング対象画像として選択されなくなるため、車両周囲画像上におけるトラッキング対象画像の位置検出の誤差が生じることをなるべく防ぐことができる。なお、この例の場合、消失点は求まらない可能性がある。したがって、消失点が求まるか否かによるトラッキング対象画像の取り直しの処理は行わない方が良い。   In this embodiment, the example in which the tracking target image extraction unit 340 extracts the tracking target image from a predetermined position in the vehicle surrounding image has been described. However, the present invention is not limited to this. For example, the tracking target image extraction unit 340 calculates the edge strength of each pixel for the vehicle surrounding image, and the calculated edge strength is equal to or higher than a first predetermined value and higher than the first predetermined value. A partial image that is less than a predetermined value may be extracted as a tracking target image. In this way, the point where the brightness in the image changes abruptly (for example, a person or a vehicle is likely to move independently of the host vehicle, so the motion vector is likely to be unrelated to the movement of the host vehicle. Point), or the point where the brightness in the image hardly changes (that is, the point where there is almost no feature as an image and the error in detecting the position of the tracking target image on the vehicle surrounding image) is selected as the tracking target image Therefore, an error in detecting the position of the tracking target image on the vehicle surrounding image can be prevented as much as possible. In this example, the vanishing point may not be obtained. Therefore, it is better not to perform the process of re-taking the tracking target image depending on whether the vanishing point is obtained.

また、本実施形態において、動きベクトル算出部380は、前回算出した動きベクトルにより示される方向と、今回算出した動きベクトルにより示される方向との成す角度を算出し、当該算出した角度が所定値未満である場合に限って、今回算出した動きベクトルを採用するようにしても良い。これにより、前回算出した動きベクトルにより示される方向と今回算出した動きベクトルにより示される方向との成す角度が大きくなる場合(例えば、路面上に存在する影の影響を受けて車両周囲画像上におけるトラッキング対象画像の位置が大きく変化した場合)、あえて今回算出した車両の動きベクトルを採用しないことにより、正確でない車両の動きベクトルを誤って採用することを回避することができる。   In the present embodiment, the motion vector calculation unit 380 calculates an angle between the direction indicated by the previously calculated motion vector and the direction indicated by the currently calculated motion vector, and the calculated angle is less than a predetermined value. Only in this case, the motion vector calculated this time may be adopted. As a result, when the angle between the direction indicated by the previously calculated motion vector and the direction indicated by the currently calculated motion vector becomes large (for example, tracking on the vehicle surrounding image due to the influence of a shadow existing on the road surface). When the position of the target image changes greatly), by not using the vehicle motion vector calculated this time, it is possible to avoid erroneously using an incorrect vehicle motion vector.

また、本実施形態では、車載カメラ140によって連続撮像された車両周辺画像のそれぞれにおいてトラッキング対象画像の位置を検出し、その検出したトラッキング対象画像の位置の変化に基づいて所定時間(撮像時間間隔Δt)における車両の動きベクトルを算出する例について説明したが、撮像タイミングが連続しない2つの車両周囲画像のそれぞれにおいてトラッキング対象画像の位置を検出し、その検出したトラッキング対象画像の位置の変化に基づいて、所定時間(各車両周辺画像の撮像時刻の間)における車両の動きベクトルを算出するようにしても良い。   Further, in the present embodiment, the position of the tracking target image is detected in each of the vehicle peripheral images continuously captured by the in-vehicle camera 140, and a predetermined time (imaging time interval Δt) is determined based on the detected change in the position of the tracking target image. ), The position of the tracking target image is detected in each of the two vehicle surrounding images whose imaging timings are not continuous, and based on the detected change in the position of the tracking target image. The motion vector of the vehicle at a predetermined time (between the time when each vehicle peripheral image is captured) may be calculated.

また、本実施形態では、トラッキング対象画像抽出部340が車両周囲画像から3つのトラッキング対象画像を抽出する例について説明したが、当該車両周囲画像から2つのトラッキング対象画像を抽出するようにしても良い。ただし、本実施形態のように、車両周囲画像から3つのトラッキング対象画像を抽出する方が消失点を算出できる可能性が高くなる観点からは好ましい。なお、消失点を算出できる可能性をより高くする観点から、車両周囲画像から4つ以上のトラッキング対象画像を抽出するようにしても良い。   In the present embodiment, the tracking target image extraction unit 340 extracts the three tracking target images from the vehicle surrounding image. However, the two tracking target images may be extracted from the vehicle surrounding image. . However, as in the present embodiment, it is preferable to extract three tracking target images from the vehicle surrounding image from the viewpoint of increasing the possibility of calculating the vanishing point. Note that four or more tracking target images may be extracted from the vehicle surrounding image from the viewpoint of increasing the possibility of calculating the vanishing point.

また、本実施形態では、俯瞰画像生成部420により生成された車両周囲俯瞰画像において、第2の位置検出部440がトラッキング対象画像の位置を検出する例について説明したが、第2の位置検出部440は、位置検出部360により検出された車両周囲画像上におけるトラッキング対象画像の位置と俯瞰画像生成部420自身が有する視点変換用のマッピングテーブルとから、当該車両周囲画像をそれぞれ視点変換処理することによって得られたであろう車両周囲俯瞰画像におけるトラッキング対象画像の位置を検出するようにしても良い。   Moreover, in this embodiment, although the 2nd position detection part 440 demonstrated the example which detects the position of a tracking object image in the vehicle surroundings overhead view image produced | generated by the overhead view image generation part 420, the 2nd position detection part 440 performs viewpoint conversion processing on the vehicle surrounding image from the position of the tracking target image on the vehicle surrounding image detected by the position detection unit 360 and the viewpoint conversion mapping table of the overhead image generation unit 420 itself. The position of the tracking target image in the vehicle surroundings overhead image that would have been obtained by the above may be detected.

その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   In addition, each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. In other words, the present invention can be implemented in various forms without departing from the spirit or main features thereof.

本実施形態による障害物検出装置の構成例を説明するブロック図である。It is a block diagram explaining the structural example of the obstruction detection apparatus by this embodiment. 本実施形態による動きベクトル算出装置の動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of the motion vector calculation apparatus by this embodiment. 本実施形態による動きベクトル算出装置の動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of the motion vector calculation apparatus by this embodiment. 本実施形態によるモニタに表示される警告表示画面の例を示す図である。It is a figure which shows the example of the warning display screen displayed on the monitor by this embodiment. 本実施形態による障害物検出装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the obstruction detection apparatus by this embodiment. 本実施形態による動きベクトル算出装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the motion vector calculation apparatus by this embodiment.

符号の説明Explanation of symbols

100 障害物検出装置
200 動きベクトル算出装置
220 差分画像生成部
240 障害物検出部
340 トラッキング対象画像抽出部
360 位置検出部
380 動きベクトル算出部
400 消失点算出部
420 俯瞰画像生成部
440 第2の位置検出部
DESCRIPTION OF SYMBOLS 100 Obstacle detection apparatus 200 Motion vector calculation apparatus 220 Difference image generation part 240 Obstacle detection part 340 Tracking object image extraction part 360 Position detection part 380 Motion vector calculation part 400 Vanishing point calculation part 420 Overhead image generation part 440 2nd position Detection unit

Claims (9)

車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出するトラッキング対象画像抽出部と、
前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記トラッキング対象画像の位置を検出する位置検出部と、
前記位置検出部により前記複数の車両周囲画像において検出された前記トラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出する動きベクトル算出部とを備えたことを特徴とする動きベクトル算出装置。
A tracking target image extraction unit that extracts a partial image at a predetermined position in a vehicle surrounding image captured by an imaging device installed in the vehicle as a tracking target image;
A position detection unit that detects the position of the tracking target image in each of a plurality of vehicle surrounding images sequentially captured by the imaging device;
A motion vector comprising: a motion vector calculation unit that calculates a motion vector of the vehicle based on a change in position of the tracking target image detected in the plurality of vehicle surrounding images by the position detection unit. Calculation device.
請求項1に記載の動きベクトル算出装置において、
前記トラッキング対象画像抽出部は、前記車両周囲画像内の予め定めた複数の位置から複数の前記トラッキング対象画像を抽出し、
前記位置検出部は、前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記複数のトラッキング対象画像の位置をそれぞれ検出し、
前記動きベクトル算出部は、前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて前記位置検出部により検出された前記複数のトラッキング対象画像の位置であって同じトラッキング対象画像どうしの位置を結ぶ線の延長線をそれぞれ求め、その求めた複数の延長線が交わる消失点を算出できるかどうかを判定し、前記消失点が算出できた場合に限って、前記複数のトラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出することを特徴とする動きベクトル算出装置。
The motion vector calculation device according to claim 1,
The tracking target image extraction unit extracts a plurality of tracking target images from a plurality of predetermined positions in the vehicle surrounding image,
The position detection unit detects positions of the plurality of tracking target images in each of a plurality of vehicle surrounding images sequentially captured by the imaging device;
The motion vector calculation unit is configured to obtain positions of the plurality of tracking target images detected by the position detection unit in each of a plurality of vehicle surrounding images sequentially captured by the imaging device and positions of the same tracking target images. Each of the extension lines of the connecting lines is obtained, it is determined whether or not a vanishing point where the obtained plural extension lines intersect can be calculated, and only when the vanishing points can be calculated, the positions of the plurality of tracking target images are determined. A motion vector calculation device that calculates a motion vector of the vehicle based on a change.
請求項2に記載の動きベクトル算出装置において、
前記動きベクトル算出部は、前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて前記位置検出部により検出された前記複数のトラッキング対象画像の位置であって同じトラッキング対象画像どうしの位置を結ぶ線の延長線をそれぞれ求め、その求めた複数の延長線が交わる消失点を算出する消失点算出部と、
前記消失点算出部により前記消失点が算出できた場合に限って、前記撮像装置によって逐次撮像された複数の車両周囲画像をそれぞれ視点変換処理することによって、前記車両の上方の仮想視点から見た車両周囲俯瞰画像を生成する俯瞰画像生成部と、
前記俯瞰画像生成部により前記複数の車両周囲画像から生成された複数の前記車両周囲俯瞰画像のそれぞれにおいて、前記複数のトラッキング対象画像の位置を検出する第2の位置検出部とを備え、
前記第2の位置検出部により前記複数の車両周囲俯瞰画像において検出された前記トラッキング対象画像の位置の変化から、前記車両の動きベクトルを算出することを特徴とする動きベクトル算出装置。
The motion vector calculation apparatus according to claim 2,
The motion vector calculation unit is configured to obtain positions of the plurality of tracking target images detected by the position detection unit in each of a plurality of vehicle surrounding images sequentially captured by the imaging device and positions of the same tracking target images. A vanishing point calculation unit that calculates an extension line of each connecting line and calculates a vanishing point where the obtained plurality of extension lines intersect,
Only when the vanishing point can be calculated by the vanishing point calculation unit, the plurality of vehicle surrounding images sequentially captured by the imaging device are respectively subjected to viewpoint conversion processing, and viewed from a virtual viewpoint above the vehicle. An overhead image generation unit for generating an overhead image of the surroundings of the vehicle;
A second position detection unit that detects positions of the plurality of tracking target images in each of the plurality of vehicle surroundings overhead images generated from the plurality of vehicle surroundings images by the overhead view image generation unit;
A motion vector calculation apparatus that calculates a motion vector of the vehicle from a change in position of the tracking target image detected in the plurality of vehicle surrounding overhead images by the second position detection unit.
請求項3に記載の動きベクトル算出装置において、
前記第2の位置検出部は、前記消失点算出部により算出できた前記消失点を通らない延長線が存在する場合、前記俯瞰画像生成部により前記複数の車両周囲画像から生成された複数の前記車両周囲俯瞰画像のそれぞれにおいて、前記複数のトラッキング対象画像のうち、前記消失点を通る延長線を形成するトラッキング対象画像のみの位置を検出し、
前記動きベクトル算出部は、前記第2の位置検出部により前記複数の車両周囲俯瞰画像において検出された前記トラッキング対象画像の位置の変化から、前記車両の動きベクトルを算出することを特徴とする動きベクトル算出装置。
The motion vector calculation apparatus according to claim 3,
When there is an extended line that does not pass through the vanishing point calculated by the vanishing point calculating unit, the second position detecting unit is configured to generate a plurality of the vehicle surrounding images generated by the overhead image generating unit. In each of the vehicle surrounding bird's-eye view images, among the plurality of tracking target images, the position of only the tracking target image that forms an extension line passing through the vanishing point is detected,
The motion vector calculation unit calculates a motion vector of the vehicle from a change in position of the tracking target image detected in the plurality of vehicle surrounding overhead images by the second position detection unit. Vector calculation device.
請求項4に記載の動きベクトル算出装置において、
前記トラッキング対象画像抽出部は、前記消失点算出部により算出できた前記消失点を通らない延長線が存在する場合、前記複数のトラッキング対象画像のうち、前記消失点を通らない延長線を形成するトラッキング対象画像を新たに抽出し直すことを特徴とする動きベクトル算出装置。
The motion vector calculation apparatus according to claim 4,
The tracking target image extraction unit forms an extension line that does not pass through the vanishing point among the plurality of tracking target images when there is an extension line that does not pass through the vanishing point calculated by the vanishing point calculation unit. A motion vector calculation device characterized by newly extracting a tracking target image.
請求項1に記載の動きベクトル算出装置において、
前記トラッキング対象画像抽出部は、前記車両周囲画像内の予め定めた位置から前記トラッキング対象画像を抽出することに代えて、前記車両周囲画像について各画素のエッジ強度を算出し、当該算出したエッジ強度が第1の所定値以上であり、かつ、前記第1の所定値より大きい第2の所定値未満である部分画像を前記トラッキング対象画像として抽出することを特徴とする動きベクトル算出装置。
The motion vector calculation device according to claim 1,
The tracking target image extraction unit calculates an edge strength of each pixel for the vehicle surrounding image instead of extracting the tracking target image from a predetermined position in the vehicle surrounding image, and calculates the calculated edge strength. A motion vector calculation apparatus that extracts a partial image that is greater than or equal to a first predetermined value and less than a second predetermined value that is greater than the first predetermined value as the tracking target image.
請求項1〜6のいずれか1項に記載の動きベクトル算出装置において、
前記動きベクトル算出部は、前記撮像装置によって第1のタイミングで撮像された複数の車両周囲画像から前回算出した動きベクトルにより示される方向と、前記撮像装置によって前記第1のタイミングより遅い第2のタイミングで撮像された車両周囲画像を含む複数の車両周囲画像から今回算出した動きベクトルにより示される方向との成す角度を算出し、当該算出した角度が所定値未満である場合に限って、前記今回算出した動きベクトルを採用することを特徴とする動きベクトル算出装置。
In the motion vector calculation device according to any one of claims 1 to 6,
The motion vector calculation unit includes a direction indicated by a motion vector previously calculated from a plurality of vehicle surrounding images captured at a first timing by the imaging device, and a second later than the first timing by the imaging device. An angle formed by a direction indicated by the motion vector calculated this time from a plurality of vehicle surrounding images including a vehicle surrounding image captured at timing is calculated, and the current time only when the calculated angle is less than a predetermined value. A motion vector calculation apparatus that employs a calculated motion vector.
車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出するトラッキング対象画像抽出部と、
前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記トラッキング対象画像の位置を検出する位置検出部と、
あるタイミングからそれより遅いタイミングまで前記撮像装置によって撮像された前記複数の車両周囲画像において前記位置検出部により検出された前記トラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出する動きベクトル算出部と、
前記撮像装置によって逐次撮像された複数の車両周囲画像をそれぞれ視点変換処理することによって、前記車両の上方の仮想視点から見た車両周囲俯瞰画像を生成する俯瞰画像生成部と、
前記動きベクトル算出部によって算出された前記車両の動きベクトルに基づいて、前記撮像装置によってあるタイミングで撮像された車両周囲画像から前記俯瞰画像生成部により生成された前記車両周囲俯瞰画像を移動させ、この移動させた前記車両周囲俯瞰画像と、前記撮像装置によって前記遅いタイミングで撮像された車両周囲画像から生成された前記車両周囲俯瞰画像との差分を抽出して差分画像を生成する差分画像生成部と、
前記差分画像生成部により生成された前記差分画像から障害物を検出する障害物検出部とを備えたことを特徴とする障害物検出装置。
A tracking target image extraction unit that extracts a partial image at a predetermined position in a vehicle surrounding image captured by an imaging device installed in the vehicle as a tracking target image;
A position detection unit that detects the position of the tracking target image in each of a plurality of vehicle surrounding images sequentially captured by the imaging device;
A motion vector of the vehicle is calculated based on a change in the position of the tracking target image detected by the position detection unit in the plurality of vehicle surrounding images captured by the imaging device from a certain timing to a later timing. A motion vector calculation unit;
A bird's-eye view image generation unit that generates a vehicle surroundings bird's-eye view image viewed from a virtual viewpoint above the vehicle by performing viewpoint conversion processing on each of the plurality of vehicle surrounding images sequentially captured by the imaging device;
Based on the vehicle motion vector calculated by the motion vector calculation unit, the vehicle surroundings overhead image generated by the overhead image generation unit is moved from the vehicle surroundings imaged at a certain timing by the imaging device, A difference image generation unit that extracts a difference between the moved vehicle surrounding bird's-eye view image and the vehicle surrounding bird's-eye view image generated from the vehicle surrounding image captured at the later timing by the imaging device and generates a difference image When,
An obstacle detection apparatus comprising: an obstacle detection unit that detects an obstacle from the difference image generated by the difference image generation unit.
車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出する第1のステップと、
前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記トラッキング対象画像の位置を検出する第2のステップと、
前記第2のステップにより前記複数の車両周囲画像において検出された前記トラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出する第3のステップとを備えたことを特徴とする動きベクトル算出方法。
A first step of extracting, as a tracking target image, a partial image at a predetermined position in a vehicle surrounding image captured by an imaging device installed in the vehicle;
A second step of detecting a position of the tracking target image in each of a plurality of vehicle surrounding images sequentially captured by the imaging device;
And a third step of calculating a motion vector of the vehicle based on a change in position of the tracking target image detected in the plurality of vehicle surrounding images in the second step. Vector calculation method.
JP2008159264A 2008-06-18 2008-06-18 Moving vector calculation device, obstacle detection device and moving vector calculation method Withdrawn JP2010002985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008159264A JP2010002985A (en) 2008-06-18 2008-06-18 Moving vector calculation device, obstacle detection device and moving vector calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008159264A JP2010002985A (en) 2008-06-18 2008-06-18 Moving vector calculation device, obstacle detection device and moving vector calculation method

Publications (1)

Publication Number Publication Date
JP2010002985A true JP2010002985A (en) 2010-01-07

Family

ID=41584694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008159264A Withdrawn JP2010002985A (en) 2008-06-18 2008-06-18 Moving vector calculation device, obstacle detection device and moving vector calculation method

Country Status (1)

Country Link
JP (1) JP2010002985A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097390A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Own vehicle travel estimation method and own vehicle travel estimation program
CN105046637A (en) * 2015-07-31 2015-11-11 深圳市哈工大交通电子技术有限公司 OmapL138 chip based optical flow tracking realization method
JP2022142515A (en) * 2021-03-16 2022-09-30 本田技研工業株式会社 Information processing device, information processing method, and program for estimating movement amount of moving object

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097390A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Own vehicle travel estimation method and own vehicle travel estimation program
CN105046637A (en) * 2015-07-31 2015-11-11 深圳市哈工大交通电子技术有限公司 OmapL138 chip based optical flow tracking realization method
CN105046637B (en) * 2015-07-31 2018-08-10 深圳市哈工大交通电子技术有限公司 Optical flow tracking implementation method based on OmapL138 chips
JP2022142515A (en) * 2021-03-16 2022-09-30 本田技研工業株式会社 Information processing device, information processing method, and program for estimating movement amount of moving object
JP7636917B2 (en) 2021-03-16 2025-02-27 本田技研工業株式会社 Information processing device, information processing method, and program for estimating the amount of movement of a moving object
US12272075B2 (en) 2021-03-16 2025-04-08 Honda Motor Co., Ltd. Information processing apparatus, information processing method, and storage medium for estimating movement amount of moving object

Similar Documents

Publication Publication Date Title
JP4203512B2 (en) Vehicle periphery monitoring device
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
JP4367475B2 (en) Moving object recognition apparatus, moving object recognition method, and computer program
JP4631096B2 (en) Vehicle periphery monitoring device
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP5865547B2 (en) Image display device and image display method
US20120327189A1 (en) Stereo Camera Apparatus
JP6171593B2 (en) Object tracking method and system from parallax map
CN111971682A (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JPH11351862A (en) Forward vehicle detection method and device
JP6617150B2 (en) Object detection method and object detection apparatus
JPWO2011013813A1 (en) In-vehicle device and image processing program
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2009157581A (en) Pedestrian detection device
JP2018074411A (en) Object detection device and object detection method
JP2008286648A (en) Distance measuring device, distance measuring system, distance measuring method
JP5541099B2 (en) Road marking line recognition device
JP2010002985A (en) Moving vector calculation device, obstacle detection device and moving vector calculation method
JP2015230703A (en) Object detection device and object detection method
US9827906B2 (en) Image processing apparatus
JP5012522B2 (en) Roadside boundary surface detection device
JP2014130429A (en) Photographing device and three-dimensional object area detection program
JP4519519B2 (en) Moving object detection device
JP5931691B2 (en) White line detection device and white line detection method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906