[go: up one dir, main page]

JP2010221863A - Vehicle surrounding monitoring device - Google Patents

Vehicle surrounding monitoring device Download PDF

Info

Publication number
JP2010221863A
JP2010221863A JP2009071608A JP2009071608A JP2010221863A JP 2010221863 A JP2010221863 A JP 2010221863A JP 2009071608 A JP2009071608 A JP 2009071608A JP 2009071608 A JP2009071608 A JP 2009071608A JP 2010221863 A JP2010221863 A JP 2010221863A
Authority
JP
Japan
Prior art keywords
image
bird
vehicle
eye view
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009071608A
Other languages
Japanese (ja)
Inventor
Kazuhiko Takeda
和彦 武田
Shoji Goto
章二 後藤
Takeshi Watanabe
剛 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009071608A priority Critical patent/JP2010221863A/en
Publication of JP2010221863A publication Critical patent/JP2010221863A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle surrounding monitoring device capable of efficiently detecting an obstacle in an entire peripheral bird's eye view image. <P>SOLUTION: A first image pickup device 2a to a fourth image pickup device 2d provided to a vehicle store a picked-up image in a frame buffer 10. An image reading part 12 supplies each image read from the frame buffer 10 to an image processing part 14, and supplies the image picked up by the second image pickup device 2b and the fourth image pickup device 2d to a moving amount detection part 16. The image processing part 14 converts each image received from the image reading part 12 into a bird's eye view image, converts the bird's eye view image to cancel the moving amount of the vehicle based on a moving vector of the entire vehicle received from the moving amount detection part 16, and supplies it to an obstacle detection part 18. The moving amount detection part 16 detects the moving vector of the entire vehicle based on the image received from the image reading part 12. The obstacle detection part 18 detects an obstacle for each image pickup device 2 by taking a difference of the bird's eye view images received from the image processing part 16. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両周囲監視技術に関し、特に車両に設置された撮像装置によって撮像した画像をもとに、車両の周囲を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring technique, and more particularly to a vehicle periphery monitoring device that monitors the periphery of a vehicle based on an image captured by an imaging device installed in the vehicle.

車両にカメラを設置し、運転者の死角となりやすい周辺状況の撮像映像をカーナビゲーションなどの画面に表示する監視装置の開発が行われている。   A monitoring device has been developed that installs a camera in a vehicle and displays a captured image of a surrounding situation that is likely to be a blind spot of a driver on a screen such as a car navigation system.

また、単に撮像画像を表示するだけでなく、車両周囲に複数のカメラを設置し、撮像されたそれぞれの撮像画像を鳥瞰図画像に変換し、それらの鳥瞰図画像を合成することで、車両の全周囲を俯瞰することができる全周鳥瞰図画像を表示するものもある(例えば、特許文献1)。   In addition to simply displaying captured images, multiple cameras are installed around the vehicle, each captured image is converted into a bird's-eye view image, and these bird's-eye view images are combined to create the entire periphery of the vehicle. Some display a bird's-eye view image of the entire circumference that allows the bird's-eye view to be viewed (for example, Patent Document 1).

さらに、車両に一つのカメラを設置し、撮像された時間差がある二つの撮像画像を、同一の鳥瞰図座標系に属する二つの鳥瞰図画像に変換し、これらの差分をとることで、撮像画像中の障害物を検出するものもある(例えば、特許文献2)。   Furthermore, one camera is installed in the vehicle, and two captured images with a time difference captured are converted into two bird's-eye view images belonging to the same bird's-eye view coordinate system, and by taking these differences, Some detect an obstacle (for example, Patent Document 2).

特開2007−269060号公報JP 2007-269060 A 特開2006−268076号公報JP 2006-268076 A

時間差がある二つの撮像画像を同一の鳥瞰図座標系に変換する場合、二つの撮像画像を撮像する間の車両の移動量を算出し、この移動量に基づき、一方の鳥瞰図画像を他方の鳥瞰図画像と同一の鳥瞰図画像系に座標変換する。このとき、撮像画像から車両の移動量を算出するため、撮像画像に含まれる特徴点(例えば、路面上の白線のエッジ)を勾配法やブロックマッチング法により追跡する。特徴点を追跡するための演算は負荷が重く、全周鳥瞰図画像において障害物を検出するため、全周鳥瞰図画像を構成する鳥瞰図画像ごとに特徴点を追跡すると、膨大な処理時間を要し、効率的な障害物の検出が困難であった。   When two captured images with a time difference are converted to the same bird's-eye view coordinate system, the movement amount of the vehicle between the two captured images is calculated, and one bird's-eye view image is converted to the other bird's-eye view image based on this movement amount. Is transformed to the same bird's eye view image system. At this time, in order to calculate the movement amount of the vehicle from the captured image, the feature points (for example, the edge of the white line on the road surface) included in the captured image are tracked by the gradient method or the block matching method. The calculation for tracking the feature points is heavy, and in order to detect obstacles in the all-around bird's-eye view image, tracking feature points for each bird's-eye view image constituting the all-around bird's-eye view image requires enormous processing time. Efficient obstacle detection was difficult.

本発明はこのような状況に鑑みてなされたものであり、全周鳥瞰図画像において効率良く障害物を検出することができる車両周囲監視装置を提供することを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to provide a vehicle surrounding monitoring apparatus that can efficiently detect an obstacle in a bird's eye view image of the entire circumference.

本発明のある態様は、車両周囲監視装置である。この車両周囲監視装置は、車両に設置されたN(Nは2以上の自然数)台の撮像装置ごとに撮像され、時間差のある二つの画像のそれぞれから、第1および第2の鳥瞰図画像を生成する画像生成部と、前記N台の撮像装置で撮像されたN個の画像のうち、N−1個以下の画像を選択する画像選択部と、前記N−1個以下の画像に含まれる特徴点を追跡することで、前記車両の移動量を検出する移動量検出部と、前記移動量に基づき、前記第2の鳥瞰図画像の座標を変換して第3の鳥瞰図画像を生成する座標変換部と、前記第1の鳥瞰図画像と前記3の鳥瞰図画像の差分をとることにより、障害物を検出する障害物検出部と、を備えることを特徴とする車両周囲監視装置である。   One embodiment of the present invention is a vehicle surrounding monitoring apparatus. This vehicle surrounding monitoring device captures images for each of N (N is a natural number of 2 or more) imaging devices installed in the vehicle, and generates first and second bird's-eye view images from two images having a time difference. An image generation unit that performs image selection, an image selection unit that selects N−1 or less images among N images captured by the N imaging devices, and a feature included in the N−1 or less images A movement amount detection unit that detects a movement amount of the vehicle by tracking a point, and a coordinate conversion unit that converts the coordinates of the second bird's-eye view image based on the movement amount to generate a third bird's-eye view image And an obstacle detection unit that detects an obstacle by taking a difference between the first bird's-eye view image and the third bird's-eye view image.

また、前記画像選択部は、前記N個の画像から、車両の右方向および左方向を撮像した画像を選択することが好ましい。   Moreover, it is preferable that the said image selection part selects the image which imaged the right direction and the left direction of the vehicle from the said N images.

また、前記画像選択部は、前記N個の画像から、画質が高い順に前記N−1個以下の画像を選択することが好ましい。   Further, it is preferable that the image selection unit selects the N−1 or less images in descending order of image quality from the N images.

また、前記画像選択部は、前記N個の画像から、特徴点が多く含まれる順に前記N−1個以下の画像を選択することが好ましい。   In addition, it is preferable that the image selection unit selects the N−1 or less images from the N images in the order in which many feature points are included.

また、前記画像選択部は、前記N個の画像から、対応する撮像装置の水平面に対する俯角が大きい順に前記N−1個以下の画像を選択することが好ましい。   Moreover, it is preferable that the said image selection part selects the said N-1 image or less from the said N images in order with a large depression angle with respect to the horizontal surface of a corresponding imaging device.

また、前記画像選択部は、前記N個の画像から、路面上の白線が多く含まれる順に前記N−1個以下の画像を選択することが好ましい。   Moreover, it is preferable that the said image selection part selects the said N-1 image or less from the said N images in order with many white lines on a road surface.

本発明よれば、全周鳥瞰図画像における障害物検出を効率良く行うことができる。   According to the present invention, obstacle detection in an all-around bird's-eye view image can be performed efficiently.

本発明の実施の形態における車両周囲監視装置3を搭載した車両1の構成を示す概念図The conceptual diagram which shows the structure of the vehicle 1 carrying the vehicle periphery monitoring apparatus 3 in embodiment of this invention. 表示装置に表示される全周鳥瞰図画像の図All-round bird's-eye view image displayed on the display device 本発明の実施の形態における車両周囲監視装置3の構成を示す概念図The conceptual diagram which shows the structure of the vehicle periphery monitoring apparatus 3 in embodiment of this invention 鳥瞰図画像から障害物を検出するときの手順を示すフローチャートFlow chart showing the procedure for detecting an obstacle from a bird's eye view image

本発明を具体的に説明する前に概要について述べる。本発明の実施の形態は、全周鳥瞰図画像における障害物を検出する車両周囲監視装置に関する。車両周囲監視装置は、車両の前方、後方、左方、右方に設置された合計4つの車載カメラから撮像画像を取得し、全周鳥瞰図画像を合成する。   The outline will be described before the present invention is specifically described. Embodiments described herein relate generally to a vehicle surrounding monitoring apparatus that detects an obstacle in an all-around bird's-eye view image. The vehicle periphery monitoring device acquires captured images from a total of four in-vehicle cameras installed at the front, rear, left, and right sides of the vehicle, and synthesizes a bird's eye view image of the entire circumference.

また、車両周囲監視装置は、車載カメラごとに撮像した時間差のある二つの撮像画像のそれぞれを、同一の鳥瞰図座標系に属する二つ鳥瞰図画像に変換する。そして、これらの差分をとることで、車載カメラごとに障害物の検出を行う。さらに、検出した障害物を全周鳥瞰図画像上に表示することで運転者に注意を促す。   In addition, the vehicle surrounding monitoring apparatus converts each of the two captured images having a time difference captured for each in-vehicle camera into two bird's-eye view images belonging to the same bird's-eye view coordinate system. And the obstacle is detected for every vehicle-mounted camera by taking these differences. Furthermore, the detected obstacle is displayed on the all-around bird's-eye view image to alert the driver.

このとき、時間差のある二つの撮像画像を同一の鳥瞰図座標系に変換するため、撮像画像に含まれる特徴点の追跡を行い、車両の移動量を検出する。特徴点の追跡の演算は負荷が重く、車載カメラごとに特徴点の追跡を行うと、車載カメラの台数に応じて演算負荷が増大する。   At this time, in order to convert two captured images with a time difference into the same bird's eye view coordinate system, the feature points included in the captured images are tracked to detect the amount of movement of the vehicle. The calculation of feature point tracking is heavy, and if feature points are tracked for each in-vehicle camera, the calculation load increases according to the number of in-vehicle cameras.

ここで、車両の移動量は設置された車載カメラ全てに共通するので、例えば、ある車載カメラで撮像した撮像画像に含まれる特徴点を追跡することで車両の移動量が検出できれば、残りの車載カメラで特徴点の追跡を行う必要はない。   Here, since the moving amount of the vehicle is common to all installed in-vehicle cameras, for example, if the moving amount of the vehicle can be detected by tracking the feature points included in the captured image captured by a certain in-vehicle camera, the remaining in-vehicle cameras There is no need to track feature points with a camera.

また、一般に、車両前方および後方の車載カメラは車両から遠く離れたところまで撮像できるよう(水平面に対する俯角が小さく)設置され、車両左方および右方の車載カメラは車両の近くを撮像するよう(水平面に対する俯角が大きく)設置される。このため、車両左右の車載カメラの撮像画像は、車両前後の車載カメラの撮像画像より画質が良く、車両左右の車載カメラの撮像画像で特徴点の追跡を行うと、その精度良くなることが多い。   In general, in-vehicle cameras at the front and rear of the vehicle are installed so that they can image far away from the vehicle (with a small depression angle relative to the horizontal plane), and the in-vehicle cameras on the left and right of the vehicle image near the vehicle ( Installed at a large depression angle with respect to the horizontal plane). For this reason, the captured images of the left and right vehicle-mounted cameras have better image quality than the captured images of the vehicle-mounted cameras before and after the vehicle, and tracking the feature points with the captured images of the left and right vehicle-mounted cameras often improves the accuracy. .

そこで、本発明の実施の形態における車両周囲監視装置においては、車両に設置された複数の車載カメラで撮像した撮像画像のなかから、車両の移動量を検出するために適した撮像画像を選択し、この選択した撮像画像に対して特徴点の追跡を行う。   Therefore, in the vehicle surrounding monitoring apparatus according to the embodiment of the present invention, a captured image suitable for detecting the amount of movement of the vehicle is selected from captured images captured by a plurality of in-vehicle cameras installed in the vehicle. Then, feature points are tracked for the selected captured image.

これにより、車両に設置された全ての車載カメラの撮像画像に対して特徴点の追跡を行わなくても、車載カメラごとに撮像した時間差のある撮像画像を同一の鳥瞰図座標系に変換することができるので、全周鳥瞰図画像における障害物検出を効率良く行うことができる。   As a result, it is possible to convert captured images with a time difference taken for each in-vehicle camera into the same bird's-eye view coordinate system without tracking feature points for all in-vehicle cameras installed in the vehicle. Therefore, the obstacle detection in the all-around bird's-eye view image can be performed efficiently.

図1は、本発明の実施の形態における車両1の構成を示す概念図である。車両1は、撮像装置2と総称される第1撮像装置2a、第2撮像装置2b、第3撮像装置2c、第4撮像装置2d、車両周囲監視装置3、表示装置4を含む。なお、車両1には、エンジン、シャーシ、ハンドル、ブレーキ等のような、車両1の本来の動作を実現するための構成要素が含まれているが、図の簡略化のため、図1では省略する。   FIG. 1 is a conceptual diagram showing a configuration of a vehicle 1 in an embodiment of the present invention. The vehicle 1 includes a first imaging device 2 a, a second imaging device 2 b, a third imaging device 2 c, a fourth imaging device 2 d, a vehicle surrounding monitoring device 3, and a display device 4 that are collectively referred to as the imaging device 2. The vehicle 1 includes components for realizing the original operation of the vehicle 1 such as an engine, a chassis, a handle, a brake, etc., but is omitted in FIG. 1 for simplification of the drawing. To do.

撮像装置2は、画像を連続的に撮像し、撮像した画像を車両周囲監視装置3へ供給する。第1撮像装置2aは車両の前方部分に設置され、第2撮像装置2bは車両の右方部分に設置されている。また、第3撮像装置2cは車両の後方部分に設置され、第4撮像装置2dは車両左方部分に設置されている。なお、撮像装置2の数は「4」に限定されない。車両周囲監視装置3は、撮像装置2から受け取った画像を鳥瞰図画像に変換し、さらに複数の撮像装置2のそれぞれに対応した鳥瞰図画像を合成することによって、全周鳥瞰図画像を生成する。   The imaging device 2 continuously captures images and supplies the captured images to the vehicle surrounding monitoring device 3. The first imaging device 2a is installed in the front part of the vehicle, and the second imaging device 2b is installed in the right part of the vehicle. The third imaging device 2c is installed in the rear part of the vehicle, and the fourth imaging device 2d is installed in the left part of the vehicle. The number of imaging devices 2 is not limited to “4”. The vehicle surroundings monitoring device 3 generates an all-round bird's-eye view image by converting the image received from the imaging device 2 into a bird's-eye view image and further combining the bird's-eye view images corresponding to each of the plurality of imaging devices 2.

車両周囲監視装置3は、第2撮像装置2bから受け取った画像(以下、右方画像ともいう)および第4撮像装置2dから受け取った画像(以下、左方画像ともいう)に基づき、車両全体の動きベクトルを検出する。   The vehicle surroundings monitoring device 3 is configured to detect the entire vehicle based on an image received from the second imaging device 2b (hereinafter also referred to as a right image) and an image received from the fourth imaging device 2d (hereinafter also referred to as a left image). Detect motion vectors.

また、車両周囲監視装置3は、撮像装置2のそれぞれに対応した鳥瞰図画像において、ある時点の鳥瞰図画像(以下、第1鳥瞰図画像ともいう)と、第1鳥瞰図画像から所定の期間(例えば、1フレーム期間)離れた時点の鳥瞰図画像(以下、第2鳥瞰図画像ともいう)を抽出する。   In addition, the vehicle surroundings monitoring device 3 includes a bird's-eye view image (hereinafter also referred to as a first bird's-eye view image) at a certain point in time and a predetermined period (for example, 1) from the bird's-eye view image corresponding to each of the imaging devices 2. A bird's-eye view image (hereinafter also referred to as a second bird's-eye view image) at a time point away from the frame period) is extracted.

撮像地点が異なる二つの画像から生成した鳥瞰図画像のそれぞれを同一の鳥瞰図座標系に変換すると、撮像対象の平面的な領域で両者は一致するが、撮像対象の高さがある領域で両者は不一致を生じる。   When each bird's-eye view image generated from two images with different imaging points is converted to the same bird's-eye view coordinate system, they match in the planar area of the imaging target, but they do not match in the area where the imaging target is high Produce.

ここで、第2鳥瞰図画像の座標系は、第1鳥瞰図画像の座標系に対して所定の期間内に生じた車両の移動量分ずれている。そこで、車両周囲監視装置3は、車両全体の動きベクトルから所定の期間内に生じた車両の移動量を算出し、第2鳥瞰図画像に対して、この移動量を打ち消す座標変換を行う。そして、第1鳥瞰図画像と、第2鳥瞰図画像に対して座標変換を行うことで生成した鳥瞰図画像(以下、第3鳥瞰図画像ともいう)との差分をとることで、撮像対象の高さがある領域、つまり障害物を検出する。   Here, the coordinate system of the second bird's-eye view image is shifted from the coordinate system of the first bird's-eye view image by the amount of movement of the vehicle that has occurred within a predetermined period. Therefore, the vehicle periphery monitoring device 3 calculates the amount of movement of the vehicle that has occurred within a predetermined period from the motion vector of the entire vehicle, and performs coordinate conversion for canceling this amount of movement on the second bird's-eye view image. Then, by taking the difference between the first bird's-eye view image and the bird's-eye view image generated by performing coordinate conversion on the second bird's-eye view image (hereinafter also referred to as the third bird's-eye view image), there is a height of the imaging target. An area, that is, an obstacle is detected.

車両周囲監視装置3は、全周鳥瞰図画像に検出した障害物を識別できるように、障害物に特殊記号(例えば、エクスクラメーション)を付したり、点滅表示させて表示装置4に供給する。   The vehicle surrounding monitoring device 3 supplies the display device 4 with a special symbol (for example, exclamation) or blinks the obstacle so that the detected obstacle can be identified in the all-around bird's-eye view image.

表示装置4は、例えば液晶モニタであり、車両周囲監視装置3から受け取った全周鳥瞰図画像を図2に示すように表示する。図2では画面中央に車両が表示され、車両の上方の撮像装置2aに対応した鳥瞰図画像、右方の撮像装置2bに対応した鳥瞰図画像、下方の撮像画像2cに対応した鳥瞰図画像、左方の撮像画像2dに対応した鳥瞰図画像から構成される全周鳥瞰図画像が表示されている。また、全周鳥瞰図画像には、検出された障害物が識別可能な態様で表示されるので、運転者にとって車両周囲の状況を実感しやすくなり、正確なハンドル操作が可能となる。   The display device 4 is a liquid crystal monitor, for example, and displays the all-around bird's-eye view image received from the vehicle surroundings monitoring device 3 as shown in FIG. In FIG. 2, a vehicle is displayed at the center of the screen, a bird's-eye view image corresponding to the imaging device 2a above the vehicle, a bird's-eye view image corresponding to the right imaging device 2b, a bird's-eye view image corresponding to the lower imaging image 2c, An all-around bird's-eye view image composed of bird's-eye view images corresponding to the captured image 2d is displayed. In addition, since the detected obstacles are displayed in an identifiable manner on the all-around bird's-eye view image, it is easy for the driver to feel the situation around the vehicle, and an accurate steering operation is possible.

図3は、本発明の実施の形態における車両周囲監視装置3の構成を示す概念図である。車両周囲監視装置3は、フレームバッファ10と総称される第1フレームバッファ10a、第2フレームバッファ10b、第3フレームバッファ10c、第4フレームバッファ10d、画像読出部12、画像処理部14、移動量検出部16、障害物検出部18、制御部20を含む。   FIG. 3 is a conceptual diagram showing a configuration of the vehicle periphery monitoring device 3 according to the embodiment of the present invention. The vehicle surrounding monitoring apparatus 3 includes a first frame buffer 10a, a second frame buffer 10b, a third frame buffer 10c, a fourth frame buffer 10d, an image reading unit 12, an image processing unit 14, A detection unit 16, an obstacle detection unit 18, and a control unit 20 are included.

フレームバッファ10は、図示しない各撮像装置2に対応づけられて配置されている。すなわち、第1フレームバッファ10aから第4フレームバッファ10dは、第1撮像装置2aから第4撮像装置2dにそれぞれ対応づけられている。フレームバッファ10は、撮像装置2から受け取った画像を記憶する。   The frame buffer 10 is arranged in association with each imaging device 2 (not shown). That is, the first frame buffer 10a to the fourth frame buffer 10d are associated with the first imaging device 2a to the fourth imaging device 2d, respectively. The frame buffer 10 stores the image received from the imaging device 2.

画像読出部12は、第1フレームバッファ10a、第2フレームバッファ10b、第3フレームバッファ10cおよび第4フレームバッファ10dに記憶されている画像を読み出し、それぞれを画像処理部14に供給する。また、画像読出部14は、第1フレームバッファ10a、第2フレームバッファ10b、第3フレームバッファ10cおよび第4フレームバッファ10dに記憶されている画像のなかから、制御部20に指示された画像を読み出し、移動量検出部16に供給する。本発明の実施の形態では、右方画像および左方画像に基づき、車両全体の動きベクトルを検出する。このため、制御部20から、右方画像および左方画像を読み出すように指示を受けた画像読出部12は、第2フレームバッファ10bおよび第4フレームバッファ10dから画像を読み出し、移動量検出部16に供給する。   The image reading unit 12 reads the images stored in the first frame buffer 10a, the second frame buffer 10b, the third frame buffer 10c, and the fourth frame buffer 10d, and supplies each of them to the image processing unit 14. The image reading unit 14 also selects an image instructed by the control unit 20 from among the images stored in the first frame buffer 10a, the second frame buffer 10b, the third frame buffer 10c, and the fourth frame buffer 10d. Read and supply to the movement amount detector 16. In the embodiment of the present invention, the motion vector of the entire vehicle is detected based on the right image and the left image. Therefore, the image reading unit 12 that has received an instruction to read the right image and the left image from the control unit 20 reads the images from the second frame buffer 10b and the fourth frame buffer 10d, and the movement amount detection unit 16 To supply.

画像処理部14は、画像読出部12から受け取った各画像のそれぞれを鳥瞰図画像へ変換する。そして、鳥瞰図画像を合成することにより、全周鳥瞰図画像を生成する。また、鳥瞰図画像に対して、車両の移動量を打ち消す変換を行い、これを障害物検出部16に供給する。さらに、障害物検出部16から受け取った障害物の位置情報を参照し、全周鳥瞰図画像上に運転者が認識可能な態様で、これを表示する。   The image processing unit 14 converts each image received from the image reading unit 12 into a bird's eye view image. Then, an all-around bird's-eye view image is generated by combining the bird's-eye view images. The bird's-eye view image is converted to cancel the amount of vehicle movement, and is supplied to the obstacle detection unit 16. Further, the position information of the obstacle received from the obstacle detection unit 16 is referred to and displayed in a manner that the driver can recognize on the all-around bird's-eye view image.

画像処理部14は、画像変換部22、画像合成部24、変換テーブル記憶部26を含む。   The image processing unit 14 includes an image conversion unit 22, an image composition unit 24, and a conversion table storage unit 26.

画像変換部22は、画像読出部12からフレームバッファ10ごとに画像を受け取り、各画像のそれぞれを、変換テーブル記憶部26に記憶された変換式を参照することによって、鳥瞰図画像へ変換する。つまり、鳥瞰図画像は、変換前の画像を撮像した撮像装置2ごとに対応付けられている。なお、鳥瞰図画像への変換は、公知の技術、例えば、特開2007−269060号公報に開示された技術を使用すればいいので、ここでは説明を省略する。   The image conversion unit 22 receives an image for each frame buffer 10 from the image reading unit 12, and converts each image into a bird's-eye view image by referring to the conversion formula stored in the conversion table storage unit 26. That is, the bird's eye view image is associated with each imaging device 2 that has captured the image before conversion. The conversion into the bird's-eye view image may be performed by using a known technique, for example, the technique disclosed in Japanese Patent Application Laid-Open No. 2007-269060, and the description thereof is omitted here.

画像変換部22は、撮像装置2ごとに、対応付けられた鳥瞰図画像のなかから、障害物検出の処理対象とすべき一組の鳥瞰図画像(第1鳥瞰図画像および第2鳥瞰図画像)を抽出する。第1鳥瞰図画像を離散的に抽出すれば、障害物検出処理の負荷を軽減できる。一方、第1鳥瞰図画像を連続的に抽出すれば、リアルタイムで障害物の検出を行うことができる。   The image conversion unit 22 extracts a set of bird's-eye view images (first bird's-eye view image and second bird's-eye view image) to be processed for obstacle detection from the associated bird's-eye view images for each imaging device 2. . If the first bird's eye view image is discretely extracted, the load of the obstacle detection process can be reduced. On the other hand, if the first bird's eye view images are continuously extracted, obstacles can be detected in real time.

画像変換部22は、移動量検出部16から受け取った車両全体の動きベクトルに基づき、変換テーブル記憶部26を参照することによって、第2鳥瞰図画像に対して車両の移動量を打ち消す変換を実行する。これにより、車両の移動と反対方向に仮想視点をずらした第3鳥瞰図画像を生成する。すなわち、画像変換部22は、車両全体の動きベクトルが並進運動による動きベクトルであれば、第2鳥瞰図画像に対して仮想視点を反対方向に平行移動させる変換を行う。また、車両全体の動きベクトルが回転運動による動きベクトルであれば、第2鳥瞰図画像に対して仮想視点を反対方向に回転移動させる変換を行う。画像変換部22は、第1鳥瞰図画像と第3鳥瞰図画像を障害物検出部18に供給する。   The image conversion unit 22 performs conversion for canceling the movement amount of the vehicle with respect to the second bird's-eye view image by referring to the conversion table storage unit 26 based on the motion vector of the entire vehicle received from the movement amount detection unit 16. . Thereby, the 3rd bird's-eye view image which shifted the virtual viewpoint in the direction opposite to movement of vehicles is generated. In other words, if the motion vector of the entire vehicle is a translational motion vector, the image conversion unit 22 performs a conversion for translating the virtual viewpoint in the opposite direction to the second bird's-eye view image. Further, if the motion vector of the entire vehicle is a motion vector due to a rotational motion, conversion is performed to rotate and move the virtual viewpoint in the opposite direction with respect to the second bird's-eye view image. The image conversion unit 22 supplies the first bird's-eye view image and the third bird's-eye view image to the obstacle detection unit 18.

画像合成部24は、撮像装置2ごとに対応付けられた鳥瞰図画像を変換テーブル26を参照することによって合成し、全周鳥瞰図画像を生成する。なお、全周鳥瞰図画像の合成も特開2007−269060号公報に開示された技術を使用すればよい。   The image synthesis unit 24 synthesizes the bird's-eye view image associated with each imaging device 2 by referring to the conversion table 26 to generate an all-round bird's-eye view image. Note that the technique disclosed in Japanese Patent Application Laid-Open No. 2007-269060 may be used for synthesizing the all-around bird's-eye view image.

また、画像合成部24は、障害物検出部18から鳥瞰図画像上における障害物の位置情報を受け取る。この位置情報を参照することによって、全周鳥瞰図画像上の対応する位置周辺の画素データを、点滅表示やハイライト表示するなどし、表示装置4に供給する。   Further, the image composition unit 24 receives the position information of the obstacle on the bird's eye view image from the obstacle detection unit 18. By referring to this position information, the pixel data around the corresponding position on the all-around bird's-eye view image is supplied to the display device 4 by blinking display or highlight display.

変換テーブル記憶部26は、画像から全周鳥瞰図画像への変換の際に利用される変換式を記憶している。また、第2鳥瞰図画像を平行移動させる変換や回転移動させる変換ための変換式も記憶している。   The conversion table storage unit 26 stores a conversion formula used when converting an image into an all-around bird's-eye view image. In addition, a conversion formula for converting the second bird's-eye view image into parallel translation or rotational conversion is also stored.

移動量検出部16は、画像読出部12から受け取った右方画像および左方画像に基づき、車両全体の動きベクトルを検出する。移動量検出部16は、動き検出部28、動き推定部30を含む。   The movement amount detection unit 16 detects the motion vector of the entire vehicle based on the right side image and the left side image received from the image reading unit 12. The movement amount detection unit 16 includes a motion detection unit 28 and a motion estimation unit 30.

動き検出部28は、画像読出部12から受け取った右方画像および左方画像それぞれの画像内における大域的な動きベクトル(以下、大域動きベクトルともいう)を検出する。そのため動きベクトル検出部28は、画像内の特徴点を抽出する。特徴点の抽出には、一例として、KLT(Kanade−Lucas−Tomasi)法を用いる。なお、KLT法は、例えば、C.Tomasi and T.Kanade,“Detection and Tracking of Point Features,”Carnegie Mellon University Techical Report CMU−CS−91−132, April 1991.に開示された公知の技術であるので、ここでは説明を省略する。   The motion detection unit 28 detects a global motion vector (hereinafter also referred to as a global motion vector) in each of the right image and the left image received from the image reading unit 12. Therefore, the motion vector detection unit 28 extracts feature points in the image. For example, the KLT (Kanade-Lucas-Tomasi) method is used for extracting feature points. The KLT method is, for example, C.I. Tomasi and T. Kanade, “Detection and Tracking of Point Features,” Carnegie Mellon University Technical Report CMU-CS-91-132, April 1991. Therefore, the description thereof is omitted here.

動き検出部28は、画像読出部12から受け取った右方画像および左方画像それぞれについて、検出した特徴点を時間軸方向に追跡する。このため、動き検出部28は、時点Tの画像で特徴点を検出すると、時点T+1の画像における、その対応点をブロックマッチング法により検出する。   The motion detection unit 28 tracks the detected feature points in the time axis direction for each of the right image and the left image received from the image reading unit 12. For this reason, when detecting the feature point in the image at time T, the motion detection unit 28 detects the corresponding point in the image at time T + 1 by the block matching method.

具体的には、時点Tの画像において特徴点を含む単位ブロック(例えば、縦8画素×横8画素の正方形)をテンプレートブロックとし、時点T+1の画像上に所定の探索領域(例えば、縦16単位ブロック×横16単位ブロック)を設定する。探索領域内でテンプレートブロックと、対応点を含んでいると予測される単位ブロックの候補との間で、画素値の差分絶対値の総和を算出する。動き検出部28は、その値が最小となる単位ブロック(以下、予測単位ブロックともいう)に対応点が含まれていると予測する。そして、時点T+1の画像上のテンプレートブロックに対応する位置の単位ブロックから、予測単位ブロックへの動きを示すベクトルを、特徴点の動きベクトル(以下、局所動きベクトルともいう)として検出する。   Specifically, a unit block including a feature point in the image at time T (for example, a square of 8 pixels in length × 8 pixels in width) is used as a template block, and a predetermined search area (for example, 16 units in length) on the image at time T + 1. Block × horizontal 16 unit block) is set. The sum of absolute differences of pixel values is calculated between the template block in the search area and the unit block candidates predicted to include corresponding points. The motion detection unit 28 predicts that the corresponding point is included in the unit block having the minimum value (hereinafter also referred to as a prediction unit block). Then, a vector indicating the motion from the unit block at the position corresponding to the template block on the image at time T + 1 to the prediction unit block is detected as a motion vector of the feature point (hereinafter also referred to as a local motion vector).

動き検出部28は、時点Tの画像で複数の特徴点を検出し、それに対応した複数の局所動きベクトルを検出する。複数の局所動きベクトルに対して統計処理を行い(例えば、所定の誤差範囲に含まれる局所動きベクトルを平均化する処理)、右方画像および左方画像のそれぞれについて大域動きベクトルを検出し、動き推定部30に供給する。   The motion detection unit 28 detects a plurality of feature points in the image at the time T, and detects a plurality of local motion vectors corresponding to the feature points. Statistical processing is performed on a plurality of local motion vectors (for example, processing for averaging local motion vectors included in a predetermined error range), global motion vectors are detected for each of the right image and the left image, and motion is detected. It supplies to the estimation part 30.

動き推定部30は、動き検出部28から受け取った、右方画像から検出された大域動きベクトル(以下、右方大域動きベクトルともいう)および左方画像から検出された大域動きベクトル(以下、左方大域動きベクトルともいう)から、車両全体の動きベクトルを検出する。   The motion estimation unit 30 receives the global motion vector detected from the right image (hereinafter also referred to as the right global motion vector) and the global motion vector detected from the left image (hereinafter referred to as the left) received from the motion detection unit 28. The motion vector of the entire vehicle is detected from the global motion vector.

ここで、車両が並進運動(例えば、直進している場合)をしているときは、右方大域動きベクトルと左方大域動きベクトルの大きさは等しくなる。一方、車両が回転運動(例えば、右旋回している場合)をしているときは、右方大域動きベクトルと左方大域動きベクトルの大きさは異なる。   Here, when the vehicle is in translation (for example, when traveling straight), the right global motion vector and the left global motion vector have the same magnitude. On the other hand, when the vehicle is rotating (for example, when turning right), the magnitudes of the right global motion vector and the left global motion vector are different.

そこで、動き推定部30は、右方大域動きベクトルと左方大域動きベクトルを比較し、車両が並進運動を行っているか、回転運動を行っているかを判断する。車両が並進運動していると判断した場合、右方大域動きベクトルあるいは左方大域動きベクトルのどちらか一方、または双方を平均化したものを車両全体の動きベクトルとして画像処理部14に供給する。   Therefore, the motion estimation unit 30 compares the right global motion vector and the left global motion vector to determine whether the vehicle is performing translational motion or rotational motion. When it is determined that the vehicle is moving in translation, one of the right global motion vector and the left global motion vector, or an average of both is supplied to the image processing unit 14 as the motion vector of the entire vehicle.

車両全体が回転運動を行っている場合、右方大域動きベクトルの大きさは、第2撮像装置2bまでの距離と回転量の積に比例し、左方大域動きベクトルの大きさは、回転中心点から第4撮像装置2dまでの距離と回転量の積に比例する。また、第2撮像装置2bと第4撮像装置2dとの相対距離は既知である。よって、左方大域動きベクトルの大きさと右方大域動きベクトルの大きさが分かれば、回転量を算出することができる。そこで、動き推定部30は、車両が回転運動していると判断した場合、右方大域動きベクトルの大きさと左方大域動きベクトルの大きさとから回転量を算出し、この回転量と回転方向を車両全体の動きベクトルとして画像処理部14に供給する。   When the entire vehicle is rotating, the magnitude of the right global motion vector is proportional to the product of the distance to the second imaging device 2b and the amount of rotation, and the magnitude of the left global motion vector is the center of rotation. It is proportional to the product of the distance from the point to the fourth imaging device 2d and the rotation amount. Moreover, the relative distance between the second imaging device 2b and the fourth imaging device 2d is known. Therefore, if the magnitude of the left global motion vector and the magnitude of the right global motion vector are known, the amount of rotation can be calculated. Therefore, when the motion estimation unit 30 determines that the vehicle is rotating, the motion estimation unit 30 calculates a rotation amount from the magnitude of the right global motion vector and the magnitude of the left global motion vector, and calculates the rotation amount and the rotation direction. The motion vector of the entire vehicle is supplied to the image processing unit 14.

障害物検出部18は、画像処理部14から受け取った第1鳥瞰図画像と第3鳥瞰図画像の差分をとる。上述したように、撮像対象に高さがある領域では、差分結果に不一致が生じる。そこで、障害物検出部18は、画像処理部14から受け取った第1鳥瞰図画像および第3鳥瞰図画像の差分をとることで撮像装置2ごとに障害物を検出し、鳥瞰図画像上における障害物の位置情報を画像処理部14に供給する。また、障害物検出部18は、障害物を検出した領域の第1鳥瞰図画像上における座標位置を測定し、これを鳥瞰図画像上の障害物の位置情報として画像処理部14に供給する。   The obstacle detection unit 18 calculates a difference between the first bird's-eye view image and the third bird's-eye view image received from the image processing unit 14. As described above, in the region where the imaging target is high, the difference results are inconsistent. Therefore, the obstacle detection unit 18 detects the obstacle for each imaging device 2 by taking the difference between the first bird's-eye view image and the third bird's-eye view image received from the image processing unit 14, and the position of the obstacle on the bird's-eye view image Information is supplied to the image processing unit 14. In addition, the obstacle detection unit 18 measures the coordinate position on the first bird's-eye view image of the area where the obstacle is detected, and supplies this to the image processing unit 14 as position information of the obstacle on the bird's-eye view image.

以上の構成による車両周囲監視装置3の動作を説明する。図4は、鳥瞰図画像から障害物を検出するときの手順を示すフローチャートである。   The operation of the vehicle periphery monitoring device 3 having the above configuration will be described. FIG. 4 is a flowchart showing a procedure for detecting an obstacle from a bird's eye view image.

動き検出部28は、画像読出部12から受け取った右方画像より右方大域動きベクトルを検出し、左方画像より左方大域動きベクトルを検出する(S10)。右方大域動きベクトルおよび左方大域動きベクトルが検出されなければ(S12のN)、動き検出部28は、車両が停止していると判断し、処理を終了する。   The motion detection unit 28 detects a right global motion vector from the right image received from the image reading unit 12, and detects a left global motion vector from the left image (S10). If the right global motion vector and the left global motion vector are not detected (N in S12), the motion detection unit 28 determines that the vehicle is stopped and ends the process.

一方、右方大域動きベクトルおよび左方大域動きベクトルが検出されると(S12のY)、動き推定部30は、右方大域動きベクトルの大きさと左方大域動きベクトルの大きさを比較する(S14)。   On the other hand, when the right global motion vector and the left global motion vector are detected (Y in S12), the motion estimation unit 30 compares the size of the right global motion vector with the size of the left global motion vector ( S14).

動き推定部30は、右方大域動きベクトルの大きさと左方大域動きベクトルの大きさが等しい場合(S14のY)、車両全体は並進運動を行っていると判断し、例えば、右方大域動きベクトルを車両全体の動きベクトルとして画像処理部14に供給する。さらに動き推定部30は、第2鳥瞰図画像の仮想視点を、車両の動きと反対方向に平行移動させる変換を行うように、画像処理部14対して指示を行う。画像変換部22は、動き推定部30からの指示に基づき、第2鳥瞰図画像の仮想視点を前後にずらした第3鳥瞰図画像を生成し、障害物検出部18に供給する(S16)。   When the magnitude of the right global motion vector is equal to the magnitude of the left global motion vector (Y in S14), the motion estimation unit 30 determines that the entire vehicle is performing translational motion, for example, the right global motion The vector is supplied to the image processing unit 14 as a motion vector for the entire vehicle. Furthermore, the motion estimation unit 30 instructs the image processing unit 14 to perform conversion for translating the virtual viewpoint of the second bird's eye view image in the direction opposite to the vehicle motion. Based on the instruction from the motion estimation unit 30, the image conversion unit 22 generates a third bird's-eye view image in which the virtual viewpoint of the second bird's-eye view image is shifted back and forth, and supplies the third bird's-eye view image to the obstacle detection unit 18 (S16).

動き推定部30は、右方大域動きベクトルの大きさと左方大域動きベクトルの大きさが異なる場合(S14のN)、車両全体は回転運動を行っていると判断し、右方大域動きベクトルの大きさと左方大域動きベクトルの大きさから回転量を算出する。動き推定部30は、算出した回転量と回転方向を車両全体の動きベクトルとして画像処理部14に供給する。さらに動き推定部30は、第2鳥瞰図画像の仮想視点を、車両と動きと反対方向に回転移動させる変換を行うように、画像処理部14に対して指示を行う。画像変換部22は、動き推定部30からの指示に基づき、第2鳥瞰図画像の仮想視点を回転させた第3鳥瞰図画像を生成し、障害物検出部18に供給する(S18)。   When the magnitude of the right global motion vector is different from the magnitude of the left global motion vector (N in S14), the motion estimation unit 30 determines that the entire vehicle is performing rotational motion, and determines the right global motion vector. The amount of rotation is calculated from the magnitude and the magnitude of the left global motion vector. The motion estimation unit 30 supplies the calculated rotation amount and rotation direction to the image processing unit 14 as a motion vector for the entire vehicle. Furthermore, the motion estimation unit 30 instructs the image processing unit 14 to perform conversion in which the virtual viewpoint of the second bird's-eye view image is rotated and moved in the direction opposite to the vehicle and motion. The image conversion unit 22 generates a third bird's-eye view image obtained by rotating the virtual viewpoint of the second bird's-eye view image based on an instruction from the motion estimation unit 30, and supplies the third bird's-eye view image to the obstacle detection unit 18 (S18).

障害物検出部18は、画像処理部14から受け取った第1鳥瞰図画像と第3鳥瞰図画像との差分をとり、障害物を検出する(S20)。   The obstacle detection unit 18 takes the difference between the first bird's eye view image and the third bird's eye view image received from the image processing unit 14 and detects an obstacle (S20).

このような本発明の実施の形態によれば、車両に設置された第1撮像装置2a、第2撮像装置2b、第3撮像装置2cおよび第4撮像装置2dのうち、第2撮像装置2bおよび第4撮像装置2dで撮像された画像について、特徴点の追跡を行うので、動きベクトル検出の演算負荷を軽減することができる。   According to such an embodiment of the present invention, of the first imaging device 2a, the second imaging device 2b, the third imaging device 2c, and the fourth imaging device 2d installed in the vehicle, the second imaging device 2b and Since the feature points are tracked for the image captured by the fourth imaging device 2d, the calculation load of motion vector detection can be reduced.

また、第2撮像装置2bで撮像した車両の右方画像と、第4撮像装置2dで撮像した車両の左方画像に基づき動きベクトルを検出するので、車両の前方画像および後方画像に比べ特徴点が検出しやすく、動きベクトルの検出精度が良くなる。また、車両近傍の高画質な画像に対して特徴点の追跡を行うので、動きベクトルの検出精度が良くなる。また、車両が直進運動を行っている場合、前方画像および後方画像に対して動きベクトルを検出するよりも、大きな動きベクトルを検出できるので、車両全体を動きベクトルを精度良く検出できる。また、車両が並進運動をしているのか回転運動をしているかを的確に検出できる。よって、全周鳥瞰図画像に対する障害物検出を効率良く行うことができる。   Further, since the motion vector is detected based on the right image of the vehicle imaged by the second imaging device 2b and the left image of the vehicle imaged by the fourth imaging device 2d, the feature points are compared with the front image and the rear image of the vehicle. Is easy to detect and the motion vector detection accuracy is improved. In addition, since feature points are tracked for high-quality images near the vehicle, motion vector detection accuracy is improved. In addition, when the vehicle is moving straight ahead, a larger motion vector can be detected than when detecting a motion vector for the front image and the rear image, so that the motion vector can be accurately detected for the entire vehicle. In addition, it is possible to accurately detect whether the vehicle is moving in translation or rotating. Therefore, it is possible to efficiently perform obstacle detection for the all-around bird's-eye view image.

以上、本発明を実施するための形態について説明をしてきたが、本発明は、この実施の形態の構成に限定されるものではなく、特許請求の範囲に規定された本発明の適用範囲にあり、上述した実施の形態の構成が備える機能を達成可能であれば、いろいろな変形が可能である。   As mentioned above, although the form for implementing this invention has been demonstrated, this invention is not limited to the structure of this embodiment, It exists in the application range of this invention prescribed | regulated by the claim. Various modifications are possible as long as the functions of the configuration of the above-described embodiment can be achieved.

例えば、本発明の実施の形態において、移動量検出部16は、4台の撮像装置2のうち、第2撮像装置2bおよび第4撮像装置2dで撮像された画像について特徴点の追跡を行ったが、どちらか一方についてのみ特徴点の追跡を行ってもよい。   For example, in the embodiment of the present invention, the movement amount detection unit 16 tracks feature points of images captured by the second imaging device 2b and the fourth imaging device 2d among the four imaging devices 2. However, feature points may be tracked only for one of them.

具体的に説明すると、第2撮像装置2bあるいは第4撮像装置2dで撮像した画像のうち、どちらか一方の画像に対して、複数の特徴点の追跡を行い、対応する局所動きベクトルを検出する。そして、複数の局所動きベクトルが所定の誤差範囲内にあるかどうかを判定することで、車両全体の動きベクトルの検出を行う。なお、車両の回転運動に対応するために、回転量に関する情報を車両に設置された旋角センサから取得する。また、特開2006−268076号公報に開示された公知の技術により、回転量を算出してもよい。本変形例によれば、動きベクトル検出の演算負荷を、さらに軽減することができる。   More specifically, a plurality of feature points are tracked with respect to either one of images captured by the second imaging device 2b or the fourth imaging device 2d, and corresponding local motion vectors are detected. . Then, the motion vector of the entire vehicle is detected by determining whether or not the plurality of local motion vectors are within a predetermined error range. In order to respond to the rotational movement of the vehicle, information on the amount of rotation is acquired from a rotation angle sensor installed in the vehicle. Further, the rotation amount may be calculated by a known technique disclosed in Japanese Patent Laid-Open No. 2006-268076. According to this modification, the calculation load of motion vector detection can be further reduced.

また、本発明の実施の形態において、制御部20は、4台の撮像装置2のうち、第2撮像装置2bおよび第4撮像装置2dで撮像された画像を移動量検出部16に供給するように画像読出部12を制御したが、4台の撮像装置2で撮像した画像のうち、解像度が最も高い画像を移動量検出部16に供給するように画像読出部12を制御してもよい。本変形例によれば、高画質な画像に対して特徴点の追跡を行うので、動きベクトルの検出精度が向上する。   In the embodiment of the present invention, the control unit 20 supplies the movement amount detection unit 16 with images captured by the second imaging device 2b and the fourth imaging device 2d among the four imaging devices 2. Although the image reading unit 12 is controlled, the image reading unit 12 may be controlled so that the image having the highest resolution among the images captured by the four imaging devices 2 is supplied to the movement amount detection unit 16. According to this modification, since the feature points are tracked for a high-quality image, the motion vector detection accuracy is improved.

また、制御部20は、4台の撮像装置2で撮像した画像のうち、輝度が最も高い画像を移動量検出部16に供給するように画像読出部12を制御してもよい。本変形例によれば、高画質な画像に対して特徴点の追跡を行うので、動きベクトルの検出精度が向上する。   Further, the control unit 20 may control the image reading unit 12 so as to supply the moving amount detection unit 16 with the image having the highest luminance among the images captured by the four imaging devices 2. According to this modification, since the feature points are tracked for a high-quality image, the motion vector detection accuracy is improved.

また、制御部20は、4台の撮像装置2で撮像した画像のうち、特徴点が最も多く検出できる画像を移動量検出部16に供給するように画像読出部12を制御してもよい。本変形例によれば、より多くの特徴点に対して追跡を行うので、動きベクトルの検出精度が向上する。   Further, the control unit 20 may control the image reading unit 12 so as to supply the movement amount detection unit 16 with an image in which the most feature points can be detected among the images captured by the four imaging devices 2. According to this modification, since tracking is performed for more feature points, the motion vector detection accuracy is improved.

また、制御部20は、4台の撮像装置2で撮像した画像のうち、水平面に対する俯角が最も大きい撮像装置2の画像を移動量検出部16に供給するように画像読出部12を制御してもよい。本変形例によれば、車両に近くの高画質な画像に対して特徴点の追跡を行うので、動きベクトルの検出精度が向上する。   Further, the control unit 20 controls the image reading unit 12 so as to supply the movement amount detection unit 16 with the image of the imaging device 2 having the largest depression angle with respect to the horizontal plane among the images captured by the four imaging devices 2. Also good. According to this modification, since the feature points are tracked for a high-quality image close to the vehicle, the motion vector detection accuracy is improved.

また、制御部20は、4台の撮像装置2で撮像した画像のうち、路面上の白線を最も多く含む画像を移動量検出部16に供給するように画像読出部12を制御してもよい。本変形例によれば、特徴点の追跡が容易に行えるので、動きベクトルの検出効率が良くなる。   In addition, the control unit 20 may control the image reading unit 12 so as to supply the movement amount detection unit 16 with an image including the most white lines on the road surface among images captured by the four imaging devices 2. . According to the present modification, the feature points can be easily tracked, so that the motion vector detection efficiency is improved.

また、制御部20は、以上説明した撮像装置2の選択モードを運転者の指示に応じて切り替えてもよい。本変形例によれば、運転者の利便性が向上する。   Moreover, the control part 20 may switch the selection mode of the imaging device 2 demonstrated above according to a driver | operator's instruction | indication. According to this modification, the convenience for the driver is improved.

10 フレームバッファ、12 画像読出部、14 画像処理部、16 移動量検出部、18 障害物検出部、20 制御部、22 画像変換部、24 画像合成部、26 変換テーブル記憶部、28 動き検出部、30 動き推定部。
10 frame buffer, 12 image reading unit, 14 image processing unit, 16 movement amount detection unit, 18 obstacle detection unit, 20 control unit, 22 image conversion unit, 24 image composition unit, 26 conversion table storage unit, 28 motion detection unit 30 Motion estimation unit.

Claims (6)

車両に設置されたN(Nは2以上の自然数)台の撮像装置ごとに撮像され、時間差のある二つの画像のそれぞれから、第1および第2の鳥瞰図画像を生成する画像生成部と、
前記N台の撮像装置で撮像されたN個の画像のうち、N−1個以下の画像を選択する画像選択部と、
前記N−1個以下の画像に基づき、前記車両の移動量を検出する移動量検出部と、
前記移動量に基づき、前記第2の鳥瞰図画像から第3の鳥瞰図画像を生成する座標変換部と、
前記第1の鳥瞰図画像と前記3の鳥瞰図画像の差分をとることにより、障害物を検出する障害物検出部と、
を備えることを特徴とする車両周囲監視装置。
An image generation unit that generates images of the first and second bird's-eye view images from each of two images that are imaged for each of N (N is a natural number of 2 or more) imaging devices installed in the vehicle, and have a time difference;
An image selection unit that selects N-1 or less images among N images captured by the N imaging devices;
A movement amount detection unit for detecting a movement amount of the vehicle based on the N-1 or less images;
A coordinate conversion unit that generates a third bird's-eye view image from the second bird's-eye view image based on the amount of movement;
An obstacle detection unit that detects an obstacle by taking a difference between the first bird's-eye view image and the three bird's-eye view images;
A vehicle surroundings monitoring device comprising:
前記画像選択部は、前記N個の画像から、車両の右方向および左方向を撮像した画像を選択することを特徴とする請求項1に記載の車両周囲監視装置。   2. The vehicle surrounding monitoring apparatus according to claim 1, wherein the image selection unit selects an image obtained by imaging a right direction and a left direction of the vehicle from the N images. 前記画像選択部は、前記N個の画像から、画質が良い順に前記N−1個以下の画像を選択することを特徴とする請求項1に記載の車両周囲監視装置。   2. The vehicle surrounding monitoring apparatus according to claim 1, wherein the image selection unit selects the N−1 or less images from the N images in descending order of image quality. 前記画像選択部は、前記N個の画像から、特徴点が多く含まれる順に前記N−1個以下の画像を選択することを特徴とする請求項1に記載の車両周囲監視装置。   2. The vehicle surrounding monitoring apparatus according to claim 1, wherein the image selection unit selects the N−1 or less images in the order in which many feature points are included from the N images. 前記画像選択部は、前記N個の画像から、対応する撮像装置の水平面に対する俯角が大きい順に前記N−1個以下の画像を選択することを特徴とする請求項1に記載の車両周囲監視装置。   2. The vehicle surrounding monitoring apparatus according to claim 1, wherein the image selection unit selects, from the N images, the N−1 or less images in descending order of a depression angle with respect to a horizontal plane of a corresponding imaging device. . 前記画像選択部は、前記N個の画像から、路面上の白線が多く含まれる順に前記N−1個以下の画像を選択することを特徴とする請求項1に記載の車両周囲監視装置。
2. The vehicle surrounding monitoring apparatus according to claim 1, wherein the image selection unit selects the N−1 or less images from the N images in the order in which many white lines on the road surface are included.
JP2009071608A 2009-03-24 2009-03-24 Vehicle surrounding monitoring device Pending JP2010221863A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009071608A JP2010221863A (en) 2009-03-24 2009-03-24 Vehicle surrounding monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009071608A JP2010221863A (en) 2009-03-24 2009-03-24 Vehicle surrounding monitoring device

Publications (1)

Publication Number Publication Date
JP2010221863A true JP2010221863A (en) 2010-10-07

Family

ID=43039523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009071608A Pending JP2010221863A (en) 2009-03-24 2009-03-24 Vehicle surrounding monitoring device

Country Status (1)

Country Link
JP (1) JP2010221863A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140169630A1 (en) * 2011-08-02 2014-06-19 Nissan Motor Co., Ltd. Driving assistance apparatus and driving assistance method
WO2016084570A1 (en) * 2014-11-26 2016-06-02 Ntn株式会社 Vehicle periphery monitoring device and vehicle control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140169630A1 (en) * 2011-08-02 2014-06-19 Nissan Motor Co., Ltd. Driving assistance apparatus and driving assistance method
US9235767B2 (en) * 2011-08-02 2016-01-12 Nissan Motor Co., Ltd. Detection region modification for driving assistance apparatus and driving assistance method
WO2016084570A1 (en) * 2014-11-26 2016-06-02 Ntn株式会社 Vehicle periphery monitoring device and vehicle control method

Similar Documents

Publication Publication Date Title
JP4970926B2 (en) Vehicle periphery monitoring device
US9501872B2 (en) AR image processing apparatus and method technical field
JP6743171B2 (en) METHOD, COMPUTER DEVICE, DRIVER ASSISTING SYSTEM, AND MOTOR VEHICLE FOR DETECTION OF OBJECTS AROUND A ROAD OF A MOTOR VEHICLE
US20160191795A1 (en) Method and system for presenting panoramic surround view in vehicle
JP3980565B2 (en) Driving assistance device
CN104081255A (en) Method for operating camera arrangement for vehicle and camera arrangement
US11263758B2 (en) Image processing method and apparatus
US20150063647A1 (en) Apparatus and method for detecting obstacle
JP6384802B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP2009060499A (en) Driving support system, and combination vehicle
JP2007129560A (en) Object detection device
JP6384803B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
JP7029350B2 (en) Image processing device and image processing method
JP2011071932A (en) Vehicle surroundings monitoring apparatus
JP6031819B2 (en) Image processing apparatus and image processing method
JP2013093865A (en) Vehicle periphery monitoring device
JP5935435B2 (en) Image processing apparatus and image processing method
JP5624370B2 (en) Moving body detection apparatus and moving body detection method
CN114821544A (en) Perception information generation method and device, vehicle, electronic equipment and storage medium
JP7249919B2 (en) Estimation device, estimation method and program
JP6751082B2 (en) Free space detection device and free space detection method
JP4857159B2 (en) Vehicle driving support device
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP2010221863A (en) Vehicle surrounding monitoring device
JP2011209070A (en) Image processor

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111117

RD04 Notification of resignation of power of attorney

Effective date: 20111130

Free format text: JAPANESE INTERMEDIATE CODE: A7424