JP2011113364A - Apparatus, program and system for estimating surrounding environment - Google Patents
Apparatus, program and system for estimating surrounding environment Download PDFInfo
- Publication number
- JP2011113364A JP2011113364A JP2009270086A JP2009270086A JP2011113364A JP 2011113364 A JP2011113364 A JP 2011113364A JP 2009270086 A JP2009270086 A JP 2009270086A JP 2009270086 A JP2009270086 A JP 2009270086A JP 2011113364 A JP2011113364 A JP 2011113364A
- Authority
- JP
- Japan
- Prior art keywords
- surrounding environment
- camera
- distance
- environment estimation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】周辺環境を精度よく推定する。
【解決手段】周辺環境推定装置1は、カメラ1aと、周辺環境推定部10とを備え、移動体に設置されて周辺環境としてロードサイド形状、状況等を推定する。周辺環境推定部10は、周辺物体との距離を測定して周辺環境を推定する。この場合、カメラ1aの位置と撮影方向を認識し、1つ以上の既知の位置である基準経路点から成る基準経路を設定する。そして、カメラ1aで撮影された画像にもとづき、画像内に撮影された周辺物体までの基準経路からの距離を求める。
【選択図】図1[PROBLEMS] To accurately estimate the surrounding environment.
A surrounding environment estimation device 1 includes a camera 1a and a surrounding environment estimation unit 10, and is installed on a moving body to estimate a roadside shape, a situation, and the like as a surrounding environment. The surrounding environment estimation unit 10 estimates the surrounding environment by measuring the distance to the surrounding object. In this case, the position of the camera 1a and the shooting direction are recognized, and a reference path composed of reference path points that are one or more known positions is set. And based on the image image | photographed with the camera 1a, the distance from the reference | standard path | route to the peripheral object image | photographed in the image is calculated | required.
[Selection] Figure 1
Description
本発明は、周辺環境を推定する周辺環境推定装置、周辺環境を推定する制御をコンピュータに実行させる周辺環境推定プログラムおよび周辺環境推定システムに関する。 The present invention relates to a surrounding environment estimation device that estimates a surrounding environment, a surrounding environment estimation program that causes a computer to execute control for estimating the surrounding environment, and a surrounding environment estimation system.
地図データを最新の状態に保つメンテナンス等を行うために、車の周辺環境であるロードサイド形状の変化等を調べることがある。この場合、実際に現地を歩いて調査する代わりに、現地のロードサイド形状の映像を、車載画像を用いて撮影して後で精査することが行われている。 In order to perform maintenance or the like to keep the map data up-to-date, changes in the roadside shape, which is the surrounding environment of the vehicle, may be examined. In this case, instead of actually walking and investigating the site, an image of the roadside shape of the site is taken using an in-vehicle image and later examined.
従来技術として、車載画像を用いてロードサイド形状を推定する技術が特許文献1に提案されている。また、車載画像の中央部分だけをラインセンサ的に用いてロードサイド形状を推定する技術が特許文献2に提案されている。
As a conventional technique,
ロードサイド形状として、道路上の並走車両、駐車車両または歩道上の歩行者等、一時的に存在する移動物体を除いた建物や道路形状等の周辺環境を推定しておくことは、地図等を作成したりする意味でも有用である。 Estimating the surrounding environment such as buildings and road shapes excluding temporarily moving objects such as parallel vehicles on the road, parked vehicles or pedestrians on the sidewalk as roadside shapes It is also useful for creating.
例えばこの場合、周辺物体を車載カメラで撮影し、撮影された周辺物体と車載カメラ位置とからの距離を測定して、これらの測定結果を複数集めて比較し、差分を調査する。差分が大きい領域を、一時的な移動物体(障害物)の存在があった領域とみなせば、このような方法によって、周辺環境内での移動物体を除去した静止環境を推定することができる。 For example, in this case, a peripheral object is photographed with an in-vehicle camera, a distance between the photographed peripheral object and the in-vehicle camera position is measured, a plurality of these measurement results are collected and compared, and a difference is investigated. If a region having a large difference is regarded as a region where there is a temporary moving object (obstacle), a stationary environment in which the moving object is removed in the surrounding environment can be estimated by such a method.
しかし、従来では、このように測定結果を利用して、移動物体を除いた周辺環境を精度よく推定することが困難である、といった問題があった。測定点すなわちカメラ位置やカメラ視線方向は、カメラが搭載される車の進行経路や車種等に依存する。上記問題は、一方の測定データを取得したときの測定点やカメラ視線方向と、他方の測定データを取得したときの測定点やカメラ視線方向とが異なってしまうことが多いため、取得した複数の測定データそれぞれを単純に比較することができないことに起因している。 However, conventionally, there has been a problem that it is difficult to accurately estimate the surrounding environment excluding moving objects using the measurement result in this way. The measurement point, that is, the camera position and the camera line-of-sight direction depend on the traveling path of the vehicle on which the camera is mounted, the vehicle type, and the like. The above problems often occur when the measurement point or camera line-of-sight direction when acquiring one measurement data and the measurement point or camera line-of-sight direction when acquiring the other measurement data are different. This is because the measured data cannot be simply compared.
本発明はこのような点に鑑みてなされたものであり、移動物体が存在する環境にあって、周辺環境を精度よく推定する周辺環境推定装置を提供することを目的とする。
また、本発明の他の目的は、移動物体が存在する環境にあって、周辺環境を精度よく推定する周辺環境推定プログラムおよび周辺環境推定システムを提供することである。
The present invention has been made in view of these points, and an object of the present invention is to provide a surrounding environment estimation device that accurately estimates the surrounding environment in an environment where a moving object exists.
Another object of the present invention is to provide a surrounding environment estimation program and a surrounding environment estimation system for accurately estimating the surrounding environment in an environment where a moving object exists.
上記課題を解決するために、周辺環境を推定する周辺環境推定装置が提供される。この周辺環境推定装置は、カメラと、周辺物体との距離を測定して周辺環境を推定する周辺環境推定部とを備える。 In order to solve the above-mentioned problem, a surrounding environment estimation device for estimating a surrounding environment is provided. The surrounding environment estimation device includes a camera and a surrounding environment estimation unit that estimates the surrounding environment by measuring a distance between the surrounding object and the camera.
ここで、周辺環境推定部は、カメラの位置と撮影方向を認識し、基準となる1つ以上の既知の位置である基準経路点から成る基準経路を設定して、前記カメラで撮影された画像にもとづき、画像内に撮影された周辺物体までの基準経路からの距離を求める。 Here, the surrounding environment estimation unit recognizes the position and shooting direction of the camera, sets a reference path including reference path points that are one or more known positions serving as a reference, and is an image captured by the camera. Based on this, the distance from the reference path to the peripheral object photographed in the image is obtained.
周辺環境を高精度に推定することが可能になる。 The surrounding environment can be estimated with high accuracy.
以下、本発明の実施の形態を図面を参照して説明する。図1は周辺環境推定装置の構成例を示す図である。
周辺環境推定装置1は、カメラ1aと、周辺環境推定部10とを備え、周辺環境として例えばロードサイド形状や、状況等の空間情報などを推定する装置である。なお、推定に用いる測定データを測定するカメラ1aは、道路周辺に固定的に設置されたカメラでも構わない。また、周辺環境推定装置1は、道路周辺に固定的に設置された装置を含んでも特に問題はない。固定のカメラおよび固定の装置を含むことで、利用する測定データ量を増やすことができる。以後はカメラ1aまたは装置全体は例えば、自動車などの移動体に設置されて使用されるものとして説明をする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of a surrounding environment estimation apparatus.
The surrounding
周辺環境推定部10は、カメラ1aの位置および撮影方向を用いて、周辺環境の推定として、周辺物体との距離および方向を推定する。カメラ1aの位置や撮影方向としては、任意の座標系位置および方向を用いてよいが、一例として緯度経度や方位角を用いて説明する。周辺環境推定部10はさらに、基準となる1つ以上の任意の既知の位置(緯度経度)である基準経路点を繋いだ基準経路を設定する。
The surrounding
そして、カメラ1aで撮影された画像にもとづいて得た、画像内に撮影された周辺物体までのカメラ1aからの距離を、基準経路からの距離へと変換する。このように、撮影したカメラからの距離を、設定した基準経路からの距離へと変換することで、撮影方向や撮影位置の違いを吸収することができ、測定結果から周辺環境を高精度に推定することができる。
And the distance from the
次に周辺環境推定部10の構成について説明する。図2は周辺環境推定部10の構成要素を示す図である。周辺環境推定部10は、周辺測定部11、位置取得部12、基準経路設定部13、データ変換部14、距離画像変換部15、データ比較部16および出力部17を含む。
Next, the configuration of the surrounding
周辺測定部11は、カメラ1aで撮影される周辺環境(周辺物体)とカメラ1aを搭載している移動体との距離、および周辺物体に対するカメラ1aの視線方向を測定する。位置取得部12は、移動体の現在位置(=カメラ1aの現在位置)を取得する。
The
基準経路設定部13は、移動体が通過する際の道路上に、基準となるカメラの移動位置やカメラ視線方向を定めた基準経路・方向(以下、単に基準経路と呼ぶ)を設定する。データ変換部14は、移動体が進行経路上で測定した周辺物体の測定データを、基準経路からの測定データとなるように変換処理する。
The reference
距離画像変換部15は、データ変換部14で変換した測定データまたは既存の測定データを、2次元マップとして画像マップに変換する。既存の測定データとは、例えば、他車や道路に固定的に設けられたカメラ等ですでに測定された距離データなどである。
The distance
データ比較部16は、画像マップを使用しない場合には、データ変換部14で変換された基準となる測定データと、既存の測定データとの比較処理、またはデータ変換部14で変換されたデータをさらに距離画像変換部15で変換した画像マップ同士での比較処理を行って周辺環境を推定する。また、画像マップを使用する場合には、データ変換部14で変換された基準となる測定データから生成された画像マップと、既存の測定データから生成された画像マップとを比較(対応する画像箇所の画素値の比較等)して周辺環境を推定する。出力部17は、例えば、処理結果を表示出力したり、図示しない記憶部に対して、処理結果のデータを書き込んだりする。
When the image map is not used, the
次に各構成要素について詳しく説明する。周辺測定部11では、移動体に搭載したカメラ(カメラ1a)の画像情報にもとづき、周辺物体と自移動体との距離を推定および測定する。
Next, each component will be described in detail. The
例えば、移動体である車の前後左右を撮影するカメラの撮影画像内での画素の移動量と、カメラの推定移動変化量とを比較することで、周辺環境とカメラを搭載している移動体との距離を推定する。 For example, by comparing the amount of pixel movement in the captured image of a camera that shoots the front, back, left, and right of a car that is a moving body with the estimated movement change amount of the camera, the surrounding environment and the moving body equipped with the camera And estimate the distance.
このようなカメラ画像を用いた測定および推定方法としては例えば、ステレオカメラ画像や時間差を置いた同じカメラの2画像を用いた方法がある(カメラ画像を用いずに、レーザ、ミリ波または光などによる直接的なセンサによる測定方法を用いてもよい)。 As a measurement and estimation method using such a camera image, for example, there are a method using a stereo camera image or two images of the same camera with a time difference (laser, millimeter wave, light, etc. without using a camera image). A direct sensor measurement method may be used).
次に位置取得部12について説明する。位置取得部12は、移動体の現在位置(カメラの現在位置)を取得する。例えば、移動体に搭載したGPS(Global Positioning System)や車速カウンタ、その他の任意の位置計測および位置取得方法を用いて、緯度経度に代表される任意の位置座標系での位置情報を取得する。
Next, the
次に基準経路設定部13について説明する。基準経路設定部13は、各道路での測定結果を比較するための基準経路を設定し、基準経路データとして保持する。基準経路データは、例えば、基準経路を生成するための複数の点の位置・方向情報であり、緯度経度等の位置座標情報が含まれる。
Next, the reference
基準経路は、カメラ位置やカメラ視線方向(以降、基準経路上のカメラの視線方向をカメラ基準方向とも呼ぶ)の基準となるものである。また、基準経路は、1つの道路に少なくとも1つあればよいが、複数設定してもよい。 The reference path serves as a reference for the camera position and the camera viewing direction (hereinafter, the camera viewing direction on the reference path is also referred to as a camera reference direction). Further, at least one reference route may be provided for one road, but a plurality of reference routes may be set.
基準経路を1つではなく複数設定するとしたのは、道路の往路復路や各レーンによって異なる基準を選定する可能性があることを考慮したものである。例えば、同じ道路であっても往路復路やレーンで道路形状が大きく異なる場合があり、これらがあらかじめ分かっている場合には、その道路形状に応じた基準経路を設定する。基準経路が実際の道路形状に似ている方が、特にカーブしている道路においては、精度の高い比較が可能となる。 The reason why a plurality of reference routes are set instead of one is that there is a possibility that different criteria may be selected depending on the forward and return roads and each lane. For example, even if the road is the same, the road shape may be greatly different between the outward trip and the lane, and when these are known in advance, a reference route corresponding to the road shape is set. When the reference route is similar to the actual road shape, a highly accurate comparison is possible particularly on a curved road.
このような基準経路は、あらかじめ道路形状などの情報を元にデータベース化して用意しておくことができる。また、最初に道路を走行した車のカメラ移動位置およびカメラ視線方向(カメラ方向)を、基準経路のカメラ位置やカメラ視線方向として用いることができる。この場合は、実施にあたり特別なデータ整備を必要としないため、サービスを簡単に開始利用することができるという利点がある。 Such a reference route can be prepared in advance in a database based on information such as road shape. Further, the camera movement position and the camera line-of-sight direction (camera direction) of the car that first traveled on the road can be used as the camera position and the camera line-of-sight direction of the reference route. In this case, there is an advantage that the service can be easily started and used because no special data is required for implementation.
次にデータ変換部14の動作について図3、図4を用いて説明する。データ変換部14は、移動体が自車経路上の、あるカメラ視線方向で測定した距離データを、基準経路設定部13で設定したカメラ基準方向で測定した距離データとなるように、データ変換する処理を行う。
Next, the operation of the
このデータ変換処理では、測定した距離データを対応づけ(マッピング)する基準経路上の点(マッピング位置)として、変換した距離データの誤差が最も小さくなるような基準経路上の点を選定する。基準経路を設定して測定した距離データをマッピングすることにより、位置の違いや撮影方向を吸収することができ、後段処理部において測定結果から周辺環境を高精度に推定することが可能になる。 In this data conversion processing, a point on the reference path that minimizes the error of the converted distance data is selected as a point (mapping position) on the reference path that maps (maps) the measured distance data. By mapping the distance data measured by setting the reference path, it is possible to absorb the difference in position and the shooting direction, and it is possible to estimate the surrounding environment with high accuracy from the measurement result in the subsequent processing unit.
図3は道路を走行する移動体から道路沿いの周辺物体を測定している一例を示す図である。移動体の自車経路(進行経路)とは別に基準経路が設定されている。また、ここでは簡単のために、カメラ基準方向は、基準経路に対して垂直方向とする。同様に、移動体が周辺物体との距離を測定している時のカメラ方向は、測定時の自車経路に対して垂直方向とする。 FIG. 3 is a diagram illustrating an example in which peripheral objects along the road are measured from a moving body traveling on the road. A reference route is set separately from the vehicle's own vehicle route (traveling route). Here, for the sake of simplicity, the camera reference direction is a direction perpendicular to the reference path. Similarly, the camera direction when the moving body is measuring the distance from the surrounding object is a direction perpendicular to the own vehicle path at the time of measurement.
基準経路は、R、S、Tの3点を通る経路とする。基準経路上の移動点Sにおけるカメラ基準方向は、その1つ前の移動点Rとの線分RSへの垂線方向として決定する。また、自車経路は、M、Nの2点を通る経路とする。測定時の移動点Nのカメラ方向は、線分MNへの垂線方向である。なお、カメラ方向(またはカメラ基準方向)は、当然上記以外の方向であってもよい。また、ここでR、S、Tの3点は便宜的に等間隔としているが、異なる間隔であっても構わない。 The reference route is a route passing through three points R, S, and T. The camera reference direction at the moving point S on the reference path is determined as a perpendicular direction to the line segment RS with the previous moving point R. The vehicle route is a route that passes through two points M and N. The camera direction of the moving point N at the time of measurement is a perpendicular direction to the line segment MN. Of course, the camera direction (or camera reference direction) may be a direction other than the above. Here, the three points R, S, and T are equally spaced for convenience, but they may be at different intervals.
移動体である自車は、道路上の自車位置Nで、周辺測定部11によって測定点Aを検知し、測定点Aと移動体との距離(ANの距離)を求める。そして、データ変換部14では、距離ANを基準経路上のデータに変換する(基準経路から測定した距離とするようなデータ変換を行う)。
The own vehicle, which is a moving body, detects the measurement point A by the
図4はデータ変換部14の動作の一例を示すフローチャートである。
〔S1〕自車位置Nの周辺の基準経路点を探索する。位置取得部12で取得した自車位置Nに対し、位置Nの近隣の基準経路点を基準経路データから探索する。この例では、基準点Sを探索したとする。
FIG. 4 is a flowchart showing an example of the operation of the
[S1] A reference route point around the vehicle position N is searched. For the vehicle position N acquired by the
ここで、基準経路データは、基準経路設定部13で保持されるが、あらかじめ近隣の経路点でグルーピングや階層化して保持しておくと、データ変換部14において探索が容易となり高速探索が可能となる。
Here, the reference route data is held in the reference
例えば、交差点間隔で基準経路点をグルーピングする、さらに道路単位または位置情報の近い交差点同士でグルーピングしておく、などが考えられる。交差点間隔でグルーピングを行うことで、移動体の右左折後にも容易に基準経路を検索することができる。 For example, it is conceivable to group reference route points at intersection intervals, and further group at intersections having road units or close position information. By performing grouping at intersection intervals, it is possible to easily search for a reference route even after the vehicle turns right or left.
なお、図3の基準経路点Sは、基準経路を構成する折れ線の頂点としたが、実際には折れ線の途中であっても構わない。例えば、測定点Aから自車位置Nへの直線と、近隣の基準経路線分群との交点を求めることで、基準経路の頂点以外の任意の点を基準経路点として取得することができる。このようにすれば、自車位置Nに対して、より近い基準経路点を取得することができるため、基準経路上の最適マッピング位置の探索時間を短縮できる可能性がある。 In addition, although the reference | standard path | route point S of FIG. 3 was made into the vertex of the broken line which comprises a reference | standard path | route, it may actually be in the middle of a broken line. For example, an arbitrary point other than the vertex of the reference route can be acquired as a reference route point by obtaining an intersection of a straight line from the measurement point A to the vehicle position N and a neighboring reference route segment group. In this way, since it is possible to acquire a reference route point that is closer to the vehicle position N, the search time for the optimum mapping position on the reference route may be shortened.
〔S2〕自車位置N周辺を探索して検出した基準経路点Sにおけるカメラ基準方向と平行な直線Lを、測定点Aから基準経路へ向かって引き、基準経路との交点Bを求める。
〔S3〕測定点Aと移動体との距離ANを基準経路上のデータに変換するために、交点Bを起点として、基準経路上で変換誤差が最も小さくなるような、最適なマッピング位置を算出する。
[S2] A straight line L parallel to the camera reference direction at the reference route point S detected by searching around the vehicle position N is drawn from the measurement point A toward the reference route to obtain an intersection B with the reference route.
[S3] In order to convert the distance AN between the measurement point A and the moving body into data on the reference path, an optimum mapping position is calculated so that the conversion error is minimized on the reference path starting from the intersection B. To do.
交点Bは、自車位置Nの近隣の基準経路点Sにおけるカメラ基準方向から算出したものなので、交点Bの属する線分ST上のカメラ基準方向と、交点Bの算出で用いたカメラ基準方向とが異なる可能性が高い(図3からも、点Sにおけるカメラ基準方向と、線分ST上のカメラ基準方向とは異なっていることがわかる)。このため、交点Bを起点として、よりよい測定結果マッピング位置を以下のように算出する(図3の例では、最適なマッピング位置として点Cが求まっている様子を示している)。 Since the intersection B is calculated from the camera reference direction at the reference route point S in the vicinity of the vehicle position N, the camera reference direction on the line segment ST to which the intersection B belongs and the camera reference direction used in calculating the intersection B (It can be seen from FIG. 3 that the camera reference direction at the point S is different from the camera reference direction on the line segment ST). For this reason, a better measurement result mapping position is calculated from the intersection B as a starting point (in the example of FIG. 3, the state where the point C is obtained as the optimum mapping position is shown).
まず、交点Bの周辺で基準経路上の前後に、位置を少しずつずらしたマッピング位置候補点Bn(図3ではB1〜B3)を求める。その後、線分ABnと、候補点Bnの属する基準経路線分STのカメラ基準方向との成す角βを求める。 First, mapping position candidate points Bn (B1 to B3 in FIG. 3) obtained by shifting the position little by little before and after the reference path around the intersection B are obtained. Thereafter, an angle β formed by the line segment ABn and the camera reference direction of the reference path line segment ST to which the candidate point Bn belongs is obtained.
さらに、角度βが限りなくゼロに近くなるような位置を探して、候補点位置をずらしていく。この角度βが最小となる候補点、図3では候補点B3を、最適マッピング位置Cとして採用する。 Further, the position of the candidate point is shifted by searching for a position where the angle β is as close to zero as possible. The candidate point that minimizes the angle β, that is, the candidate point B3 in FIG.
なお、位置をずらしながら最適位置を決定する方法としては、数値解析計算における近似解算出方法として、例えば、ニュートン法等の反復解法、直接解法等があり、これらを用いることができる。 In addition, as a method of determining the optimum position while shifting the position, there are, for example, an iterative solution method such as Newton's method, a direct solution method, etc. as an approximate solution calculation method in numerical analysis calculation, and these can be used.
ここで、候補点Bnの3次元座標を(Bnx,Bny,Bnz)、測定点Aの3次元座標を(Ax,Ay,Az)、カメラ基準方向の正規化ベクトルである基準方向正規化ベクトルVを(Vx,Vy,Vz)とすると、角度βは、以下の式(1a)で記述できる(acos は arccos)。また、Dは、候補点Bnから測定点Aへ向けた正規化ベクトルであり、式(1b)で示される。 Here, the three-dimensional coordinates of the candidate point Bn are (Bnx, Bny, Bnz), the three-dimensional coordinates of the measurement point A are (Ax, Ay, Az), and a reference direction normalization vector V that is a normalization vector of the camera reference direction. Is (Vx, Vy, Vz), the angle β can be described by the following equation (1a) (acos is arccos). D is a normalization vector from the candidate point Bn to the measurement point A, and is represented by Expression (1b).
なお、図3では、最初に求まった交点Bの属する線分ST内に、最終的な候補点Cが納まったが、必ずしも同じ線分内に候補点探索を限定するわけではない。
〔S4〕自車位置Nで測定した測定点Aにおける測定データを、基準経路上のマッピング位置Cにおける測定データに変換する。すなわち、自車位置Nにおいて、あるカメラ方向(測定方向)で測距した距離データを、基準経路上のマッピング位置Cにおけるカメラ基準方向Dで測距した距離データに変換する。
In FIG. 3, the final candidate point C is stored in the line segment ST to which the intersection B obtained first belongs, but the candidate point search is not necessarily limited to the same line segment.
[S4] The measurement data at the measurement point A measured at the vehicle position N is converted into measurement data at the mapping position C on the reference route. That is, distance data measured in a certain camera direction (measurement direction) at the vehicle position N is converted into distance data measured in the camera reference direction D at the mapping position C on the reference route.
マッピング位置Cからの距離データは、測定点Aとマッピング位置Cとの距離を算出し、算出したこの距離を、基準経路上のマッピング位置Cにおける、基準経路にデータ変換した距離とする。 For the distance data from the mapping position C, the distance between the measurement point A and the mapping position C is calculated, and this calculated distance is the distance obtained by data conversion into the reference path at the mapping position C on the reference path.
〔S5〕マッピング位置から測定点Aへのベクトルと、マッピング位置における基準方向ベクトルとの成す角度βを算出し、該当角度を基準経路へのデータ変換時の誤差として保持する。 [S5] An angle β formed by the vector from the mapping position to the measurement point A and the reference direction vector at the mapping position is calculated, and the angle is held as an error when data is converted to the reference path.
ここで、角度βがゼロであれば、最終候補点Cから測定点Aへの直線は、最終候補点Cの基準方向ベクトルDと同じ直線上にあることから、そのまま測定点Aと最終候補点Cの線分距離ACを、距離データとして利用する。 Here, if the angle β is zero, the straight line from the final candidate point C to the measurement point A is on the same straight line as the reference direction vector D of the final candidate point C. The line segment distance AC of C is used as distance data.
また、角度βがゼロでない場合は、線分距離ACをそのまま用いるか、または角度βからACcosβを求めて用いることにするが、いずれにしろ誤差が生じることに留意する。誤差であるβおよびβに起因した値(cosβ等)は、測定点Aの基準経路マッピングにおける、含み誤差として保持しておき、後段の比較処理の際に利用することができる。例えば、異なる測定結果がある場合に、最終的な測定推定値を決める際の重み付けとして利用することができ、より精度を高めることが可能になる。 When the angle β is not zero, the line segment distance AC is used as it is, or ACcos β is obtained from the angle β and used, but it should be noted that an error occurs anyway. The error β and the value resulting from β (cos β, etc.) can be stored as an inclusion error in the reference path mapping of the measurement point A, and can be used in the subsequent comparison process. For example, when there are different measurement results, it can be used as a weight when determining the final measurement estimated value, and the accuracy can be further improved.
また、基準経路マッピングで変換した候補点および変換後の測定値は、そのまますべて保持してデータベース化し、後述する距離画像変換部15やデータ比較部16で利用することができる。さらに、近隣の測定値をある程度纏めて平均値や最小・最大値を保持し、それを利用してもよい。
Further, the candidate points converted by the reference path mapping and the measured values after conversion are all stored as they are and can be used as a database and used by the distance
測定値を細かく保持するほど、周辺環境を正確に把握することが可能だが、データ量が増えて比較処理量も増すことになる。このため、測定データ量の圧縮のため、または測定データ値の微小な雑音除去のために、測定データを纏めることも有効である。 The finer the measured values, the more accurately the surrounding environment can be grasped, but the amount of data increases and the amount of comparison processing also increases. For this reason, it is also effective to collect the measurement data in order to compress the measurement data amount or to remove minute noise in the measurement data value.
このように、上記の手法を用いて、任意の経路での測定情報を適応的に基準経路での測定情報に変換することができるため、基準経路と自車経路との差分等の、以後のデータ比較処理等の利用を容易に実現することができる。また、測定時および変換時の誤差を測定値と同時に保持することで、変換誤差を考慮したより正確な数値比較が可能となる。 Thus, since the measurement information on an arbitrary route can be adaptively converted into the measurement information on the reference route using the above method, the difference between the reference route and the vehicle route, etc. Use of data comparison processing and the like can be easily realized. Further, by holding the error at the time of measurement and conversion at the same time as the measurement value, more accurate numerical comparison can be made in consideration of the conversion error.
図5は最適なマッピング位置の算出フローチャートを示す図である。
〔S11〕交点Bの周辺での左右に十分ずれた探索範囲の両端となる候補点Br、Blを求める。
FIG. 5 is a diagram showing a flowchart for calculating the optimum mapping position.
[S11] Candidate points Br and Bl serving as both ends of a search range that is sufficiently shifted left and right around the intersection B are obtained.
〔S12〕基準経路上で候補点Br、Blの中点に位置する候補点Bcを求める。さらに基準経路上で、BrとBcの中点に位置する候補点Bcrと、BlとBcの中点に位置する候補点Bclとを求める。 [S12] A candidate point Bc located at the midpoint of the candidate points Br and Bl on the reference route is obtained. Further, on the reference route, a candidate point Bcr located at the midpoint of Br and Bc and a candidate point Bcl located at the midpoint of Bl and Bc are obtained.
〔S13〕BcrとBclから測定点Aへの各ベクトルと、各候補点での基準方向ベクトルとの成す角βcr、βclを算出し、βcrはβclより絶対値が小さいか否かを判断する。小さい場合はステップS14へいき、小さくなければステップS17へいく。 [S13] The angles βcr and βcl formed by the vectors from Bcr and Bcl to the measurement point A and the reference direction vector at each candidate point are calculated, and it is determined whether or not βcr has an absolute value smaller than βcl. If it is smaller, go to Step S14, and if it is not smaller, go to Step S17.
〔S14〕角度βcrは規定値より小さい、または規定探索繰り返し数を超えたか否かを判断する。上記条件が成り立たない場合はステップS15へいき、成り立つ場合はステップS16へいく。 [S14] It is determined whether the angle βcr is smaller than a specified value or exceeds a specified number of search repetitions. If the above condition is not satisfied, the process goes to step S15. If the condition is satisfied, the process goes to step S16.
〔S15〕BrとBc間に最適候補が存在するため、次の探索のために、候補点Bcを候補端Blとし、Bcrを中点候補点Bcにする。ステップS13へ戻る。
〔S16〕Bcrは基準経路上の最適なマッピング位置Cとする。
[S15] Since an optimum candidate exists between Br and Bc, the candidate point Bc is set as the candidate end Bl and Bcr is set as the midpoint candidate point Bc for the next search. Return to step S13.
[S16] Bcr is the optimum mapping position C on the reference route.
〔S17〕角度βclは規定値より小さい、または規定探索繰り返し数を超えたか否かを判断する。上記条件が成り立たない場合はステップS18へいき、成り立つ場合はステップS19へいく。 [S17] It is determined whether or not the angle βcl is smaller than a prescribed value or exceeds a prescribed number of repeated searches. If the above condition is not satisfied, the process goes to Step S18. If the condition is satisfied, the process goes to Step S19.
〔S18〕BlとBc間に最適候補が存在するため、次の探索のために、候補点Bcを候補端Brとし、Bclを中点候補点Bcにする。ステップS13へ戻る。
〔S19〕Bclは基準経路上の最適なマッピング位置Cとする。
[S18] Since an optimum candidate exists between Bl and Bc, the candidate point Bc is set as the candidate end Br and Bcl is set as the midpoint candidate point Bc for the next search. Return to step S13.
[S19] Bcl is the optimum mapping position C on the reference path.
次に距離画像変換部15について説明する。距離画像変換部15では、基準経路用に変換した後の測定データを、2次元の画像マップに変換(展開)する処理を行う。
具体的には、基準経路に沿い、地面から上空に向けて立ち上がるような平面を定義し、その平面に対して(平面の凹凸に対して)、測定データを任意の画素値(輝度、色)に変換した画像マップに変換する。
Next, the distance
Specifically, a plane that rises from the ground toward the sky along the reference path is defined, and the measurement data is set to any pixel value (luminance, color) for that plane (with respect to the unevenness of the plane). Convert to an image map converted to.
例えば、測定データの数値を0〜255の輝度値に量子化し、測定データが基準経路位置からの距離だけでなく、地面からの高さの情報も保持していた場合に、定義した平面内でその高さ情報に合致した画素を選定して、該当する輝度値とする。 For example, when the numerical value of the measurement data is quantized to a luminance value of 0 to 255 and the measurement data retains not only the distance from the reference path position but also the height information from the ground, within the defined plane A pixel that matches the height information is selected and set as a corresponding luminance value.
図6は画像マップの作成例を示す図である。カメラ1aの撮影した画像中心(縦軸)の画素変化(フロー)を用いて、測定した測定点a〜eが存在した場合を考える。
これらの測定点までの測定値は、データ変換部14で、基準経路上の測定値に変換されている。また、図6では、変換した基準経路上の位置が、高さ方向の異なる同地点mに変換されたと考える。さらに、測定値もほぼカメラ1aからの測定値と変化がないとする。
FIG. 6 is a diagram showing an example of creating an image map. Consider a case where measured points a to e exist using a pixel change (flow) at the center (vertical axis) of an image taken by the
The measurement values up to these measurement points are converted into measurement values on the reference path by the
距離画像変換部15は、この変換された位置および測定値を用いて、基準経路に沿った画像平面に対し、地点mに相当する画素を選定する。そして、測定点a〜eの測定値を0〜255の輝度に変換し、これを選定した各画素の輝度として、グレイスケール画像を作成する。
The distance
図6において、天空を計測した測定値の大きい(遠い)測定点aは、輝度値が大きいものとし(例えば輝度値=255)、家屋を計測した中間の測定値の測定点b、cは、輝度が中間の値とし(例えば輝度値=132)、至近の駐車車両を計測した測定値の小さな測定点d、eは輝度が小さな値(例えば輝度値=12)として設定する。測定点a〜eの輝度値により作成される画像マップ15aを図7に示す。 In FIG. 6, a measurement point a having a large (far) measurement value obtained by measuring the sky is assumed to have a large luminance value (for example, luminance value = 255), and measurement points b and c of intermediate measurement values obtained by measuring a house are: The luminance is set to an intermediate value (for example, luminance value = 132), and the measurement points d and e having a small measured value obtained by measuring the nearest parked vehicle are set as values having a small luminance (for example, luminance value = 12). FIG. 7 shows an image map 15a created based on the luminance values at the measurement points a to e.
なお、測定値を輝度に変換する方法は上記に限定するものではなく、閾値を用いて段階的に輝度を決定してもよいし、何らかの多次元関数を用いて輝度を決定してもよい。
輝度を利用すると、以後のデータ比較部16での比較処理において、既存の画像処理アルゴリズムを用いることができて、処理の煩雑さを軽減することができるが、輝度ではなく色、または適当に変換した数値として何段階かに分類した数値に変換してもよい。
Note that the method of converting the measurement value into the luminance is not limited to the above, and the luminance may be determined step by step using a threshold value, or the luminance may be determined using some multidimensional function.
If the luminance is used, the existing image processing algorithm can be used in the subsequent comparison processing in the
一方、基準経路の測定値に変換したときに出た誤差、すなわち角度βの値を用いた値(cosβ)等についても、上記の画像マップとして保持してもよいし、または別の画像マップとして保持してもよい。 On the other hand, the error generated when converted into the measurement value of the reference path, that is, the value (cosβ) using the value of the angle β may be held as the above image map or as another image map. It may be held.
例えば前者として、誤差を0〜1の値に正規化し、その誤差を上記の画像マップの透過度として保持させてもよい。このように誤差も測定値の画像マップと同じ形式の2次元マップ上に展開することで、後述するデータ比較で誤差を含めた計算を実行することができ、比較精度の向上を図ることが可能になる。 For example, as the former, the error may be normalized to a value of 0 to 1, and the error may be held as the transparency of the image map. In this way, by developing the error on the two-dimensional map in the same format as the measured value image map, it is possible to execute calculation including the error in the data comparison described later, and to improve the comparison accuracy. become.
なお、データ変換部14で述べた変換後のデータ保持単位と同様に、この2次元画像マップの画素分解能も任意であり、細かい画素にして保持すれば細かい測定値をそのままプロット可能であるし、大きな画素にして複数の測定値の平均や最大値、最小値などを採用することで、その部分の傾向を見るのに用いてもよい。
Note that, similarly to the data holding unit after conversion described in the
特に大きな単位で纏めて保持しようとする場合には、データ変換部14において、基準経路上の近くのプロット位置にある測定値を複数探索して纏めるより、一度細かい画素の画像としたものを、画像処理の画素ブロック単位の複数画素に対する処理関数を用いて纏めるほうが、高速処理が可能になる。処理関数としては例えば平均化関数が考えられる。
In particular, in the case where it is intended to collectively hold in a large unit, in the
図8は距離画像変換部15の動作の一例を示すフローチャートである。
〔S21〕基準経路点mに対応する、画像マップ上の画素位置Gmを求める。
〔S22〕基準経路点mでの測定値を、0〜255の値に変換する。
FIG. 8 is a flowchart showing an example of the operation of the distance
[S21] The pixel position Gm on the image map corresponding to the reference path point m is obtained.
[S22] The measured value at the reference path point m is converted to a value between 0 and 255.
〔S23〕基準経路点mでの測定値変換時等の誤差を、0.0(誤差最大)〜1.0(誤差最小=なし)の値に正規化する。
〔S24〕画像マップ上の画素Gmを中心とする任意の大きさの領域に含まれる画素群に、現在の輝度に測定変換値(0〜255)、透過度αに誤差値(0.0〜1.0)を設定する。
[S23] The error during measurement value conversion at the reference path point m is normalized to a value of 0.0 (maximum error) to 1.0 (minimum error = none).
[S24] In a pixel group included in an area of an arbitrary size centered on the pixel Gm on the image map, a measured conversion value (0 to 255) for the current luminance and an error value (0.0 to 1.0) is set.
このように、距離画像変換部15により、測定結果の位置を3次元的なマップとして保持するのではなく、2次元マップとして保持することで、利用時のデータ量の削減および比較の高速化が可能になる。また、誤差値については、測定値の画像マップと同様の形式で保持すれば、誤差こみの比較なども容易に行うことができる。
In this way, the distance
次にデータ比較部16について説明する。データ比較部16は、データ変換部14で基準経路上に変換した、自移動体(自車)の測定データと、既存の測定データ(他移動体(他車)で取得した測定データ等)、またはそれをさらに距離画像変換部15で変換した画像マップ同士での比較を行う。
Next, the
最初に画像マップを用いずに測定データで比較を行う場合について説明する。同じ基準経路上の十分近くにある点で、2つの測定結果(変換した測定値)の差が閾値以上の場合、どちらかの測定時に移動物体や障害物等の一時的な周辺物体が存在する(一時的な周辺環境の変化が生じた)と判定する。 First, a case where comparison is performed using measurement data without using an image map will be described. If the difference between two measurement results (converted measurement values) is greater than or equal to a threshold at a point that is sufficiently close on the same reference path, temporary peripheral objects such as moving objects and obstacles exist during either measurement It is determined that a temporary change in the surrounding environment has occurred.
このとき、どちらかの測定結果には、測定誤差に加えて、位置取得部12で取得した自車位置の誤差や、データ変換部14で変換した際の誤差が含まれている可能性がある。
この場合、基準経路上の位置Cの算出時に利用した角度βによる誤差があらかじめ保持されているならば、誤差値を考慮して比較してもよい。すなわち、距離ACではなく、保持しているβを用いて、AC±ACcosβまでを登録値とみなし、誤差幅のある値として比較する。
At this time, in addition to the measurement error, one of the measurement results may include an error of the vehicle position acquired by the
In this case, if an error due to the angle β used when calculating the position C on the reference path is held in advance, the comparison may be performed in consideration of the error value. That is, using the held β instead of the distance AC, AC ± ACcos β is regarded as a registered value and compared as a value having an error width.
また、比較の結果、どちらか片方を有効とするのではなく、複数の測定結果を纏めて確からしい測定値を求めてもよい。具体的には、測定結果に(1−cosβ)を信頼度として重み付けして平均値をとることなどが考えられる。 In addition, as a result of comparison, one of them may not be validated, and a certain measured value may be obtained by collecting a plurality of measurement results. Specifically, it is conceivable that the measurement result is weighted with (1-cosβ) as the reliability and an average value is taken.
(1−cosβ)を信頼度とした場合、1が最大の信頼度となり、βが大きいほど信頼度が小さくなる。複数の測定結果が蓄積されるほど、信頼度を重み付けした平均値は、理論的に実際の周辺環境、特に一時的な移動物体のない周辺静止環境への距離に収束することが可能である。 When (1-cos β) is a reliability, 1 is the maximum reliability, and the reliability decreases as β increases. As a plurality of measurement results are accumulated, the average value weighted with reliability can theoretically converge to the distance to the actual surrounding environment, particularly the surrounding stationary environment without a temporary moving object.
なお、データ比較部16では、複数の測定データの比較を行って周辺環境を推定するだけでなく、単独の測定結果値を用いて、周辺環境を推定することも可能である。すなわち、基準経路に関する情報(基準経路が道路上の中心付近を通る経路である等の情報)と、道路形状に関する情報(道路の幅やレーン数等の情報)を保持している場合には、単独の測定結果値を用いて周辺環境を推定することもできる。
Note that the
例えば、道路上の中心付近を基準経路が通り、道路の幅Wが既知であるとする。この場合、道路の外側周辺部、すなわち歩道より遠くに存在する物体を測定した場合には、道路幅W/2よりも基準経路上の測定値が大きくなるはずである。一方で、路上の駐車車両などを測定した場合には、道路幅W/2よりも測定値が小さくなる。したがって、これらのことを考慮することにより、単独の測定結果値を用いて、周辺環境を推定することも可能である。 For example, it is assumed that the reference route passes near the center on the road and the width W of the road is known. In this case, when an object located outside the road, that is, an object located far from the sidewalk is measured, the measured value on the reference route should be larger than the road width W / 2. On the other hand, when a parked vehicle or the like on the road is measured, the measured value is smaller than the road width W / 2. Therefore, by taking these things into consideration, it is possible to estimate the surrounding environment using a single measurement result value.
次に画像マップを用いて比較する場合について説明する。測定結果を量子化して画素輝度に適用した画像マップを用いて比較する場合、画像の画素比較を行えばよい。すなわち、画像内の該当画素同士の輝度差を求めて、その差が閾値以上ならば、輝度の大きな(または小さな)値を破棄する、または一時的な周辺移動物体が該当画素部分に存在したものと考える。 Next, a case where comparison is performed using an image map will be described. When comparison is made using an image map obtained by quantizing the measurement result and applied to the pixel luminance, pixel comparison of the images may be performed. That is, the luminance difference between the corresponding pixels in the image is obtained, and if the difference is equal to or greater than the threshold, the large (or small) luminance value is discarded, or a temporary peripheral moving object exists in the corresponding pixel portion I think.
また、該当画素の位置する基準経路点のカメラ基準方向に向けたベクトルを、画素輝度に対応した距離分だけ延伸したところに、周辺物体が存在すると解釈してもよい。なお、上記では、データ比較部16は、基準経路上の測定値または画像マップとしてデータ比較を行うことを説明したが、これに限定するものではない。
Further, it may be interpreted that a peripheral object exists when a vector of the reference path point where the pixel is located is extended by a distance corresponding to the pixel luminance. In the above description, the
例えば、データ変換部14の変換を逆に適用し、他で測定したデータを基準経路経由で自車経路に変換して比較したり、または基準経路への変換の代わりに他で測定したデータを同様の方法で直接自車経路へ変換して比較してもよい。
For example, the conversion of the
自車経路に変換したデータを取得することで、比較した結果が、直感的に理解しやすく、また、自車経路を基本として表示しているナビゲーション画面などにそのまま表示することも可能である。 By acquiring the data converted into the own vehicle route, the comparison result is easy to understand intuitively, and can be displayed as it is on the navigation screen displaying the own vehicle route as a basis.
また、複数の測定結果を集めて、より正確な周辺状況を把握するために用いる以外にも、基準経路上の平均測定値などを蓄積しておき、データ変換部14の変換を逆に適用し、参考とする基準データを移動体である自車経路上のデータに変換して、周辺状況マップとして利用することもできる。
In addition to collecting a plurality of measurement results and using them for grasping a more accurate surrounding situation, average measurement values on the reference path are accumulated, and the conversion of the
次にデータ比較部16が画像マップを用いてデータ比較処理を行う場合の具体例について説明する。図9はデータ比較部16の動作例を示すフローチャートである。一時的に存在する移動物体の存在有無に関する判定処理を示している。
Next, a specific example when the
まず、距離画像変換部15において、画像マップ(MapN)を作成する。この場合、自車位置Nでの測定値Aに対する、基準経路上の最適マッピング位置Cに対応する画像マップ上の画素Gcと、データ変換後の測定データの画素輝度(IN)と、透明度α値(αN)とを求めて、自車の測定結果を纏めた画像マップ(MapN)を作成する。
First, the distance
〔S31〕画像マップ(MapN)と、他車が測定作成した結果を集めた画像マップ(以下、蓄積画像マップ(MapN-1)と呼ぶ)から、画素Gc周辺の部分画像を夫々切り出す。
〔S32〕部分画像N、N−1の差分画像を計算する。差分画像は、同じ画素位置の輝度差ΔIを新たな輝度とし、誤差をδαとする。ΔIが式(2)で表され、δαは式(3)で表せる。
[S31] A partial image around the pixel Gc is cut out from the image map (MapN) and an image map (hereinafter referred to as an accumulated image map (MapN-1)) that collects the results of measurement and creation by other vehicles.
[S32] A difference image between the partial images N and N-1 is calculated. In the difference image, the luminance difference ΔI at the same pixel position is set as a new luminance, and the error is set as δα. ΔI can be expressed by equation (2), and δα can be expressed by equation (3).
ΔI=IN−IN-1・・・(2)
δα=((αN 2+αN-1 2))1/2・・・(3)
〔S33〕画素GcにおけるΔIの絶対値が規定値X(=探索したい一時的な周辺移動物体の幅を、距離から画素輝度に変換した参考値)よりも大きいか否かを判断する。大きい場合はステップS34へいき、大きくない場合は終了する。
ΔI = I N −I N−1 (2)
δα = ((α N 2 + α N-1 2 )) 1/2 (3)
[S33] It is determined whether or not the absolute value of ΔI in the pixel Gc is larger than a specified value X (= a reference value obtained by converting the width of a temporary peripheral moving object to be searched from the distance to the pixel luminance). If it is larger, the process proceeds to step S34, and if it is not larger, the process is terminated.
〔S34〕差分画像で、自車位置Nの画素の規定領域範囲(=規定値Xの探索したい一時的な周辺移動物体の大きさを、大きさから画素数に変換したものから求めた参考画素範囲)の周辺画素群の輝度差ΔIの絶対値の平均値を取得する。 [S34] A reference pixel obtained from a difference image obtained by converting a size of a temporary peripheral moving object to be searched for a specified value X from the size to the number of pixels in the specified region range of the pixel at the vehicle position N An average value of absolute values of the luminance difference ΔI of the peripheral pixel group in (range) is acquired.
〔S35〕平均値は規定値Xよりも大きいか否かを判断する。大きい場合はステップS36へいき、大きくない場合は終了する。
〔S36〕ΔIは負か否かを判断する。負の場合はステップS37へいき、負でない場合はステップS38へいく。
[S35] It is determined whether or not the average value is greater than a specified value X. If it is larger, the process goes to step S36, and if it is not larger, the process ends.
[S36] It is determined whether ΔI is negative. If negative, go to step S37, otherwise go to step S38.
〔S37〕自車位置Nでの測定時に、一時的な周辺移動物体が存在した可能性が高いと判定する。この場合は、画像マップへの反映を行わない、なお、判定結果の利用例としては、周辺移動物体が存在する可能性が高い旨の通知、または差分画像の周辺エッジを取得して周辺物体の輪郭とみなす等がある。 [S37] At the time of measurement at the vehicle position N, it is determined that there is a high possibility that a temporary peripheral moving object exists. In this case, the reflection to the image map is not performed. Note that, as a use example of the determination result, a notification that there is a high possibility that a peripheral moving object is present, or a peripheral edge of the difference image is acquired and It is considered as a contour.
〔S38〕他車の測定値の蓄積結果には、一時的な周辺移動物体が存在していた可能性が高いと判定する。判定結果の利用例としては、周辺移動物体が存在する可能性が高い旨の通知、他車の蓄積画像マップ(MapN-1)の値を自車の画像マップ(MapN)に差し替え、または差分画像の周辺エッジを取得して周辺物体の輪郭とみなす等がある。 [S38] It is determined that there is a high possibility that a temporary peripheral moving object exists in the result of accumulating the measured values of the other vehicles. Examples of use of the judgment result include notification that there is a high possibility that a surrounding moving object exists, the value of the accumulated image map (MapN-1) of another vehicle is replaced with the image map (MapN) of the own vehicle, or a difference image For example, the peripheral edge of the object is acquired and regarded as the outline of the peripheral object.
図10はデータ比較部16の動作例を示すフローチャートである。画像データとして保持するデータの更新/差し替え処理を示している。まず、図9と同様に距離画像変換部15において、画像マップ(MapN)が作成される。
FIG. 10 is a flowchart illustrating an operation example of the
〔S41〕他車が測定作成した結果を集めた蓄積画像マップ(MapN-1)から、自車が作成した画像マップ(MapN)に該当する範囲の部分画像を切り出す。
〔S42〕蓄積画像マップ(MapN-1)の部分画像N−1を、画像マップ(MapN)の部分画像Nの値を用いて、更新するか差し替えるかを判断する。更新の場合はステップS43へいき、差し替える場合はステップS44へいく。
[S41] A partial image in a range corresponding to the image map (MapN) created by the own vehicle is cut out from the accumulated image map (MapN-1) obtained by collecting the measurement results of other vehicles.
[S42] It is determined whether to update or replace the partial image N-1 of the stored image map (MapN-1) using the value of the partial image N of the image map (MapN). In the case of updating, the process goes to step S43, and in the case of replacement, the process goes to step S44.
〔S43〕自車測定値を蓄積画像マップ(MapN-1)に反映保持する。この場合、部分画像N−1と部分画像Nとの同位置画素に対し、新輝度Ia、新誤差αaおよび新蓄積データ数Saを式(4)〜(6)のように更新設定する。Sは、部分画像N−1の該当画素の蓄積データ数である。 [S43] The own vehicle measurement value is reflected and held in the accumulated image map (MapN-1). In this case, the new luminance Ia, the new error αa, and the new accumulated data number Sa are updated for the same position pixels of the partial image N-1 and the partial image N as shown in equations (4) to (6). S is the number of accumulated data of the corresponding pixel of the partial image N-1.
Ia=(S×IN-1+IN)÷(S+1)・・・(4)
αa=(S×αN-1 2+αN 2)÷(S+1)・・・(5)
Sa=S+1・・・(6)
〔S44〕自車測定値を使って蓄積画像マップ(MapN-1)を差し替える。新輝度Ia=IN、新誤差αa=αN、新蓄積データ数Sa=1となる。
Ia = (S × I N-1 + I N ) ÷ (S + 1) (4)
αa = (S × α N−1 2 + α N 2 ) ÷ (S + 1) (5)
Sa = S + 1 (6)
[S44] The accumulated image map (MapN-1) is replaced using the own vehicle measurement value. New luminance Ia = I N , new error αa = α N , and new accumulated data number Sa = 1.
以上説明したように、周辺環境推定装置1では、各道路上に基準となる基準経路を設定し、測定結果(被写体位置)を基準経路にマッピングして、測定データの比較を行う。そして、差が大きいものは一時的な移動物体が存在したとして、例えば、該当測定データを却下する等の処理を行って、総合的な距離測定結果を得る構成とした。
As described above, the surrounding
従来の測定では、測量点・方向(カメラ位置・方向)が車の経路等によって異なるため、単純に測定値を比較することが困難であり、このため周辺環境の推定精度の信頼性が低いものであった。 In conventional measurements, the survey point / direction (camera position / direction) differs depending on the car route, etc., making it difficult to simply compare the measured values. Therefore, the reliability of the estimation accuracy of the surrounding environment is low. Met.
これに対し、周辺環境推定装置1では、道路毎に基準経路を決定して、移動経路上での測定値を基準経路にマッピングして比較し、さらに比較処理時に明らかに測定結果が異なる部分を「周辺移動物体(周辺障害物)の存在可能性があるエリア」とするなどの判定処理を行う。
On the other hand, the surrounding
これにより、撮影方向や撮影位置の違いを吸収することができ、測定結果を精度よく比較することができ、周辺環境の推定精度を格段に向上させることが可能になる。
さらに、測定結果を基準経路上に高さ方向の値となる2次元画像マップに展開して、保持・利用することにより、データ処理量を大幅に削減でき、比較処理(周辺環境推定処理)の高速化が可能になる。
As a result, differences in shooting direction and shooting position can be absorbed, measurement results can be compared with high accuracy, and the estimation accuracy of the surrounding environment can be significantly improved.
Furthermore, the data processing amount can be greatly reduced by expanding the measurement result into a two-dimensional image map that is a value in the height direction on the reference path, and maintaining and using it. Comparison processing (neighboring environment estimation processing) High speed is possible.
なお、上記の周辺環境推定装置1の処理機能は、コンピュータによって実現することができる。その場合、周辺環境推定装置1が有すべき機能の処理内容を記述したプログラム(周辺環境推定プログラム)が提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。
The processing function of the surrounding
コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto-Optical disc)などがある。 Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical discs include DVD, DVD-RAM, CD-ROM / RW, and the like. Magneto-optical recording media include MO (Magneto-Optical disc).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現することもできる。 In addition, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).
なお、周辺環境推定装置1が適用される製品としては、移動体に設置したロードサイド測定装置や、カメラ1aを搭載した移動体と、周辺環境推定部10の機能を有するセンタ間を通信して、測定データを更新利用したり、センタ内の蓄積結果から有効な測定データを抽出したりする交通システム等、様々な形態に対して適用することが可能である。
In addition, as a product to which the surrounding
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。
(付記1) 周辺環境を推定する周辺環境推定装置において、
カメラの位置と撮影方向を認識し、既知の位置である基準経路点を1つ以上含む基準経路を設定して、前記カメラで撮影された画像にもとづき、前記画像内に撮影された前記周辺物体までの前記基準経路からの距離を求める周辺環境推定部
を有することを特徴とする周辺環境推定装置。
As mentioned above, although embodiment was illustrated, the structure of each part shown by embodiment can be substituted by the other thing which has the same function. Moreover, other arbitrary structures and processes may be added.
(Appendix 1) In the surrounding environment estimation device for estimating the surrounding environment,
Recognizing the camera position and shooting direction, setting a reference path including one or more reference path points that are known positions, and based on the image captured by the camera, the peripheral object captured in the image A surrounding environment estimation unit for obtaining a distance from the reference route to the surrounding environment.
(付記2) 前記周辺環境推定部は、前記カメラまたは前記周辺環境推定装置と前記カメラとが移動体に設置された場合、最初に通過した前記移動体の経路を前記基準経路として設定することを特徴とする付記1記載の周辺環境推定装置。
(Additional remark 2) When the said camera or the said surrounding environment estimation apparatus and the said camera are installed in a mobile body, the said surrounding environment estimation part sets the path | route of the said mobile body which passed first as the said reference | standard path | route. The surrounding environment estimation apparatus according to
(付記3) 前記周辺環境推定部は、前記カメラまたは前記周辺環境推定装置と前記カメラとが移動体に設置された場合、
前記移動体の進行経路上で測定した、前記周辺物体と前記移動体との距離を、前記基準経路上における距離に変換するデータ変換処理を行うことで、前記周辺物体までの前記基準経路からの距離を求め、
前記データ変換処理を行うために、前記基準経路上の点をマッピングして、誤差が最も小さくなるように前記基準経路上のマッピング位置を算出することを特徴とする付記1記載の周辺環境推定装置。
(Supplementary Note 3) When the surrounding environment estimation unit is installed on a moving object, the camera or the surrounding environment estimation device and the camera are installed.
By performing a data conversion process for converting the distance between the surrounding object and the moving body measured on the traveling path of the moving body into a distance on the reference path, the distance from the reference path to the surrounding object is determined. Find the distance
The surrounding environment estimation apparatus according to
(付記4) 前記周辺環境推定部は、測定に伴う誤差として、少なくとも前記データ変換処理を行った際の変換誤差を保持することを特徴とする付記3記載の周辺環境推定装置。
(Additional remark 4) The said surrounding environment estimation part hold | maintains at least the conversion error at the time of performing the said data conversion process as an error accompanying a measurement, The surrounding environment estimation apparatus of
(付記5) 前記周辺環境推定部は、前記基準経路を形成する基準経路点を、周辺領域毎にグルーピングして保持しておくことを特徴とする付記1記載の周辺環境推定装置。
(付記6) 前記周辺環境推定部は、前記周辺物体までの前記基準経路からの距離を、2次元マップとして保持することを特徴とする付記1記載の周辺環境推定装置。
(Additional remark 5) The said surrounding environment estimation part groups the reference path point which forms the said reference path for every surrounding area, and is hold | maintained, The surrounding environment estimation apparatus of
(Additional remark 6) The said surrounding environment estimation part hold | maintains the distance from the said reference | standard path | route to the said surrounding object as a two-dimensional map, The surrounding environment estimation apparatus of
(付記7) 前記周辺環境推定部は、算出した前記周辺物体までの前記基準経路からの距離と、現在の測定距離とを比較することで、周辺環境の変化を推定することを特徴とする付記1記載の周辺環境推定装置。 (Additional remark 7) The said surrounding environment estimation part estimates the change of a surrounding environment by comparing the distance from the said reference | standard path | route to the said surrounding object and the present measurement distance. The surrounding environment estimation apparatus according to 1.
(付記8) 周辺環境を推定する制御をコンピュータに実行させる周辺環境推定プログラムにおいて、
前記コンピュータに
カメラの位置と撮影方向を認識し、既知の位置である基準経路点を1つ以上含む基準経路を設定して、前記カメラで撮影された画像にもとづき、前記画像内に撮影された前記周辺物体までの前記基準経路からの距離を求める、
処理を実行させることを特徴とする周辺環境推定プログラム。
(Additional remark 8) In the surrounding environment estimation program which makes a computer perform control which estimates a surrounding environment,
The computer recognizes the position and shooting direction of the camera, sets a reference path including one or more reference path points that are known positions, and is captured in the image based on the image captured by the camera. Obtaining a distance from the reference path to the surrounding object;
A surrounding environment estimation program characterized by causing processing to be executed.
(付記9) 周辺環境を推定する周辺環境推定システムにおいて、
カメラと、
前記カメラの位置と撮影方向を認識し、既知の位置である基準経路点を1つ以上含む基準経路を設定して、前記カメラで撮影された画像にもとづき、前記画像内に撮影された前記周辺物体までの前記基準経路からの距離を求める周辺環境推定部と、
前記周辺環境推定部の処理結果を出力する出力部と、
を有することを特徴とする周辺環境推定システム。
(Supplementary note 9) In the surrounding environment estimation system for estimating the surrounding environment,
A camera,
Recognizing the position and shooting direction of the camera, setting a reference path including one or more reference path points that are known positions, and based on the image captured by the camera, the peripheral imaged in the image A surrounding environment estimation unit for obtaining a distance from the reference route to the object;
An output unit for outputting a processing result of the surrounding environment estimation unit;
The surrounding environment estimation system characterized by having.
1 周辺環境推定装置
1a カメラ
10 周辺環境推定部
1 Ambient
Claims (6)
カメラの位置と撮影方向を認識し、既知の位置である基準経路点を1つ以上含む基準経路を設定して、前記カメラで撮影された画像にもとづき、前記画像内に撮影された前記周辺物体までの前記基準経路からの距離を求める周辺環境推定部
を有することを特徴とする周辺環境推定装置。 In the surrounding environment estimation device for estimating the surrounding environment,
Recognizing the camera position and shooting direction, setting a reference path including one or more reference path points that are known positions, and based on the image captured by the camera, the peripheral object captured in the image A surrounding environment estimation unit for obtaining a distance from the reference route to the surrounding environment.
前記移動体の進行経路上で測定した、前記周辺物体と前記移動体との距離を、前記基準経路上における距離に変換するデータ変換処理を行うことで、前記周辺物体までの前記基準経路からの距離を求め、
前記データ変換処理を行うために、前記基準経路上の点をマッピングして、誤差が最も小さくなるように前記基準経路上のマッピング位置を算出することを特徴とする請求項1記載の周辺環境推定装置。 The surrounding environment estimation unit, when the camera or the surrounding environment estimation device and the camera are installed on a moving body,
By performing a data conversion process for converting the distance between the surrounding object and the moving body measured on the traveling path of the moving body into a distance on the reference path, the distance from the reference path to the surrounding object is determined. Find the distance
2. The surrounding environment estimation according to claim 1, wherein in order to perform the data conversion process, a mapping position on the reference path is calculated so as to minimize an error by mapping a point on the reference path. apparatus.
前記コンピュータに
カメラの位置と撮影方向を認識し、既知の位置である基準経路点を1つ以上含む基準経路を設定して、前記カメラで撮影された画像にもとづき、前記画像内に撮影された前記周辺物体までの前記基準経路からの距離を求める、
処理を実行させることを特徴とする周辺環境推定プログラム。 In a surrounding environment estimation program that causes a computer to execute control that estimates the surrounding environment,
The computer recognizes the position and shooting direction of the camera, sets a reference path including one or more reference path points that are known positions, and is captured in the image based on the image captured by the camera. Obtaining a distance from the reference path to the surrounding object;
A surrounding environment estimation program characterized by causing processing to be executed.
カメラと、
前記カメラの位置と撮影方向を認識し、既知の位置である基準経路点を1つ以上含む基準経路を設定して、前記カメラで撮影された画像にもとづき、前記画像内に撮影された前記周辺物体までの前記基準経路からの距離を求める周辺環境推定部と、
前記周辺環境推定部の処理結果を出力する出力部と、
を有することを特徴とする周辺環境推定システム。 In the surrounding environment estimation system that estimates the surrounding environment,
A camera,
Recognizing the position and shooting direction of the camera, setting a reference path including one or more reference path points that are known positions, and based on the image captured by the camera, the peripheral imaged in the image A surrounding environment estimation unit for obtaining a distance from the reference route to the object;
An output unit for outputting a processing result of the surrounding environment estimation unit;
The surrounding environment estimation system characterized by having.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009270086A JP5407810B2 (en) | 2009-11-27 | 2009-11-27 | Ambient environment estimation device, ambient environment estimation program, and ambient environment estimation system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009270086A JP5407810B2 (en) | 2009-11-27 | 2009-11-27 | Ambient environment estimation device, ambient environment estimation program, and ambient environment estimation system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2011113364A true JP2011113364A (en) | 2011-06-09 |
| JP5407810B2 JP5407810B2 (en) | 2014-02-05 |
Family
ID=44235646
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009270086A Expired - Fee Related JP5407810B2 (en) | 2009-11-27 | 2009-11-27 | Ambient environment estimation device, ambient environment estimation program, and ambient environment estimation system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5407810B2 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013033024A (en) * | 2011-07-05 | 2013-02-14 | Denso Corp | Distance and speed measuring device |
| JP2013207579A (en) * | 2012-03-28 | 2013-10-07 | Osaka Gas Co Ltd | Energy information output device, imaging device and data management system |
| JP2019049466A (en) * | 2017-09-11 | 2019-03-28 | 国際航業株式会社 | How to give coordinates of roadside features |
| WO2020183839A1 (en) * | 2019-03-14 | 2020-09-17 | 日本電信電話株式会社 | Data compression device, data compression method, and program |
| CN114509772A (en) * | 2020-11-16 | 2022-05-17 | 伟摩有限责任公司 | Remote distance estimation using reference objects |
-
2009
- 2009-11-27 JP JP2009270086A patent/JP5407810B2/en not_active Expired - Fee Related
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013033024A (en) * | 2011-07-05 | 2013-02-14 | Denso Corp | Distance and speed measuring device |
| JP2013207579A (en) * | 2012-03-28 | 2013-10-07 | Osaka Gas Co Ltd | Energy information output device, imaging device and data management system |
| JP2019049466A (en) * | 2017-09-11 | 2019-03-28 | 国際航業株式会社 | How to give coordinates of roadside features |
| WO2020183839A1 (en) * | 2019-03-14 | 2020-09-17 | 日本電信電話株式会社 | Data compression device, data compression method, and program |
| JPWO2020183839A1 (en) * | 2019-03-14 | 2021-10-21 | 日本電信電話株式会社 | Data compression equipment, data compression methods, and programs |
| JP7060157B2 (en) | 2019-03-14 | 2022-04-26 | 日本電信電話株式会社 | Data compression device, data compression method, and program |
| US11818361B2 (en) | 2019-03-14 | 2023-11-14 | Nippon Telegraph And Telephone Corporation | Data compression apparatus, data compression method, and program |
| CN114509772A (en) * | 2020-11-16 | 2022-05-17 | 伟摩有限责任公司 | Remote distance estimation using reference objects |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5407810B2 (en) | 2014-02-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12430087B2 (en) | Vehicular information systems and methods | |
| US11874119B2 (en) | Traffic boundary mapping | |
| EP3805700B1 (en) | Method, apparatus, and system for predicting a pose error for a sensor system | |
| EP3647726B1 (en) | Method and apparatus for predicting sensor error for self-localisation of a vehicle | |
| EP3673407B1 (en) | Automatic occlusion detection in road network data | |
| JP6605707B2 (en) | System and method for two-stage object data processing with vehicle and server databases for generating, updating and supplying accurate road characteristic databases | |
| US11720992B2 (en) | Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image | |
| US11867819B2 (en) | Automatic positioning of 2D image sign sightings in 3D space | |
| US10127461B2 (en) | Visual odometry for low illumination conditions using fixed light sources | |
| JP4437556B2 (en) | Feature information collecting apparatus and feature information collecting method | |
| JP2018525633A (en) | System and method for accurate vehicle location | |
| JP2018529087A (en) | System and method for matching road data objects to generate and update an accurate road database | |
| EP3137850A1 (en) | Method and system for determining a position relative to a digital map | |
| JP2010511212A (en) | Method and apparatus for identifying and locating planar objects in an image | |
| JP5407810B2 (en) | Ambient environment estimation device, ambient environment estimation program, and ambient environment estimation system | |
| AU2018253534A1 (en) | Information processing device and information processing system | |
| JP2010224670A (en) | Vehicle periphery monitoring device | |
| US12114238B2 (en) | Indoor localization based on detection of building-perimeter features | |
| US20220329971A1 (en) | Determining context categorizations based on audio samples | |
| US20250244144A1 (en) | System and method for estimating a line for a boundary line | |
| WO2024144826A1 (en) | Vehicle travel path determination |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120815 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130628 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130709 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130830 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131008 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131021 |
|
| LAPS | Cancellation because of no payment of annual fees |