[go: up one dir, main page]

JP2018146248A - Target position estimation method and target position estimation apparatus - Google Patents

Target position estimation method and target position estimation apparatus Download PDF

Info

Publication number
JP2018146248A
JP2018146248A JP2017038104A JP2017038104A JP2018146248A JP 2018146248 A JP2018146248 A JP 2018146248A JP 2017038104 A JP2017038104 A JP 2017038104A JP 2017038104 A JP2017038104 A JP 2017038104A JP 2018146248 A JP2018146248 A JP 2018146248A
Authority
JP
Japan
Prior art keywords
target
trajectory
target position
vehicle
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017038104A
Other languages
Japanese (ja)
Other versions
JP6848531B2 (en
Inventor
博幸 ▲高▼野
博幸 ▲高▼野
Hiroyuki Takano
泰仁 佐野
Yasuhito Sano
泰仁 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2017038104A priority Critical patent/JP6848531B2/en
Publication of JP2018146248A publication Critical patent/JP2018146248A/en
Application granted granted Critical
Publication of JP6848531B2 publication Critical patent/JP6848531B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】地図上の物標の位置を精度よく推定できる物標位置推定方法及び物標位置推定装置を提供する。【解決手段】物標位置推定装置1は、車両から物標までの距離及び方向を地図上における複数の車両の位置から取得するセンサ2,3と、所定区間において車両のトラジェクトリを算出するコントローラ10と、を備え、コントローラ10は、トラジェクトリと距離及び方向とを用いて地図上の物標の位置を算出し、物標の位置の分散が所定値より大きい場合にトラジェクトリを補正し、補正したトラジェクトリを用いて物標の位置を算出する。【選択図】図1PROBLEM TO BE SOLVED: To provide a target position estimation method and a target position estimation device capable of accurately estimating the position of a target on a map. A target position estimation device 1 includes sensors 2 and 3 that acquire distances and directions from a vehicle to a target from the positions of a plurality of vehicles on a map, and a controller 10 that calculates the trajectory of the vehicle in a predetermined section. The controller 10 calculates the position of the target on the map using the trajectory and the distance and direction, corrects the trajectory when the dispersion of the position of the target is larger than a predetermined value, and corrects the trajectory. The position of the target is calculated using. [Selection diagram] Fig. 1

Description

本発明は、物標位置推定方法及び物標位置推定装置に関する。   The present invention relates to a target position estimation method and a target position estimation apparatus.

従来より、カーナビゲーション装置などに格納される地図データを補正する方法が知られている。特許文献1に記載された発明は、GPSを用いた走行軌跡データと、地図データとを比較し、走行軌跡データに対する地図データのずれを補正する。これにより、地図上の物標の位置などが補正され、補正された物標の位置を用いて、車両の自己位置を算出している。   Conventionally, a method for correcting map data stored in a car navigation device or the like is known. The invention described in Patent Document 1 compares travel locus data using GPS with map data, and corrects a shift in map data with respect to the travel locus data. Thereby, the position of the target on the map is corrected, and the self position of the vehicle is calculated using the corrected position of the target.

特開2007−310198号公報JP 2007-310198 A

しかしながら、特許文献1に記載された発明のように走行軌跡データを用いる場合において、例えばGPSでは建物が密集している場所で誤差が多く含まれるため、地図上の物標の位置を精度よく補正できないおそれがある。   However, when using travel locus data as in the invention described in Patent Document 1, for example, GPS includes many errors in places where buildings are densely packed, so the position of the target on the map is accurately corrected. It may not be possible.

本発明は、上記問題に鑑みて成されたものであり、その目的は、地図上の物標の位置を精度よく推定できる物標位置推定方法及び物標位置推定装置を提供することである。   The present invention has been made in view of the above problems, and an object thereof is to provide a target position estimation method and a target position estimation apparatus that can accurately estimate the position of a target on a map.

本発明の一態様に係る物標位置推定方法は、車両から物標までの距離及び方向を地図上における複数の車両の位置から取得し、距離及び方向を取得した時の車両のトラジェクトリを算出し、トラジェクトリと距離及び方向とを用いて地図上の物標の位置を算出し、物標の位置の分散が所定値より大きい場合にトラジェクトリを補正し、補正したトラジェクトリを用いて物標の位置を算出する。   A target position estimation method according to an aspect of the present invention obtains distances and directions from a vehicle to a target from positions of a plurality of vehicles on a map, and calculates a trajectory of the vehicle when the distances and directions are obtained. , Calculate the position of the target on the map using the trajectory, distance and direction, correct the trajectory when the variance of the target position is greater than a predetermined value, and use the corrected trajectory to determine the target position. calculate.

本発明によれば、物標の位置を精度よく推定できる。   According to the present invention, the position of a target can be estimated with high accuracy.

図1は、本発明の実施形態に係る物標位置推定装置の構成図である。FIG. 1 is a configuration diagram of a target position estimation apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る走行軌跡モデルを説明する図である。FIG. 2 is a diagram illustrating a travel locus model according to the embodiment of the present invention. 図3は、本発明の実施形態に係るトラジェクトリを用いた物標の位置の算出方法を説明する図である。FIG. 3 is a diagram for explaining a method for calculating the position of a target using a trajectory according to the embodiment of the present invention. 図4は、本発明の実施形態に係る補正後のトラジェクトリを用いた物標の位置の算出方法を説明する図である。FIG. 4 is a diagram for explaining a method for calculating a target position using the corrected trajectory according to the embodiment of the present invention. 図5は、本発明の実施形態に係る補正後のトラジェクトリを用いた物標の位置の算出方法を説明する図である。FIG. 5 is a diagram illustrating a method for calculating a target position using the corrected trajectory according to the embodiment of the present invention. 図6は、本発明の実施形態に係る物標位置推定装置の動作例を説明するフローチャートである。FIG. 6 is a flowchart for explaining an operation example of the target position estimation apparatus according to the embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same portions are denoted by the same reference numerals, and description thereof is omitted.

図1を参照して、本実施形態に係る物標位置推定装置1について説明する。図1に示すように、物標位置推定装置1は、カメラ2と、レーザレンジファインダー3と、GPS受信機4と、ジャイロセンサ5と、地図データベース6と、コントローラ10と、通信機7を備える。   With reference to FIG. 1, the target position estimation apparatus 1 which concerns on this embodiment is demonstrated. As shown in FIG. 1, the target position estimation apparatus 1 includes a camera 2, a laser range finder 3, a GPS receiver 4, a gyro sensor 5, a map database 6, a controller 10, and a communication device 7. .

カメラ2は、CCD(charge−coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ2は、自車両に搭載され、自車両の周囲を撮影する。カメラ2は、画像処理機能を有しており、撮影した画像から白線や道路端、物標などを検出する。物標とは、道路や歩道に設けられる物体であり、例えば信号機や電柱、交通標識などである。カメラ2は、検出したデータをコントローラ10に出力する。   The camera 2 includes an image pickup device such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 2 is mounted on the host vehicle and photographs the surroundings of the host vehicle. The camera 2 has an image processing function, and detects a white line, a road edge, a target, and the like from the captured image. A target is an object provided on a road or a sidewalk, such as a traffic light, a utility pole, or a traffic sign. The camera 2 outputs the detected data to the controller 10.

レーザレンジファインダー3は、自車両の周囲の物標を検出するセンサである。詳しくは、レーザレンジファインダー3は、レーザ光をある角度範囲内で走査し、その時の反射光を受光して、レーザ発射時点と反射光の受光時点との時間差を検出する。レーザレンジファインダー3は、自車両に対する物標の相対距離や方向などを検出し、検出したデータをコントローラ10に出力する。レーザレンジファインダー3は、ボンネット、バンパー、ナンバープレート、ヘッドライト、サイドミラーなどの周辺に設置される。   The laser range finder 3 is a sensor that detects a target around the host vehicle. Specifically, the laser range finder 3 scans the laser beam within a certain angle range, receives the reflected light at that time, and detects the time difference between the time of laser emission and the time of receiving the reflected light. The laser range finder 3 detects the relative distance and direction of the target with respect to the host vehicle, and outputs the detected data to the controller 10. The laser range finder 3 is installed around a bonnet, a bumper, a license plate, a headlight, a side mirror, and the like.

GPS受信機4は、人工衛星からの電波を受信することにより、地上における自車両の現在地を検出する。GPS受信機4は、検出したデータをコントローラ10に出力する。   The GPS receiver 4 detects the current location of the vehicle on the ground by receiving radio waves from an artificial satellite. The GPS receiver 4 outputs the detected data to the controller 10.

ジャイロセンサ5は、自車両の重心の鉛直軸周りのヨーレート(回転角速度)を検出し、検出したデータをコントローラ10に出力する。   The gyro sensor 5 detects the yaw rate (rotational angular velocity) around the vertical axis of the center of gravity of the host vehicle, and outputs the detected data to the controller 10.

地図データベース6は、カーナビゲーション装置などに記憶されているデータベースであって、道路情報や施設情報など経路案内に必要となる各種データが記憶されている。地図データベース6は、高精度な地図であって、道路の車線数、道路境界線、物標などの情報が記憶されている。地図データベース6は、コントローラ10の要求に応じて地図情報をコントローラ10に出力する。なお、道路情報や物標情報などの各種データは必ずしも地図データベース6から取得するものに限定されず、自車両が備えるセンサにより取得するものでもよく、また車車間通信、路車間通信を用いて取得するようにしてもよい。例えば、道路情報や物標情報などの各種データがサーバ20に記憶されている場合、コントローラ10は、通信により随時これらのデータを取得することができる。また、コントローラ10は、サーバ20から定期的に最新の地図情報を入手して、保有する地図情報を更新することができる。なお、本実施形態においては、地図データベース6として第一地図(高精度地図、車両のリート案内に用いる地図)を備えており、第一地図を補足するものとして、第二地図を備えるようにしてもよい。この第二地図は、第一地図だけでは不完全な場合や、より詳細な地図情報が必要な場合に、車両や外部のサーバ20で作成するようにしてもよい。   The map database 6 is a database stored in a car navigation device or the like, and stores various data necessary for route guidance such as road information and facility information. The map database 6 is a high-precision map, and stores information such as the number of road lanes, road boundaries, and targets. The map database 6 outputs map information to the controller 10 in response to a request from the controller 10. Various data such as road information and target information are not necessarily acquired from the map database 6, but may be acquired by a sensor provided in the own vehicle, and are acquired using inter-vehicle communication and road-to-vehicle communication. You may make it do. For example, when various data such as road information and target information are stored in the server 20, the controller 10 can acquire these data as needed by communication. In addition, the controller 10 can periodically obtain the latest map information from the server 20 and update the map information it holds. In the present embodiment, the map database 6 includes a first map (a high-precision map, a map used for vehicle REIT guidance), and a second map is provided to supplement the first map. Also good. The second map may be created by the vehicle or the external server 20 when the first map alone is incomplete or when more detailed map information is required.

コントローラ10は、カメラ2、レーザレンジファインダー3、GPS受信機4、ジャイロセンサ5、地図データベース6から取得したデータを処理する回路であり、例えばIC、LSIなどにより構成される。コントローラ10は、これを機能的に捉えた場合、走行軌跡モデル作成部11と、トラジェクトリ算出部12と、物標位置算出部13と、トラジェクトリ補正部14と、物標位置補正部15と、自己位置推定部16とに分類することができる。   The controller 10 is a circuit that processes data acquired from the camera 2, the laser range finder 3, the GPS receiver 4, the gyro sensor 5, and the map database 6, and includes, for example, an IC or an LSI. When the controller 10 grasps this functionally, the travel locus model creation unit 11, the trajectory calculation unit 12, the target position calculation unit 13, the trajectory correction unit 14, the target position correction unit 15, and the self It can be classified into the position estimation unit 16.

走行軌跡モデル作成部11は、自車両の走行データを用いて走行軌跡モデルを作成する。走行軌跡モデルは、図2に示すように、所定区間(図2に示す1点鎖線で囲まれた区間)における走行軌跡上の複数の点Xi(i=1〜n)で構成される。各点Xiは、座標(x,y)と車両の向きθ(進行方向)から成る。走行軌跡モデル作成部11は、自車両の走行軌跡から座標(x,y)と向きθを多数取得し、取得したデータを用いて各点Xiの走行軌跡を学習し、走行軌跡を再現可能な走行軌跡モデルを作成する。なお、所定区間は、走行時間や走行シーンで区切られる区間である。走行時間は例えば3〜4秒である。また、走行シーンは例えば交差点の入り口から出口までのシーン、右折または左折シーンである。このように走行時間または走行シーンで区切る理由は、走行時間が長かったり走行シーンが複雑だったりすると、様々なデータが入り込むため走行軌跡モデルの精度が低下するおそれがあるからである。走行軌跡モデル作成部11は、走行時間や走行シーンで区切られた区間の走行軌跡モデルを作成することで、高精度な走行軌跡モデルを生成することができる。なお、走行軌跡モデル作成部11は、必ずしも自車両の走行データを用いる必要はなく、サーバ20に集められた自車両以外の他車両の走行データを用いてもよく、走行データを使わずにあらかじめ作成されたモデルを用いてもよい。   The travel locus model creation unit 11 creates a travel locus model using the travel data of the host vehicle. As shown in FIG. 2, the travel locus model is composed of a plurality of points Xi (i = 1 to n) on the travel locus in a predetermined section (section surrounded by a one-dot chain line shown in FIG. 2). Each point Xi is composed of coordinates (x, y) and a vehicle direction θ (traveling direction). The traveling locus model creation unit 11 can acquire a large number of coordinates (x, y) and direction θ from the traveling locus of the host vehicle, learn the traveling locus of each point Xi using the acquired data, and can reproduce the traveling locus. Create a running track model. The predetermined section is a section that is divided by the travel time or the travel scene. The running time is 3 to 4 seconds, for example. The traveling scene is, for example, a scene from the entrance to the exit of an intersection, a right turn or a left turn scene. The reason for dividing by the travel time or the travel scene in this way is that if the travel time is long or the travel scene is complicated, various data may enter and the accuracy of the travel locus model may be lowered. The travel trajectory model creation unit 11 can create a travel trajectory model with high accuracy by creating a travel trajectory model of a section divided by travel time and travel scene. The travel locus model creation unit 11 does not necessarily need to use the travel data of the host vehicle, and may use the travel data of other vehicles other than the host vehicle collected in the server 20 without using the travel data in advance. A created model may be used.

具体的には、走行軌跡モデル作成部11は、取得したデータから所定区間の各点Xi毎の平均位置を求める。次に、走行軌跡モデル作成部11は、取得した走行データから分散共分散行列を計算し、主成分ベクトルを求める。このとき、走行軌跡モデル作成部11は、主成分ベクトルの本数として走行軌跡を十分に表現できるだけの本数を求める。次に、走行軌跡モデル作成部11は、主成分ベクトルを列に並べ、行列Aを作成する。行列Aは、軌跡制御係数である。走行軌跡モデル作成部11は、モデル各点の平均位置と、行列A及び行列Aの制御パラメータであるqとを足し合わせて走行軌跡モデルXを作成する。走行軌跡モデルXは、式(1)、(2)を用いて次のように表される。   Specifically, the travel locus model creation unit 11 obtains an average position for each point Xi in a predetermined section from the acquired data. Next, the travel locus model creation unit 11 calculates a variance-covariance matrix from the acquired travel data, and obtains a principal component vector. At this time, the traveling locus model creation unit 11 obtains the number that can sufficiently represent the traveling locus as the number of principal component vectors. Next, the traveling locus model creation unit 11 arranges the principal component vectors in a column and creates a matrix A. The matrix A is a trajectory control coefficient. The travel locus model creation unit 11 creates a travel locus model X by adding the average position of each point of the model and the matrix A and the control parameter q of the matrix A. The travel locus model X is expressed as follows using the equations (1) and (2).

Figure 2018146248
Figure 2018146248
Figure 2018146248
Figure 2018146248

走行軌跡モデル作成部11は、作成した走行軌跡モデルXをサーバ20に保存する。走行軌跡モデル作成部11は、作成した走行軌跡モデルXを自車両に保存するようにしてもよい。なお、走行軌跡モデルXは、一つ生成されてもよく、複数生成されてもよい。また、所定区間は、5秒間、10秒間など時間が区切ってもよく、動作で区切ってもよい。動作で区切る例は、交差点に進入してから出るまでの区間である。なお、走行軌跡モデル作成部11は、車車間通信を使って他車両に走行軌跡モデルXを保存するようにしてもよい。   The travel locus model creation unit 11 stores the created travel locus model X in the server 20. The traveling locus model creation unit 11 may store the created traveling locus model X in the host vehicle. Note that one traveling locus model X may be generated, or a plurality of traveling locus models X may be generated. In addition, the predetermined section may be divided by time such as 5 seconds or 10 seconds, or by operation. An example of dividing by operation is a section from entering the intersection to exiting. The traveling locus model creation unit 11 may store the traveling locus model X in another vehicle using inter-vehicle communication.

トラジェクトリ算出部12は、サーバ20に記憶されている走行軌跡モデルXを用いてトラジェクトリを算出する。トラジェクトリとは、走行軌跡モデルXを用いて算出される自車両の走行軌跡である。トラジェクトリ算出部12は、向きθと制御パラメータqを所定値(例えば、0)で初期化し、トラジェクトリを算出する。また、制御パラメータqについては、オドメトリの軌跡から逆算した値で初期化してもよい。自車両の走行軌跡は、オドメトリを使用して取得することも可能である。オドメトリとはタイヤの回転角と回転角速度に応じて移動体の移動距離と方向を求める方法である。しかし、オドメトリを使用した場合、タイヤスリップなどによる誤差を回避できない可能性があり、走行軌跡の推定精度が低下するおそれがある。本実施形態では走行軌跡モデルXを用いたトラジェクトリを使用する。これにより、走行軌跡の推定精度が低下することを抑制することができる。なお、トラジェクトリ算出部12は、物標を取得する前のトラジェクトリについて、オドメトリを用いて算出するようにしてもよい。また、トラジェクトリ算出部12は、オドメトリから算出したトラジェクトリを用いて物標を取得するようにしてもよく、物標を取得した後のトラジェクトリを走行軌跡モデルを用いて算出するようにしてもよい。   The trajectory calculation unit 12 calculates a trajectory using the travel locus model X stored in the server 20. The trajectory is a travel locus of the host vehicle calculated using the travel locus model X. The trajectory calculation unit 12 initializes the direction θ and the control parameter q with predetermined values (for example, 0), and calculates a trajectory. The control parameter q may be initialized with a value calculated backward from the odometry trajectory. The traveling locus of the host vehicle can also be obtained using odometry. Odometry is a method for determining the moving distance and direction of a moving body according to the rotation angle and rotation angular velocity of a tire. However, when odometry is used, there is a possibility that an error due to tire slip or the like cannot be avoided, and there is a possibility that the estimation accuracy of the travel locus is lowered. In the present embodiment, a trajectory using the travel locus model X is used. Thereby, it can suppress that the estimation precision of a running track falls. The trajectory calculation unit 12 may calculate the trajectory before acquiring the target using odometry. The trajectory calculation unit 12 may acquire a target using a trajectory calculated from odometry, or may calculate a trajectory after acquiring a target using a travel locus model.

物標位置算出部13は、トラジェクトリ算出部12によって算出されたトラジェクトリを用いて地図上の物標の位置を算出する。物標位置算出部13は、トラジェクトリ上の各点から物標までの距離を取得し、この距離を取得した時の自車両の向きθを取得する。この各点とは、複数の位置であればよく、同じ位置であっても複数回、物標の距離及び向きを取得できればよい。物標位置算出部13は、物標までの距離、及び向きθを用いて物標の位置を算出する。また、物標位置算出部13は、トラジェクトリ上の各点から算出した物標の位置の分散を求める。分散が閾値よりも大きい場合、向きθとqを調整し再度トラジェクトリを補正して、物標の位置を求め、分散を算出する。分散とは、散らばり具合を示す指標であり、物標位置算出部13は一般的な手法を用いて分散を求めることができる。分散が閾値より大きい場合、平均値から遠く離れたデータが多く、散らばりが大きいことを意味する。一方、分散が閾値以下の場合、平均に近いデータが多く、散らばりが小さいことを意味する。換言すれば、分散が閾値以下の場合、物標位置算出部13が物標の位置を精度よく推定できたことを意味する。一方、分散が閾値より大きい場合、物標位置算出部13は物標の位置を精度よく推定できていないことを意味する。なお、閾値は、実験やシミュレーションを通じて求めてもよく、また任意に設定するようにしてもよい。   The target position calculation unit 13 calculates the position of the target on the map using the trajectory calculated by the trajectory calculation unit 12. The target position calculation unit 13 acquires the distance from each point on the trajectory to the target, and acquires the direction θ of the host vehicle when the distance is acquired. Each point may be a plurality of positions, as long as the distance and orientation of the target can be acquired a plurality of times even at the same position. The target position calculation unit 13 calculates the position of the target using the distance to the target and the direction θ. Further, the target position calculation unit 13 obtains the variance of the target position calculated from each point on the trajectory. When the variance is larger than the threshold value, the orientations θ and q are adjusted, the trajectory is corrected again, the position of the target is obtained, and the variance is calculated. The variance is an index indicating the degree of dispersion, and the target position calculation unit 13 can obtain the variance using a general method. When the variance is larger than the threshold value, it means that there is a lot of data far from the average value, and the variance is large. On the other hand, if the variance is less than or equal to the threshold value, it means that there is a lot of data close to the average and the variance is small. In other words, when the variance is equal to or smaller than the threshold value, it means that the target position calculation unit 13 can accurately estimate the position of the target. On the other hand, when the variance is larger than the threshold value, it means that the target position calculation unit 13 cannot accurately estimate the position of the target. The threshold value may be obtained through experiments or simulations, or may be set arbitrarily.

トラジェクトリ補正部14は、物標位置算出部13によって算出された物標の位置の分散に応じてトラジェクトリを補正する。詳しくは、トラジェクトリ補正部14は、分散が閾値より大きい場合、向きθと制御パラメータqを調整してトラジェクトリを補正する。また、トラジェクトリ補正部14は、分散が閾値以下になるまで向きθと制御パラメータqを繰り返し調整してトラジェクトリを補正する。なお、向きθと制御パラメータqの調整方法は限定されないが、例えばガウスニュートン法を使用して繰り返し計算の中で徐々に真値に近づけていく方法を用いることができる。このトラジェクトリ補正部14は、算出された物標の位置から、各点で取得した物標との距離及び向きを拘束条件として与え、走行軌跡モデルXを用いて、トラジェクトリを補正することができる。これにより、物標との距離及び向きを取得した各点の位置に誤差が生じていたとしても(例えば、GPS誤差やオドメトリ誤差)、トラジェクトリ補正部14は、トラジェクトリを適切に算出することができるため、ひいては、車両の自己位置を正確に算出できるようになる。さらに、トラジェクトリ補正部14は、この処理を繰り返すことで、さらにトラジェクトリを適切に算出することができる。   The trajectory correction unit 14 corrects the trajectory according to the dispersion of the target position calculated by the target position calculation unit 13. Specifically, when the variance is larger than the threshold, the trajectory correction unit 14 corrects the trajectory by adjusting the direction θ and the control parameter q. Further, the trajectory correction unit 14 corrects the trajectory by repeatedly adjusting the direction θ and the control parameter q until the variance becomes equal to or less than the threshold value. The method for adjusting the orientation θ and the control parameter q is not limited. For example, a method of gradually approaching the true value in the repeated calculation using the Gauss-Newton method can be used. The trajectory correction unit 14 can correct the trajectory using the travel locus model X by giving the distance and direction of the target acquired at each point as constraint conditions from the calculated target position. Thereby, even if an error has occurred in the position of each point obtained from the distance and orientation to the target (for example, a GPS error or an odometry error), the trajectory correction unit 14 can appropriately calculate the trajectory. As a result, the self-position of the vehicle can be accurately calculated. Further, the trajectory correction unit 14 can further appropriately calculate the trajectory by repeating this process.

物標位置補正部15は、トラジェクトリ補正部14によって補正されたトラジェクトリを用いて地図上の物標の位置を補正する。そして、物標位置補正部15は、補正後の物標の位置の分散を求める。また、物標位置補正部15は、分散が閾値以下になるまでトラジェクトリ補正部14によって補正されたトラジェクトリを用いて繰り返し補正後の物標の位置の分散を求める。そして、物標位置補正部15は、分散が閾値以下になった場合、補正後の物標の位置を地図データベース6へリンクさせる。   The target position correction unit 15 corrects the position of the target on the map using the trajectory corrected by the trajectory correction unit 14. Then, the target position correcting unit 15 obtains the variance of the corrected target position. The target position correction unit 15 obtains the variance of the target position after repeated correction using the trajectory corrected by the trajectory correction unit 14 until the variance becomes equal to or less than the threshold value. Then, the target position correcting unit 15 links the corrected target position to the map database 6 when the variance is equal to or smaller than the threshold value.

自己位置推定部16は、物標位置補正部15によって地図データベース6へリンクされた物標の位置を用いて自己位置を推定する。本実施形態において地図上の物標の位置は精度よく推定されているため、自車両から物標までの距離と方向を用いることにより、自己位置推定部16は自己位置を精度よく推定できる。具体的には、物標位置補正部15が物標の位置を正しい位置に補正することができるため、自己位置推定部16が物標を用いて車両の自己位置を推定する場合に、自己位置の推定精度が向上する。なお、物標を用いて車両の自己位置を推定する場合とは、物標の周辺を走行した場合に、物標までの距離と向きをセンサにより検出し、検出した距離と向き、及び取得していた物標の位置から、自車両の位置を推定することを意味する。また、自己位置推定部16は物標の位置を用いることにより、例えば交差点内側のように自車周囲に白線がない場所においても、自己位置を精度よく推定できる。なお、自己位置推定部16は、カメラ2によって検出された白線や道路端位置と、地図データベース6の白線や道路端位置とを比較して推定した自己位置と、物標を用いて推定した自己位置と照合して自己位置を推定してもよい。   The self position estimating unit 16 estimates the self position using the position of the target linked to the map database 6 by the target position correcting unit 15. In the present embodiment, since the position of the target on the map is accurately estimated, the self-position estimating unit 16 can accurately estimate the self-position by using the distance and direction from the host vehicle to the target. Specifically, since the target position correction unit 15 can correct the target position to the correct position, the self-position estimation unit 16 uses the target to estimate the self-position of the vehicle. The estimation accuracy of is improved. When the vehicle's self-position is estimated using the target, the distance and direction to the target are detected by the sensor when traveling around the target, and the detected distance and direction are acquired. This means that the position of the host vehicle is estimated from the position of the target. Further, the self-position estimating unit 16 can accurately estimate the self-position even in a place where there is no white line around the own vehicle, for example, inside the intersection, by using the position of the target. The self-position estimating unit 16 compares the white line and road edge position detected by the camera 2 with the white line and road edge position of the map database 6 and the self-position estimated using the target. The self position may be estimated by collating with the position.

通信機7は、サーバ20と通信するための装置である。   The communication device 7 is a device for communicating with the server 20.

次に、図3〜図5を参照してトラジェクトリを用いた物標の位置の算出方法及び補正方法を説明する。   Next, a method for calculating and correcting a target position using a trajectory will be described with reference to FIGS.

図3において点線で示す座標はマップ座標系であり、実線で示す座標は車両座標系である。車両座標系におけるy軸は自車両の進行方向を示し、x軸は進行方向に直交する横方向を示す。図3に示すトラジェクトリ21は、初期のトラジェクトリである。トラジェクトリ算出部12は、向きθと制御パラメータqを所定値で初期化し、初期のトラジェクトリ21を算出する。図3に示す座標(x1,y1)〜座標(x5,y5)は、トラジェクトリ21上の自己位置である。図3に示す向きθ1〜θ5は、マップ座標系からのヨー角を示す。角度Φ1〜Φ5は、車両座標系から見た自車両進行方向に対する物標30の方向を示す角度であり、距離L1〜L5は、車両座標系から見た自車両から物標30までの距離である。なお、本実施形態においては、所定の座標系を用いて説明しているが、マップ座標系や車両座標系に限定される必要はなく、その他の座標系を用いてもよく、また、一つの座標系を用いるようにしてもよい。   In FIG. 3, the coordinates indicated by the dotted line are the map coordinate system, and the coordinates indicated by the solid line are the vehicle coordinate system. The y-axis in the vehicle coordinate system indicates the traveling direction of the host vehicle, and the x-axis indicates the lateral direction orthogonal to the traveling direction. A trajectory 21 shown in FIG. 3 is an initial trajectory. The trajectory calculation unit 12 initializes the direction θ and the control parameter q with predetermined values, and calculates an initial trajectory 21. The coordinates (x1, y1) to coordinates (x5, y5) shown in FIG. 3 are self-positions on the trajectory 21. The directions θ1 to θ5 shown in FIG. 3 indicate yaw angles from the map coordinate system. The angles Φ1 to Φ5 are angles indicating the direction of the target 30 with respect to the traveling direction of the host vehicle viewed from the vehicle coordinate system, and the distances L1 to L5 are distances from the host vehicle to the target 30 viewed from the vehicle coordinate system. is there. In the present embodiment, description is made using a predetermined coordinate system, but the present invention is not limited to a map coordinate system or a vehicle coordinate system, and other coordinate systems may be used. A coordinate system may be used.

図3に示すように、自車両は、座標(x1,y1)〜座標(x5,y5)の区間を走行中にカメラ2やレーザレンジファインダー3を用いて自車両から物標30までの距離L1〜L5を計測する。自車両は、距離L1〜L5を計測した時刻と同時刻にジャイロセンサ5を用いて向きθ1〜θ5を検出する。図3に示す例では、異なる5つの走行地点から物標30までの距離と方向を取得する様子を示しているが、5点に限定されない。なお、角度Φ1〜Φ5についてもジャイロセンサ5を用いて取得することができる。   As shown in FIG. 3, the host vehicle uses a camera 2 or a laser range finder 3 while traveling in a section of coordinates (x1, y1) to coordinates (x5, y5), and a distance L1 from the host vehicle to the target 30. ~ L5 is measured. The own vehicle detects the directions θ1 to θ5 using the gyro sensor 5 at the same time as the time when the distances L1 to L5 are measured. In the example illustrated in FIG. 3, a state in which the distance and direction from five different traveling points to the target 30 are obtained is illustrated, but the number of points is not limited to five. The angles Φ1 to Φ5 can also be obtained using the gyro sensor 5.

ここで、トラジェクトリ21上において、i番目の時刻の自己位置をXiとすると、自己位置Xiは、式(3)を用いて次のように表される。   Here, on the trajectory 21, if the self position at the i-th time is Xi, the self position Xi is expressed as follows using equation (3).

Figure 2018146248
Figure 2018146248

物標30の位置を(Cx,Cy)とすると、物標30の位置(Cx,Cy)は、式(4)を用いて次のように表される。 The position of the target 30 (Cx i, Cy i) When the position of the target 30 (Cx i, Cy i), using equation (4) is expressed as follows.

Figure 2018146248
Figure 2018146248

式(5)における(Lx,Ly)は、i番目の時刻における自車両から物標30までの距離であり角度Φの要素を含む。式(5)に示すように物標位置算出部13は、自車両から物標30までの距離(Lx,Ly)を向きθだけ回転させる。そして、物標位置算出部13は、トラジェクトリ21上の座標(x,y)に距離を加算し、座標(x,y)分平行移動してマップ座標系に変換することで各点毎に物標30の位置を算出する。 (Lx i , Ly i ) in equation (5) is the distance from the host vehicle to the target 30 at the i-th time and includes an element of the angle Φ. As shown in Expression (5), the target position calculation unit 13 rotates the distance (Lx i , Ly i ) from the host vehicle to the target 30 by the direction θ i . Then, the target position calculation unit 13 adds the distance to the coordinates (x i , y i ) on the trajectory 21, translates the coordinates (x i , y i ), and converts them into a map coordinate system. The position of the target 30 is calculated for each point.

次に、物標位置算出部13は、算出した物標30の位置の分散を求める。図3に示すように分散が閾値より大きい場合、トラジェクトリ補正部14は、分散が閾値以下になるようにトラジェクトリ21を補正する。トラジェクトリ21の補正について図4,5を用いて説明する。   Next, the target position calculation unit 13 calculates the variance of the calculated position of the target 30. As illustrated in FIG. 3, when the variance is larger than the threshold, the trajectory correction unit 14 corrects the trajectory 21 so that the variance is equal to or less than the threshold. The correction of the trajectory 21 will be described with reference to FIGS.

図4に示すように、トラジェクトリ補正部14は、分散が閾値以下になるように向きθと制御パラメータqを調整しトラジェクトリを補正する。図4に示すトラジェクトリ22は、図3に示すトラジェクトリ21を補正したトラジェクトリである。物標位置補正部15は、補正後のトラジェクトリ22を用いて物標30の位置を再度算出し、物標30の位置の分散を再度算出する。そして、図5に示すように分散が閾値以下になるまでトラジェクトリ補正部14は、向きθと制御パラメータqを調整する。図5に示すトラジェクトリ23は、図4に示すトラジェクトリ22を補正したトラジェクトリである。このようにトラジェクトリ補正部14と物標位置補正部15は、分散が閾値以下になるまで繰り返し計算する。これによりトラジェクトリ補正部14と物標位置補正部15は、物標30の位置を精度よく推定できる。そして、物標位置補正部15は、分散が閾値以下になった場合、補正後の物標30の位置を地図データベース6へリンクさせる。自己位置推定部16は、物標位置補正部15によって地図データベース6へリンクされた物標30の位置を用いて自己位置を推定する。本実施形態において物標30の位置は精度よく推定されているため、自車両から物標30までの距離と方向を用いることにより、自己位置推定部16は自己位置を精度よく推定できる。   As shown in FIG. 4, the trajectory correction unit 14 corrects the trajectory by adjusting the direction θ and the control parameter q so that the variance is equal to or less than the threshold value. A trajectory 22 illustrated in FIG. 4 is a trajectory obtained by correcting the trajectory 21 illustrated in FIG. 3. The target position correcting unit 15 recalculates the position of the target 30 using the corrected trajectory 22 and recalculates the variance of the position of the target 30. Then, as shown in FIG. 5, the trajectory correction unit 14 adjusts the direction θ and the control parameter q until the variance becomes equal to or less than the threshold value. A trajectory 23 illustrated in FIG. 5 is a trajectory obtained by correcting the trajectory 22 illustrated in FIG. 4. In this way, the trajectory correction unit 14 and the target position correction unit 15 repeatedly calculate until the variance becomes equal to or less than the threshold value. Thereby, the trajectory correction unit 14 and the target position correction unit 15 can estimate the position of the target 30 with high accuracy. Then, the target position correction unit 15 links the corrected position of the target 30 to the map database 6 when the variance is equal to or smaller than the threshold value. The self-position estimating unit 16 estimates the self-position using the position of the target 30 linked to the map database 6 by the target position correcting unit 15. In this embodiment, since the position of the target 30 is estimated with high accuracy, the self-position estimation unit 16 can estimate the self-position with high accuracy by using the distance and direction from the host vehicle to the target 30.

次に、図6のフローチャートを参照して、物標位置推定装置1の一動作例について説明する。   Next, an operation example of the target position estimation apparatus 1 will be described with reference to the flowchart of FIG.

ステップS101において、カメラ2及びレーザレンジファインダー3は、それぞれ異なる走行地点から物標30までの距離Lと向きθを取得する。本実施形態において、iは時刻を示し、値は1〜5である。 In step S <b> 101, the camera 2 and the laser range finder 3 acquire a distance L i and a direction θ i from different travel points to the target 30. In the present embodiment, i indicates time and the value is 1-5.

ステップS102において、トラジェクトリ算出部12は、向きθと制御パラメータqを所定値で初期化する。   In step S102, the trajectory calculation unit 12 initializes the direction θ and the control parameter q with predetermined values.

ステップS103において、トラジェクトリ算出部12は、走行軌跡モデルXを用いてトラジェクトリを算出する。詳しくは、トラジェクトリ算出部12は、ステップS102で設定した初期値を走行軌跡モデルXに入力し、初期のトラジェクトリ21を算出する。走行軌跡モデルXを用いてトラジェクトリを算出する理由は、オドメトリを使用したトラジェクトリ推定は、タイヤスリップなどによる誤差のため推定精度が低下するおそれがあるからである。   In step S <b> 103, the trajectory calculation unit 12 calculates a trajectory using the travel locus model X. Specifically, the trajectory calculation unit 12 inputs the initial value set in step S102 to the travel locus model X, and calculates the initial trajectory 21. The reason for calculating the trajectory using the travel locus model X is that the estimation accuracy of trajectory estimation using odometry may decrease due to an error due to tire slip or the like.

ステップS104において、物標位置算出部13は、ステップS103で算出されたトラジェクトリ21を用いて地図上の物標30の位置を算出する。まず、物標位置算出部13は、トラジェクトリ21上の各点から物標30までの距離Lを取得し、この距離を取得した時の向きθを取得する。そして、物標位置算出部13は、物標30までの距離L、及び向きθを用いて各点毎に物標30の位置を算出する。 In step S104, the target position calculation unit 13 calculates the position of the target 30 on the map using the trajectory 21 calculated in step S103. First, the target position calculation unit 13 acquires a distance L i from each point on the trajectory 21 to the target 30 and acquires a direction θ i when the distance is acquired. Then, the target position calculation unit 13 calculates the position of the target 30 for each point using the distance L i to the target 30 and the direction θ i .

ステップS105において、物標位置算出部13は、ステップS104で算出された物標30の位置を用いて物標30の位置の分散を算出する。分散とは、散らばり具合を示す指標である。よって、分散が閾値以下の場合、物標位置算出部13は物標30の位置を精度よく推定できたことを意味する。一方、分散が閾値より大きい場合、物標位置算出部13は物標30の位置を精度よく推定できていないことを意味する。分散が閾値より大きい場合(ステップS106でYes)、処理はステップS107に進む。一方、分散が閾値以下の場合(ステップS106でNo)、処理はステップS108に進む。   In step S105, the target position calculation unit 13 calculates the variance of the position of the target 30 using the position of the target 30 calculated in step S104. The dispersion is an index indicating the degree of dispersion. Therefore, when the variance is equal to or smaller than the threshold value, it means that the target position calculation unit 13 can accurately estimate the position of the target 30. On the other hand, when the variance is larger than the threshold value, it means that the target position calculation unit 13 cannot accurately estimate the position of the target 30. If the variance is greater than the threshold (Yes in step S106), the process proceeds to step S107. On the other hand, if the variance is less than or equal to the threshold (No in step S106), the process proceeds to step S108.

ステップS107において、トラジェクトリ算出部12は、向きθと制御パラメータqを調整してトラジェクトリ21を補正する。以後、ステップS103〜ステップS107において、トラジェクトリ補正部14は、分散が閾値以下になるまで向きθと制御パラメータqを繰り返し調整してトラジェクトリを補正する。また、物標位置補正部15は、分散が閾値以下になるまでトラジェクトリ補正部14によって補正されたトラジェクトリを用いて繰り返し補正後の物標の位置の分散を求める。   In step S107, the trajectory calculation unit 12 corrects the trajectory 21 by adjusting the direction θ and the control parameter q. Thereafter, in step S103 to step S107, the trajectory correction unit 14 corrects the trajectory by repeatedly adjusting the direction θ and the control parameter q until the variance becomes equal to or less than the threshold value. The target position correction unit 15 obtains the variance of the target position after repeated correction using the trajectory corrected by the trajectory correction unit 14 until the variance becomes equal to or less than the threshold value.

ステップS108において、物標位置補正部15は、分散が閾値以下になった場合、補正後の物標30の位置を地図データベース6へリンクさせる。   In step S <b> 108, the target position correction unit 15 links the corrected position of the target 30 to the map database 6 when the variance is equal to or smaller than the threshold value.

ステップS109において、自己位置推定部16は、ステップS108でリンクされた物標30の位置を用いて自己位置を推定する。本実施形態において地図上の物標30の位置は精度よく推定されているため、自車両から物標30までの距離と方向を用いることにより、自己位置推定部16は自己位置を精度よく推定できる。   In step S109, the self-position estimating unit 16 estimates the self-position using the position of the target 30 linked in step S108. In this embodiment, since the position of the target 30 on the map is estimated with high accuracy, the self-position estimation unit 16 can estimate the self-position with high accuracy by using the distance and direction from the host vehicle to the target 30. .

以上説明したように、本実施形態に係る物標位置推定装置1によれば、以下の作用効果が得られる。   As described above, according to the target position estimation apparatus 1 according to the present embodiment, the following functions and effects can be obtained.

カメラ2またはレーザレンジファインダー3は、自車両から物標30までの距離及び方向を地図上における複数の自車両の位置から取得する。トラジェクトリ算出部12は、自車両から物標30までの距離及び方向を取得した時の自車両のトラジェクトリを算出する。物標位置算出部13は、トラジェクトリ上の位置と距離及び方向とを用いて地図上の物標30の位置を算出し、物標30の位置の分散を算出する。トラジェクトリ補正部14は、分散が閾値以下になるまで向きθと制御パラメータqを調整してトラジェクトリを補正する。物標位置補正部15は、補正後のトラジェクトリを用いて物標30の位置を補正する。トラジェクトリ補正部14及び物標位置補正部15は、分散が閾値以下になるまでこの補正処理を繰り返す。これにより、物標位置推定装置1は、物標30の位置を精度よく推定できる。加えて、物標位置推定装置1は自己位置を精度よく算出することができるため、例えば、自動運転制御や運転支援制御を実行する上で、車両の位置を正確に制御できるようになるため、乗員に与える違和感を抑制した制御を実行することができるようになる。算出した自己位置を用いて自動運転制御を実行する場合、物標位置推定装置1は初めに車両が走行する走行軌跡を算出し、算出した走行軌跡に沿って走行するように車両のアクチュエータを制御して走行する。この時に、物標位置推定装置1は算出した自己位置を用いることで、走行軌跡を算出し、走行軌跡に沿って走行するように車両に対する制御を実行することができるようになる。   The camera 2 or the laser range finder 3 acquires the distance and direction from the own vehicle to the target 30 from the positions of the plurality of own vehicles on the map. The trajectory calculation unit 12 calculates the trajectory of the host vehicle when the distance and direction from the host vehicle to the target 30 are acquired. The target position calculation unit 13 calculates the position of the target 30 on the map using the position on the trajectory, the distance, and the direction, and calculates the variance of the position of the target 30. The trajectory correction unit 14 corrects the trajectory by adjusting the direction θ and the control parameter q until the variance becomes equal to or less than the threshold value. The target position correcting unit 15 corrects the position of the target 30 using the corrected trajectory. The trajectory correction unit 14 and the target position correction unit 15 repeat this correction process until the variance is equal to or less than the threshold value. Thereby, the target position estimation apparatus 1 can estimate the position of the target 30 with high accuracy. In addition, since the target position estimation apparatus 1 can calculate the self-position with high accuracy, for example, in executing automatic driving control and driving support control, the position of the vehicle can be accurately controlled. It is possible to execute control that suppresses the uncomfortable feeling given to the occupant. When the automatic driving control is executed using the calculated self-position, the target position estimation apparatus 1 first calculates a traveling locus on which the vehicle travels, and controls the actuator of the vehicle so as to travel along the calculated traveling locus. Then run. At this time, the target position estimation apparatus 1 can calculate the travel locus by using the calculated self-position, and can execute control on the vehicle so as to travel along the travel locus.

また、物標位置推定装置1は、自車両から物標30までの距離及び方向を、複数の異なる位置から取得する。これにより、分散の算出に用いるデータが増えるため、物標位置推定装置1は、精度よく分散を算出することができる。   Moreover, the target position estimation apparatus 1 acquires the distance and direction from the own vehicle to the target 30 from a plurality of different positions. As a result, the data used for calculating the variance increases, so that the target position estimation apparatus 1 can calculate the variance with high accuracy.

また、物標位置推定装置1は、物標30を取得するよりも前にあらかじめ作成されたモデルにより、トラジェクトリを算出する。これにより、物標位置推定装置1は、物標30を取得する時のシステムリソースを節約することができる。   Further, the target position estimation apparatus 1 calculates a trajectory using a model created in advance before acquiring the target 30. Thereby, the target position estimation apparatus 1 can save system resources when acquiring the target 30.

また、トラジェクトリを算出するための走行軌跡モデルXは、サーバ20に記憶され、通信機7により取得される。これにより、システムリソースを節約することができる。   The travel locus model X for calculating the trajectory is stored in the server 20 and acquired by the communication device 7. Thereby, system resources can be saved.

また、物標位置推定装置1は、物標位置補正部15によって地図データベース6へリンクされた物標30の位置を用いて自己位置を推定する。本実施形態において地図上の物標30の位置は精度よく推定されているため、自車両から物標30までの距離と方向を用いることにより、物標位置推定装置1は自己位置を精度よく推定できる。また、物標位置推定装置1は物標30の位置を用いることにより、例えば交差点内側のように自車周囲に白線がない場所においても、自己位置を精度よく推定できる。また、オドメトリやGPSを使用した自己位置推定は誤差を含む可能性があるが、物標位置推定装置1は物標30の位置を用いることにより、自己位置を精度よく推定できる。   Further, the target position estimation device 1 estimates the self position using the position of the target 30 linked to the map database 6 by the target position correction unit 15. In the present embodiment, since the position of the target 30 on the map is accurately estimated, the target position estimation apparatus 1 estimates the self position with high accuracy by using the distance and direction from the host vehicle to the target 30. it can. In addition, the target position estimation apparatus 1 can accurately estimate the self position even in a place where there is no white line around the own vehicle, for example, inside the intersection, by using the position of the target 30. Further, self-position estimation using odometry or GPS may include an error, but the target position estimation apparatus 1 can accurately estimate the self-position by using the position of the target 30.

また、走行軌跡モデル作成部11は走行軌跡モデルXを作成する際、所定区間ごとに作成する。この所定区間は、走行時間や走行シーンで区切られる区間である。これにより、走行軌跡モデル作成部11は、様々なデータの入り込みを防止でき、高精度な走行軌跡モデルXを生成することができる。   In addition, when the traveling locus model creation unit 11 creates the traveling locus model X, the traveling locus model is created for each predetermined section. This predetermined section is a section divided by the travel time and the travel scene. Thereby, the traveling locus model creation unit 11 can prevent entry of various data and can generate the traveling locus model X with high accuracy.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。   Although the embodiments of the present invention have been described as described above, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

本実施形態では、走行軌跡モデルXを用いてトラジェクトリを算出したが、走行軌跡モデルXの代わりに車両モデルを用いてもよい。車両モデルとは、車輪の径、車両の重心点から車軸までの距離、前輪及び後輪の位置関係から構成される。物標位置推定装置1は、車輪の回転速度から車両の速度を求め、さらに操舵角から横滑り角とヨー角速度を求める。物標位置推定装置1は、これらの要素から自己位置(x,y)を求めてトラジェクトリを算出する。そして物標位置推定装置1は、算出したトラジェクトリを用いて物標の位置を算出し、物標の位置の分散を算出する。その後、物標位置推定装置1は上述のように補正処理を繰り返す。これにより、物標位置推定装置1は物標の位置を精度よく推定できる。   In the present embodiment, the trajectory is calculated using the travel locus model X, but a vehicle model may be used instead of the travel locus model X. The vehicle model is composed of the wheel diameter, the distance from the center of gravity of the vehicle to the axle, and the positional relationship between the front and rear wheels. The target position estimation apparatus 1 obtains the vehicle speed from the rotational speed of the wheel, and further obtains the skid angle and the yaw angular velocity from the steering angle. The target position estimation apparatus 1 calculates the trajectory by obtaining the self position (x, y) from these elements. The target position estimation apparatus 1 calculates the position of the target using the calculated trajectory, and calculates the variance of the target position. Thereafter, the target position estimation apparatus 1 repeats the correction process as described above. Thereby, the target position estimation apparatus 1 can estimate the position of the target with high accuracy.

本実施形態では、自車両の走行データを用いて走行軌跡モデルXを作成したが、他車両の走行データも加えて走行軌跡モデルXを作成してもよい。これにより、物標位置推定装置1は多くの道路に対応できる走行軌跡モデルXを作成することができる。また、物標位置推定装置1は、他車両の走行データを加えることにより多くの走行軌跡モデルXを作成することができる。   In the present embodiment, the travel locus model X is created using the travel data of the host vehicle. However, the travel locus model X may be created by adding travel data of other vehicles. Thereby, the target position estimation apparatus 1 can create the traveling locus model X that can deal with many roads. Moreover, the target position estimation apparatus 1 can create many traveling locus models X by adding traveling data of other vehicles.

また、物標位置推定装置1は同一区間を繰り返し走行したデータを用いてトラジェクトリを補正してもよい。同一区間を繰り返し走行したデータを用いることにより、物標位置推定装置1は地図上の物標30の位置を精度よく推定できる。   Moreover, the target position estimation apparatus 1 may correct the trajectory using data obtained by repeatedly traveling in the same section. By using data traveling repeatedly in the same section, the target position estimation apparatus 1 can accurately estimate the position of the target 30 on the map.

本発明は、自動運転機能を備える車両にも適用できる。   The present invention can also be applied to a vehicle having an automatic driving function.

なお、上述の実施形態の各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。   Note that each function of the above-described embodiment may be implemented by one or a plurality of processing circuits. The processing circuit includes a programmed processing device such as a processing device including an electrical circuit. The processing circuitry also includes devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments.

1 物標位置推定装置
2 カメラ
3 レーザレンジファインダー
4 GPS受信機
5 ジャイロセンサ
6 地図データベース
7 通信機
10 コントローラ
11 走行軌跡モデル作成部
12 トラジェクトリ算出部
13 物標位置算出部
14 トラジェクトリ補正部
15 物標位置補正部
16 自己位置推定部
20 サーバ
DESCRIPTION OF SYMBOLS 1 Target position estimation apparatus 2 Camera 3 Laser range finder 4 GPS receiver 5 Gyro sensor 6 Map database 7 Communication apparatus 10 Controller 11 Running locus model creation part 12 Trajectory calculation part 13 Target position calculation part 14 Trajectory correction part 15 Target Position correction unit 16 Self-position estimation unit 20 Server

Claims (9)

車両から物標までの距離及び方向を地図上における複数の車両の位置から取得し、
前記距離及び方向を取得した時の車両のトラジェクトリを算出し、
前記トラジェクトリと前記距離及び方向とを用いて前記物標の位置を算出し、
前記物標の位置の分散が所定値より大きい場合に前記トラジェクトリを補正し、
補正した前記トラジェクトリを用いて前記物標の位置を算出することを特徴とする物標位置推定方法。
Obtain the distance and direction from the vehicle to the target from the position of multiple vehicles on the map,
Calculate the vehicle trajectory when the distance and direction are acquired,
Calculating the position of the target using the trajectory and the distance and direction;
Correcting the trajectory when the variance of the position of the target is greater than a predetermined value;
A target position estimation method, wherein the target position is calculated using the corrected trajectory.
前記車両から物標までの距離及び方向を、複数の異なる位置から取得することを特徴する請求項1に記載の物標位置推定方法。   The target position estimation method according to claim 1, wherein the distance and direction from the vehicle to the target are acquired from a plurality of different positions. 前記物標を取得するよりも前にあらかじめ作成されたモデルにより、前記トラジェクトリを算出することを特徴する請求項1または2に記載の物標位置推定方法。   The target position estimation method according to claim 1, wherein the trajectory is calculated by a model created in advance before acquiring the target. 前記トラジェクトリを算出するモデルは、サーバに記憶され、通信機により取得されることを特徴する請求項3に記載の物標位置推定方法。   The target position estimation method according to claim 3, wherein the model for calculating the trajectory is stored in a server and acquired by a communication device. 前記モデルは、走行軌跡モデルであって、自車両及び他車両の走行データを用いて作成されることを特徴とする請求項3または4に記載の物標位置推定方法。   5. The target position estimation method according to claim 3, wherein the model is a travel locus model and is created using travel data of the host vehicle and another vehicle. 前記走行軌跡モデルは、所定時間または走行シーンで区切られた区間において作成されることを及び特徴とする請求項5に記載の物標位置推定方法。   6. The target position estimation method according to claim 5, wherein the travel locus model is created in a section divided by a predetermined time or a travel scene. 前記物標を取得するために、繰り返し走行した時のデータを用いて前記トラジェクトリを補正することを特徴とする請求項1〜6のいずれか1項に記載の物標位置推定方法。   The target position estimation method according to claim 1, wherein the trajectory is corrected using data obtained when the vehicle travels repeatedly in order to acquire the target. 前記物標の位置の分散が所定値以下の場合に、前記物標の位置に基づいて車両の位置を推定することを特徴とする請求項1〜7のいずれか1項に記載の物標位置推定方法。   The target position according to claim 1, wherein the position of the vehicle is estimated based on the position of the target when the variance of the position of the target is equal to or less than a predetermined value. Estimation method. 車両から物標までの距離及び方向を地図上における複数の車両の位置から取得するセンサと、
前記距離及び方向を取得した時の車両のトラジェクトリを算出するコントローラと、を備え、
前記コントローラは、前記トラジェクトリと前記距離及び方向とを用いて物標の位置を算出し、前記物標の位置の分散が所定値より大きい場合に前記トラジェクトリを補正し、補正した前記トラジェクトリを用いて前記物標の位置を算出することを特徴とする物標位置推定装置。
A sensor for acquiring the distance and direction from the vehicle to the target from the positions of the plurality of vehicles on the map;
A controller for calculating a trajectory of the vehicle when the distance and direction are acquired,
The controller calculates the position of the target using the trajectory and the distance and direction, corrects the trajectory when the variance of the target position is larger than a predetermined value, and uses the corrected trajectory. A target position estimating apparatus for calculating a position of the target.
JP2017038104A 2017-03-01 2017-03-01 Target position estimation method and target position estimation device Active JP6848531B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017038104A JP6848531B2 (en) 2017-03-01 2017-03-01 Target position estimation method and target position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017038104A JP6848531B2 (en) 2017-03-01 2017-03-01 Target position estimation method and target position estimation device

Publications (2)

Publication Number Publication Date
JP2018146248A true JP2018146248A (en) 2018-09-20
JP6848531B2 JP6848531B2 (en) 2021-03-24

Family

ID=63591885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017038104A Active JP6848531B2 (en) 2017-03-01 2017-03-01 Target position estimation method and target position estimation device

Country Status (1)

Country Link
JP (1) JP6848531B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109307477A (en) * 2018-12-04 2019-02-05 福建汇川物联网技术科技股份有限公司 Displacement measurement system and method
JP2020126122A (en) * 2019-02-04 2020-08-20 日産自動車株式会社 Ambient environment information generation method and ambient environment information generation device
JP2022500669A (en) * 2018-09-28 2022-01-04 ズークス インコーポレイテッド Modifying map elements associated with map data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333385A (en) * 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc Animal position recorder
JP2016099313A (en) * 2014-11-26 2016-05-30 株式会社デンソー Terminal device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333385A (en) * 2006-06-11 2007-12-27 Toyota Central Res & Dev Lab Inc Animal position recorder
JP2016099313A (en) * 2014-11-26 2016-05-30 株式会社デンソー Terminal device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022500669A (en) * 2018-09-28 2022-01-04 ズークス インコーポレイテッド Modifying map elements associated with map data
JP7550748B2 (en) 2018-09-28 2024-09-13 ズークス インコーポレイテッド Changing the map elements associated with map data
US12264938B2 (en) 2018-09-28 2025-04-01 Zoox, Inc. Modifying map elements associated with map data
CN109307477A (en) * 2018-12-04 2019-02-05 福建汇川物联网技术科技股份有限公司 Displacement measurement system and method
JP2020126122A (en) * 2019-02-04 2020-08-20 日産自動車株式会社 Ambient environment information generation method and ambient environment information generation device
JP7257158B2 (en) 2019-02-04 2023-04-13 日産自動車株式会社 Ambient environment information generation method and ambient environment information generation device

Also Published As

Publication number Publication date
JP6848531B2 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
CN115427759B (en) Map information correction method, driving assistance method, and map information correction device
US20180238696A1 (en) Route generator, route generation method, and route generation program
KR102086270B1 (en) Control method and traveling control device of the traveling control device
CN112440990A (en) Path planning for autonomous and semi-autonomous vehicles
JP7418196B2 (en) Travel trajectory estimation method and travel trajectory estimation device
JP2025123341A (en) Position estimation device, estimation device, control method, program, and storage medium
JP7156924B2 (en) Lane boundary setting device, lane boundary setting method
JP7198687B2 (en) Ambient environment information generation method and ambient environment information generation device
CN113511219B (en) Vehicle Control Systems
CN105593776A (en) Method for operating a floor-cleaning device and floor-cleaning device
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
JP6790951B2 (en) Map information learning method and map information learning device
JP6848531B2 (en) Target position estimation method and target position estimation device
CN115050203A (en) Map generation device and vehicle position recognition device
CN110114634B (en) External recognition system
JP2019190994A (en) Method and device for estimating self-position
JP7084792B2 (en) Travel locus estimation method and travel locus estimation device
US20220258795A1 (en) Overriding determination method for driving assist device, and driving assist device
JP7758625B2 (en) Map Generator
JP6819441B2 (en) Target position estimation method and target position estimation device
US11754403B2 (en) Self-position correction method and self-position correction device
JP7257158B2 (en) Ambient environment information generation method and ambient environment information generation device
JP2020008376A (en) Travel locus estimation method and travel locus estimation device
JP7321034B2 (en) Driving support method and driving support device
JP2019144066A (en) Method and device for estimating road structure

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R151 Written notification of patent or utility model registration

Ref document number: 6848531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151