JP2024061982A - Self-location estimation device, self-location estimation method, and self-location estimation program - Google Patents
Self-location estimation device, self-location estimation method, and self-location estimation program Download PDFInfo
- Publication number
- JP2024061982A JP2024061982A JP2022169676A JP2022169676A JP2024061982A JP 2024061982 A JP2024061982 A JP 2024061982A JP 2022169676 A JP2022169676 A JP 2022169676A JP 2022169676 A JP2022169676 A JP 2022169676A JP 2024061982 A JP2024061982 A JP 2024061982A
- Authority
- JP
- Japan
- Prior art keywords
- self
- image data
- flow
- location estimation
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
【課題】処理時間を短縮することが可能な自己位置推定装置、自己位置推定方法、および自己位置推定プログラムを提供する。【解決手段】自己位置推定装置1は、移動体MCに搭載された複数のカメラで構成されるマルチカメラ20から出力された画像データを設定間隔毎に取得する画像データ取得部11と、画像データから特徴点を抽出する特徴点抽出部12と、各画像データ内の各特徴点の位置情報を記憶する記憶部13と、時系列毎に異なる画像データにおいて対応する特徴点同士の組であるフローを作成するフロー作成部14と、移動体の予測される運動に基づいて計算されたエピポーラ拘束を含む予め定められた制約条件を用いて、制約条件を満たすフローを正しいフローとして選別する選別部15と、選別部により選別された正しいフローの情報を用いて、移動体の位置および向きを算出する自己位置算出部16と、を備える。【選択図】図1[Problem] To provide a self-location estimation device, a self-location estimation method, and a self-location estimation program capable of shortening processing time. [Solution] A self-location estimation device 1 includes an image data acquisition unit 11 that acquires image data output from a multi-camera 20 consisting of multiple cameras mounted on a moving body MC at set intervals, a feature point extraction unit 12 that extracts feature points from the image data, a storage unit 13 that stores position information of each feature point in each image data, a flow creation unit 14 that creates flows that are pairs of corresponding feature points in different image data for each time series, a selection unit 15 that uses predetermined constraint conditions including an epipolar constraint calculated based on the predicted motion of the moving body to select flows that satisfy the constraint conditions as correct flows, and a self-location calculation unit 16 that calculates the position and orientation of the moving body using information on the correct flows selected by the selection unit. [Selected Figure] Figure 1
Description
本開示は、自己位置推定装置、自己位置推定方法、および自己位置推定プログラムに関する。 The present disclosure relates to a self-location estimation device, a self-location estimation method, and a self-location estimation program.
従来、例えば特許文献1に示すように、SLAM(Simultaneous Localization And Mapping)を用いて自己の位置を推定する方法が知られている。SLAMは、カメラやセンサを搭載した移動体によって、GPSなどの衛星システムに依存せずに、自己位置の推定と3次元地図である環境地図の作成とを同時に実行する技術である。 Conventionally, as shown in, for example, Patent Document 1, a method of estimating one's own position using SLAM (Simultaneous Localization and Mapping) is known. SLAM is a technology that uses a mobile object equipped with a camera or sensor to simultaneously estimate one's own position and create a three-dimensional map of the environment without relying on a satellite system such as GPS.
しかし、上記従来技術においては、3次元地図の作成を行うため、自己位置推定に要する処理量が多く処理時間が長いという問題があった。本開示は、上記のような点に鑑みて創作されたものであり、その目的は、処理時間を短縮することが可能な自己位置推定装置、自己位置推定方法、および自己位置推定プログラムを提供することにある。 However, the above-mentioned conventional technology has a problem in that a large amount of processing is required for self-location estimation and the processing time is long because a three-dimensional map is created. The present disclosure has been created in consideration of the above-mentioned points, and its purpose is to provide a self-location estimation device, a self-location estimation method, and a self-location estimation program that can shorten the processing time.
本開示は、以下の形態として実現することが可能である。 This disclosure can be realized in the following forms:
本開示の一形態によれば、自己位置推定装置が提供される。この自己位置推定装置は、移動体(MC)の自己位置を推定する自己位置推定装置であって、前記移動体に搭載された複数のカメラ(21,22,23,24)で構成されるマルチカメラ(20)から出力された画像データを設定間隔毎に取得する画像データ取得部(11)と、前記画像データ取得部により取得された前記画像データから特徴点を抽出する特徴点抽出部(12)と、前記各画像データ内の前記各特徴点の位置情報、を記憶する記憶部(13)と、最新の画像データにおける特徴点である現特徴点と、過去の画像データにおける特徴点である前特徴点と、を対応付けて、時系列毎に異なる前記画像データにおいて対応する特徴点同士の組であるフローを作成するフロー作成部(14)と、前記フロー作成部により作成された前記フローのうち、前記移動体の予測される運動に基づいて計算されたエピポーラ拘束を含む予め定められた制約条件を用いて、前記制約条件を満たす前記フローを正しいフローとして選別する選別部(15)と、前記選別部により選別された前記正しいフローの情報を用いて、前記移動体の位置および向きを算出する自己位置算出部(16)と、を備える。 According to one embodiment of the present disclosure, a self-location estimation device is provided. This self-location estimation device is a self-location estimation device that estimates the self-location of a moving body (MC), and includes an image data acquisition unit (11) that acquires image data output from a multi-camera (20) consisting of a plurality of cameras (21, 22, 23, 24) mounted on the moving body at set intervals, a feature point extraction unit (12) that extracts feature points from the image data acquired by the image data acquisition unit, a storage unit (13) that stores position information of each of the feature points in each of the image data, and a storage unit (14) that stores current feature points that are feature points in the latest image data and feature points in past image data. The system includes a flow creation unit (14) that associates a feature point with a previous feature point that is different for each time series to create a flow that is a pair of corresponding feature points in the image data that differs for each time series, a selection unit (15) that uses predetermined constraint conditions including an epipolar constraint calculated based on the predicted motion of the moving body to select, as a correct flow, a flow that satisfies the constraint conditions from among the flows created by the flow creation unit, and a self-position calculation unit (16) that calculates the position and orientation of the moving body using information on the correct flow selected by the selection unit.
この形態の自己位置推定装置によれば、画像データ取得部により取得されたマルチカメラから出力された画像データを用いて、3次元マップを作成することなく車両の自己位置を推定できる。そして、選別部により、エピポーラ拘束を含む予め定められた制約条件を用いて、制約条件を満たすフローを正しいフローとして選別する。このように制約条件を用いることで、最新の画像データ内の適切な現特徴点を特定する際に、適切な探索範囲を限定することができるため、現特徴点の予測が可能となり探索処理時間を少なくできる。以上により、自己位置推定装置における自己位置推定の処理時間を短縮できる。 According to this form of self-position estimation device, the self-position of the vehicle can be estimated without creating a three-dimensional map, using image data output from the multi-camera acquired by the image data acquisition unit. Then, the selection unit uses predetermined constraint conditions including epipolar constraints to select flows that satisfy the constraint conditions as correct flows. By using the constraint conditions in this way, it is possible to limit an appropriate search range when identifying an appropriate current feature point in the latest image data, making it possible to predict the current feature point and reducing the search processing time. As a result, the processing time for self-position estimation in the self-position estimation device can be reduced.
以下、実施形態について、図1~図16に基づいて説明する。
A.第1実施形態:
A1.自己位置推定装置1の構成:
第1実施形態の自己位置推定装置1の構成について、図1、図2を参照しつつ説明する。第1実施形態の自己位置推定装置1は、移動体としての自動運転車両MC(以下、単に「車両MC」という)に搭載され、車両MCの自己位置を推定する。車両MCは、自己位置推定装置1により推定された自己位置に基づいて自動運転による移動を行うことができる。なお、「自己位置」とは、移動体の位置および向きを含むものであり、位置姿勢を意味する。
Hereinafter, an embodiment will be described with reference to FIGS.
A. First embodiment:
A1. Configuration of self-location estimation device 1:
The configuration of a self-location estimation device 1 of the first embodiment will be described with reference to Fig. 1 and Fig. 2. The self-location estimation device 1 of the first embodiment is mounted on an autonomously driven vehicle MC (hereinafter simply referred to as "vehicle MC") as a moving body, and estimates the self-location of the vehicle MC. The vehicle MC can move by autonomous driving based on the self-location estimated by the self-location estimation device 1. Note that "self-location" includes the position and orientation of the moving body, and means the position and attitude.
図1に示すように、車両MCは、自己位置推定装置1のほか、車両制御部10と、カメラ20と、を備える。車両制御部10は、車両MCの制御を行う機能部であり、車両制御部10には、カメラ20が電気的に接続されており、カメラ20によって撮像された画像データ(以下、「フレーム」ともいう。)が通知される。その他、車両制御部10には、図示しないGNSS(Global Navigation Satellite System)センサ等が電気的に接続されている。
As shown in FIG. 1, the vehicle MC includes a self-position estimation device 1, a
図2に示すように、カメラ20は、前カメラ21と、後カメラ22と、右カメラ23と、左カメラ24と、の合計4つのカメラを有した複眼のマルチカメラとして構成されている。前カメラ21は、車両MCの前方における周辺画像を取得する。後カメラ22は、車両MCの後方における周辺画像を取得する。
As shown in FIG. 2, the
右カメラ23は、車両MCの進行方向に見たときの右方における周辺画像を取得する。左カメラ24は、車両MCの進行方向に見たとき左方における周辺画像を取得する。以下、各カメラ21,22,23,24を特に区別しないときは、単に「カメラ20」という。カメラ20は、魚眼を代表する広角カメラであり、4つのカメラの合計の画角は360度の視野をカバーする。
The right camera 23 captures an image of the surroundings to the right when viewed in the direction of travel of the vehicle MC. The left camera 24 captures an image of the surroundings to the left when viewed in the direction of travel of the vehicle MC. Hereinafter, when there is no need to distinguish between the cameras 21, 22, 23, and 24, they will simply be referred to as "
再び、図1を参照する。本実施形態の自己位置推定装置1は、車両MCの車両制御部10と電気的に接続されている。具体的には、本実施形態の自己位置推定装置1は、車両MCのOBD2(On Board Diagnostics 2)に接続されているため、自己位置推定装置1は、車両制御部10から車両MCの各種の情報の受信が可能である。
Referring again to FIG. 1 . The self-location estimation device 1 of this embodiment is electrically connected to the
なお、自己位置推定装置1と車両MCとの接続はこれに限られず、例えば、無線通信による接続を用いてもよい。また、自己位置推定装置1と車両MCとは接続されておらず、自己位置推定装置1が、カメラ20を別途備えてもよい。本実施形態では、OBD2から自己位置推定装置1へ電力が供給されるが、これに限られず、自己位置推定装置1は別途バッテリーを備えてもよく、車両MCのシガーソケットから自己位置推定装置1の電力を供給してもよい。
Note that the connection between the self-location estimation device 1 and the vehicle MC is not limited to this, and for example, a connection by wireless communication may be used. Also, the self-location estimation device 1 and the vehicle MC may not be connected, and the self-location estimation device 1 may be provided with a
自己位置推定装置1は、画像データ取得部11と、特徴点抽出部12と、記憶部13と、フロー作成部14と、選別部15と、自己位置算出部16と、の各機能モジュールを備える。自己位置推定装置1は、CPUと、ROMやRAMなどのメモリと、を備える周知のコンピュータとして構成されている。各機能モジュール11~16は、メモリに記憶されたプログラムをCPUによって実行することで実現される。
The self-location estimation device 1 includes the following functional modules: an image data acquisition unit 11, a feature
画像データ取得部11は、車両MCの周辺環境の画像データを取得する。具体的には、画像データ取得部11は、上記カメラ20から出力された画像データを設定間隔毎に車両MCから取得する工程を実行する。
The image data acquisition unit 11 acquires image data of the surrounding environment of the vehicle MC. Specifically, the image data acquisition unit 11 executes a process of acquiring image data output from the
特徴点抽出部12は、画像取得部11により取得された画像データから特徴点を抽出する工程を実行する。特徴点は、例えば、エッジ、コーナー、色分布などを含む。特徴点抽出の手法は、ORB,SIFT,SURFを代表するインダイレクト法であってもよいし、DSO(Direct Sparse Odometry)を代表するダイレクト法であってもよい。
The feature
記憶部13は、各画像データ内の各特徴点の位置情報として3次元位置座標を記憶する工程を実行する。その他、記憶部13は、車両MCの自己位置推定の一連の処理において用いられる各種データや、演算結果を記憶する。
The
フロー作成部14は、撮影された時間毎に異なる画像データにおいて対応する特徴点同士の組であるフローを作成する工程を実行する。フロー作成部14は、フローの作成に際して、記憶部13に記憶された過去の画像データにおける特徴点である前特徴点と、最新の画像データにおける特徴点である現特徴点と、の対応付けを行う。具体的には、最新より一つ前の過去の画像データにおける前特徴点と、現特徴点との対応付けが、フレーム毎に実行される。
The
選別部15は、予め定められた制約条件を用いて、フロー作成部14により作成されたフローのうち、上記制約条件を満たすフローを正しいフローとして選別する工程を実行する。制約条件は、車両MCの予測される運動に基づいて計算されたエピポーラ拘束を含む。なお、制約条件の詳細については、後述する自己位置推定方法において、制御フローチャートと併せて詳細に説明する。
The
自己位置算出部16は、選別部15により選別されたフローの情報を用いて、車両MCの位置および向きを算出する工程を実行する。算出された車両MCの位置および向き、すなわち位置姿勢が、車両MCの現在位置の推定結果となる。ここで、自己位置算出に際しては、SLAM処理を用いる。SLAMとは、Simultaneous Localization And Mappingの頭字語であり、自己位置推定と環境地図作成とを同時に行う手法のことである。なお、本実施形態では、3次元マップとしての環境地図の作成は行わず、カメラ20からの画像のみを用いて車両MCの位置推定を行う。
The self-
A2.自己位置推定方法:
次に、上記自己位置推定装置1による自己位置推定方法について説明する。図3は、現在(すなわち最新)の自己位置算出に用いるための、現在フレームの特徴点リストを得る手順を示すフローチャートである。「現在フレーム」は最新のフレームであり、以下、「前回フレーム」とは、現在フレームより一つ前のフレームであり、「前々回フレーム」とは、前回フレームよりもさらに一つ前のフレームである。「前回フレーム」および「前々回フレーム」は、いずれも過去の画像データに相当する。
A2. Self-location estimation method:
Next, a description will be given of a self-location estimation method performed by the self-location estimation device 1. Fig. 3 is a flowchart showing a procedure for obtaining a feature point list of the current frame to be used for current (i.e., latest) self-location calculation. The "current frame" is the latest frame, and below, the "previous frame" is the frame immediately preceding the current frame, and the "previous frame" is the frame immediately preceding the previous frame. The "previous frame" and the "frame before last" both correspond to past image data.
特徴点リストには、上記フローの情報が含まれる。図3に示す処理は、上記自己位置推定装置1により、設定間隔毎に繰り返し実行される。ここでの設定間隔は、カメラ20による撮影の設定間隔と同じである。
The feature point list includes the information of the above flow. The process shown in FIG. 3 is repeatedly executed by the self-location estimation device 1 at set intervals. The set interval here is the same as the set interval for photographing by the
図3に示すように、S101において、車両MCの角度変化量および移動量の前回推定値が読み込まれる。「前回推定値」は、前々回フレームと前回フレーム間における車両MCの角度変化量および移動量であり、事前に計算されて記憶部13に記憶されている。次に、S102において、S101において読み込んだ前回推定値を用いて、等速運動を前提として、前回フレームと現在フレームとの間の基本行列が作成される。基本行列は、エピポーラ拘束を数式で表すときに、用いられる行列である。
As shown in FIG. 3, in S101, the previous estimated values of the angle change amount and movement amount of the vehicle MC are read. The "previous estimated values" are the angle change amount and movement amount of the vehicle MC between the frame before last and the previous frame, and are calculated in advance and stored in the
次に、S103において、エピポーラ線が作成される。エピポーラ線は、S102において作成された基本行列と、現在フレームにおける特徴点の3次元座標およびカメラ20の焦点距離と、前回フレームにおける特徴点の3次元座標およびカメラ20の焦点距離と、を用いて公知の方法により作成される。
Next, in S103, an epipolar line is created. The epipolar line is created by a known method using the fundamental matrix created in S102, the three-dimensional coordinates of the feature points in the current frame and the focal length of the
そして、S104において、エピポーラ拘束による上限閾値と、フロー長の基準範囲が決定される。このS104の処理は、選別部15により実行される。なお、S104の処理は、選別部15に限らず、他の機能部が実行してもよい。なお、「フロー長」とは、前特徴点と、前特徴点と対応する現特徴点と、を結んだ一つのフローの長さである。「フロー長」は、時系列において連続する画像データ間におけるフローの長さであり、換言すると、1フレーム間のフローの長さのことをいう。S104において決定される、エピポーラ拘束による上限閾値と、フロー長の基準範囲を、併せて「制約条件」という。また、エピポーラ拘束による上限閾値を満たすとの制約条件を「第1条件」とし、フロー長の基準範囲を満たすとの制約条件を「第2条件」とする。
Then, in S104, the upper threshold value due to the epipolar constraint and the reference range of the flow length are determined. The process of S104 is executed by the
S104において制約条件が決定された後は、S105において、制約条件による判定が行われる。すなわち、上述の第1条件および第2条件を満たすか否かが判定される。具体的には、現特徴点の座標が、エピポーラ線からの所定距離の上限閾値内にあり、かつ、現特徴点と前特徴点とを結んだフロー長が、基準範囲内にあれば、制約条件を満たすと判定する。なお、第1条件と第2条件のうち、いずれか一つでも満たさない場合には、制約条件を満たさないと判定する。この判定は、フレーム内の全ての特徴点に対して実行される。なお、S104,S105における、制約条件の決定および判定についての詳細は、後述する。 After the constraint conditions are determined in S104, a judgment based on the constraint conditions is made in S105. That is, it is judged whether the above-mentioned first and second conditions are satisfied. Specifically, if the coordinates of the current feature point are within an upper threshold of a predetermined distance from the epipolar line, and the flow length connecting the current feature point and the previous feature point is within a reference range, it is judged that the constraint conditions are satisfied. If either the first or second condition is not satisfied, it is judged that the constraint conditions are not satisfied. This judgment is made for all feature points in the frame. The determination and judgment of the constraint conditions in S104 and S105 will be described in detail later.
次に、S106において、制約条件を満たす特徴点が「特徴点リスト」に追加される。「特徴点リスト」とは、本制御ルーチンの終了後に、自己位置推定の算出に用いられる特徴点およびフローの情報をまとめて格納するリストである。次に、S107において、特徴点リストに追加されたフローの数が基準以上であるか否かが判断される。フローの数の基準値は、適切な自己位置推定の算出に際して必要とされる数として、事前の試験により予め定められる。そして、S107において、フローの数が基準以上である場合には(S107:Yes)、S109に進み、特徴点リストが出力される。ここで出力される特徴点リストは、制約条件を満たさない特徴点およびフローの情報が間引きされたものである。S109の処理の後、本処理ルーチンは終了する。その後、出力された特徴点リストの情報を用いて、例えば2点法等により、自己位置推定が行われる。 Next, in S106, the feature points that satisfy the constraint conditions are added to a "feature point list". The "feature point list" is a list that stores information on feature points and flows used in calculating the self-location estimation after the end of this control routine. Next, in S107, it is determined whether the number of flows added to the feature point list is equal to or greater than a reference value. The reference value for the number of flows is determined in advance by a prior test as the number required for calculating an appropriate self-location estimation. Then, in S107, if the number of flows is equal to or greater than the reference value (S107: Yes), the process proceeds to S109, where the feature point list is output. The feature point list output here is a list in which information on feature points and flows that do not satisfy the constraint conditions has been thinned out. After the process of S109, this processing routine ends. Then, using the information in the output feature point list, self-location estimation is performed, for example, by the two-point method.
一方、S107において、特徴点リストに追加されたフローの数が基準以上ではない場合には(S107:No)、S108に進み、制約条件が緩和される。フローの数があまりに少なく基準より少ない場合には、現在の自己位置推定の算出が行えないため、もしくは、精度が著しく低下するため、制約条件を緩和することで、特徴点リストのフローの数を増やすためである。 On the other hand, in S107, if the number of flows added to the feature point list is not equal to or greater than the criterion (S107: No), the process proceeds to S108, where the constraint conditions are relaxed. If the number of flows is too small and less than the criterion, the current self-location estimation cannot be calculated or the accuracy drops significantly, so the constraint conditions are relaxed to increase the number of flows in the feature point list.
「制約条件を緩和する」とは、具体的には、エピポーラ線からの所定距離の上限閾値を大きくする、または、フロー長の基準範囲を大きくすることである。制約条件が緩和された後は、再びS105における判定処理に戻り、以下、S107においてフローの数が基準以上となるまで、S108、S105、S106の処理が繰り返される。 Specifically, "relaxing the constraints" means increasing the upper threshold of the predetermined distance from the epipolar line, or increasing the reference range of the flow length. After the constraints are relaxed, the process returns to the determination process in S105, and the processes in S108, S105, and S106 are repeated until the number of flows in S107 becomes equal to or greater than the reference.
A3.制約条件の詳細:
次に、上記S104,S105における、制約条件の決定および判定に関する詳細について説明する。まず、エピポーラ拘束による上限閾値について図4を用いて説明する。図4は、エピポーラ拘束を説明するための図であり、3次元空間を異なる位置のカメラから撮影した幾何を示す図である。図4において、点eLおよび点eRは、エピポール(Epipole)であり、一方のカメラから他方のカメラが写る位置のことである。また、エピポーラ線Eは、「カメラOLから見てXLに物体が写っている」とき、「カメラORから見てどこに物体が写るか」の候補となる線である。
A3. Details of constraints:
Next, details regarding the determination and judgment of the constraint conditions in S104 and S105 will be described. First, the upper threshold value by the epipolar constraint will be described with reference to FIG. 4. FIG. 4 is a diagram for explaining the epipolar constraint, and shows the geometry of a three-dimensional space photographed from cameras at different positions. In FIG. 4, points e L and e R are epipoles, which are positions at which one camera photographs the other camera. In addition, the epipolar line E is a line that is a candidate for "where the object is photographed from the camera O R " when "an object is photographed at X L as viewed from the camera O L ".
図4に示すように、XPにある物体は、前回フレームにおけるカメラOLから見るとXLに写り、現在フレームにおけるカメラORから見るとXRに写る。「カメラOLから見てXLに物体が写っている」ことしか分かっていない時点では、カメラORでその物体が写る(XRがある)位置は、「エピポーラ線E上のどこか」に限定される。このことをエピポーラ拘束(Epipolar Constraint)と呼ぶ。 As shown in Fig. 4, an object at XP is captured at X L when viewed from camera O L in the previous frame, and is captured at X R when viewed from camera O R in the current frame. When all that is known is that "an object is captured at X L when viewed from camera O L ," the position at which the object is captured by camera O R (where X R is) is limited to "somewhere on the epipolar line E." This is called an epipolar constraint.
従来の3次元マップを作成する手法の場合には、2枚のフレームから、Xpの奥行き方向におけるおおまかな位置が分かるため、現在フレーム内で特徴点を探す際の探索範囲を、比較的小さい範囲に2次元的に定めることができる。しかし、本実施形態では、3次元マップを持たないため、OLとXLを結ぶ直線であるX線の延長上にあることは分かるものの、X線上における奥行き方向の位置が不明である。すなわち、図4において、X2やX1やX0にあるかも知れない。また、XRの近くにあることは分かるが、エピポーラ線Eの近傍といっても、特徴点の探索範囲は広く、定まらない。 In the case of a conventional method for creating a three-dimensional map, the rough position of Xp in the depth direction can be known from two frames, so the search range for searching for feature points in the current frame can be set to a relatively small two-dimensional range. However, in this embodiment, since there is no three-dimensional map, although it is known that the feature point is on an extension of the X-ray, which is a straight line connecting O -L and X- L , the position in the depth direction on the X-ray is unknown. That is, in FIG. 4, it may be at X- 2 , X- 1 , or X -0 . Also, although it is known that the feature point is near X- R , the search range for the feature point is wide and cannot be determined, even if it is near the epipolar line E.
そこで、本実施形態では、現在フレーム内で現特徴点を探す際において、エピポーラ線Eから所定の距離以内の範囲を探索範囲Sとする。言い換えると、探索範囲Sは、現在フレーム内においてエピポーラ線Eから両側に所定距離をとった2本の平行な直線L1,L2に挟まれた領域である。「エピポーラ線Eからの距離」は、図4において、2次元平面としての現在フレーム内における、エピポーラ線Eと直線L1,L2との1次元距離である。つまり、S104では、作成されたエピポーラ線と、予め設定された距離とに基づいて、エピポーラ拘束による上限閾値、すなわち上記探索範囲Sが決定される。 In this embodiment, when searching for a current feature point in the current frame, a range within a predetermined distance from the epipolar line E is set as the search range S. In other words, the search range S is the area in the current frame between two parallel straight lines L1 and L2 at a predetermined distance on both sides from the epipolar line E. In FIG. 4, the "distance from the epipolar line E" is the one-dimensional distance between the epipolar line E and the straight lines L1 and L2 in the current frame as a two-dimensional plane. In other words, in S104, the upper threshold due to the epipolar constraint, i.e., the above-mentioned search range S, is determined based on the created epipolar line and the preset distance.
そして、S105において、選別部15は、作成されたフローのうち、現在フレーム内の現特徴点の位置座標が、探索範囲S内にあるものを正しいフローとして選別する。エピポーラ拘束による上限閾値、すなわち、エピポーラ線Eからの所定距離を、フローの選別の指標としている。なお、距離の上限閾値は、探索処理時間や、特徴点の位置精度等を鑑みて、事前の試験データにより探索範囲Sがあまり広くなりすぎない程度に予め適宜設定される。
Then, in S105, the
次に、フロー長の基準範囲の決定について、図5~図14を参照して説明する。図5は、車両MCの運動情報を動的に示し、各カメラ21,22,23,24の位置変化を示す図であり、任意の環境における左折時の形態を示している。図6~図9は、フロー長の度数分布を示すヒストグラムである。図6は、前カメラ21により取得されたデータに基づいたヒストグラムであり、図7は、後カメラ22により取得されたデータに基づいたヒストグラムである。図8は、右カメラ23により取得されたデータに基づいたヒストグラムであり、図9は、左カメラ24により取得されたデータに基づいたヒストグラムである。図6~図9において、横軸にフロー長を取り、縦軸に出現値を取っている。なお、フロー長の目盛は、フロー長の大小を見るためのデータ処理上の便宜上の単位のない数値である。以下、後述する図11~図14についても同様である。 Next, the determination of the reference range of the flow length will be described with reference to Figs. 5 to 14. Fig. 5 dynamically shows the motion information of the vehicle MC, and shows the positional changes of the cameras 21, 22, 23, and 24, and shows the form when turning left in an arbitrary environment. Figs. 6 to 9 are histograms showing the frequency distribution of the flow length. Fig. 6 is a histogram based on data acquired by the front camera 21, and Fig. 7 is a histogram based on data acquired by the rear camera 22. Fig. 8 is a histogram based on data acquired by the right camera 23, and Fig. 9 is a histogram based on data acquired by the left camera 24. In Figs. 6 to 9, the horizontal axis represents the flow length, and the vertical axis represents the occurrence value. The scale of the flow length is a unitless numerical value for the convenience of data processing to see the magnitude of the flow length. The same applies to Figs. 11 to 14 described below.
図5~図9に示すように、車両MCが左折するとき、各カメラ21,22,23,24により取得されるフロー長のヒストグラムはそれぞれ異なる。図6に示すように、前カメラ21によるヒストグラムでは、フロー長が30の出現値が約90であり突出して大きく、次にフロー長が40の出現値が約60であり大きく、その他は小さくなっている。図7に示すように、後カメラ22によるヒストグラムでは、フロー長が30の出現値が60であり突出して大きく、フロー長が20,40,50の出現値が20近傍であり、フロー長が30の出現値に対して半数以下である。
As shown in Figures 5 to 9, when vehicle MC turns left, the histograms of flow lengths acquired by each of cameras 21, 22, 23, and 24 are different. As shown in Figure 6, in the histogram from front camera 21, the occurrence value for
また、図8に示すように、右カメラ23によるヒストグラムでは、フロー長が50および60の出現値が突出して大きい。図9に示すように、左カメラ24によるヒストグラムでは、フロー長が10~40と大きくなるにつれて出現値も大きくなり、フロー長が40の出現値が60であり最も大きい。一方、フロー長が50,60の出現値は10以下であり小さくなっている。 As shown in FIG. 8, in the histogram taken by the right camera 23, the occurrence values for flow lengths of 50 and 60 are particularly large. As shown in FIG. 9, in the histogram taken by the left camera 24, the occurrence value increases as the flow length increases from 10 to 40, with the occurrence value for a flow length of 40 being the largest, at 60. On the other hand, the occurrence values for flow lengths of 50 and 60 are small, at 10 or less.
以上のように、各カメラ21~24において、フロー長の統計分布の系統はそれぞれ異なっていることが分かった。また、出現値の大きいフロー、すなわち長いフローを用いて推定を行った方が、精度が良くなることが分かった。そこで、本実施形態では、これらの性質を利用し、フロー長の基準範囲を、各カメラ21~24において適宜設定する。また、フロー長の基準範囲を、右折や左折等の運転状況に応じて設定する。なお、右折や左折等の運転状況は、「移動体の移動状態」の一例に相当する。 As described above, it was found that the statistical distribution system of flow length differs for each of the cameras 21 to 24. It was also found that the accuracy is improved when estimation is performed using flows with a large occurrence value, i.e., long flows. Therefore, in this embodiment, these properties are utilized to appropriately set the reference range of flow length for each of the cameras 21 to 24. Furthermore, the reference range of flow length is set according to the driving situation, such as turning right or turning left. Note that driving situations such as turning right or turning left correspond to an example of the "moving state of a moving body."
本実施形態では、例えば、前カメラ21については(図6参照)、フロー長の基準範囲を、最頻値である30,40近傍の「25~45」とする。後カメラ22については(図7参照)、フロー長の基準範囲を、最頻値である30近傍の「25~35」とする。右カメラ23については(図8参照)、フロー長の基準範囲を、最頻値である50,60近傍の「45~60」とする。 In this embodiment, for example, for the front camera 21 (see FIG. 6), the reference range for the flow length is set to "25 to 45", near the most frequent values of 30 and 40. For the rear camera 22 (see FIG. 7), the reference range for the flow length is set to "25 to 35", near the most frequent value of 30. For the right camera 23 (see FIG. 8), the reference range for the flow length is set to "45 to 60", near the most frequent values of 50 and 60.
すなわち、前カメラ21および後カメラ22における左折時のフロー長の基準範囲は、フロー長の最頻値を基準に設定される。「最頻値を基準に」とは、上記例示のように最頻値を中央値として、経験則に基づく任意の幅を上下にとる形態であってもよいし、最頻値から上または下のみに予め試験により定めた値をとる形態であってもよい。つまり、「最頻値」を指標として、基準範囲を設定する任意の形態のことを意味する。以下、「平均値を基準に」についても同義である。 In other words, the reference range of flow length when turning left in the front camera 21 and the rear camera 22 is set based on the most frequent value of the flow length. "Based on the most frequent value" may be in the form of an arbitrary range based on empirical rules, with the most frequent value as the median, as in the above example, or it may be in the form of a value determined in advance by testing only above or below the most frequent value. In other words, it means any form of setting the reference range using the "most frequent value" as an indicator. Hereinafter, the same meaning is used for "based on the average value."
左カメラ24については(図9参照)、フロー長の基準範囲を、平均値である40近傍の「25~45」とする。つまり、左カメラ24におけるフロー長の基準範囲は、フロー長の平均値を基準に設定される。基準範囲として、最頻値を指標とするか、平均値を指標とするかについては、ヒストグラムの形態に応じてカメラ21,22,23,24ごとに適宜選択できる。また、最頻値や平均値からどのくらいの幅を許容範囲とするかは、事前の試験データ等から予め設定される。よって、上記基準範囲の具体的数値については適宜変更可能である。 For the left camera 24 (see FIG. 9), the reference range for flow length is set to "25 to 45", close to the average value of 40. In other words, the reference range for flow length for the left camera 24 is set based on the average value of flow length. Whether to use the mode or the average value as an index for the reference range can be selected appropriately for each camera 21, 22, 23, 24 depending on the form of the histogram. In addition, the width of the allowable range from the mode or average value is set in advance based on prior test data, etc. Therefore, the specific numerical values of the above reference range can be changed as appropriate.
以下、右折時の一例についても説明する。図10は、車両MCの運動情報を動的に示し、各カメラ21,22,23,24の位置変化を示す図であり、任意の環境における右折時の形態を示している。図11~図14は、フロー長の統計分布を示すヒストグラムである。図11は、前カメラ21により取得されたデータに基づいたヒストグラムであり、図12は、後カメラ22により取得されたデータに基づいたヒストグラムである。図13は、右カメラ23により取得されたデータに基づいたヒストグラムであり、図14は、左カメラ24により取得されたデータに基づいたヒストグラムである。 Below, an example of turning right will be described. Figure 10 dynamically shows the motion information of the vehicle MC, and is a diagram showing the positional changes of the cameras 21, 22, 23, and 24, and shows the form when turning right in an arbitrary environment. Figures 11 to 14 are histograms showing the statistical distribution of flow length. Figure 11 is a histogram based on data acquired by the front camera 21, and Figure 12 is a histogram based on data acquired by the rear camera 22. Figure 13 is a histogram based on data acquired by the right camera 23, and Figure 14 is a histogram based on data acquired by the left camera 24.
図6~図14を適宜比較すると分かるように、各カメラ21~24に写る物体の見え方は、右折時と左折時においては異なるため、当然、フロー長のヒストグラムはそれぞれ異なる。図11に示すように、右折時の前カメラ21によるヒストグラムでは、出現値が50以下と小さいものが分散している。ヒストグラムがこのような形態の場合には、最頻値を取るよりも、平均値を取る方が好ましい。この場合、例えば、前カメラ21については、フロー長の基準範囲を、平均値である20近傍の「15~25」とする。 As can be seen by appropriately comparing Figures 6 to 14, the way objects are seen by each camera 21 to 24 differs when turning right and when turning left, so naturally the histograms of flow length are different for each. As shown in Figure 11, in the histogram taken by the front camera 21 when turning right, there is a dispersion of small occurrence values of 50 or less. When the histogram has this type of form, it is preferable to take the average value rather than the most frequent value. In this case, for example, for the front camera 21, the reference range of flow length is set to "15 to 25", close to the average value of 20.
一方、図12に示すように、後カメラ22によるヒストグラムでは、フロー長が20の出現値が約260であり極めて突出して大きく、その他は小さくなっている。ヒストグラムがこのような形態の場合には、フロー長の基準範囲を、最頻値である20近傍の「15~25」とするのが好ましい。同様にして、図13、図14に示すように、右カメラ23および左カメラ24によるヒストグラムでは、フロー長の基準範囲を、例えば平均値近傍に決定するのが好ましい。 On the other hand, as shown in FIG. 12, in the histogram taken by the rear camera 22, the occurrence value for a flow length of 20 is approximately 260, which is extremely high, and the others are small. When the histogram has this type of form, it is preferable to set the reference range for the flow length to "15 to 25", which is close to the most frequent value of 20. Similarly, as shown in FIG. 13 and FIG. 14, in the histograms taken by the right camera 23 and the left camera 24, it is preferable to determine the reference range for the flow length to be, for example, close to the average value.
以上のように、現在フレームにおける、各カメラ21~24によるヒストグラムを取得し、自己位置推定に際して、随時、フロー長の基準範囲を決定する。S105において、選別部15は、作成されたフローのうち、現在フレームと前回フレーム間のフロー長が、基準範囲内にあるものを正しいフローとして選別する。すなわち、フロー長の統計であるヒストグラムから得た基準範囲を、フローの選別の指標としている。上記フロー分布は、車両MCの移動速度および旋回方向に応じて変化する。なお、一般に、上記基準範囲は、車両MCの移動速度が大きいほど大きくなる。また、車両MCの旋回方向と逆に設けられたカメラにおける値の方が大きくなる傾向がある。
As described above, histograms from each camera 21-24 in the current frame are obtained, and the reference range of the flow length is determined whenever necessary when estimating the self-position. In S105, the
図15、図16は、任意の現在フレームの一例を示しており、フレーム内に特徴点およびフローを図示した図である。図15は、左折中の前カメラ21により得られたフレームを示している。図16は、左折中の右カメラ23により得られたフレームを示している。各図において、複数の白い丸で示すのは現特徴点Cであり、特徴点から引き出された黒色の線で示すのは誤フローFeであり、特徴点から引き出されたグレーの線で示すのは正フローFcである。「誤フロー」とは、S105における制約条件による判定により、制約条件を満たさないと判定されたフローである。「正フロー」とは、S105における制約条件による判定により、制約条件を満たすと判定されたフローである。 Figures 15 and 16 show an example of an arbitrary current frame, illustrating feature points and flows within the frame. Figure 15 shows a frame captured by the front camera 21 during a left turn. Figure 16 shows a frame captured by the right camera 23 during a left turn. In each figure, the multiple white circles indicate the current feature points C, the black lines drawn from the feature points indicate the erroneous flow Fe, and the gray lines drawn from the feature points indicate the correct flow Fc. An "incorrect flow" is a flow that is determined not to satisfy the constraint conditions based on the constraint conditions determined in S105. A "correct flow" is a flow that is determined to satisfy the constraint conditions based on the constraint conditions determined in S105.
このように、正フローFcと誤フローFeとでは相違がある。第1実施形態では、抽出された現特徴点を用いて引いたフローの全てを自己位置推定に用いるのではなく、図15、図16に示される正フローFcの情報を用いて、車両MCの自己位置推定が算出される。 In this way, there is a difference between the correct flow Fc and the incorrect flow Fe. In the first embodiment, instead of using all of the flows drawn using the extracted current feature points for self-location estimation, the self-location estimation of the vehicle MC is calculated using the information of the correct flow Fc shown in Figures 15 and 16.
[効果]
(1)上記第1実施形態の自己位置推定装置1によれば、センサ等によらず、マルチカメラとしてのカメラ20によって撮影した画像のみから、3次元マップを作成することなく車両MCの自己位置を推定できる。このため、自己位置推定装置1における処理時間を短縮できる。また、3次元マップを作成しないため、自己位置推定装置1におけるメモリリソースを削減できる。
[effect]
(1) According to the self-position estimation device 1 of the first embodiment, the self-position of the vehicle MC can be estimated only from images captured by the
(2)また、上記第1実施形態の自己位置推定装置1では、3次元マップを作成しないため、画像に対する奥行き方向の情報を現在フレームに反映させることができない。しかし、上記第1実施形態の自己位置推定装置1では、特徴点があると予想される範囲を、エピポーラ線からの所定距離として設定しており、エピポーラ線を基準とする2次元的な予測範囲を探索範囲Sとして設定できるため、特徴点の存在する範囲の予測ができ、探索処理時間を短縮することができる。 (2) In addition, the self-location estimation device 1 of the first embodiment does not create a three-dimensional map, and therefore cannot reflect depth information for the image in the current frame. However, in the self-location estimation device 1 of the first embodiment, the range in which feature points are expected to exist is set as a predetermined distance from the epipolar line, and a two-dimensional predicted range based on the epipolar line can be set as the search range S. This makes it possible to predict the range in which feature points exist and shorten the search processing time.
(3)上記第1実施形態の自己位置推定装置1によれば、車両MCの予測される運動に基づいて計算されたエピポーラ線からの所定距離として予め定められた上限閾値を、フローの選別の指標として含んでいる。そして、選別部15により、作成されたフローのうち、現特徴点の位置座標が、エピポーラ線からの所定距離として予め定められた上限閾値の範囲内にあるものが、正しいフローとして選別される。このため、車両MCの自己位置推定の精度を向上させることができる。
(3) According to the self-position estimation device 1 of the first embodiment described above, an upper threshold value that is predetermined as a predetermined distance from the epipolar line calculated based on the predicted motion of the vehicle MC is included as an index for selecting flows. Then, from among the flows created by the
(4)さらに、上記第1実施形態の自己位置推定装置1によれば、フロー長の統計としてのヒストグラムから得た基準範囲を、フローの選別の指標として含んでいる。そして、選別部15により、作成されたフローのうち、フロー長が基準範囲内にあるものが、正しいフローとして選別される。このため、車両MCの自己位置推定の精度を向上させることができる。
(4) Furthermore, according to the self-location estimation device 1 of the first embodiment described above, a reference range obtained from a histogram as a statistic of flow length is included as an index for selecting flows. Then, the
また、上記第1実施形態では、第1条件と第2条件を共に満たすフローのみ正しいフローとして選別し、自己位置推定に用いるため、さらに車両MCの自己位置推定の精度を向上させることができる。 In addition, in the first embodiment, only flows that satisfy both the first and second conditions are selected as correct flows and used for self-location estimation, which further improves the accuracy of self-location estimation of the vehicle MC.
(5)上記第1実施形態の自己位置推定装置1によれば、第2条件は、前後左右の各カメラ21~24において取得されたデータに基づくヒストグラムの形態によって、各カメラ21~24において適宜個別に決定される。すなわち、ヒストグラムの形態から、最頻値近傍や平均値近傍など、適切な基準範囲が決定される。このため、より正確にフローの抽出を行うことができる。 (5) According to the self-location estimation device 1 of the first embodiment described above, the second condition is determined individually and appropriately for each of the cameras 21 to 24 depending on the shape of the histogram based on the data acquired by each of the front, rear, left and right cameras 21 to 24. In other words, an appropriate reference range, such as near the mode or near the average value, is determined based on the shape of the histogram. This allows for more accurate flow extraction.
(6)上記第1実施形態の自己位置推定装置1によれば、S102において、等速運動を前提として基本行列を作成しているため、基本行列の算出を容易に行うことができる。 (6) According to the self-location estimation device 1 of the first embodiment described above, in S102, the fundamental matrix is created on the assumption of uniform motion, so that the fundamental matrix can be easily calculated.
(7)上記第1実施形態の自己位置推定装置1によれば、制約条件の判定(S105)を行ったのちに、判定条件をクリアしたフローの数が基準より少ない場合には(S107)、従前の制約条件を緩和して再度判定するようにしている(S108)。このため、自己位置推定に用いるフローの数が過度に少なくなることを回避できる。 (7) According to the self-location estimation device 1 of the first embodiment described above, if the number of flows that satisfy the constraint conditions is less than a reference value (S107) after the constraint conditions are determined (S105), the previous constraint conditions are relaxed and the determination is performed again (S108). This makes it possible to avoid the number of flows used for self-location estimation becoming excessively small.
B.他の実施形態:
(B1)上記第1実施形態の自己位置推定装置1は、車両MCに搭載されるものとしたが、その他、船舶やドローン、自律移動型ロボットなどの物体や、人等の移動体に搭載されていてもよい。
B. Other embodiments:
(B1) The self-position estimation device 1 in the first embodiment described above is mounted on a vehicle MC, but it may also be mounted on other moving bodies such as ships, drones, autonomous mobile robots, or people.
(B2)上記第1実施形態の自己位置推定装置1において、カメラ20は、前後左右の4つのカメラで構成したが、2つ以上の複眼カメラであればよい。
(B2) In the self-location estimation device 1 of the first embodiment described above, the
(B3)上記第1実施形態の自己位置推定装置1では、S102において、等速運動を前提として、前回フレームと現在フレームとの間の基本行列を作成したが、動作の予想は、前回計算値の利用の他、車両MCのCANデータからのステアリング情報等を用いてもよい。 (B3) In the self-position estimation device 1 of the first embodiment described above, in S102, a base matrix between the previous frame and the current frame is created on the assumption of uniform motion, but the motion prediction may use steering information from the CAN data of the vehicle MC in addition to the previous calculated value.
(B4)上記第1実施形態の自己位置推定装置1では、フロー長の基準範囲の決定に際して、ヒストグラム中の最頻値または平均値を利用したが、中央値を利用してもよい。例えば、統計において、フロー長が著しく大きく外れたものが存在するような場合には、平均値ではなく、中央値を適用するなど、適宜対応できる。 (B4) In the self-location estimation device 1 of the first embodiment described above, the mode or average value in the histogram is used to determine the reference range of the flow length, but the median value may also be used. For example, if there are flow lengths in the statistics that deviate significantly, appropriate measures can be taken, such as applying the median value instead of the average value.
(B5)本開示に記載の自己位置推定装置1及びそれら手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の自己位置推定装置1及びそれら手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより実現されてもよい。もしくは、本開示に記載の自己位置推定装置1及びそれら手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組合わせにより構成された一つ以上の専用コンピュータにより実現されてもよい。また、コンピュータプログラム(自己位置推定プログラム)は、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 (B5) The self-location estimation device 1 and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor and a memory programmed to execute one or more functions embodied in a computer program. Alternatively, the self-location estimation device 1 and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the self-location estimation device 1 and the method thereof described in the present disclosure may be realized by one or more dedicated computers configured by combining a processor and a memory programmed to execute one or more functions and a processor configured with one or more hardware logic circuits. In addition, the computer program (self-location estimation program) may be stored in a computer-readable non-transient tangible recording medium as instructions executed by the computer.
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the above-described embodiments, and can be realized in various configurations without departing from the spirit of the present disclosure. For example, the technical features in each embodiment that correspond to the technical features in the form described in the Summary of the Invention column can be replaced or combined as appropriate to solve some or all of the above-described problems or to achieve some or all of the above-described effects. Furthermore, if a technical feature is not described in this specification as essential, it can be deleted as appropriate.
1…自己位置推定装置、10…車両制御部、11…画像データ取得部、12…特徴点抽出部、13…記憶部、14…フロー作成部、15…選別部、16…自己位置算出部、20…カメラ、21…前カメラ、22…後カメラ、23…右カメラ、24…左カメラ、MC…車両 1... Self-position estimation device, 10... Vehicle control unit, 11... Image data acquisition unit, 12... Feature point extraction unit, 13... Storage unit, 14... Flow creation unit, 15... Selection unit, 16... Self-position calculation unit, 20... Camera, 21... Front camera, 22... Rear camera, 23... Right camera, 24... Left camera, MC... Vehicle
Claims (12)
前記移動体に搭載された複数のカメラ(21,22,23,24)で構成されるマルチカメラ(20)から出力された画像データを設定間隔毎に取得する画像データ取得部(11)と、
前記画像データ取得部により取得された前記画像データから特徴点を抽出する特徴点抽出部(12)と、
前記各画像データ内の前記各特徴点の位置情報、を記憶する記憶部(13)と、
最新の画像データにおける特徴点である現特徴点と、過去の画像データにおける特徴点である前特徴点と、を対応付けて、時系列毎に異なる前記画像データにおいて対応する特徴点同士の組であるフローを作成するフロー作成部(14)と、
前記フロー作成部により作成された前記フローのうち、前記移動体の予測される運動に基づいて計算されたエピポーラ拘束を含む予め定められた制約条件を用いて、前記制約条件を満たす前記フローを正しいフローとして選別する選別部(15)と、
前記選別部により選別された前記正しいフローの情報を用いて、前記移動体の位置および向きを算出する自己位置算出部(16)と、
を備える、自己位置推定装置。 A self-location estimation device that estimates a self-location of a moving body (MC),
an image data acquisition unit (11) that acquires image data output from a multi-camera (20) consisting of a plurality of cameras (21, 22, 23, 24) mounted on the moving body at set intervals;
a feature point extraction unit (12) that extracts feature points from the image data acquired by the image data acquisition unit;
a storage unit (13) for storing position information of each of the feature points in each of the image data;
a flow creation unit (14) that associates current feature points, which are feature points in the latest image data, with previous feature points, which are feature points in past image data, and creates flows that are pairs of corresponding feature points in the image data that differ for each time series;
a selection unit (15) that selects, from among the flows created by the flow creation unit, a flow that satisfies a predetermined constraint condition, including an epipolar constraint calculated based on a predicted motion of the moving object, as a correct flow;
a self-position calculation unit (16) that calculates a position and an orientation of the moving object using information on the correct flow selected by the selection unit;
A self-location estimation device comprising:
前記選別部は、作成された前記フローのうち、前記現特徴点の位置座標が、前記最新の画像データ内において前記エピポーラ線から前記上限閾値の範囲内にあるものを選別する、請求項1に記載の自己位置推定装置。 the constraint condition includes, as an index for selecting the flow, an upper limit threshold value that is a distance from an epipolar line calculated based on a predicted motion of the moving object, and
The self-location estimation device according to claim 1 , wherein the selection unit selects, from the created flows, flows in which position coordinates of the current feature point are within a range of the upper limit threshold from the epipolar line in the latest image data.
前記選別部は、作成された前記フローのうち、前記フロー長が前記基準範囲内にあるものを選別する、請求項1または請求項2に記載の自己位置推定装置。 the constraint condition includes a reference range of a flow length, which is a length of the flow in the image data that is continuous in a time series, as an index for selecting the flow;
The self-location estimation device according to claim 1 , wherein the selection unit selects, from the created flows, flows whose flow lengths are within the reference range.
前記自己位置推定装置は、画像データ取得部(11)と、特徴点抽出部(12)と、記憶部(13)と、フロー作成部(14)と、選別部(15)と、自己位置算出部(16)と、を備え、
前記画像データ取得部により、前記移動体に搭載された複数のカメラ(21,22,23,24)で構成されるマルチカメラ(20)から出力された画像データを設定間隔毎に取得する工程と、
前記特徴点抽出部により、前記画像データ取得部により取得された前記画像データから特徴点を抽出する工程と、
前記記憶部により、前記各画像データ内の前記各特徴点の位置情報を記憶する工程と、
前記フロー作成部により、最新の画像データにおける特徴点である現特徴点と、過去の画像データにおける特徴点である前特徴点と、を対応付けて、時系列毎に異なる前記画像データにおいて対応する特徴点同士の組であるフローを作成する工程と、
前記選別部により、前記フロー作成部により作成された前記フローのうち、前記移動体の予測される運動に基づいて計算されたエピポーラ拘束を含む予め定められた制約条件を用いて、前記制約条件を満たす前記フローを正しいフローとして選別する工程と、
前記自己位置算出部により、前記選別部により選別された前記正しいフローの情報を用いて、前記移動体の位置および向きを算出する工程と、
を備える、自己位置推定方法。 A self-location estimation method for estimating a self-location of a moving body (MC) using a self-location estimation device, comprising:
The self-position estimation device includes an image data acquisition unit (11), a feature point extraction unit (12), a storage unit (13), a flow creation unit (14), a selection unit (15), and a self-position calculation unit (16),
acquiring image data output from a multi-camera (20) consisting of a plurality of cameras (21, 22, 23, 24) mounted on the moving body at set intervals by the image data acquisition unit;
extracting feature points from the image data acquired by the image data acquisition unit using the feature point extraction unit;
storing position information of each of the feature points in each of the image data by the storage unit;
a step of associating current feature points, which are feature points in the latest image data, with previous feature points, which are feature points in past image data, by the flow creation unit, to create a flow, which is a pair of corresponding feature points in the image data that differs for each time series;
a step of selecting, by the selection unit, from among the flows created by the flow creation unit, a flow that satisfies a predetermined constraint condition, the constraint condition including an epipolar constraint calculated based on a predicted motion of the moving object, as a correct flow;
calculating, by the self-location calculation unit, a position and an orientation of the moving object using information on the correct flow selected by the selection unit;
A self-location estimation method comprising:
前記移動体に搭載された複数のカメラ(21,22,23,24)で構成されるマルチカメラ(20)から出力された画像データを設定間隔毎に取得する機能と、
前記画像データから特徴点を抽出する機能と、
前記各画像データ内の前記各特徴点の位置情報、を記憶する機能と、
最新の画像データにおける特徴点である現特徴点と、過去の画像データにおける特徴点である前特徴点と、を対応付けて、時系列毎に異なる前記画像データにおいて対応する特徴点同士の組であるフローを作成する機能と、
作成された前記フローのうち、前記移動体の予測される運動に基づいて計算されたエピポーラ拘束を含む予め定められた制約条件を用いて、前記制約条件を満たす前記フローを正しいフローとして選別する機能と、
選別された前記正しいフローの情報を用いて、前記移動体の位置および向きを算出する機能と、
をコンピュータに実現させる、自己位置推定プログラム。 A self-location estimation program for estimating a self-location of a moving object (MC),
A function of acquiring image data output from a multi-camera (20) consisting of a plurality of cameras (21, 22, 23, 24) mounted on the moving body at set intervals;
A function of extracting feature points from the image data;
a function of storing position information of each of the feature points in each of the image data;
a function of associating current feature points, which are feature points in the latest image data, with previous feature points, which are feature points in past image data, to generate a flow, which is a set of corresponding feature points in the image data that differs for each time series;
a function of selecting, from among the created flows, a flow that satisfies predetermined constraint conditions, including an epipolar constraint calculated based on a predicted motion of the moving object, as a correct flow;
A function of calculating a position and an orientation of the moving object using the information of the selected correct flow;
A self-location estimation program that enables a computer to achieve this.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022169676A JP2024061982A (en) | 2022-10-24 | 2022-10-24 | Self-location estimation device, self-location estimation method, and self-location estimation program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022169676A JP2024061982A (en) | 2022-10-24 | 2022-10-24 | Self-location estimation device, self-location estimation method, and self-location estimation program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024061982A true JP2024061982A (en) | 2024-05-09 |
Family
ID=90970479
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022169676A Pending JP2024061982A (en) | 2022-10-24 | 2022-10-24 | Self-location estimation device, self-location estimation method, and self-location estimation program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024061982A (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010085240A (en) * | 2008-09-30 | 2010-04-15 | Mazda Motor Corp | Image processing device for vehicle |
| JP2021193340A (en) * | 2020-06-08 | 2021-12-23 | フォルシアクラリオン・エレクトロニクス株式会社 | Self-position estimation device |
| JP2022064506A (en) * | 2020-10-14 | 2022-04-26 | Necソリューションイノベータ株式会社 | Image processing device, image processing method, and program |
-
2022
- 2022-10-24 JP JP2022169676A patent/JP2024061982A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010085240A (en) * | 2008-09-30 | 2010-04-15 | Mazda Motor Corp | Image processing device for vehicle |
| JP2021193340A (en) * | 2020-06-08 | 2021-12-23 | フォルシアクラリオン・エレクトロニクス株式会社 | Self-position estimation device |
| JP2022064506A (en) * | 2020-10-14 | 2022-04-26 | Necソリューションイノベータ株式会社 | Image processing device, image processing method, and program |
Non-Patent Citations (1)
| Title |
|---|
| 高橋 健大 他: "画像処理を用いた屋内駐車場における自車両の高精度方位変化推定", 情報処理学会 研究報告 高度交通システムとスマートコミュニティ(ITS) 2019−ITS−076, JPN6025045367, 21 February 2019 (2019-02-21), ISSN: 0005727602 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112106111B (en) | A calibration method, device, movable platform and storage medium | |
| CN110859044B (en) | Integrated sensor calibration in natural scenes | |
| CN113156407B (en) | Vehicle-mounted laser radar external parameter joint calibration method, system, medium and device | |
| EP2887315B1 (en) | Camera calibration device, method for implementing calibration, program and camera for movable body | |
| US20220277480A1 (en) | Position estimation device, vehicle, position estimation method and position estimation program | |
| CN111462096A (en) | Three-dimensional target detection method and device | |
| JP6712775B2 (en) | Road surface estimation device, vehicle control device, road surface estimation method, and program | |
| WO2018120040A1 (en) | Obstacle detection method and device | |
| US12307695B2 (en) | System and method for self-supervised monocular ground-plane extraction | |
| CN108803659B (en) | Multi-window heuristic three-dimensional space path planning method based on magic cube model | |
| CN110515088B (en) | An odometer estimation method and system for an intelligent robot | |
| US11619495B2 (en) | Position estimating apparatus and position estimating method | |
| CN110378898A (en) | A kind of method, apparatus, storage medium and the equipment of beacon positioning | |
| JPWO2017094140A1 (en) | Object detection apparatus and object detection method | |
| CN114283401B (en) | Obstacle identification method and device, and driving method and device | |
| CN111695379B (en) | Ground segmentation method, device, vehicle-mounted equipment and storage medium based on stereo vision | |
| US12080013B2 (en) | Multi-view depth estimation leveraging offline structure-from-motion | |
| JP7723473B2 (en) | Information processing device, information processing method, and mobile robot | |
| JP2024061982A (en) | Self-location estimation device, self-location estimation method, and self-location estimation program | |
| US20240329655A1 (en) | Information processing device, movable apparatus, information processing method, and storage medium | |
| CN116740681B (en) | Target detection method, device, vehicle and storage medium | |
| CN119850903A (en) | Ranging positioning method, system, storage medium, electronic equipment and vehicle | |
| CN117853649A (en) | Image-pose database generation method and device based on SFM and rendering technology | |
| US11398043B2 (en) | System and method for self-supervised monocular depth regularization from surface normals | |
| JP7564742B2 (en) | Information processing device and information processing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250113 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250917 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20251111 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251216 |