JP7517675B2 - Map data generating device, map data generating method, and program - Google Patents
Map data generating device, map data generating method, and program Download PDFInfo
- Publication number
- JP7517675B2 JP7517675B2 JP2020015711A JP2020015711A JP7517675B2 JP 7517675 B2 JP7517675 B2 JP 7517675B2 JP 2020015711 A JP2020015711 A JP 2020015711A JP 2020015711 A JP2020015711 A JP 2020015711A JP 7517675 B2 JP7517675 B2 JP 7517675B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- dimensional point
- specific time
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000012545 processing Methods 0.000 claims description 57
- 230000033001 locomotion Effects 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 26
- 238000013519 translation Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
本発明は、3次元地図データを作成するための、地図データ生成装置及び地図データ生成方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to a map data generation device and a map data generation method for creating three-dimensional map data, and further to a program for implementing these.
近年、センシング技術の向上により、SLAM(Simultaneous Localization and Mapping)が注目されている。SLAMは、センサを搭載した移動体によって、自己位置の推定と環境地図の地図データの作成とを同時に実行する技術である(例えば、特許文献1及び非特許文献1参照)。SLAMによれば、自律走行するロボットは、ランダムに移動する必要がなく、環境地図に沿って移動できるため、その移動効率は向上することになる。 In recent years, with the advancement of sensing technology, SLAM (Simultaneous Localization and Mapping) has been attracting attention. SLAM is a technology in which a mobile object equipped with a sensor simultaneously estimates its own position and creates map data for an environmental map (see, for example, Patent Document 1 and Non-Patent Document 1). With SLAM, an autonomous robot does not need to move randomly, but can move along an environmental map, improving the efficiency of its movement.
また、移動体に搭載されるセンサとしては、LiDAR(Laser Imaging Detection and Ranging)が挙げられる。LiDARは、周辺を走査するようにパルス状のレーザ光を出射し、周辺の物体で反射または散乱された光を受光することによって、周辺の物体までの距離を測定する。 Another example of a sensor that can be mounted on a moving object is LiDAR (Laser Imaging Detection and Ranging). LiDAR emits pulsed laser light to scan the surroundings, and measures the distance to nearby objects by receiving the light reflected or scattered by the surrounding objects.
LiDARによれば、移動体の周辺の状況を広い範囲で特定でき、3次元の点群で構築された地図データを得ることができる。このような地図データは、自動運転等への有効活用が期待されている。 LiDAR can identify the situation around a moving object over a wide area and obtain map data constructed from a three-dimensional point cloud. Such map data is expected to be effectively used for autonomous driving, etc.
しかしながら、SLAMにおいては、地図データの作成時に、センサを搭載した移動体以外の移動体(他の移動体)が存在すると、他の移動体のデータも地図データとして記録されてしまうという問題がある。例えば、実際の道路を対象にした場合は、センサを搭載した自動車以外の自動車も道路を走行しているため、この他の自動車のデータも地図データに記録されてしまう。 However, with SLAM, if there are moving objects (other moving objects) other than the moving object equipped with the sensor when creating map data, the data of the other moving objects will also be recorded as map data. For example, when targeting an actual road, cars other than the car equipped with the sensor will also be traveling on the road, and the data of these other cars will also be recorded in the map data.
この場合、地図データの精度は大きく低下してしまうため、他の移動体のデータを除去する必要があるが、データの除去は人手で行う必要があり、地図データの作成コストが大きく増加してしまう。 In this case, the accuracy of the map data is significantly reduced, so the data of other moving objects must be removed, but this data removal must be done manually, significantly increasing the cost of creating the map data.
本発明の目的の一例は、上記問題を解消し、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去し得る、地図データ生成装置、地図データ生成方法、及びプログラムを提供することにある。 One example of the objective of the present invention is to provide a map data generation device, a map data generation method, and a program that can solve the above problems and remove data of moving objects included in map data when creating map data using SLAM.
上記目的を達成するため、本発明の一側面における地図データ生成装置は、
移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、データ取得部と、
取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、オブジェクト抽出部と、
前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、予測処理部と、
前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、マッチング処理部と、
一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、移動体判定部と、
特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、地図データ作成部と、
を備えている、
ことを特徴とする。
In order to achieve the above object, a map data generating device according to one aspect of the present invention comprises:
A data acquisition unit that acquires three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on the mobile object;
an object extraction unit that extracts an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
a prediction processing unit that predicts a position at a specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
a matching processing unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time coincides with the object extracted from the three-dimensional point cloud data at the previous time at a predicted position;
a moving object determination unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether the object matches;
a map data creation unit that creates map data of the target area by removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time;
Equipped with
It is characterized by:
また、上記目的を達成するため、本発明の一側面における地図データ生成方法は、
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を有する、
ことを特徴とする。
In order to achieve the above object, a map data generating method according to one aspect of the present invention includes:
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
having
It is characterized by:
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を実行させる、
ことを特徴とする。
Furthermore, in order to achieve the above object, a program according to one aspect of the present invention comprises:
On the computer,
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
Execute the
It is characterized by:
以上のように、本発明によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去することができる。 As described above, according to the present invention, when creating map data using SLAM, data on moving objects included in the map data can be removed.
(実施の形態)
以下、本発明の実施の形態における、地図データ生成装置について、図1~図13を参照しながら説明する。
(Embodiment)
A map data generating device according to an embodiment of the present invention will now be described with reference to FIGS.
[装置構成]
最初に、図1を用いて、実施の形態における地図データ生成装置の概略構成について説明する。図1は、本発明の実施の形態における地図データ生成装置の構成を概略的に示すブロック図である。
[Device configuration]
First, a schematic configuration of a map data generating device in an embodiment will be described with reference to Fig. 1. Fig. 1 is a block diagram showing a schematic configuration of a map data generating device in an embodiment of the present invention.
図1に示す、実施の形態における地図データ生成装置10は、対象エリアの3次元点群データから地図データを生成する装置である。図1に示すように、地図データ生成装置10は、データ取得部11と、オブジェクト抽出部12と、予測処理部13と、マッチング処理部14と、移動体判定部15と、地図データ作成部16とを、備えている。
The map
そして、データ取得部11は、移動体に搭載されたセンサから時刻毎に出力された、対象エリアの3次元点群データを取得する。オブジェクト抽出部12は、取得された特定時刻の3次元点群データから、対象エリアに存在するオブジェクトを抽出する。
The
予測処理部13は、特定時刻よりも以前の時刻の3次元点群データから抽出されたオブジェクトについて、移動体の移動量に基づいて、特定時刻における位置を予測する。マッチング処理部14は、特定時刻の3次元点群データから抽出されたオブジェクトと、予測された位置での、以前の時刻の3次元点群データから抽出されたオブジェクトとが、一致するかどうかを判定する。
The
移動体判定部15は、一致するかどうかの判定結果に基づいて、特定時刻の3次元点群データから抽出されたオブジェクトが、移動しているかどうかを判定する。地図データ作成部16は、特定時刻に取得された3次元点群データから、移動していると判定されたオブジェクトを除去して、対象エリアの地図データを作成する。
The moving
このように、実施の形態では、地図データ生成装置10は、移動体に搭載されたセンサが出力した3次元点群データから、人手によることなく、移動体に該当するオブジェクトのデータを削除することができる。つまり、実施の形態によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去することができる。
In this way, in the embodiment, the map
続いて、図2~図11を用いて、実施の形態における地図データ生成装置10の構成及び機能についてより具体的に説明する。図2は、本発明の実施の形態における地図データ生成装置で構成された地図データ作成システムの一例を示す図である。
Next, the configuration and functions of the map
図2に示すように、実施の形態では、地図データ生成装置10は、図1に示した構成に加えて、オブジェクト格納部17を更に備えている。また、実施の形態では、移動体20は、自動車である。移動体20である自動車は、3次元点群データを出力するセンサ21を搭載している。センサ21は、画素毎に距離情報を取得可能なセンサであれば良く、具体例としては、LiDARが挙げられる。
As shown in FIG. 2, in the embodiment, the map
図3は、本発明の実施の形態においてセンサが出力した3次元点群データの一例を示している。図3の例では、センサ21としては、LiDARが用いられている。また、図3の例では、対象エリアは、自動車が移動可能な市街地であり、3次元点群データは、対象エリアを俯瞰した状態で示されている。
Figure 3 shows an example of 3D point cloud data output by a sensor in an embodiment of the present invention. In the example of Figure 3, a LiDAR is used as the
また、センサ21は、設定間隔を置いて、即ち、時刻毎に3次元点群データを出力する。そして、センサ21から出力された各3次元点群データは、移動体20に搭載されている通信装置から、無線通信等によって、地図データ生成装置10へと送信される。また、移動体20の通信装置からは、3次元点群データを出力した時刻における移動体20の速度及び移動方向を示す移動情報も、地図データ生成装置10へと送信される。
The
これにより、地図データ生成装置10において、データ取得部11は、センサ21から出力された順に、3次元点群データを取得する。また、データ取得部11は、取得した3次元点群データを順にオブジェクト抽出部12に送る。
As a result, in the map
また、実施の形態では、センサ21は、画像データを出力する撮像素子であっても良い。この場合は、センサ21又はデータ取得部11が、画像データから、既存のSfM(Structure from Motion)といった画像処理技術を用いて、3次元点群データを生成する。
In addition, in the embodiment, the
オブジェクト抽出部12は、実施の形態では、まず、3次元点群データが送られてくると、送られてきた3次元点群データに、それがセンサ21から出力された時刻を示す時刻情報を付与する。続いて、オブジェクト抽出部12は、図4に示すように、送られてきた3次元点群データに対して、地面点を削除する処理を実行する。地面点の削除は、例えば、移動体20の接地面と高さ方向の座標が一致する点群を削除することによって行われる。図4は、図3に示した3次元点群データから地面点を削除した状態を示す図である。
In the embodiment, when three-dimensional point cloud data is sent to the
次に、オブジェクト抽出部12は、図5に示すように、地面点が削除された3次元点群データに対してクラスタリングを実行して、点群を複数のクラスタに分類する。そして、オブジェクト抽出部12は、同一クラスタに属する点群の座標に基づいて、3次元の注目領域(ROI:Region Of Interest)を生成する。また、オブジェクト抽出部12は、生成したROIの重心を算出する。図5は、図4に示した3次元点群データに対してクラスタリングを行うことによってROIを生成した状態を示す図である。図5において、各クラスタは、矩形の境界線によって区別されている。
Next, as shown in FIG. 5, the
次に、オブジェクト抽出部12は、図6に示すように、生成したROIの中から、オブジェクトとして抽出すべきROIを特定し、特定したROIを、オブジェクトとして抽出する。図6は、図5に示した3次元点群データの中から抽出するオブジェクトを示す図である。
Next, as shown in FIG. 6, the
具体的には、オブジェクト抽出部12は、生成したROI毎に、その幅、高さ、及び奥行を算出し、算出した幅、高さ、及び奥行が、設定条件を満たすかどうかを判定する。設定条件は、移動体20以外の移動体(自動車、自転車、歩行者等)をオブジェクトとして抽出できるように設定される。設定条件としては、幅、高さ、及び奥行のうちの少なくとも1つの上限値及び下限値、いずれか2つの比、等が挙げられる。
Specifically, the
そして、オブジェクト抽出部12は、設定条件を満たすと判定したROIが存在する場合は、そのROIを、オブジェクトとして抽出する。また、オブジェクト抽出部12は、抽出したオブジェクトにも、抽出元の3次元点群データに付与されている時刻情報を付与し、時刻情報を付与したオブジェクトを、予測処理部13とオブジェクト格納部17とに送る。オブジェクト格納部17は、送られてきたオブジェクトを時刻情報と共に格納する。
If an ROI is found to satisfy the set conditions, the
予測処理部13は、まず、時刻毎に出力された3次元点群データを時系列で処理して点群観測情報を作成する。点群観測情報は、時刻毎の移動体20の平行移動量及び回転角度の情報であり、SLAMにより得られる移動体20の自己位置の推定値を時刻毎に比較することで算出される。
The
そして、予測処理部13は、点群観測情報から、任意の過去の時刻(例えば、最新の時刻から1つ前の時刻)から最新の時刻までの間の移動体20の移動方向及び移動量を算出する。続いて、予測処理部13は、実施の形態では、オブジェクト格納部17から、任意の過去の時刻における3次元点群データから抽出されたオブジェクトを取得する。なお、予測処理部13は、移動体20から得られた情報に基づいて、移動体20の移動方向及び移動量を算出しても良い。
Then, the
そして、予測処理部13は、図7に示すように、算出した移動体20の移動方向及び移動量に基づいて、取得したオブジェクトの最新の時刻における位置を予測し、予測した位置に、取得したオブジェクトと同じオブジェクトを生成する。
Then, as shown in FIG. 7, the
図7は、図5に示したオブジェクトの位置の予測処理を示す図である。図7においては、矢印の選択が予測された位置を示している。また、予想した位置に生成されたオブジェクトを、以降の説明においては「予測オブジェクト」と表記する。そして、予測処理部13は、生成した全ての予測オブジェクトのデータを、マッチング処理部14に渡す。
Figure 7 is a diagram showing the process of predicting the position of the object shown in Figure 5. In Figure 7, the position where the selection of the arrow is predicted is shown. In addition, in the following explanation, the object generated at the predicted position is referred to as the "predicted object". Then, the
マッチング処理部14は、オブジェクト抽出部12から送られてきた最新の時刻のオブジェクト(以下「最新オブジェクト」と表記する。)と、予測処理部13から送られてきた予測オブジェクトとを取得する。
The matching
続いて、マッチング処理部14は、図8に示すように、最新オブジェクトそれぞれ毎に、その重心と各予測オブジェクトの重心とを比較して、重心間距離が最も短い予測オブジェクトを、その最新オブジェクトのマッチング対象とする。図8は、図6に示す抽出済の最新オブジェクトと予測オブジェクトとの組合せを示す図である。図8において、予測オブジェクトは、破線による矩形で示している。
Then, as shown in FIG. 8, the matching
次に、マッチング処理部14は、例えば、ICP(Iterative Closest Point)アルゴリズムといった既存の3次元形状間の位置合わせ手法を用い、最新オブジェクトそれぞれ毎に、それと、マッチング対象となった予測オブジェクトとが一致するかどうかを判定する。
Next, the matching
具体的には、マッチング処理部14は、最新オブジェクトとマッチング対象となる予測オブジェクトとのうち一方に対して、回転、平行移動、又は両方を行って、両者が最も一致する状態を特定する。そして、マッチング処理部14は、特定した状態において、最新オブジェクトの一致している部分の割合を計算し、その値が閾値以上である場合は、両者が一致していると判定し、そうでない場合は、両者が一致していないと判定する。
Specifically, the matching
ここで、図9を用いて、予測処理部13及びマッチング処理部14における処理について詳細に説明する。図9は、図6~図8に示した一連の処理を示す図である。
The processing in the
図9の左上の図に示すように、予測処理部13は、最新の時刻よりも1つ前の時刻における3次元点群データから抽出されたオブジェクトを取得する。次に、図9の右上の図に示すように、予測処理部13は、取得したオブジェクトの最新の時刻における位置を予測し、予測オブジェクトを設定する。続いて、図9の下図に示すように、マッチング処理部14は、最新オブジェクトそれぞれ毎に、マッチング対象となった予測オブジェクトとの一致を判定する。
As shown in the upper left diagram of FIG. 9, the
移動体判定部15は、マッチング処理部14による判定結果に基づいて、図10に示すように、最新オブジェクトが移動体であるかどうかを判定する。具体的には、移動体判定部15は、マッチング処理部14によって両者が一致していると判断したときにおける、平行移動量及び回転角度が、設定範囲内にあるかどうかを判定する。そして、移動体判定部15は、平行移動量及び回転角度が設定範囲内にある場合は、最新オブジェクトは移動体でないと判定し、そうでない場合は、最新オブジェクトは移動体であると判定する。図10は、移動体であると判定された最新オブジェクトに対する処理を示す図である。
The moving
なお、実施の形態では、データ取得部11、オブジェクト抽出部12、予測処理部13、マッチング処理部14、移動体判定部15及びオブジェクト格納部17によれば、移動体の検出が行えることから、これらによって移動体検出装置30が構築されている。
In the embodiment, the
地図データ作成部16は、図10に示すように、最新の時刻の3次元点群データから、移動体であると判断した最新オブジェクトを除去する。そして、地図データ作成部16は、図11に示すように、移動体除去後の時刻毎の3次元点群データを用いて、対象エリアの地図データを作成する。図11(a)及び(b)は、対象エリアの地図データの一例を示す図であり、図11(a)は移動体を除去しないで作成した例を示し、図11(b)は移動体を削除して作成した例を示している。
The map
[装置動作]
次に、実施の形態における地図データ生成装置10の動作について図12を用いて説明する。図12は、本発明の実施の形態における地図データ生成装置の動作を示すフロー図である。以下の説明においては、適宜図1~図11を参照する。また、実施の形態では、地図データ生成装置10を動作させることによって、地図データ生成方法が実施される。よって、実施の形態における地図データ生成方法の説明は、以下の地図データ生成装置の動作説明に代える。
[Device Operation]
Next, the operation of the map
図12に示すように、最初に、データ取得部11は、移動体20に搭載されたセンサ21から出力された、対象エリアの最新時刻の3次元点群データを取得する(ステップA1)。
As shown in FIG. 12, first, the
次に、オブジェクト抽出部12は、ステップA1で取得された3次元点群データに時刻情報を付与すると共に、この3次元点群データに対して、地面点を削除する処理を実行する(ステップA2)。
Next, the
次に、オブジェクト抽出部12は、ステップA2により地面点が削除された3次元点群データに対してクラスタリングを実行して、点群を複数のクラスタに分類する(ステップA3)。
Next, the
次に、オブジェクト抽出部12は、同一クラスタに属する点群の座標に基づいて、3次元のROIを生成する。そして、オブジェクト抽出部12は、設定条件に基づいて、生成したROIの中から、オブジェクトとして抽出すべきROIを特定し、特定したROIを、最新オブジェクトとして抽出する(ステップA4)。
Next, the
次に、予測処理部13は、移動体20から送られてきた移動体20の移動情報に基づいて、任意の過去の時刻、具体的には最新の時刻の1つ前の時刻から最新の時刻までの間の移動体20の移動方向及び移動量を算出する(ステップA5)。
Next, the
次に、予測処理部13は、オブジェクト格納部17から、最新時刻の1つ前の時刻においてステップA4で抽出されたオブジェクトを取得する。そして、予測処理部13は、ステップA5で算出した移動体20の移動方向及び移動量に基づいて、取得したオブジェクトの最新の時刻における位置を予測し、予測した位置に、取得したオブジェクトと同じオブジェクト(予測オブジェクト)を生成する(ステップA6)。
Next, the
上述の例では、ステップA1~A4の実行後に、ステップA5及びA6が実行されているが、実施の形態では、ステップA5及びA6は、ステップA1~A4と同時に又はステップA1~A4の実行前に、実行されていても良い。 In the above example, steps A5 and A6 are executed after steps A1 to A4 are executed, but in an embodiment, steps A5 and A6 may be executed simultaneously with steps A1 to A4 or before steps A1 to A4 are executed.
次に、マッチング処理部14は、ステップA4で抽出された最新オブジェクトそれぞれ毎に、マッチング対象となる予測オブジェクトを特定する(ステップA7)。具体的には、マッチング処理部14は、ステップA4で抽出された最新オブジェクトの重心と各予測オブジェクトの重心とを比較して、重心間距離が最も短い予測オブジェクトを、その最新オブジェクトのマッチング対象とする。
Next, the matching
次に、マッチング処理部14は、ICPアルゴリズム用いて、最新オブジェクトそれぞれ毎に、それと、マッチング対象となった予測オブジェクトとが一致するかどうかを判定する(ステップA8)。
Next, the matching
次に、移動体判定部15は、ステップA8による判定結果に基づいて、最新オブジェクトそれぞれ毎に、各最新オブジェクトが移動体であるかどうかを判定する(ステップA9)。
Next, the moving
地図データ作成部16は、ステップA1で取得した最新時刻の3次元点群データから、ステップA9で移動体であると判定された最新オブジェクトを除去する(ステップA10)。その後、地図データ作成部16は、ステップA10による移動体除去後の最新時刻の3次元点群データと、それまでの時刻のステップ10後の3次元点群データとを用いて、対象エリアの地図データを作成する(ステップA11)。
The map
また、実施の形態では、上述したステップA1~A11は、移動体20に搭載されたセンサ21から3次元点群データが出力される度に、繰り返し実行される。このため、移動体20が動いた範囲が広いほど、地図データの範囲も広くなる。
In addition, in the embodiment, the above-described steps A1 to A11 are repeatedly executed each time 3D point cloud data is output from the
[実施の形態における効果]
以上のように、実施の形態によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータは自動的に除去されるので、高精度な地図データが作成されることになる。
[Effects of the embodiment]
As described above, according to the embodiment, when creating map data by SLAM, data of moving objects included in the map data is automatically removed, so that highly accurate map data can be created.
[プログラム]
実施の形態におけるプログラムは、コンピュータに、図12に示すステップA1~A11を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、実施の形態における地図データ生成装置10と地図データ作成方法とを実現することができる。この場合、コンピュータのプロセッサは、データ取得部11、オブジェクト抽出部12、予測処理部13、マッチング処理部14、移動体判定部15、及び地図データ作成部16として機能し、処理を行なう。
[program]
The program in the embodiment may be a program that causes a computer to execute steps A1 to A11 shown in Fig. 12. By installing and executing this program in a computer, the map
また、実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、データ取得部11、オブジェクト抽出部12、予測処理部13、マッチング処理部14、移動体判定部15、及び地図データ作成部16のいずれかとして機能しても良い。更に、実施の形態においてプログラムを実行するコンピュータは、汎用のコンピュータであっても良いし、移動体に搭載されている車載コンピュータ、スマートフォン、又はタブレット型端末であっても良い。
The program in the embodiment may be executed by a computer system constructed by multiple computers. In this case, for example, each computer may function as any one of the
ここで、実施の形態におけるプログラムを実行することによって、地図データ生成装置10を実現するコンピュータについて図13を用いて説明する。図13は、本発明の実施の形態における地図データ生成装置を実現するコンピュータの一例を示すブロック図である。
Here, a computer that realizes the map
図13に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
As shown in FIG. 13, the
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader/
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施の形態における地図データ生成装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、地図データ生成装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
Note that the map
上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記12)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiment can be expressed by (Appendix 1) to (Appendix 12) described below, but is not limited to the following description.
(付記1)
移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、データ取得部と、
取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、オブジェクト抽出部と、
前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、予測処理部と、
前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、マッチング処理部と、
一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、移動体判定部と、
特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、地図データ作成部と、
を備えている、
ことを特徴とする地図データ生成装置。
(Appendix 1)
A data acquisition unit that acquires three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on the mobile object;
an object extraction unit that extracts an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
a prediction processing unit that predicts a position at a specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
a matching processing unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time coincides with the object extracted from the three-dimensional point cloud data at the previous time at a predicted position;
a moving object determination unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether the object matches;
a map data creation unit that creates map data of the target area by removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time;
Equipped with
A map data generating device comprising:
(付記2)
付記1に記載の地図データ生成装置であって、
前記オブジェクト抽出部が、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成装置。
(Appendix 2)
2. A map data generating device according to claim 1,
the object extraction unit removes a portion corresponding to the ground from the acquired 3D point cloud data at the specific time, performs clustering on the 3D point cloud data from which the portion corresponding to the ground has been removed, classifies the data into a plurality of objects, and extracts an object that satisfies a specific condition from among the obtained plurality of objects;
A map data generating device comprising:
(付記3)
付記1または2に記載の地図データ生成装置であって、
前記マッチング処理部が、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成装置。
(Appendix 3)
3. A map data generating device according to claim 1,
the matching processing unit calculates a distance between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, determines whether the two match;
A map data generating device comprising:
(付記4)
付記1~3のいずれかに記載の地図データ生成装置であって、
前記マッチング処理部が、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記移動体判定部が、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成装置。
(Appendix 4)
A map data generating device according to any one of claims 1 to 3,
the matching processing unit rotates, translates, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and determines whether the two match;
the moving object determination unit determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving, based on the amount of rotation and the amount of translation, when the two match.
A map data generating device comprising:
(付記5)
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を有する、
ことを特徴とする地図データ生成方法。
(Appendix 5)
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
having
A map data generating method comprising:
(付記6)
付記5に記載の地図データ生成方法であって、
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成方法。
(Appendix 6)
6. A map data generating method according to claim 5, further comprising:
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A map data generating method comprising:
(付記7)
付記5または6に記載の地図データ生成方法であって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成方法。
(Appendix 7)
7. A map data generating method according to claim 5, further comprising:
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A map data generating method comprising:
(付記8)
付記5~7のいずれかに記載の地図データ生成方法であって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成方法。
(Appendix 8)
A map data generating method according to any one of Supplementary Note 5 to 7,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A map data generating method comprising:
(付記9)
コンピュータに、
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を実行させる、
ことを特徴とするプログラム。
(Appendix 9)
On the computer,
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
Execute the
A program characterized by:
(付記10)
付記9に記載のプログラムであって、
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、プログラム。
(Appendix 10)
10. The program according to claim 9,
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A program characterized by:
(付記11)
付記9または10に記載のプログラムであって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、プログラム。
(Appendix 11)
The program according to
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A program characterized by:
(付記12)
付記9~11のいずれかに記載のプログラムであって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、プログラム。
(Appendix 12)
The program according to any one of appendixes 9 to 11,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A program characterized by:
以上のように、本発明によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去することができる。本発明は、SLAMを実現するシステムに有用である。 As described above, according to the present invention, when creating map data using SLAM, data on moving objects included in the map data can be removed. The present invention is useful for systems that realize SLAM.
10 地図データ生成装置
11 データ取得部
12 オブジェクト抽出部
13 予測処理部
14 マッチング処理部
15 移動体判定部
16 地図データ作成部
17 オブジェクト格納部
20 移動体
21 センサ
30 移動体検出装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
REFERENCE SIGNS
112
Claims (12)
取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、オブジェクト抽出部と、
時刻毎に出力された前記3次元点群データから、時刻毎の前記移動体の平行移動量及び回転角度を示す点群観測情報を作成し、前記点群観測情報から、前記特定時刻よりも以前の時刻から前記特定時刻までの間の移動体の移動方向及び移動量を算出し、前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、算出した前記移動体の前記移動方向及び前記移動量に基づいて、前記特定時刻における位置を予測する、予測処理部と、
前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、マッチング処理部と、
一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、移動体判定部と、
特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、地図データ作成部と、
を備えている、
ことを特徴とする地図データ生成装置。 A data acquisition unit that acquires three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on the mobile object;
an object extraction unit that extracts an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
a prediction processing unit that creates point cloud observation information indicating a translation amount and a rotation angle of the moving body for each time from the three-dimensional point cloud data output for each time, calculates a moving direction and a moving amount of the moving body from a time earlier than the specific time to the specific time from the point cloud observation information, and predicts a position of the object at the specific time based on the calculated moving direction and the moving amount of the moving body for the object extracted from the three-dimensional point cloud data for the time earlier than the specific time;
a matching processing unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time coincides with the object extracted from the three-dimensional point cloud data at the previous time at a predicted position;
a moving object determination unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether the object matches;
a map data creation unit that creates map data of the target area by removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time;
Equipped with
A map data generating device comprising:
前記オブジェクト抽出部が、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成装置。 2. The map data generating device according to claim 1,
the object extraction unit removes a portion corresponding to the ground from the acquired 3D point cloud data at the specific time, performs clustering on the 3D point cloud data from which the portion corresponding to the ground has been removed, classifies the data into a plurality of objects, and extracts an object that satisfies a specific condition from among the obtained plurality of objects;
A map data generating device comprising:
前記マッチング処理部が、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成装置。 3. The map data generating device according to claim 1,
the matching processing unit calculates a distance between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, determines whether the two match;
A map data generating device comprising:
前記マッチング処理部が、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記移動体判定部が、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成装置。 A map data generating device according to any one of claims 1 to 3,
the matching processing unit rotates, translates, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and determines whether the two match;
the moving object determination unit determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving, based on the amount of rotation and the amount of translation, when the two match.
A map data generating device comprising:
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)時刻毎に出力された前記3次元点群データから、時刻毎の前記移動体の平行移動量及び回転角度を示す点群観測情報を作成し、前記点群観測情報から、前記特定時刻よりも以前の時刻から前記特定時刻までの間の移動体の移動方向及び移動量を算出し、前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、算出した前記移動体の前記移動方向及び前記移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を有する、
ことを特徴とする地図データ生成方法。 (a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) creating point cloud observation information indicating the translation amount and rotation angle of the moving body for each time from the three-dimensional point cloud data output for each time, calculating the movement direction and movement amount of the moving body from a time earlier than the specific time to the specific time from the point cloud observation information, and predicting a position of the object at the specific time based on the calculated movement direction and movement amount of the moving body for the object extracted from the three-dimensional point cloud data for a time earlier than the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
having
A map data generating method comprising:
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成方法。 6. The map data generating method according to claim 5,
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A map data generating method comprising:
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成方法。 7. A map data generating method according to claim 5, further comprising the steps of:
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A map data generating method comprising:
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成方法。 A map data generating method according to any one of claims 5 to 7,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A map data generating method comprising:
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)時刻毎に出力された前記3次元点群データから、時刻毎の前記移動体の平行移動量及び回転角度を示す点群観測情報を作成し、前記点群観測情報から、前記特定時刻よりも以前の時刻から前記特定時刻までの間の移動体の移動方向及び移動量を算出し、前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、算出した前記移動体の前記移動方向及び前記移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を実行させる、
ことを特徴とするプログラム。 On the computer,
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) creating point cloud observation information indicating the translation amount and rotation angle of the moving body for each time from the three-dimensional point cloud data output for each time, calculating the movement direction and movement amount of the moving body from a time earlier than the specific time to the specific time from the point cloud observation information, and predicting a position of the object at the specific time based on the calculated movement direction and movement amount of the moving body for the object extracted from the three-dimensional point cloud data for a time earlier than the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
Execute the
A program characterized by:
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、プログラム。 The program according to claim 9,
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A program characterized by:
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、プログラム。 The program according to claim 9 or 10,
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A program characterized by:
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、プログラム。
The program according to any one of claims 9 to 11,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A program characterized by:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020015711A JP7517675B2 (en) | 2020-01-31 | 2020-01-31 | Map data generating device, map data generating method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020015711A JP7517675B2 (en) | 2020-01-31 | 2020-01-31 | Map data generating device, map data generating method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021124781A JP2021124781A (en) | 2021-08-30 |
| JP7517675B2 true JP7517675B2 (en) | 2024-07-17 |
Family
ID=77458908
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020015711A Active JP7517675B2 (en) | 2020-01-31 | 2020-01-31 | Map data generating device, map data generating method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7517675B2 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7567738B2 (en) * | 2021-09-28 | 2024-10-16 | 株式会社豊田自動織機 | Obstacle Detection Device |
| JPWO2024194985A1 (en) | 2023-03-20 | 2024-09-26 | ||
| JP2025123091A (en) * | 2024-02-09 | 2025-08-22 | 株式会社デンソー | Map generation system, map generation method, map generation program |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019133646A (en) | 2017-12-29 | 2019-08-08 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for determining matching relationship between point cloud data |
| JP2019149150A (en) | 2017-12-29 | 2019-09-05 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Method and apparatus for processing point cloud data |
| JP2019207220A (en) | 2018-03-13 | 2019-12-05 | 本田技研工業株式会社 | Position estimation by dynamic removal of traffic participants with simultaneous execution of stable map generation |
-
2020
- 2020-01-31 JP JP2020015711A patent/JP7517675B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019133646A (en) | 2017-12-29 | 2019-08-08 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for determining matching relationship between point cloud data |
| JP2019149150A (en) | 2017-12-29 | 2019-09-05 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | Method and apparatus for processing point cloud data |
| JP2019207220A (en) | 2018-03-13 | 2019-12-05 | 本田技研工業株式会社 | Position estimation by dynamic removal of traffic participants with simultaneous execution of stable map generation |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2021124781A (en) | 2021-08-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11798281B2 (en) | Systems and methods for utilizing machine learning models to reconstruct a vehicle accident scene from video | |
| US11479213B1 (en) | Sensor obstruction detection and mitigation | |
| CN108629231B (en) | Obstacle detection method, apparatus, device and storage medium | |
| CN109521757B (en) | Static obstacle identification method and device | |
| JP6702340B2 (en) | Image processing device, imaging device, mobile device control system, image processing method, and program | |
| CN108509820B (en) | Obstacle segmentation method and device, computer equipment and readable medium | |
| GB2560799A (en) | Sign recognition for autonomous vehicles | |
| JP7517675B2 (en) | Map data generating device, map data generating method, and program | |
| CN108062095A (en) | The object tracking merged in probabilistic framework using sensor | |
| CN110018496A (en) | Obstacle recognition method and device, electronic equipment, storage medium | |
| RU2744012C1 (en) | Methods and systems for automated determination of objects presence | |
| US12243321B2 (en) | Method for determining a semantic free space | |
| CN114549286A (en) | Lane line generation method and device, computer-readable storage medium and terminal | |
| CN117302263A (en) | A drivable area detection method, device, equipment and storage medium | |
| CN111912418B (en) | Method, device and medium for removing obstacles in a non-travelable area of a mobile carrier | |
| JP2018088234A (en) | Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and program | |
| JP2025522460A (en) | LiDAR-BASED ATMOSPHERIC FILTERING SYSTEM AND METHOD | |
| JP2024062332A (en) | Information processor, information processing method, and information processing program | |
| JP2024062323A (en) | Information processing device and program | |
| US11294384B2 (en) | Vehicle navigation using point cloud decimation | |
| JP7744064B2 (en) | Map generation device, map generation method, and program | |
| JP7701101B2 (en) | Map generation device, map generation method, and program | |
| CN112179360B (en) | Map generation method, device, system and medium | |
| JP2024062363A (en) | Information processing device, information processing method, and information processing program | |
| WO2024180708A1 (en) | Target recognition device and target recognition method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221201 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231108 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240306 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240326 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240522 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240604 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240627 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7517675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |