[go: up one dir, main page]

JP7517675B2 - Map data generating device, map data generating method, and program - Google Patents

Map data generating device, map data generating method, and program Download PDF

Info

Publication number
JP7517675B2
JP7517675B2 JP2020015711A JP2020015711A JP7517675B2 JP 7517675 B2 JP7517675 B2 JP 7517675B2 JP 2020015711 A JP2020015711 A JP 2020015711A JP 2020015711 A JP2020015711 A JP 2020015711A JP 7517675 B2 JP7517675 B2 JP 7517675B2
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
dimensional point
specific time
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020015711A
Other languages
Japanese (ja)
Other versions
JP2021124781A (en
Inventor
聖弥 杉本
裕二 栗田
正晃 森
功 中橋
安利 深谷
翔平 小野
達成 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2020015711A priority Critical patent/JP7517675B2/en
Publication of JP2021124781A publication Critical patent/JP2021124781A/en
Application granted granted Critical
Publication of JP7517675B2 publication Critical patent/JP7517675B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、3次元地図データを作成するための、地図データ生成装置及び地図データ生成方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to a map data generation device and a map data generation method for creating three-dimensional map data, and further to a program for implementing these.

近年、センシング技術の向上により、SLAM(Simultaneous Localization and Mapping)が注目されている。SLAMは、センサを搭載した移動体によって、自己位置の推定と環境地図の地図データの作成とを同時に実行する技術である(例えば、特許文献1及び非特許文献1参照)。SLAMによれば、自律走行するロボットは、ランダムに移動する必要がなく、環境地図に沿って移動できるため、その移動効率は向上することになる。 In recent years, with the advancement of sensing technology, SLAM (Simultaneous Localization and Mapping) has been attracting attention. SLAM is a technology in which a mobile object equipped with a sensor simultaneously estimates its own position and creates map data for an environmental map (see, for example, Patent Document 1 and Non-Patent Document 1). With SLAM, an autonomous robot does not need to move randomly, but can move along an environmental map, improving the efficiency of its movement.

また、移動体に搭載されるセンサとしては、LiDAR(Laser Imaging Detection and Ranging)が挙げられる。LiDARは、周辺を走査するようにパルス状のレーザ光を出射し、周辺の物体で反射または散乱された光を受光することによって、周辺の物体までの距離を測定する。 Another example of a sensor that can be mounted on a moving object is LiDAR (Laser Imaging Detection and Ranging). LiDAR emits pulsed laser light to scan the surroundings, and measures the distance to nearby objects by receiving the light reflected or scattered by the surrounding objects.

LiDARによれば、移動体の周辺の状況を広い範囲で特定でき、3次元の点群で構築された地図データを得ることができる。このような地図データは、自動運転等への有効活用が期待されている。 LiDAR can identify the situation around a moving object over a wide area and obtain map data constructed from a three-dimensional point cloud. Such map data is expected to be effectively used for autonomous driving, etc.

米国特許出願公開第2019/0003836号明細書US Patent Application Publication No. 2019/0003836

Ji Zhang, Sanjiv Sing, “LOAM: Lidar Odometry and Mapping in Real-time”, Robotics: Science and Systems 2014, July 12-16, 2014Ji Zhang, Sanjiv Sing, “LOAM: Lidar Odometry and Mapping in Real-time”, Robotics: Science and Systems 2014, July 12-16, 2014

しかしながら、SLAMにおいては、地図データの作成時に、センサを搭載した移動体以外の移動体(他の移動体)が存在すると、他の移動体のデータも地図データとして記録されてしまうという問題がある。例えば、実際の道路を対象にした場合は、センサを搭載した自動車以外の自動車も道路を走行しているため、この他の自動車のデータも地図データに記録されてしまう。 However, with SLAM, if there are moving objects (other moving objects) other than the moving object equipped with the sensor when creating map data, the data of the other moving objects will also be recorded as map data. For example, when targeting an actual road, cars other than the car equipped with the sensor will also be traveling on the road, and the data of these other cars will also be recorded in the map data.

この場合、地図データの精度は大きく低下してしまうため、他の移動体のデータを除去する必要があるが、データの除去は人手で行う必要があり、地図データの作成コストが大きく増加してしまう。 In this case, the accuracy of the map data is significantly reduced, so the data of other moving objects must be removed, but this data removal must be done manually, significantly increasing the cost of creating the map data.

本発明の目的の一例は、上記問題を解消し、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去し得る、地図データ生成装置、地図データ生成方法、及びプログラムを提供することにある。 One example of the objective of the present invention is to provide a map data generation device, a map data generation method, and a program that can solve the above problems and remove data of moving objects included in map data when creating map data using SLAM.

上記目的を達成するため、本発明の一側面における地図データ生成装置は、
移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、データ取得部と、
取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、オブジェクト抽出部と、
前記特定時刻よりも以前の時刻の前記3次元点群デーから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、予測処理部と、
前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトとが、一致するかどうかを判定する、マッチング処理部と、
一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、移動体判定部と、
特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、地図データ作成部と、
を備えている、
ことを特徴とする。
In order to achieve the above object, a map data generating device according to one aspect of the present invention comprises:
A data acquisition unit that acquires three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on the mobile object;
an object extraction unit that extracts an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
a prediction processing unit that predicts a position at a specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
a matching processing unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time coincides with the object extracted from the three-dimensional point cloud data at the previous time at a predicted position;
a moving object determination unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether the object matches;
a map data creation unit that creates map data of the target area by removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time;
Equipped with
It is characterized by:

また、上記目的を達成するため、本発明の一側面における地図データ生成方法は、
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群デーから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を有する、
ことを特徴とする。
In order to achieve the above object, a map data generating method according to one aspect of the present invention includes:
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
having
It is characterized by:

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群デーから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を実行させる、
ことを特徴とする。
Furthermore, in order to achieve the above object, a program according to one aspect of the present invention comprises:
On the computer,
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
Execute the
It is characterized by:

以上のように、本発明によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去することができる。 As described above, according to the present invention, when creating map data using SLAM, data on moving objects included in the map data can be removed.

図1は、本発明の実施の形態における地図データ生成装置の構成を概略的に示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a map data generating device according to an embodiment of the present invention. 図2は、本発明の実施の形態における地図データ生成装置で構成された地図データ作成システムの一例を示す図である。FIG. 2 is a diagram showing an example of a map data creation system including the map data generating device according to the embodiment of the present invention. 図3は、本発明の実施の形態においてセンサが出力した3次元点群データの一例を示している。FIG. 3 shows an example of three-dimensional point cloud data output by a sensor in the embodiment of the present invention. 図4は、図3に示した3次元点群データから地面点を削除した状態を示す図である。FIG. 4 is a diagram showing a state in which the ground points have been deleted from the three-dimensional point cloud data shown in FIG. 図5は、図4に示した3次元点群データに対してクラスタリングを行うことによってROIを生成した状態を示す図である。FIG. 5 is a diagram showing a state in which an ROI is generated by performing clustering on the three-dimensional point cloud data shown in FIG. 図6は、図5に示した3次元点群データの中から抽出するオブジェクトを示す図である。FIG. 6 is a diagram showing an object extracted from the three-dimensional point cloud data shown in FIG. 図7は、図5に示したオブジェクトの位置の予測処理を示す図である。FIG. 7 is a diagram showing a process of predicting the position of an object shown in FIG. 図8は、図6に示す抽出済の最新オブジェクトと予測オブジェクトとの組合せを示す図である。FIG. 8 is a diagram showing a combination of the extracted latest object and predicted object shown in FIG. 図9は、図6~図8に示した一連の処理を示す図である。FIG. 9 is a diagram showing a series of processes shown in FIGS. 図10は、移動体であると判定された最新オブジェクトに対する処理を示す図である。FIG. 10 is a diagram showing the process for the latest object determined to be a moving object. 図11(a)及び(b)は、対象エリアの地図データの一例を示す図であり、図11(a)は移動体を除去しないで作成した例を示し、図11(b)は移動体を削除して作成した例を示している。Figures 11(a) and (b) are diagrams showing examples of map data for a target area, where Figure 11(a) shows an example created without removing moving objects, and Figure 11(b) shows an example created with the moving objects removed. 図12は、本発明の実施の形態における地図データ生成装置の動作を示すフロー図である。FIG. 12 is a flow chart showing the operation of the map data generating device in the embodiment of the present invention. 図13は、本発明の実施の形態における地図データ生成装置を実現するコンピュータの一例を示すブロック図である。FIG. 13 is a block diagram showing an example of a computer that realizes the map data generating device according to the embodiment of the present invention.

(実施の形態)
以下、本発明の実施の形態における、地図データ生成装置について、図1~図13を参照しながら説明する。
(Embodiment)
A map data generating device according to an embodiment of the present invention will now be described with reference to FIGS.

[装置構成]
最初に、図1を用いて、実施の形態における地図データ生成装置の概略構成について説明する。図1は、本発明の実施の形態における地図データ生成装置の構成を概略的に示すブロック図である。
[Device configuration]
First, a schematic configuration of a map data generating device in an embodiment will be described with reference to Fig. 1. Fig. 1 is a block diagram showing a schematic configuration of a map data generating device in an embodiment of the present invention.

図1に示す、実施の形態における地図データ生成装置10は、対象エリアの3次元点群データから地図データを生成する装置である。図1に示すように、地図データ生成装置10は、データ取得部11と、オブジェクト抽出部12と、予測処理部13と、マッチング処理部14と、移動体判定部15と、地図データ作成部16とを、備えている。 The map data generating device 10 in the embodiment shown in FIG. 1 is a device that generates map data from three-dimensional point cloud data of a target area. As shown in FIG. 1, the map data generating device 10 includes a data acquisition unit 11, an object extraction unit 12, a prediction processing unit 13, a matching processing unit 14, a moving object determination unit 15, and a map data creation unit 16.

そして、データ取得部11は、移動体に搭載されたセンサから時刻毎に出力された、対象エリアの3次元点群データを取得する。オブジェクト抽出部12は、取得された特定時刻の3次元点群データから、対象エリアに存在するオブジェクトを抽出する。 The data acquisition unit 11 then acquires three-dimensional point cloud data of the target area output at each time from a sensor mounted on the mobile object. The object extraction unit 12 extracts objects that exist in the target area from the acquired three-dimensional point cloud data at a specific time.

予測処理部13は、特定時刻よりも以前の時刻の3次元点群デーから抽出されたオブジェクトについて、移動体の移動量に基づいて、特定時刻における位置を予測する。マッチング処理部14は、特定時刻の3次元点群データから抽出されたオブジェクトと、予測された位置での、以前の時刻の3次元点群デーから抽出されたオブジェクトとが、一致するかどうかを判定する。 The prediction processing unit 13 predicts the position at a specific time of an object extracted from the 3D point cloud data at a time earlier than the specific time based on the amount of movement of the moving body. The matching processing unit 14 determines whether the object extracted from the 3D point cloud data at the specific time matches an object extracted from the 3D point cloud data at the previous time at the predicted position.

移動体判定部15は、一致するかどうかの判定結果に基づいて、特定時刻の3次元点群データから抽出されたオブジェクトが、移動しているかどうかを判定する。地図データ作成部16は、特定時刻に取得された3次元点群データから、移動していると判定されたオブジェクトを除去して、対象エリアの地図データを作成する。 The moving object determination unit 15 determines whether the object extracted from the 3D point cloud data at the specific time is moving based on the result of the match determination. The map data creation unit 16 removes the object determined to be moving from the 3D point cloud data acquired at the specific time, and creates map data for the target area.

このように、実施の形態では、地図データ生成装置10は、移動体に搭載されたセンサが出力した3次元点群データから、人手によることなく、移動体に該当するオブジェクトのデータを削除することができる。つまり、実施の形態によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去することができる。 In this way, in the embodiment, the map data generation device 10 can delete data of objects corresponding to a moving body from the 3D point cloud data output by a sensor mounted on the moving body without manual intervention. In other words, according to the embodiment, when creating map data by SLAM, data of moving bodies included in the map data can be removed.

続いて、図2~図11を用いて、実施の形態における地図データ生成装置10の構成及び機能についてより具体的に説明する。図2は、本発明の実施の形態における地図データ生成装置で構成された地図データ作成システムの一例を示す図である。 Next, the configuration and functions of the map data generating device 10 in the embodiment will be described in more detail with reference to Figures 2 to 11. Figure 2 is a diagram showing an example of a map data creation system configured with the map data generating device in the embodiment of the present invention.

図2に示すように、実施の形態では、地図データ生成装置10は、図1に示した構成に加えて、オブジェクト格納部17を更に備えている。また、実施の形態では、移動体20は、自動車である。移動体20である自動車は、3次元点群データを出力するセンサ21を搭載している。センサ21は、画素毎に距離情報を取得可能なセンサであれば良く、具体例としては、LiDARが挙げられる。 As shown in FIG. 2, in the embodiment, the map data generating device 10 further includes an object storage unit 17 in addition to the configuration shown in FIG. 1. Also, in the embodiment, the moving body 20 is an automobile. The moving body 20, which is an automobile, is equipped with a sensor 21 that outputs three-dimensional point cloud data. The sensor 21 may be any sensor that is capable of acquiring distance information for each pixel, and a specific example is LiDAR.

図3は、本発明の実施の形態においてセンサが出力した3次元点群データの一例を示している。図3の例では、センサ21としては、LiDARが用いられている。また、図3の例では、対象エリアは、自動車が移動可能な市街地であり、3次元点群データは、対象エリアを俯瞰した状態で示されている。 Figure 3 shows an example of 3D point cloud data output by a sensor in an embodiment of the present invention. In the example of Figure 3, a LiDAR is used as the sensor 21. In addition, in the example of Figure 3, the target area is an urban area where automobiles can travel, and the 3D point cloud data is shown in a bird's-eye view of the target area.

また、センサ21は、設定間隔を置いて、即ち、時刻毎に3次元点群データを出力する。そして、センサ21から出力された各3次元点群データは、移動体20に搭載されている通信装置から、無線通信等によって、地図データ生成装置10へと送信される。また、移動体20の通信装置からは、3次元点群データを出力した時刻における移動体20の速度及び移動方向を示す移動情報も、地図データ生成装置10へと送信される。 The sensor 21 also outputs the three-dimensional point cloud data at set intervals, i.e., at each time point. Each piece of three-dimensional point cloud data output from the sensor 21 is then transmitted from a communication device mounted on the mobile body 20 to the map data generating device 10 by wireless communication or the like. The communication device of the mobile body 20 also transmits movement information indicating the speed and movement direction of the mobile body 20 at the time the three-dimensional point cloud data is output to the map data generating device 10.

これにより、地図データ生成装置10において、データ取得部11は、センサ21から出力された順に、3次元点群データを取得する。また、データ取得部11は、取得した3次元点群データを順にオブジェクト抽出部12に送る。 As a result, in the map data generating device 10, the data acquiring unit 11 acquires the 3D point cloud data in the order in which it is output from the sensor 21. The data acquiring unit 11 also sends the acquired 3D point cloud data to the object extracting unit 12 in order.

また、実施の形態では、センサ21は、画像データを出力する撮像素子であっても良い。この場合は、センサ21又はデータ取得部11が、画像データから、既存のSfM(Structure from Motion)といった画像処理技術を用いて、3次元点群データを生成する。 In addition, in the embodiment, the sensor 21 may be an imaging element that outputs image data. In this case, the sensor 21 or the data acquisition unit 11 generates three-dimensional point cloud data from the image data using an existing image processing technique such as SfM (Structure from Motion).

オブジェクト抽出部12は、実施の形態では、まず、3次元点群データが送られてくると、送られてきた3次元点群データに、それがセンサ21から出力された時刻を示す時刻情報を付与する。続いて、オブジェクト抽出部12は、図4に示すように、送られてきた3次元点群データに対して、地面点を削除する処理を実行する。地面点の削除は、例えば、移動体20の接地面と高さ方向の座標が一致する点群を削除することによって行われる。図4は、図3に示した3次元点群データから地面点を削除した状態を示す図である。 In the embodiment, when three-dimensional point cloud data is sent to the object extraction unit 12, the object extraction unit 12 first assigns time information indicating the time at which the three-dimensional point cloud data was output from the sensor 21 to the sent three-dimensional point cloud data. Next, as shown in FIG. 4, the object extraction unit 12 executes a process of deleting ground points from the sent three-dimensional point cloud data. The ground points are deleted, for example, by deleting a point cloud whose coordinates in the height direction coincide with the contact surface of the moving body 20. FIG. 4 is a diagram showing the state in which the ground points have been deleted from the three-dimensional point cloud data shown in FIG. 3.

次に、オブジェクト抽出部12は、図5に示すように、地面点が削除された3次元点群データに対してクラスタリングを実行して、点群を複数のクラスタに分類する。そして、オブジェクト抽出部12は、同一クラスタに属する点群の座標に基づいて、3次元の注目領域(ROI:Region Of Interest)を生成する。また、オブジェクト抽出部12は、生成したROIの重心を算出する。図5は、図4に示した3次元点群データに対してクラスタリングを行うことによってROIを生成した状態を示す図である。図5において、各クラスタは、矩形の境界線によって区別されている。 Next, as shown in FIG. 5, the object extraction unit 12 performs clustering on the 3D point cloud data from which the ground points have been removed, and classifies the point cloud into multiple clusters. Then, the object extraction unit 12 generates a 3D region of interest (ROI) based on the coordinates of the point clouds belonging to the same cluster. The object extraction unit 12 also calculates the center of gravity of the generated ROI. FIG. 5 is a diagram showing the state in which an ROI has been generated by performing clustering on the 3D point cloud data shown in FIG. 4. In FIG. 5, each cluster is distinguished by a rectangular boundary line.

次に、オブジェクト抽出部12は、図6に示すように、生成したROIの中から、オブジェクトとして抽出すべきROIを特定し、特定したROIを、オブジェクトとして抽出する。図6は、図5に示した3次元点群データの中から抽出するオブジェクトを示す図である。 Next, as shown in FIG. 6, the object extraction unit 12 identifies an ROI to be extracted as an object from among the generated ROIs, and extracts the identified ROI as an object. FIG. 6 is a diagram showing an object to be extracted from the three-dimensional point cloud data shown in FIG. 5.

具体的には、オブジェクト抽出部12は、生成したROI毎に、その幅、高さ、及び奥行を算出し、算出した幅、高さ、及び奥行が、設定条件を満たすかどうかを判定する。設定条件は、移動体20以外の移動体(自動車、自転車、歩行者等)をオブジェクトとして抽出できるように設定される。設定条件としては、幅、高さ、及び奥行のうちの少なくとも1つの上限値及び下限値、いずれか2つの比、等が挙げられる。 Specifically, the object extraction unit 12 calculates the width, height, and depth for each generated ROI, and determines whether the calculated width, height, and depth satisfy the set conditions. The set conditions are set so that moving bodies other than the moving body 20 (cars, bicycles, pedestrians, etc.) can be extracted as objects. The set conditions include the upper and lower limits of at least one of the width, height, and depth, the ratio of any two of them, etc.

そして、オブジェクト抽出部12は、設定条件を満たすと判定したROIが存在する場合は、そのROIを、オブジェクトとして抽出する。また、オブジェクト抽出部12は、抽出したオブジェクトにも、抽出元の3次元点群データに付与されている時刻情報を付与し、時刻情報を付与したオブジェクトを、予測処理部13とオブジェクト格納部17とに送る。オブジェクト格納部17は、送られてきたオブジェクトを時刻情報と共に格納する。 If an ROI is found to satisfy the set conditions, the object extraction unit 12 extracts the ROI as an object. The object extraction unit 12 also assigns the time information assigned to the original 3D point cloud data to the extracted object, and sends the object with the time information assigned to the prediction processing unit 13 and the object storage unit 17. The object storage unit 17 stores the sent object together with the time information.

予測処理部13は、まず、時刻毎に出力された3次元点群データを時系列で処理して点群観測情報を作成する。点群観測情報は、時刻毎の移動体20の平行移動量及び回転角度の情報であり、SLAMにより得られる移動体20の自己位置の推定値を時刻毎に比較することで算出される。 The prediction processing unit 13 first processes the three-dimensional point cloud data output at each time in a time series to create point cloud observation information. The point cloud observation information is information on the amount of parallel movement and rotation angle of the moving body 20 at each time, and is calculated by comparing the estimated value of the self-position of the moving body 20 obtained by SLAM at each time.

そして、予測処理部13は、点群観測情報から、任意の過去の時刻(例えば、最新の時刻から1つ前の時刻)から最新の時刻までの間の移動体20の移動方向及び移動量を算出する。続いて、予測処理部13は、実施の形態では、オブジェクト格納部17から、任意の過去の時刻における3次元点群データから抽出されたオブジェクトを取得する。なお、予測処理部13は、移動体20から得られた情報に基づいて、移動体20の移動方向及び移動量を算出しても良い。 Then, the prediction processing unit 13 calculates the direction of movement and amount of movement of the moving body 20 from any past time (for example, the time immediately before the latest time) to the latest time from the point cloud observation information. Next, in the embodiment, the prediction processing unit 13 acquires an object extracted from the 3D point cloud data at any past time from the object storage unit 17. Note that the prediction processing unit 13 may calculate the direction of movement and amount of movement of the moving body 20 based on information obtained from the moving body 20.

そして、予測処理部13は、図7に示すように、算出した移動体20の移動方向及び移動量に基づいて、取得したオブジェクトの最新の時刻における位置を予測し、予測した位置に、取得したオブジェクトと同じオブジェクトを生成する。 Then, as shown in FIG. 7, the prediction processing unit 13 predicts the position of the acquired object at the latest time based on the calculated moving direction and amount of movement of the moving body 20, and generates an object that is the same as the acquired object at the predicted position.

図7は、図5に示したオブジェクトの位置の予測処理を示す図である。図7においては、矢印の選択が予測された位置を示している。また、予想した位置に生成されたオブジェクトを、以降の説明においては「予測オブジェクト」と表記する。そして、予測処理部13は、生成した全ての予測オブジェクトのデータを、マッチング処理部14に渡す。 Figure 7 is a diagram showing the process of predicting the position of the object shown in Figure 5. In Figure 7, the position where the selection of the arrow is predicted is shown. In addition, in the following explanation, the object generated at the predicted position is referred to as the "predicted object". Then, the prediction processing unit 13 passes data of all the generated predicted objects to the matching processing unit 14.

マッチング処理部14は、オブジェクト抽出部12から送られてきた最新の時刻のオブジェクト(以下「最新オブジェクト」と表記する。)と、予測処理部13から送られてきた予測オブジェクトとを取得する。 The matching processing unit 14 obtains the object at the latest time (hereinafter referred to as the "latest object") sent from the object extraction unit 12 and the predicted object sent from the prediction processing unit 13.

続いて、マッチング処理部14は、図8に示すように、最新オブジェクトそれぞれ毎に、その重心と各予測オブジェクトの重心とを比較して、重心間距離が最も短い予測オブジェクトを、その最新オブジェクトのマッチング対象とする。図8は、図6に示す抽出済の最新オブジェクトと予測オブジェクトとの組合せを示す図である。図8において、予測オブジェクトは、破線による矩形で示している。 Then, as shown in FIG. 8, the matching processing unit 14 compares the center of gravity of each latest object with the center of gravity of each predicted object, and sets the predicted object with the shortest distance between the centers of gravity as the matching target for the latest object. FIG. 8 is a diagram showing the combination of the extracted latest object and predicted object shown in FIG. 6. In FIG. 8, the predicted object is shown as a rectangle enclosed by dashed lines.

次に、マッチング処理部14は、例えば、ICP(Iterative Closest Point)アルゴリズムといった既存の3次元形状間の位置合わせ手法を用い、最新オブジェクトそれぞれ毎に、それと、マッチング対象となった予測オブジェクトとが一致するかどうかを判定する。 Next, the matching processing unit 14 uses an existing method for aligning three-dimensional shapes, such as the ICP (Iterative Closest Point) algorithm, to determine whether each of the latest objects matches the predicted object to be matched.

具体的には、マッチング処理部14は、最新オブジェクトとマッチング対象となる予測オブジェクトとのうち一方に対して、回転、平行移動、又は両方を行って、両者が最も一致する状態を特定する。そして、マッチング処理部14は、特定した状態において、最新オブジェクトの一致している部分の割合を計算し、その値が閾値以上である場合は、両者が一致していると判定し、そうでない場合は、両者が一致していないと判定する。 Specifically, the matching processing unit 14 rotates, translates, or both of the latest object and the predicted object to be matched to identify the state in which the two are most similar. The matching processing unit 14 then calculates the proportion of the matching portion of the latest object in the identified state, and if this value is equal to or greater than a threshold, it determines that the two match, and if not, it determines that the two do not match.

ここで、図9を用いて、予測処理部13及びマッチング処理部14における処理について詳細に説明する。図9は、図6~図8に示した一連の処理を示す図である。 The processing in the prediction processing unit 13 and the matching processing unit 14 will now be described in detail with reference to FIG. 9. FIG. 9 is a diagram showing the series of processing steps shown in FIGS. 6 to 8.

図9の左上の図に示すように、予測処理部13は、最新の時刻よりも1つ前の時刻における3次元点群データから抽出されたオブジェクトを取得する。次に、図9の右上の図に示すように、予測処理部13は、取得したオブジェクトの最新の時刻における位置を予測し、予測オブジェクトを設定する。続いて、図9の下図に示すように、マッチング処理部14は、最新オブジェクトそれぞれ毎に、マッチング対象となった予測オブジェクトとの一致を判定する。 As shown in the upper left diagram of FIG. 9, the prediction processing unit 13 acquires objects extracted from the 3D point cloud data at the time immediately preceding the most recent time. Next, as shown in the upper right diagram of FIG. 9, the prediction processing unit 13 predicts the position of the acquired object at the most recent time and sets a predicted object. Next, as shown in the lower diagram of FIG. 9, the matching processing unit 14 determines whether each of the most recent objects matches the predicted object to be matched.

移動体判定部15は、マッチング処理部14による判定結果に基づいて、図10に示すように、最新オブジェクトが移動体であるかどうかを判定する。具体的には、移動体判定部15は、マッチング処理部14によって両者が一致していると判断したときにおける、平行移動量及び回転角度が、設定範囲内にあるかどうかを判定する。そして、移動体判定部15は、平行移動量及び回転角度が設定範囲内にある場合は、最新オブジェクトは移動体でないと判定し、そうでない場合は、最新オブジェクトは移動体であると判定する。図10は、移動体であると判定された最新オブジェクトに対する処理を示す図である。 The moving object determination unit 15 determines whether the latest object is a moving object, as shown in FIG. 10, based on the determination result by the matching processing unit 14. Specifically, the moving object determination unit 15 determines whether the translation amount and rotation angle when the matching processing unit 14 determines that the two match are within a set range. If the translation amount and rotation angle are within the set range, the moving object determination unit 15 determines that the latest object is not a moving object, and if not, determines that the latest object is a moving object. FIG. 10 is a diagram showing the processing for the latest object determined to be a moving object.

なお、実施の形態では、データ取得部11、オブジェクト抽出部12、予測処理部13、マッチング処理部14、移動体判定部15及びオブジェクト格納部17によれば、移動体の検出が行えることから、これらによって移動体検出装置30が構築されている。 In the embodiment, the data acquisition unit 11, object extraction unit 12, prediction processing unit 13, matching processing unit 14, moving body determination unit 15, and object storage unit 17 are capable of detecting moving bodies, and therefore constitute the moving body detection device 30.

地図データ作成部16は、図10に示すように、最新の時刻の3次元点群データから、移動体であると判断した最新オブジェクトを除去する。そして、地図データ作成部16は、図11に示すように、移動体除去後の時刻毎の3次元点群データを用いて、対象エリアの地図データを作成する。図11(a)及び(b)は、対象エリアの地図データの一例を示す図であり、図11(a)は移動体を除去しないで作成した例を示し、図11(b)は移動体を削除して作成した例を示している。 The map data creation unit 16 removes the latest object determined to be a moving body from the 3D point cloud data for the latest time, as shown in FIG. 10. Then, the map data creation unit 16 creates map data for the target area using the 3D point cloud data for each time after the moving body has been removed, as shown in FIG. 11. FIGS. 11(a) and (b) are diagrams showing examples of map data for the target area, with FIG. 11(a) showing an example created without removing the moving body, and FIG. 11(b) showing an example created with the moving body removed.

[装置動作]
次に、実施の形態における地図データ生成装置10の動作について図12を用いて説明する。図12は、本発明の実施の形態における地図データ生成装置の動作を示すフロー図である。以下の説明においては、適宜図1~図11を参照する。また、実施の形態では、地図データ生成装置10を動作させることによって、地図データ生成方法が実施される。よって、実施の形態における地図データ生成方法の説明は、以下の地図データ生成装置の動作説明に代える。
[Device Operation]
Next, the operation of the map data generation device 10 in the embodiment will be described with reference to FIG. 12. FIG. 12 is a flow diagram showing the operation of the map data generation device in the embodiment of the present invention. In the following description, FIGS. 1 to 11 will be referred to as appropriate. Also, in the embodiment, a map data generation method is implemented by operating the map data generation device 10. Therefore, the description of the map data generation method in the embodiment will be replaced with the description of the operation of the map data generation device below.

図12に示すように、最初に、データ取得部11は、移動体20に搭載されたセンサ21から出力された、対象エリアの最新時刻の3次元点群データを取得する(ステップA1)。 As shown in FIG. 12, first, the data acquisition unit 11 acquires the latest 3D point cloud data of the target area output from the sensor 21 mounted on the mobile body 20 (step A1).

次に、オブジェクト抽出部12は、ステップA1で取得された3次元点群データに時刻情報を付与すると共に、この3次元点群データに対して、地面点を削除する処理を実行する(ステップA2)。 Next, the object extraction unit 12 adds time information to the 3D point cloud data acquired in step A1, and performs a process to delete ground points from this 3D point cloud data (step A2).

次に、オブジェクト抽出部12は、ステップA2により地面点が削除された3次元点群データに対してクラスタリングを実行して、点群を複数のクラスタに分類する(ステップA3)。 Next, the object extraction unit 12 performs clustering on the 3D point cloud data from which the ground points have been removed in step A2, and classifies the point cloud into multiple clusters (step A3).

次に、オブジェクト抽出部12は、同一クラスタに属する点群の座標に基づいて、3次元のROIを生成する。そして、オブジェクト抽出部12は、設定条件に基づいて、生成したROIの中から、オブジェクトとして抽出すべきROIを特定し、特定したROIを、最新オブジェクトとして抽出する(ステップA4)。 Next, the object extraction unit 12 generates a three-dimensional ROI based on the coordinates of the point cloud belonging to the same cluster. Then, the object extraction unit 12 identifies an ROI to be extracted as an object from among the generated ROIs based on the set conditions, and extracts the identified ROI as the latest object (step A4).

次に、予測処理部13は、移動体20から送られてきた移動体20の移動情報に基づいて、任意の過去の時刻、具体的には最新の時刻の1つ前の時刻から最新の時刻までの間の移動体20の移動方向及び移動量を算出する(ステップA5)。 Next, the prediction processing unit 13 calculates the direction and amount of movement of the moving body 20 at any past time, specifically, from the time immediately before the latest time to the latest time, based on the movement information of the moving body 20 sent from the moving body 20 (step A5).

次に、予測処理部13は、オブジェクト格納部17から、最新時刻の1つ前の時刻においてステップA4で抽出されたオブジェクトを取得する。そして、予測処理部13は、ステップA5で算出した移動体20の移動方向及び移動量に基づいて、取得したオブジェクトの最新の時刻における位置を予測し、予測した位置に、取得したオブジェクトと同じオブジェクト(予測オブジェクト)を生成する(ステップA6)。 Next, the prediction processing unit 13 acquires from the object storage unit 17 the object extracted in step A4 at the time immediately before the most recent time. The prediction processing unit 13 then predicts the position of the acquired object at the most recent time based on the direction of movement and amount of movement of the moving body 20 calculated in step A5, and generates an object (predicted object) that is the same as the acquired object at the predicted position (step A6).

上述の例では、ステップA1~A4の実行後に、ステップA5及びA6が実行されているが、実施の形態では、ステップA5及びA6は、ステップA1~A4と同時に又はステップA1~A4の実行前に、実行されていても良い。 In the above example, steps A5 and A6 are executed after steps A1 to A4 are executed, but in an embodiment, steps A5 and A6 may be executed simultaneously with steps A1 to A4 or before steps A1 to A4 are executed.

次に、マッチング処理部14は、ステップA4で抽出された最新オブジェクトそれぞれ毎に、マッチング対象となる予測オブジェクトを特定する(ステップA7)。具体的には、マッチング処理部14は、ステップA4で抽出された最新オブジェクトの重心と各予測オブジェクトの重心とを比較して、重心間距離が最も短い予測オブジェクトを、その最新オブジェクトのマッチング対象とする。 Next, the matching processing unit 14 identifies a predicted object to be matched for each of the latest objects extracted in step A4 (step A7). Specifically, the matching processing unit 14 compares the center of gravity of the latest object extracted in step A4 with the center of gravity of each predicted object, and sets the predicted object with the shortest distance between the centers of gravity as the matching target for the latest object.

次に、マッチング処理部14は、ICPアルゴリズム用いて、最新オブジェクトそれぞれ毎に、それと、マッチング対象となった予測オブジェクトとが一致するかどうかを判定する(ステップA8)。 Next, the matching processing unit 14 uses the ICP algorithm to determine whether each of the latest objects matches the predicted object to be matched (step A8).

次に、移動体判定部15は、ステップA8による判定結果に基づいて、最新オブジェクトそれぞれ毎に、各最新オブジェクトが移動体であるかどうかを判定する(ステップA9)。 Next, the moving object determination unit 15 determines whether each of the newest objects is a moving object based on the determination result in step A8 (step A9).

地図データ作成部16は、ステップA1で取得した最新時刻の3次元点群データから、ステップA9で移動体であると判定された最新オブジェクトを除去する(ステップA10)。その後、地図データ作成部16は、ステップA10による移動体除去後の最新時刻の3次元点群データと、それまでの時刻のステップ10後の3次元点群データとを用いて、対象エリアの地図データを作成する(ステップA11)。 The map data creation unit 16 removes the most recent object determined to be a moving body in step A9 from the most recent 3D point cloud data acquired in step A1 (step A10). The map data creation unit 16 then creates map data for the target area using the most recent 3D point cloud data after removal of the moving body in step A10 and the previous 3D point cloud data after step 10 (step A11).

また、実施の形態では、上述したステップA1~A11は、移動体20に搭載されたセンサ21から3次元点群データが出力される度に、繰り返し実行される。このため、移動体20が動いた範囲が広いほど、地図データの範囲も広くなる。 In addition, in the embodiment, the above-described steps A1 to A11 are repeatedly executed each time 3D point cloud data is output from the sensor 21 mounted on the moving body 20. Therefore, the wider the range in which the moving body 20 moves, the wider the range of the map data will be.

[実施の形態における効果]
以上のように、実施の形態によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータは自動的に除去されるので、高精度な地図データが作成されることになる。
[Effects of the embodiment]
As described above, according to the embodiment, when creating map data by SLAM, data of moving objects included in the map data is automatically removed, so that highly accurate map data can be created.

[プログラム]
実施の形態におけるプログラムは、コンピュータに、図12に示すステップA1~A11を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、実施の形態における地図データ生成装置10と地図データ作成方法とを実現することができる。この場合、コンピュータのプロセッサは、データ取得部11、オブジェクト抽出部12、予測処理部13、マッチング処理部14、移動体判定部15、及び地図データ作成部16として機能し、処理を行なう。
[program]
The program in the embodiment may be a program that causes a computer to execute steps A1 to A11 shown in Fig. 12. By installing and executing this program in a computer, the map data generation device 10 and the map data creation method in the embodiment can be realized. In this case, the processor of the computer functions as a data acquisition unit 11, an object extraction unit 12, a prediction processing unit 13, a matching processing unit 14, a moving object determination unit 15, and a map data creation unit 16, and performs processing.

また、実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、データ取得部11、オブジェクト抽出部12、予測処理部13、マッチング処理部14、移動体判定部15、及び地図データ作成部16のいずれかとして機能しても良い。更に、実施の形態においてプログラムを実行するコンピュータは、汎用のコンピュータであっても良いし、移動体に搭載されている車載コンピュータ、スマートフォン、又はタブレット型端末であっても良い。 The program in the embodiment may be executed by a computer system constructed by multiple computers. In this case, for example, each computer may function as any one of the data acquisition unit 11, object extraction unit 12, prediction processing unit 13, matching processing unit 14, moving body determination unit 15, and map data creation unit 16. Furthermore, the computer that executes the program in the embodiment may be a general-purpose computer, or may be an in-vehicle computer mounted on a moving body, a smartphone, or a tablet terminal.

ここで、実施の形態におけるプログラムを実行することによって、地図データ生成装置10を実現するコンピュータについて図13を用いて説明する。図13は、本発明の実施の形態における地図データ生成装置を実現するコンピュータの一例を示すブロック図である。 Here, a computer that realizes the map data generating device 10 by executing the program in the embodiment will be described with reference to FIG. 13. FIG. 13 is a block diagram showing an example of a computer that realizes the map data generating device in the embodiment of the present invention.

図13に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。 As shown in FIG. 13, the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader/writer 116, and a communication interface 117. These components are connected to each other via a bus 121 so as to be able to communicate data with each other. Note that the computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to or instead of the CPU 111.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。 The CPU 111 loads the program (code) in this embodiment stored in the storage device 113 into the main memory 112 and executes it in a predetermined order to perform various calculations. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). The program in this embodiment is provided in a state stored in a computer-readable recording medium 120. The program in this embodiment may be distributed over the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Specific examples of the storage device 113 include a hard disk drive and a semiconductor storage device such as a flash memory. The input interface 114 mediates data transmission between the CPU 111 and input devices 118 such as a keyboard and a mouse. The display controller 115 is connected to the display device 119 and controls the display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 The data reader/writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads programs from the recording medium 120, and writes the results of processing in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and other computers.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。 Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as flexible disks, and optical recording media such as CD-ROMs (Compact Disk Read Only Memory).

なお、本実施の形態における地図データ生成装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、地図データ生成装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 Note that the map data generating device 10 in this embodiment can also be realized by using hardware corresponding to each part, rather than a computer on which a program is installed. Furthermore, the map data generating device 10 may be realized in part by a program and the remaining part by hardware.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記12)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiment can be expressed by (Appendix 1) to (Appendix 12) described below, but is not limited to the following description.

(付記1)
移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、データ取得部と、
取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、オブジェクト抽出部と、
前記特定時刻よりも以前の時刻の前記3次元点群デーから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、予測処理部と、
前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトとが、一致するかどうかを判定する、マッチング処理部と、
一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、移動体判定部と、
特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、地図データ作成部と、
を備えている、
ことを特徴とする地図データ生成装置。
(Appendix 1)
A data acquisition unit that acquires three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on the mobile object;
an object extraction unit that extracts an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
a prediction processing unit that predicts a position at a specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
a matching processing unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time coincides with the object extracted from the three-dimensional point cloud data at the previous time at a predicted position;
a moving object determination unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether the object matches;
a map data creation unit that creates map data of the target area by removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time;
Equipped with
A map data generating device comprising:

(付記2)
付記1に記載の地図データ生成装置であって、
前記オブジェクト抽出部が、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成装置。
(Appendix 2)
2. A map data generating device according to claim 1,
the object extraction unit removes a portion corresponding to the ground from the acquired 3D point cloud data at the specific time, performs clustering on the 3D point cloud data from which the portion corresponding to the ground has been removed, classifies the data into a plurality of objects, and extracts an object that satisfies a specific condition from among the obtained plurality of objects;
A map data generating device comprising:

(付記3)
付記1または2に記載の地図データ生成装置であって、
前記マッチング処理部が、前記特定時刻の前記3次元点群デーから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成装置。
(Appendix 3)
3. A map data generating device according to claim 1,
the matching processing unit calculates a distance between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, determines whether the two match;
A map data generating device comprising:

(付記4)
付記1~3のいずれかに記載の地図データ生成装置であって、
前記マッチング処理部が、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記移動体判定部が、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成装置。
(Appendix 4)
A map data generating device according to any one of claims 1 to 3,
the matching processing unit rotates, translates, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and determines whether the two match;
the moving object determination unit determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving, based on the amount of rotation and the amount of translation, when the two match.
A map data generating device comprising:

(付記5)
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群デーから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を有する、
ことを特徴とする地図データ生成方法。
(Appendix 5)
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
having
A map data generating method comprising:

(付記6)
付記5に記載の地図データ生成方法であって、
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成方法。
(Appendix 6)
6. A map data generating method according to claim 5, further comprising:
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A map data generating method comprising:

(付記7)
付記5または6に記載の地図データ生成方法であって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成方法。
(Appendix 7)
7. A map data generating method according to claim 5, further comprising:
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A map data generating method comprising:

(付記8)
付記5~7のいずれかに記載の地図データ生成方法であって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成方法。
(Appendix 8)
A map data generating method according to any one of Supplementary Note 5 to 7,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A map data generating method comprising:

(付記9)
コンピュータに、
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)前記特定時刻よりも以前の時刻の前記3次元点群デーから抽出された前記オブジェクトについて、前記移動体の移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を実行させる、
ことを特徴とするプログラム。
(Appendix 9)
On the computer,
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) predicting a position at the specific time based on a movement amount of the moving body for the object extracted from the three-dimensional point cloud data at a time before the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
Execute the
A program characterized by:

(付記10)
付記9に記載のプログラムであって、
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、プログラム。
(Appendix 10)
10. The program according to claim 9,
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A program characterized by:

(付記11)
付記9または10に記載のプログラムであって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、プログラム。
(Appendix 11)
The program according to claim 9 or 10,
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A program characterized by:

(付記12)
付記9~11のいずれかに記載のプログラムであって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群デーから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、プログラム。
(Appendix 12)
The program according to any one of appendixes 9 to 11,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A program characterized by:

以上のように、本発明によれば、SLAMによる地図データの作成時において、地図データに含まれる移動体のデータを除去することができる。本発明は、SLAMを実現するシステムに有用である。 As described above, according to the present invention, when creating map data using SLAM, data on moving objects included in the map data can be removed. The present invention is useful for systems that realize SLAM.

10 地図データ生成装置
11 データ取得部
12 オブジェクト抽出部
13 予測処理部
14 マッチング処理部
15 移動体判定部
16 地図データ作成部
17 オブジェクト格納部
20 移動体
21 センサ
30 移動体検出装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
REFERENCE SIGNS LIST 10 Map data generating device 11 Data acquisition unit 12 Object extraction unit 13 Prediction processing unit 14 Matching processing unit 15 Moving body determination unit 16 Map data creating unit 17 Object storage unit 20 Moving body 21 Sensor 30 Moving body detection device 110 Computer 111 CPU
112 Main memory 113 Storage device 114 Input interface 115 Display controller 116 Data reader/writer 117 Communication interface 118 Input device 119 Display device 120 Recording medium 121 Bus

Claims (12)

移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、データ取得部と、
取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、オブジェクト抽出部と、
時刻毎に出力された前記3次元点群データから、時刻毎の前記移動体の平行移動量及び回転角度を示す点群観測情報を作成し、前記点群観測情報から、前記特定時刻よりも以前の時刻から前記特定時刻までの間の移動体の移動方向及び移動量を算出し、前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、算出した前記移動体の前記移動方向及び前記移動量に基づいて、前記特定時刻における位置を予測する、予測処理部と、
前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、マッチング処理部と、
一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、移動体判定部と、
特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、地図データ作成部と、
を備えている、
ことを特徴とする地図データ生成装置。
A data acquisition unit that acquires three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on the mobile object;
an object extraction unit that extracts an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
a prediction processing unit that creates point cloud observation information indicating a translation amount and a rotation angle of the moving body for each time from the three-dimensional point cloud data output for each time, calculates a moving direction and a moving amount of the moving body from a time earlier than the specific time to the specific time from the point cloud observation information, and predicts a position of the object at the specific time based on the calculated moving direction and the moving amount of the moving body for the object extracted from the three-dimensional point cloud data for the time earlier than the specific time;
a matching processing unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time coincides with the object extracted from the three-dimensional point cloud data at the previous time at a predicted position;
a moving object determination unit that determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether the object matches;
a map data creation unit that creates map data of the target area by removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time;
Equipped with
A map data generating device comprising:
請求項1に記載の地図データ生成装置であって、
前記オブジェクト抽出部が、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成装置。
2. The map data generating device according to claim 1,
the object extraction unit removes a portion corresponding to the ground from the acquired 3D point cloud data at the specific time, performs clustering on the 3D point cloud data from which the portion corresponding to the ground has been removed, classifies the data into a plurality of objects, and extracts an object that satisfies a specific condition from among the obtained plurality of objects;
A map data generating device comprising:
請求項1または2に記載の地図データ生成装置であって、
前記マッチング処理部が、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成装置。
3. The map data generating device according to claim 1,
the matching processing unit calculates a distance between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, determines whether the two match;
A map data generating device comprising:
請求項1~3のいずれかに記載の地図データ生成装置であって、
前記マッチング処理部が、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記移動体判定部が、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成装置。
A map data generating device according to any one of claims 1 to 3,
the matching processing unit rotates, translates, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and determines whether the two match;
the moving object determination unit determines whether the object extracted from the three-dimensional point cloud data at the specific time is moving, based on the amount of rotation and the amount of translation, when the two match.
A map data generating device comprising:
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)時刻毎に出力された前記3次元点群データから、時刻毎の前記移動体の平行移動量及び回転角度を示す点群観測情報を作成し、前記点群観測情報から、前記特定時刻よりも以前の時刻から前記特定時刻までの間の移動体の移動方向及び移動量を算出し、前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、算出した前記移動体の前記移動方向及び前記移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を有する、
ことを特徴とする地図データ生成方法。
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) creating point cloud observation information indicating the translation amount and rotation angle of the moving body for each time from the three-dimensional point cloud data output for each time, calculating the movement direction and movement amount of the moving body from a time earlier than the specific time to the specific time from the point cloud observation information, and predicting a position of the object at the specific time based on the calculated movement direction and movement amount of the moving body for the object extracted from the three-dimensional point cloud data for a time earlier than the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
having
A map data generating method comprising:
請求項5に記載の地図データ生成方法であって、
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、地図データ生成方法。
6. The map data generating method according to claim 5,
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A map data generating method comprising:
請求項5または6に記載の地図データ生成方法であって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、地図データ生成方法。
7. A map data generating method according to claim 5, further comprising the steps of:
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A map data generating method comprising:
請求項5~7のいずれかに記載の地図データ生成方法であって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、地図データ生成方法。
A map data generating method according to any one of claims 5 to 7,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A map data generating method comprising:
コンピュータに、
(a)移動体に搭載されたセンサから時間毎に出力された、対象エリアの3次元点群データを取得する、ステップと、
(b)取得された特定時刻の前記3次元点群データから、前記対象エリアに存在するオブジェクトを抽出する、ステップと、
(c)時刻毎に出力された前記3次元点群データから、時刻毎の前記移動体の平行移動量及び回転角度を示す点群観測情報を作成し、前記点群観測情報から、前記特定時刻よりも以前の時刻から前記特定時刻までの間の移動体の移動方向及び移動量を算出し、前記特定時刻よりも以前の時刻の前記3次元点群データから抽出された前記オブジェクトについて、算出した前記移動体の前記移動方向及び前記移動量に基づいて、前記特定時刻における位置を予測する、ステップと、
(d)前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトとが、一致するかどうかを判定する、ステップと、
(e)一致するかどうかの判定結果に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、ステップと、
(f)特定時刻に取得された前記3次元点群データから、移動していると判定されたオブジェクトを除去して、前記対象エリアの地図データを作成する、ステップと、
を実行させる、
ことを特徴とするプログラム。
On the computer,
(a) acquiring three-dimensional point cloud data of a target area outputted at regular intervals from a sensor mounted on a moving object;
(b) extracting an object present in the target area from the acquired three-dimensional point cloud data at a specific time;
(c) creating point cloud observation information indicating the translation amount and rotation angle of the moving body for each time from the three-dimensional point cloud data output for each time, calculating the movement direction and movement amount of the moving body from a time earlier than the specific time to the specific time from the point cloud observation information, and predicting a position of the object at the specific time based on the calculated movement direction and movement amount of the moving body for the object extracted from the three-dimensional point cloud data for a time earlier than the specific time;
(d) determining whether the object extracted from the 3D point cloud data at the specific time coincides with the object extracted from the 3D point cloud data at the previous time at a predicted position ;
(e) determining whether the object extracted from the three-dimensional point cloud data at the specific time is moving based on a result of the determination of whether or not the object matches;
(f) removing objects determined to be moving from the three-dimensional point cloud data acquired at a specific time, and generating map data of the target area;
Execute the
A program characterized by:
請求項9に記載のプログラムであって、
前記(b)のステップにおいて、取得された特定時刻の前記3次元点群データから、地面に該当する部分を除去し、地面に該当する部分が除去された前記3次元点群データに対してクラスタリングを行って、複数のオブジェクトに分類し、得られた前記複数のオブジェクトのうち、特定条件を満たすオブジェクトを抽出する、
ことを特徴とする、プログラム。
The program according to claim 9,
In the step (b), a portion corresponding to the ground is removed from the acquired 3D point cloud data at the specific time, clustering is performed on the 3D point cloud data from which the portion corresponding to the ground has been removed to classify the data into a plurality of objects, and an object that satisfies a specific condition is extracted from the obtained plurality of objects.
A program characterized by:
請求項9または10に記載のプログラムであって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトと、予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトと、の距離を算出し、算出した前記距離が設定条件を満たす場合に、両者が一致するかどうかを判定する、
ことを特徴とする、プログラム。
The program according to claim 9 or 10,
In the step (d), a distance is calculated between the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at a predicted position, and if the calculated distance satisfies a set condition, it is determined whether the two match.
A program characterized by:
請求項9~11のいずれかに記載のプログラムであって、
前記(d)のステップにおいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクト、及び予測された位置での、前記以前の時刻の前記3次元点群データから抽出された前記オブジェクトのうち、一方について、回転、平行移動、又は両方を行って、両者が一致するかどうかを判定し、
前記(e)のステップにおいて、両者が一致する場合に、回転量及び平行移動量に基づいて、前記特定時刻の前記3次元点群データから抽出された前記オブジェクトが、移動しているかどうかを判定する、
ことを特徴とする、プログラム。


The program according to any one of claims 9 to 11,
In the step (d), rotating, translating, or both of the object extracted from the three-dimensional point cloud data at the specific time and the object extracted from the three-dimensional point cloud data at the previous time at the predicted position is determined to be consistent with the object;
In the step (e), if the two match, it is determined whether or not the object extracted from the three-dimensional point cloud data at the specific time has moved, based on the amount of rotation and the amount of translation.
A program characterized by:


JP2020015711A 2020-01-31 2020-01-31 Map data generating device, map data generating method, and program Active JP7517675B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020015711A JP7517675B2 (en) 2020-01-31 2020-01-31 Map data generating device, map data generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020015711A JP7517675B2 (en) 2020-01-31 2020-01-31 Map data generating device, map data generating method, and program

Publications (2)

Publication Number Publication Date
JP2021124781A JP2021124781A (en) 2021-08-30
JP7517675B2 true JP7517675B2 (en) 2024-07-17

Family

ID=77458908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020015711A Active JP7517675B2 (en) 2020-01-31 2020-01-31 Map data generating device, map data generating method, and program

Country Status (1)

Country Link
JP (1) JP7517675B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7567738B2 (en) * 2021-09-28 2024-10-16 株式会社豊田自動織機 Obstacle Detection Device
JPWO2024194985A1 (en) 2023-03-20 2024-09-26
JP2025123091A (en) * 2024-02-09 2025-08-22 株式会社デンソー Map generation system, map generation method, map generation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133646A (en) 2017-12-29 2019-08-08 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for determining matching relationship between point cloud data
JP2019149150A (en) 2017-12-29 2019-09-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and apparatus for processing point cloud data
JP2019207220A (en) 2018-03-13 2019-12-05 本田技研工業株式会社 Position estimation by dynamic removal of traffic participants with simultaneous execution of stable map generation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133646A (en) 2017-12-29 2019-08-08 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for determining matching relationship between point cloud data
JP2019149150A (en) 2017-12-29 2019-09-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and apparatus for processing point cloud data
JP2019207220A (en) 2018-03-13 2019-12-05 本田技研工業株式会社 Position estimation by dynamic removal of traffic participants with simultaneous execution of stable map generation

Also Published As

Publication number Publication date
JP2021124781A (en) 2021-08-30

Similar Documents

Publication Publication Date Title
US11798281B2 (en) Systems and methods for utilizing machine learning models to reconstruct a vehicle accident scene from video
US11479213B1 (en) Sensor obstruction detection and mitigation
CN108629231B (en) Obstacle detection method, apparatus, device and storage medium
CN109521757B (en) Static obstacle identification method and device
JP6702340B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
CN108509820B (en) Obstacle segmentation method and device, computer equipment and readable medium
GB2560799A (en) Sign recognition for autonomous vehicles
JP7517675B2 (en) Map data generating device, map data generating method, and program
CN108062095A (en) The object tracking merged in probabilistic framework using sensor
CN110018496A (en) Obstacle recognition method and device, electronic equipment, storage medium
RU2744012C1 (en) Methods and systems for automated determination of objects presence
US12243321B2 (en) Method for determining a semantic free space
CN114549286A (en) Lane line generation method and device, computer-readable storage medium and terminal
CN117302263A (en) A drivable area detection method, device, equipment and storage medium
CN111912418B (en) Method, device and medium for removing obstacles in a non-travelable area of a mobile carrier
JP2018088234A (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and program
JP2025522460A (en) LiDAR-BASED ATMOSPHERIC FILTERING SYSTEM AND METHOD
JP2024062332A (en) Information processor, information processing method, and information processing program
JP2024062323A (en) Information processing device and program
US11294384B2 (en) Vehicle navigation using point cloud decimation
JP7744064B2 (en) Map generation device, map generation method, and program
JP7701101B2 (en) Map generation device, map generation method, and program
CN112179360B (en) Map generation method, device, system and medium
JP2024062363A (en) Information processing device, information processing method, and information processing program
WO2024180708A1 (en) Target recognition device and target recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240627

R150 Certificate of patent or registration of utility model

Ref document number: 7517675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150