[go: up one dir, main page]

JP2013109325A - Map creation method using group of intelligent robots and device for the same - Google Patents

Map creation method using group of intelligent robots and device for the same Download PDF

Info

Publication number
JP2013109325A
JP2013109325A JP2012220206A JP2012220206A JP2013109325A JP 2013109325 A JP2013109325 A JP 2013109325A JP 2012220206 A JP2012220206 A JP 2012220206A JP 2012220206 A JP2012220206 A JP 2012220206A JP 2013109325 A JP2013109325 A JP 2013109325A
Authority
JP
Japan
Prior art keywords
map
robot
map construction
local information
intelligent robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012220206A
Other languages
Japanese (ja)
Inventor
Chang Yun I
イ、チャン、ユン
Hyun-Ja Im
イム、ヒュン‐ジャ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2013109325A publication Critical patent/JP2013109325A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】各ロボットからの情報を融合して環境地図全体を生成できる装置を提供する。
【解決手段】地図を作成しようとする探索範囲を自律走行する各ロボット間の相対位置を検出204、検出された相対位置に基づいて各ロボット別の探索区域を分割206、各ロボットから地図の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得208した後、これらの情報を融合して環境地図全体を生成210するようにすることで、インフォーマルな環境で地図の作成のための探索範囲を縮小して探索時間が過度にかかるのを効果的に抑制でき、選択的なマッチングを通じて各ロボットから獲得したローカル情報202の併合時間を低減できる。
【選択図】図2
An apparatus capable of generating an entire environment map by fusing information from each robot is provided.
A relative position between robots autonomously traveling in a search range where a map is to be created is detected, a search area for each robot is divided based on the detected relative position, and a map is generated from each robot. After acquiring 208 each local information for the search area used for the search, the information is merged to generate 210 the entire environment map, so that the search range for creating the map in the informal environment It is possible to effectively suppress the search time from being excessively reduced, and to reduce the merging time of the local information 202 acquired from each robot through selective matching.
[Selection] Figure 2

Description

本発明は、群集の知能ロボットを用いて地図を構築する技法に関し、更に詳しくは、地図を作成しようとする区域全体(領域全体)を多数の各ロボット別の探索区域にそれぞれ分割し、各探索区域から獲得したローカル情報を用いて環境地図全体を生成するのに適した群集の知能ロボットを用いた地図構築方法及びその装置に関する。   The present invention relates to a technique for constructing a map using intelligent robots of a crowd. More specifically, the present invention divides an entire area (entire area) for which a map is to be created into a plurality of search areas for each robot. The present invention relates to a map construction method and apparatus using a crowd intelligent robot suitable for generating an entire environmental map using local information acquired from an area.

周知のように、自律移動ロボットのような移動体の最も基本的な機能は、移動体が所望する目標地点まで衝突なしに移動できなければならないということにあり、このような機能は自律移動ロボットの位置測定技術及びマップ(地図)の構成技術により行われる。   As is well known, the most basic function of a mobile object such as an autonomous mobile robot is that the mobile object must be able to move to a desired target point without a collision. Such a function is an autonomous mobile robot. The position measurement technique and the map construction technique are used.

ここで、マップの構成と移動体自身の位置を認識する方法としては、例えば、SLAM(Simultaneous Localization And Mapping)アルゴリズムを利用することが知られている。   Here, as a method for recognizing the map configuration and the position of the moving body, it is known to use, for example, a SLAM (Simultaneous Localization And Mapping) algorithm.

このようにSLAMアルゴリズムを利用する従来の典型的な技術においては、2次元のフォーマルな環境内で位置を認識し、環境を認識する研究が主流をなしており、このような従来技術は実際の製品への適用も始まっているのが現状である。   As described above, in the conventional typical technique using the SLAM algorithm, research for recognizing a position in a two-dimensional formal environment and recognizing the environment has become the mainstream. Currently, it has been applied to products.

しかし、SLAMアルゴリズムを用いて移動体の位置と周囲環境を認識する従来技術はフォマールな環境に限られているため、インフォーマルな環境に適用する場合、その範囲が広く、膨大であり、多くの探索時間がかかるという問題がある。   However, since the conventional technology for recognizing the position of the moving body and the surrounding environment using the SLAM algorithm is limited to a formal environment, when applied to an informal environment, the range is wide and enormous. There is a problem that it takes a long time to search.

大韓民国公開特許 第2010-0005488号Republic of Korea Open Patent 2010-0005488

そこで、本発明は上記事情に鑑みてなされたものであって、その目的は、地図を作成しようとする探索範囲を自律走行する各ロボット間の相対位置を検出し、検出された相対位置に基づいて各ロボット別の探索区域を分割し、各ロボットから地図の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得した後、これらの情報を融合して環境地図全体を生成するようにすることにある。   Therefore, the present invention has been made in view of the above circumstances, and an object of the present invention is to detect a relative position between robots that autonomously travel in a search range where a map is to be created, and based on the detected relative position. The search area for each robot is divided and local information on the search area used for map generation is obtained from each robot, and then the information is merged to generate the entire environment map. It is in.

本発明は、一観点によって、各ロボット間の相対距離を測定して前記各ロボット間の相対位置を検出する過程と、検出された相対位置に基づいて各ロボット別の探索区域を分割する過程と、分割された各探索区域情報を対応する前記各ロボットに伝送する過程と、前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得する過程と、獲得された各ローカル情報を融合して環境地図全体を生成する過程とを含む群集の知能ロボットを用いた地図構築方法を提供する。   According to one aspect of the present invention, a process of measuring a relative distance between robots to detect a relative position between the robots, a process of dividing a search area for each robot based on the detected relative positions, A process of transmitting each divided search area information to each corresponding robot, a process of acquiring local information used for generating a map from each robot, and each acquired local information. A map construction method using intelligent robots of the crowd including the process of generating the entire environmental map.

本発明は、他の観点によって、各ロボット間の相対位置を検出して共有する相対位置獲得ブロックと、前記検出された相対位置に基づいて各ロボット別の探索区域を分割する探索区域分割ブロックと、前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得するローカル情報収集ブロックと、獲得された各ローカル情報を融合して環境地図全体を生成する統合環境地図生成ブロックとを含む群集の知能ロボットを用いた地図構築装置を提供する。   According to another aspect, the present invention provides a relative position acquisition block that detects and shares a relative position between robots, and a search area division block that divides a search area for each robot based on the detected relative position. A crowd including a local information collection block for acquiring local information used for generating a map from each robot, and an integrated environment map generation block for generating an entire environment map by fusing each acquired local information A map construction device using an intelligent robot is provided.

本発明によれば、地図を作成しようとする探索範囲を自律走行する各ロボット間の相対位置を検出し、検出された相対位置に基づいて各ロボット別の探索区域を分割し、各ロボットから地図の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得した後、これらの情報を融合して環境地図全体を生成するようにすることによって、インフォーマルな環境で地図の作成のための探索範囲を縮小して探索時間が過度にかかるのを効果的に抑制でき、選択的なマッチングを通じて各ロボットから獲得したローカル情報の併合時間を低減できるという効果を奏する。   According to the present invention, the relative position between the robots autonomously traveling in the search range for which a map is to be created is detected, the search area for each robot is divided based on the detected relative position, and the map is obtained from each robot. The search range for creating maps in informal environments is obtained by acquiring local information for each search area used to generate the map and then fusing the information to generate the entire environment map. It is possible to effectively suppress the search time from being reduced and reduce the merge time of local information acquired from each robot through selective matching.

本発明によって探索範囲を多数の各ロボット別の探索区間に分割した後、各ロボットから獲得されるローカル情報を用いて環境地図全体を生成する例を説明する概念図である。It is a conceptual diagram explaining the example which produces | generates the whole environment map using the local information acquired from each robot, after dividing | segmenting a search range into the search area for many each robot by this invention. 本発明による群集の知能ロボットを用いた地図構築装置のブロック構成図である。1 is a block configuration diagram of a map construction device using a crowd intelligent robot according to the present invention. FIG. 本発明によって探索範囲を各ロボット別の探索区間に分割して割り当てる例を説明する探索区域の分割例示図である。It is a division | segmentation example figure of the search area explaining the example which divides | segments and allocates a search range to the search area for each robot by this invention. 本発明によって群集の知能ロボットを用いて地図を構築する主要過程を示す順序図である。FIG. 5 is a flow chart illustrating a main process of constructing a map using an intelligent robot of a crowd according to the present invention.

本発明の技術の要旨は、フォーマルな環境でSLAMアルゴリズムを用いて移動体の位置と周囲環境を認識する前述した従来技術とは異なり、地図を作成しようとする探索範囲(探索領域)を自律走行する各ロボット間の相対位置を検出し、検出された相対位置に基づいて各ロボット別の探索区域を分割し、各ロボットから地図(マップ)の生成のために用いられる探索区域に対するローカル情報をそれぞれ獲得した後、これらの情報を融合して環境地図全体を生成することにあり、本発明はこのような技術的手段を通じて目的とするところを実現することによって、従来方式の問題を効果的に改善できる。   The gist of the technology of the present invention is that, unlike the above-described conventional technology for recognizing the position of the moving body and the surrounding environment using the SLAM algorithm in a formal environment, the vehicle travels autonomously in the search range (search area) to be created. The relative position between each robot is detected, the search area for each robot is divided based on the detected relative position, and local information on the search area used for generating a map (map) from each robot is respectively obtained. After acquisition, this information is merged to generate the entire environmental map, and the present invention effectively improves the problems of the conventional method by realizing the target through such technical means. it can.

ここで、分割された各探索区域のローカル情報を併合して環境地図全体を作成することは、例えば、SLAMアルゴリズムを用いて実行され得る。   Here, the creation of the entire environment map by merging the local information of the divided search areas can be performed using, for example, a SLAM algorithm.

なお、下記の本発明を説明するにおいて公知の機能又は構成などに関する具体的な説明が本発明の要旨を不要に曖昧にするおそれがあると判断される場合には、その詳細な説明を省略する。そして、後述する用語は、本発明での機能を考慮して定義されたものであって、これはユーザ、運用者などの意図又は慣例などによって変わり得るのはもちろんである。従って、その定義は、本明細書の全般にわたって記述される技術思想に基づいてなされるべきである。   In the following description of the present invention, when it is determined that there is a possibility that specific descriptions regarding known functions or configurations may unnecessarily obscure the gist of the present invention, detailed description thereof will be omitted. . The terms to be described later are defined in consideration of the functions of the present invention, and it is needless to say that the terms may be changed depending on the intention or practice of the user or the operator. Therefore, the definition should be made based on the technical idea described throughout the present specification.

以下、添付する図面を参照して本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明によって探索範囲を多数の各ロボット別の探索区間に分割した後、各ロボットから獲得されるローカル情報を用いて環境地図全体を生成する例を説明する概念図である。   FIG. 1 is a conceptual diagram illustrating an example in which an entire environment map is generated using local information acquired from each robot after the search range is divided into a number of search sections for each robot according to the present invention.

図1を参照すれば、概念図では探索範囲(探索領域)の環境地図全体を作成(生成)する1つのロボット111と全体の探索範囲に群集の知能を有する4つのロボット112〜115が備えられており、ロボット111は各ロボット112〜115間の相対距離を測定して各ロボット間の相対位置を検出し、このように検出された状態位置に基づいて各ロボット別に探索区間を分割する。ここで、各ロボットは探索範囲の走行中に獲得するローカル情報(例えば、超音波、赤外線、レーザ、カメラ、オドメトリ(odometry)など)を無線伝送する無線通信手段が備えられた移動体と定義され得る。そして、超音波、赤外線、レーザ、カメラ、オドメトリなどのセンサ情報は、通称して映像データと定義(表現)され得る。   Referring to FIG. 1, the conceptual diagram includes one robot 111 that creates (generates) an entire environment map in a search range (search region) and four robots 112 to 115 that have crowd intelligence in the entire search range. The robot 111 measures the relative distance between the robots 112 to 115 to detect the relative position between the robots, and divides the search section for each robot based on the state position thus detected. Here, each robot is defined as a mobile body provided with wireless communication means for wirelessly transmitting local information (for example, ultrasonic waves, infrared rays, lasers, cameras, odometry, etc.) acquired during traveling in the search range. obtain. And sensor information such as ultrasonic waves, infrared rays, lasers, cameras, odometry, etc. can be commonly defined (represented) as video data.

例えば、ロボット112には探索区間121が割り当てられ、ロボット113には探索区間122が割り当てられ、ロボット114には探索区間123が割り当てられ、ロボット115には探索区間124が割り当てられることができ、各ロボット112〜115は自身に割り当てられた探索区間を探索して獲得するローカル情報をロボット111に無線伝送するようになる。ここで、各ロボット112〜115が獲得してロボット111に無線伝送するローカル情報は、例えば、超音波情報、赤外線情報、レーザ情報、カメラ情報、オドメトリなどを含むことができる。   For example, a search section 121 can be assigned to the robot 112, a search section 122 can be assigned to the robot 113, a search section 123 can be assigned to the robot 114, and a search section 124 can be assigned to the robot 115. The robots 112 to 115 wirelessly transmit the local information acquired by searching the search section assigned to the robot 112 to the robot 111. Here, the local information acquired by each of the robots 112 to 115 and wirelessly transmitted to the robot 111 may include, for example, ultrasonic information, infrared information, laser information, camera information, odometry, and the like.

このとき、探索範囲の地図の作成に参加するロボットの数は、探索時間が過度にかかるのを防止できるように、探索範囲の広さに比例して増減させることが好ましい。   At this time, it is preferable to increase or decrease the number of robots participating in the creation of the search range map in proportion to the size of the search range so as to prevent excessive search time.

図2は、本発明による群集の知能ロボットを用いた地図構築装置のブロック構成図であって、インターフェースブロック202、相対位置獲得ブロック204、探索区域分割ブロック206、ローカル情報収集ブロック208及び統合環境地図生成ブロック210などを含むことができ、統合環境地図生成ブロック210は、特徴点抽出ブロック2102、併合マッチングブロック2104及び地図作成ブロック2106などを含むことができる。   FIG. 2 is a block diagram of the map construction apparatus using the intelligent robot of the crowd according to the present invention, and includes an interface block 202, a relative position acquisition block 204, a search area division block 206, a local information collection block 208, and an integrated environment map. The integrated environment map generation block 210 may include a feature point extraction block 2102, a merge matching block 2104, a map creation block 2106, and the like.

図2を参照すれば、相対位置獲得ブロック204は、インターフェースブロック202を通じて各ロボット112〜115との無線データの送受信を行ってロボット111を基準に各ロボット112〜115の相対距離を測定し、この測定された相対距離による各ロボット間の相対位置(各ロボット間の相対距離に基づいて生成した相対的な座標値)を検出(認識)して共有する機能を提供できるが、この際に検出される各ロボット間の相対位置情報は探索区域分割ブロック206に伝達される。   Referring to FIG. 2, the relative position acquisition block 204 transmits / receives wireless data to / from the robots 112 to 115 through the interface block 202 to measure the relative distances of the robots 112 to 115 with respect to the robot 111. It is possible to provide a function to detect (recognize) and share the relative position between robots (relative coordinate values generated based on the relative distance between robots) based on the measured relative distance. The relative position information between the robots is transmitted to the search area division block 206.

ここで、各ロボット間の相対距離は、例えば、ネットワーク基盤のWPAN又はWLAN信号を用いたRTT(Round Trip Time)技法の1つであるTWR(Two Way Ranging)技法を用いて測定され得る。   Here, the relative distance between each robot can be measured using, for example, a TWR (Two Way Ranging) technique which is one of RTT (Round Trip Time) techniques using a network-based WPAN or WLAN signal.

次に、探索区域分割ブロック206は、相対位置獲得ブロック204から伝達された相対位置に基づいて探索範囲全体を各ロボット別の探索区域に分割、一例として、図3に示すように、探索範囲全体320に環境地図全体の作成のための1つのロボット311と4つの群集知能ロボット312〜315が属している場合と仮定するとき、ロボット312には探索区域321が分割され(割り当てられ)、ロボット313には探索区域322が分割され(割り当てられ)、ロボット314には探索区域323が分割され(割り当てられ)、ロボット315には探索区域324が分割され得る(割り当てられ得る)。   Next, the search area division block 206 divides the entire search range into search areas for each robot based on the relative position transmitted from the relative position acquisition block 204. For example, as shown in FIG. When it is assumed that one robot 311 and four crowd intelligence robots 312 to 315 for creating the entire environment map belong to 320, the search area 321 is divided (assigned) to the robot 312, and the robot 313. The search area 322 may be divided (assigned), the robot 314 may be divided (assigned), and the robot 315 may be divided (assigned).

ここで、探索区間は該当ロボットの位置から相対的に近い領域に指定され、隣接する探索区域同士は一定領域だけオーバーラップされるように指定され得るが、これは作成地図の精度を増進させるためである。即ち、図3において、参照符号OL1はロボット312とロボット313の探索区間がオーバーラップされる重複領域を、参照符号OL2はロボット313とロボット314の探索区間がオーバーラップされる重複領域を、参照符号OL3はロボット314とロボット315の探索区間がオーバーラップされる重複領域をそれぞれ示す。   Here, the search section may be specified as an area relatively close to the position of the corresponding robot, and adjacent search areas may be specified to overlap each other by a certain area, but this is to improve the accuracy of the created map. It is. That is, in FIG. 3, reference numeral OL1 indicates an overlapping area where the search sections of the robot 312 and robot 313 overlap, and reference numeral OL2 indicates an overlapping area where the search sections of the robot 313 and robot 314 overlap. OL3 indicates an overlapping area where the search sections of the robot 314 and the robot 315 overlap.

また、探索区域分割ブロック206は、各ロボットが自身に割り当てられた探索区域を探索できるように、各ロボットに対してそれぞれ割り当てたそれぞれの探索区域情報をインターフェースブロック202を通じて該当する各ロボットに無線伝送でき、各ロボット別の探索区間情報をローカル情報収集ブロック208に伝達できる。   The search area division block 206 wirelessly transmits each search area information assigned to each robot to the corresponding robot through the interface block 202 so that each robot can search the search area assigned to itself. The search section information for each robot can be transmitted to the local information collection block 208.

そして、ローカル情報収集ブロック208は、各ロボット112〜115から地図の生成のために用いられるローカル情報(例えば、超音波情報、赤外線情報、レーザ情報、カメラ情報、オドメトリなど)をそれぞれ獲得、即ち、各ロボット112〜115が自身にそれぞれ割り当てられた探索区域での走行を通じて獲得したローカル情報をインターフェースブロック202を通じて収集して各ロボット別の区分子情報及び探索区間情報と共に統合環境地図生成ブロック210に伝達するなどの機能を提供できる。   The local information collection block 208 acquires local information (for example, ultrasonic information, infrared information, laser information, camera information, odometry, etc.) used for generating a map from each of the robots 112 to 115, that is, Local information acquired by each robot 112-115 through traveling in the search area assigned to each robot 112 is collected through the interface block 202 and transmitted to the integrated environment map generation block 210 together with the molecular information and search section information for each robot. Can provide functions such as

次に、統合環境地図生成ブロック210は、例えば、SLAMアルゴリズムの実行を通じてローカル情報収集ブロック208から伝達される各ロボット別のローカル情報を併合して環境地図全体を生成するなどの機能を提供できるものであって、このために特徴点抽出ブロック2102、併合マッチングブロック2104及び地図作成ブロック2106などを含むことができる。   Next, the integrated environment map generation block 210 can provide a function of, for example, generating the entire environment map by merging the local information for each robot transmitted from the local information collection block 208 through execution of the SLAM algorithm. For this, a feature point extraction block 2102, a merge matching block 2104, a map creation block 2106, and the like can be included.

まず、特徴点抽出ブロック2102は、例えば分離と結合(split and merge)アルゴリズム及び/又はSIRF(Scale Invarant Feature Transform)アルゴリズムを利用することによって、各ローカル情報から特徴点(例えば、直線、曲線、特定パターンなど)を抽出する機能を提供できるが、ここで抽出される特徴点は、ランドマーク又は特定パターンに対する特徴点を意味し得る。   First, the feature point extraction block 2102 uses, for example, a split and merge algorithm and / or a SIRF (Scale Invariant Feature Transform) algorithm to extract feature points (for example, straight lines, curves, identifications) from each local information. The feature points extracted here may mean landmarks or feature points with respect to a specific pattern.

次に、併合マッチングブロック2104は、ローカル情報が近くのロボットの情報であるかを判断、即ち、各ロボット別の探索区間情報と各ロボット別のローカル情報間のマッチングを通じて、図3に一例として示すように、重複領域OL1、OL2、OL3に該当する映像情報であるかを判断し、重複領域に該当する映像情報であると判断されるとき、該当ロボット間のマッチングを行って互いに一致する部分の特徴点を併合させるなどの機能を提供する。ここで、マッチング作業を通じて互いに一致する部分の特徴点を併合させることは、地図の作成における計算量を低減させるためである。即ち、併合マッチングブロック2104は、マッチング作業を通じて同じ情報に対する映像情報の存否を確認した後、同じ情報であるとき、これを1つに併合させ、そうでない場合、併合対象から除外させる。   Next, the merge matching block 2104 determines whether the local information is information of a nearby robot, that is, through matching between the search section information for each robot and the local information for each robot, as shown in FIG. As described above, it is determined whether the video information corresponds to the overlap areas OL1, OL2, OL3. When the video information is determined to be the video information corresponding to the overlap area, matching between the corresponding robots is performed. Provides functions such as merging feature points. Here, merging the feature points of the portions that match each other through the matching operation is to reduce the amount of calculation in creating the map. That is, the merge matching block 2104, after confirming the presence or absence of video information for the same information through the matching operation, merges the same information into one, otherwise excludes it from the merge target.

最後に、地図作成ブロック2106は、特徴点抽出ブロック2102を通じて抽出された特徴点及び併合マッチングブロック2104を通じて併合された特徴点を用いて各ロボットが獲得したローカル情報を融合することで、探索範囲に対する環境地図全体を作成するなどの機能を提供できる。   Finally, the map creation block 2106 combines the local information acquired by each robot using the feature points extracted through the feature point extraction block 2102 and the feature points merged through the merge matching block 2104, so that Functions such as creating the entire environmental map can be provided.

次に、前述したような構成を有する地図構築装置を通じて群集の知能ロボットを用いて環境地図全体を作成する一連の過程について説明する。   Next, a series of processes for creating the entire environmental map using the crowd intelligent robots through the map construction apparatus having the above-described configuration will be described.

図4は、本発明によって群集の知能ロボットを用いて地図を構築する主要過程を示す順序図である。   FIG. 4 is a flowchart illustrating a main process for constructing a map using an intelligent robot of a crowd according to the present invention.

図4を参照すれば、相対位置獲得ブロック204ではインターフェースブロック202を通じて各ロボット112〜115との無線データの送受信を行ってロボット111を基準に各ロボット112〜115の相対距離を測定し、この測定された相対距離による各ロボット間の相対位置(各ロボット間の相対距離に基づいて生成した相対的な座標値)を検出して探索区間分割ブロック206に伝達する(段階402)。ここで、各ロボット間の相対距離は、例えばネットワーク基盤のWPAN又はWLAN信号を用いたRTT技法の1つであるTWR技法を用いて測定され得る。   Referring to FIG. 4, the relative position acquisition block 204 transmits / receives wireless data to / from the robots 112 to 115 through the interface block 202 to measure the relative distances of the robots 112 to 115 with reference to the robot 111. The relative position between the robots based on the relative distance (relative coordinate value generated based on the relative distance between the robots) is detected and transmitted to the search section division block 206 (step 402). Here, the relative distance between the robots can be measured using a TWR technique, which is one of RTT techniques using a network-based WPAN or WLAN signal, for example.

これに応答して、探索区域分割ブロック206では検出された各ロボット間の相対位置に基づいて探索範囲全体を各ロボット別の探索区域に分割する(段階404)。一例として、図3に示すように、全体の探索範囲320に環境地図全体の作成のための1つのロボット311と4つの群集知能ロボット312〜315が属している場合と仮定するとき、ロボット312には探索区域321を分割し(割り当て)、ロボット313には探索区域322を分割し(割り当て)、ロボット314には探索区域323を分割し(割り当て)、ロボット315には探索区域324を分割(割り当て)できる。ここで、探索区間は該当ロボットの位置から相対的に近い領域に指定され、隣接する探索区域同士は一定領域だけオーバーラップされるように指定され得る。   In response to this, the search area dividing block 206 divides the entire search area into search areas for each robot based on the detected relative positions between the robots (step 404). As an example, as shown in FIG. 3, when it is assumed that one robot 311 and four crowd intelligence robots 312 to 315 for creating the entire environment map belong to the entire search range 320, Divides (assigns) the search area 321, divides (assigns) the search area 322 to the robot 313, divides (assigns) the search area 323 to the robot 314, and divides (assigns) the search area 324 to the robot 315. )it can. Here, the search section may be specified as an area relatively close to the position of the corresponding robot, and adjacent search areas may be specified to overlap each other by a certain area.

次に、探索区域分割ブロック206では各ロボットに対してそれぞれ割り当てたそれぞれの探索区域情報をインターフェースブロック202を通じて該当する各ロボットに無線伝送し(段階406)、その結果、各ロボットは自身に割り当てられた探索区間を走行しながら、ローカル情報を収集するようになる。   Next, in the search area division block 206, each search area information assigned to each robot is wirelessly transmitted to each corresponding robot through the interface block 202 (step 406). As a result, each robot is assigned to itself. Local information is collected while traveling in the search section.

即ち、探索範囲にある各ロボットは自身に割り当てられた探索区間を走行しながら、ローカル情報(例えば、超音波情報、赤外線情報、レーザ情報、カメラ情報、オドメトリなど)を収集し、この収集されたローカル情報を環境地図全体を作成するロボットに無線伝送するが、このような各ロボット別のローカル情報はインターフェースブロック202を通じてローカル情報収集ブロック208に受信(ローカル情報の獲得)される(段階408)。   That is, each robot in the search range collects local information (for example, ultrasonic information, infrared information, laser information, camera information, odometry, etc.) while traveling in the search section assigned to itself, and this collected The local information is wirelessly transmitted to the robot that creates the entire environment map. Such local information for each robot is received by the local information collection block 208 through the interface block 202 (local information acquisition) (step 408).

そして、ローカル情報収集ブロック208では各ロボットから獲得したローカル情報を各ロボット別の区分子情報及び探索区間情報と共に統合環境地図生成ブロック210に伝達するが、まず特徴点抽出ブロック2102では各ローカル情報から特徴点(例えば、直線、曲線、特定パターンなど)を抽出するが(段階410)、このような特徴点の抽出は、例えば、分離と結合アルゴリズム及び/又はSIRFアルゴリズムを用いて実行され得る。   In the local information collection block 208, local information acquired from each robot is transmitted to the integrated environment map generation block 210 together with the segment molecule information and search section information for each robot. First, in the feature point extraction block 2102, the local information is extracted from each local information. Although feature points (eg, straight lines, curves, specific patterns, etc.) are extracted (step 410), extraction of such feature points may be performed using, for example, a separation and combination algorithm and / or a SIRF algorithm.

次に、併合マッチングブロック2104ではローカル情報が近くのロボットの情報であるかを判断、即ち、各ロボット別の探索区間情報と各ロボット別のローカル情報間のマッチングを通じて、図3に一例として示すように、重複領域OL1、OL2、OL3に該当する映像情報であるかを判断するが(段階412)、ここでの判断結果、ローカル情報が近くのロボットの情報(重複領域の映像情報)でないと判断されれば、該当情報を併合対象から除外させる(段階414)。   Next, the merge matching block 2104 determines whether the local information is information on a nearby robot, that is, through matching between the search section information for each robot and the local information for each robot, as shown in FIG. Then, it is determined whether the video information corresponds to the overlapping areas OL1, OL2, OL3 (step 412). However, as a result of the determination, it is determined that the local information is not the information of the nearby robot (video information of the overlapping area). If so, the corresponding information is excluded from the merge target (step 414).

前記段階(412)での判断結果、ローカル情報が近くのロボットの情報(重複領域の映像情報)であると判断されれば、併合マッチングブロック2104では該当ロボット間のローカル情報マッチングを行って互いに一致する部分の特徴点を併合させる併合マッチングを行う(段階416)。即ち、併合マッチングブロック2104は、マッチング作業を通じて同じ情報に対する映像情報の存否を確認した後、同じ情報であるとき、これを1つに併合させ、そうでない場合、併合対象から除外させる。   If it is determined in the step (412) that the local information is information on a nearby robot (video information of the overlapping area), the merge matching block 2104 performs local information matching between the robots to match each other. Merge matching is performed to merge the feature points of the part to be merged (step 416). That is, the merge matching block 2104, after confirming the presence or absence of video information for the same information through the matching operation, merges the same information into one, otherwise excludes it from the merge target.

次に、地図作成ブロック2106では抽出された特徴点及び併合された特徴点を用いて各ロボットが獲得したローカル情報を融合することで、探索範囲に対する環境地図全体を作成する(段階418)。   Next, the map creation block 2106 creates the entire environment map for the search range by fusing the local information acquired by each robot using the extracted feature points and the merged feature points (step 418).

以上の説明では、本発明の好適な実施形態を提示して説明したが、本発明は必ずしもこれに限定されるものではなく、本発明の属する技術分野において通常の知識を有する者であれば、本発明の技術的思想から逸脱しない範囲内で様々な置換、変形及び変更が可能であることが容易に分かる。   In the above description, a preferred embodiment of the present invention has been presented and described. However, the present invention is not necessarily limited thereto, and any person having ordinary knowledge in the technical field to which the present invention belongs can be used. It can be easily understood that various substitutions, modifications and changes can be made without departing from the technical idea of the present invention.

202 インターフェースブロック
204 相対位置獲得ブロック
206 探索区間分割ブロック
208 ローカル情報収集ブロック
210 統合環境地図生成ブロック
2102 特徴点抽出ブロック
2104 併合マッチングブロック
2106 地図作成ブロック
202 Interface block 204 Relative position acquisition block 206 Search section division block 208 Local information collection block 210 Integrated environment map generation block 2102 Feature point extraction block 2104 Merge matching block 2106 Map generation block

Claims (20)

各ロボット間の相対距離を測定して前記各ロボット間の相対位置を検出する過程と、
検出された相対位置に基づいて各ロボット別の探索区域を分割する過程と、
分割された各探索区域情報を対応する前記各ロボットに伝送する過程と、
前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得する過程と、
獲得された各ローカル情報を融合して環境地図全体を生成する過程と
を含む群集の知能ロボットを用いた地図構築方法。
Measuring the relative distance between each robot to detect the relative position between each robot;
Dividing the search area for each robot based on the detected relative position;
Transmitting the divided search area information to the corresponding robots;
Obtaining local information used for generating a map from each robot;
A method of constructing a map using intelligent robots of the crowd, including a process of generating an entire environmental map by fusing each acquired local information.
前記相対距離は、
TWR技法を通じて測定されることを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。
The relative distance is
The map construction method using the intelligent robot of the crowd according to claim 1, wherein the map construction is measured through a TWR technique.
前記相対位置は、
前記各ロボット間の相対距離に基づいて生成した相対的な座標値であることを特徴とする請求項2に記載の群集の知能ロボットを用いた地図構築方法。
The relative position is
The map construction method using the intelligent robot of the crowd according to claim 2, wherein the coordinate values are generated based on a relative distance between the robots.
分割された各探索区域のそれぞれは、
隣接する区域同士がオーバーラップ指定されることを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。
Each of the divided search areas is
The map construction method using the intelligent robot of the crowd according to claim 1, wherein adjacent areas are designated to overlap.
前記ローカル情報は、
超音波、赤外線、レーザ、カメラ、オドメトリを含むことを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。
The local information is
The map construction method using the intelligent robot of the crowd according to claim 1, comprising ultrasonic waves, infrared rays, lasers, cameras, and odometry.
前記環境地図全体を生成する過程は、
各ローカル情報から特徴点を抽出する過程と、
前記各ローカル情報が近くのロボットのローカル情報であるかをチェックする過程と、
前記近くのロボットの情報であるとき、該当ロボット間のマッチングを行って互いに一致する部分の特徴点を併合する過程と、
抽出された特徴点及び併合された特徴点を用いて前記環境地図全体を作成する過程と
を含むことを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。
The process of generating the entire environmental map is as follows:
A process of extracting feature points from each local information;
Checking whether each local information is local information of a nearby robot;
When it is information of the nearby robot, the process of performing matching between the corresponding robots and merging the feature points of the matching parts,
The map construction method using the intelligent robot according to claim 1, further comprising: creating the entire environment map using the extracted feature points and the merged feature points.
前記特徴点の抽出は、
分離と結合アルゴリズムを通じて行われることを特徴とする請求項6に記載の群集の知能ロボットを用いた地図構築方法。
The feature points are extracted as follows:
The map construction method using the intelligent robot of the crowd according to claim 6, wherein the map construction is performed through a separation and combination algorithm.
前記特徴点の抽出は、
SIRFアルゴリズムを通じて行われることを特徴とする請求項6に記載の群集の知能ロボットを用いた地図構築方法。
The feature points are extracted as follows:
The map construction method using the intelligent robot of the crowd according to claim 6, wherein the map construction is performed through a SIRF algorithm.
前記特徴点は、
ランドマーク又は特定パターンに対する特徴点であることを特徴とする請求項7又は8に記載の群集の知能ロボットを用いた地図構築方法。
The feature points are
The map construction method using the intelligent robot of the crowd according to claim 7 or 8, wherein the map is a feature point with respect to a landmark or a specific pattern.
前記環境地図全体は、
SLAMアルゴリズムを用いて作成されることを特徴とする請求項1に記載の群集の知能ロボットを用いた地図構築方法。
The entire environmental map is
The map construction method using the intelligent robot according to claim 1, wherein the map construction method is created using a SLAM algorithm.
各ロボット間の相対位置を検出して共有する相対位置獲得ブロックと、
前記検出された相対位置に基づいて各ロボット別の探索区域を分割する探索区域分割ブロックと、
前記各ロボットから地図の生成のために用いられるローカル情報をそれぞれ獲得するローカル情報収集ブロックと、
獲得された各ローカル情報を融合して環境地図全体を生成する統合環境地図生成ブロックと
を備える群集の知能ロボットを用いた地図構築装置。
A relative position acquisition block that detects and shares the relative position between each robot;
A search area dividing block that divides the search area for each robot based on the detected relative position;
A local information collection block for acquiring local information used for generating a map from each robot;
A map construction apparatus using an intelligent robot of a crowd comprising: an integrated environment map generation block that generates an entire environment map by fusing each acquired local information.
前記相対位置獲得ブロックは、
TWR技法を通じて測定される相対距離を通じて前記相対位置を検出することを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。
The relative position acquisition block is:
The map construction apparatus using the intelligent robot of the crowd according to claim 11, wherein the relative position is detected through a relative distance measured through a TWR technique.
前記相対位置は、
前記各ロボット間の相対距離に基づいて生成した相対的な座標値であることを特徴とする請求項12に記載の群集の知能ロボットを用いた地図構築装置。
The relative position is
The map construction apparatus using the intelligent robot of the crowd according to claim 12, wherein the coordinate values are generated based on a relative distance between the robots.
前記探索区域分割ブロックは、
隣接する区域同士がオーバーラップされるように、前記各探索区域を指定することを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。
The search area division block is:
The map construction apparatus using the intelligent robot according to claim 11, wherein the search areas are specified so that adjacent areas overlap each other.
前記ローカル情報は、
超音波、赤外線、レーザ、カメラ、オドメトリを含むことを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。
The local information is
The map construction apparatus using the intelligent robot of the crowd according to claim 11, comprising an ultrasonic wave, an infrared ray, a laser, a camera, and odometry.
前記統合環境地図生成ブロックは、
前記各ローカル情報から特徴点を抽出する特徴点抽出ブロックと、
ローカル情報が近くのロボットの情報であるとき、該当ロボット間のマッチングを行って互いに一致する部分の特徴点を併合する併合マッチングブロックと、
抽出された特徴点及び併合された特徴点を用いて前記環境地図全体を作成する地図作成ブロックと
を備えることを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。
The integrated environment map generation block includes:
A feature point extraction block for extracting feature points from the local information;
When the local information is information on nearby robots, a matching matching block that performs matching between the corresponding robots and merges feature points of parts that match each other, and
The map construction apparatus using the intelligent robot according to claim 11, further comprising: a map creation block that creates the entire environment map using the extracted feature points and the merged feature points.
前記特徴点抽出ブロックは、
分離と結合アルゴリズムを通じて前記特徴点を抽出することを特徴とする請求項16に記載の群集の知能ロボットを用いた地図構築装置。
The feature point extraction block includes:
The map construction apparatus using the intelligent robot of the crowd according to claim 16, wherein the feature points are extracted through a separation and combination algorithm.
前記特徴点抽出ブロックは、
SIRFアルゴリズムを通じて前記特徴点を抽出することを特徴とする請求項16に記載の群集の知能ロボットを用いた地図構築装置。
The feature point extraction block includes:
The map construction apparatus using the crowd intelligent robot according to claim 16, wherein the feature points are extracted through an SIRF algorithm.
前記特徴点は、
ランドマーク又は特定パターンに対する特徴点であることを特徴とする請求項17又は18に記載の群集の知能ロボットを用いた地図構築装置。
The feature points are
The map construction apparatus using the intelligent robot of the crowd according to claim 17 or 18, wherein the map construction apparatus is a feature point with respect to a landmark or a specific pattern.
前記統合環境地図生成ブロックは、
SLAMアルゴリズムを用いて前記環境地図全体を生成することを特徴とする請求項11に記載の群集の知能ロボットを用いた地図構築装置。
The integrated environment map generation block includes:
The map construction apparatus using the intelligent robot according to claim 11, wherein the entire environment map is generated using a SLAM algorithm.
JP2012220206A 2011-11-22 2012-10-02 Map creation method using group of intelligent robots and device for the same Withdrawn JP2013109325A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0122262 2011-11-22
KR1020110122262A KR20130056586A (en) 2011-11-22 2011-11-22 Method and apparatus for building map by using collective intelligent robots

Publications (1)

Publication Number Publication Date
JP2013109325A true JP2013109325A (en) 2013-06-06

Family

ID=48664576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012220206A Withdrawn JP2013109325A (en) 2011-11-22 2012-10-02 Map creation method using group of intelligent robots and device for the same

Country Status (2)

Country Link
JP (1) JP2013109325A (en)
KR (1) KR20130056586A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105729474A (en) * 2016-04-26 2016-07-06 昆山易捷联控制系统研发科技有限公司 Intelligent carrying robot
CN106339001A (en) * 2015-07-09 2017-01-18 松下电器(美国)知识产权公司 Map Production Method, Mobile Robot, And Map Production System
JP2018206038A (en) * 2017-06-02 2018-12-27 株式会社Ihi Point group data processing device, mobile robot, mobile robot system, and point group data processing method
WO2019199112A1 (en) * 2018-04-13 2019-10-17 (주)랜도르아키텍쳐 Autonomous work system and method, and computer-readable recording medium
JP2020042013A (en) * 2018-09-12 2020-03-19 百度在線網絡技術(北京)有限公司 Distance measuring method based on laser radar system, distance measuring device based on laser radar system, and computer-readable storage medium
CN111813102A (en) * 2020-06-06 2020-10-23 浙江中力机械有限公司 Distributed autonomous robot environment map construction method
JP2021157283A (en) * 2020-03-25 2021-10-07 Tis株式会社 Programs, autonomous mobile device management devices, management methods and management systems
CN114383611A (en) * 2021-12-30 2022-04-22 华南智能机器人创新研究院 A multi-machine collaborative laser SLAM method, device and system for a mobile robot
JP2024532299A (en) * 2021-08-24 2024-09-05 グーグル エルエルシー System and method for generating a three-dimensional map of an indoor space - Patents.com

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101616345B1 (en) 2013-07-12 2016-04-28 인하대학교 산학협력단 Complex scaffold comprising nanofiber with nanoparticle to drug-delivery for artificial skin and filler, and method for preparing the same
KR101505129B1 (en) * 2013-08-19 2015-03-23 부경대학교 산학협력단 Method for location recognization using system for location recognization and mapping using laser scanner
KR101976241B1 (en) * 2016-01-22 2019-08-28 경희대학교 산학협력단 Map building system and its method based on multi-robot localization
AU2017256477A1 (en) 2016-04-25 2018-12-13 Lg Electronics Inc. Mobile robot, system for multiple mobile robots, and map learning method of mobile robot
KR102596752B1 (en) * 2016-10-05 2023-11-01 엘지전자 주식회사 Airport robot and airport robot system
KR102198187B1 (en) * 2018-12-28 2021-01-04 엘지전자 주식회사 Moving robot
KR102177164B1 (en) 2019-05-28 2020-11-11 경북대학교 산학협력단 modular unit mobile robot system and automatic combination method therefor
KR102808022B1 (en) * 2020-04-14 2025-05-19 한국전자통신연구원 Multi-agent based personal and robot collaboration system and method
CN112617672B (en) * 2020-12-16 2022-11-04 美的集团股份有限公司 Sweeping method and device of sweeping robot
KR20230079670A (en) 2021-11-29 2023-06-07 전진택 Path tracking device and method for agricultural self-driving robot.
KR102692853B1 (en) * 2021-12-17 2024-08-06 주식회사 케이티 System for generation of indoor map, autonomous robot and method for creating indoor map using multi-robot
KR20240053162A (en) 2022-10-17 2024-04-24 국립금오공과대학교 산학협력단 Grid Map Merging with Spectra-based PSO for Multi-Robot SLAM
KR102914554B1 (en) * 2023-07-11 2026-01-19 코가로보틱스 주식회사 Decentralized robot controlling apparatus
KR20250077995A (en) 2023-11-24 2025-06-02 윤남일 Driving control system for robots for green houses
KR20250119929A (en) 2024-02-01 2025-08-08 엘아이지넥스원 주식회사 System of equal division and optimal allocation of search area for group robots

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106339001B (en) * 2015-07-09 2021-01-08 松下电器(美国)知识产权公司 Map generation method, mobile robot, and map generation system
CN106339001A (en) * 2015-07-09 2017-01-18 松下电器(美国)知识产权公司 Map Production Method, Mobile Robot, And Map Production System
JP2017021791A (en) * 2015-07-09 2017-01-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Map generation method, mobile robot, and map generation system
CN105729474A (en) * 2016-04-26 2016-07-06 昆山易捷联控制系统研发科技有限公司 Intelligent carrying robot
JP2018206038A (en) * 2017-06-02 2018-12-27 株式会社Ihi Point group data processing device, mobile robot, mobile robot system, and point group data processing method
JP7032062B2 (en) 2017-06-02 2022-03-08 株式会社Ihi Point cloud data processing device, mobile robot, mobile robot system, and point cloud data processing method
US11820001B2 (en) 2018-04-13 2023-11-21 Landor Architecture, Inc. Autonomous working system, method and computer readable recording medium
WO2019199112A1 (en) * 2018-04-13 2019-10-17 (주)랜도르아키텍쳐 Autonomous work system and method, and computer-readable recording medium
US12304058B2 (en) 2018-04-13 2025-05-20 Landor Architecture, Inc. Autonomous working system, method and computer readable recording medium
JP2020042013A (en) * 2018-09-12 2020-03-19 百度在線網絡技術(北京)有限公司 Distance measuring method based on laser radar system, distance measuring device based on laser radar system, and computer-readable storage medium
US11656356B2 (en) 2018-09-12 2023-05-23 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Ranging method based on laser radar system, device and readable storage medium
JP2021157283A (en) * 2020-03-25 2021-10-07 Tis株式会社 Programs, autonomous mobile device management devices, management methods and management systems
JP7466144B2 (en) 2020-03-25 2024-04-12 Tis株式会社 PROGRAM, AUTONOMOUS MOBILE DEVICE MANAGEMENT DEVICE, MANAGEMENT METHOD AND MANAGEMENT SYSTEM
CN111813102A (en) * 2020-06-06 2020-10-23 浙江中力机械有限公司 Distributed autonomous robot environment map construction method
CN111813102B (en) * 2020-06-06 2023-11-21 浙江中力机械股份有限公司 A method for constructing environment maps for distributed autonomous robots
JP2024532299A (en) * 2021-08-24 2024-09-05 グーグル エルエルシー System and method for generating a three-dimensional map of an indoor space - Patents.com
JP7713588B2 (en) 2021-08-24 2025-07-25 グーグル エルエルシー System and method for generating a three-dimensional map of an indoor space - Patents.com
CN114383611A (en) * 2021-12-30 2022-04-22 华南智能机器人创新研究院 A multi-machine collaborative laser SLAM method, device and system for a mobile robot

Also Published As

Publication number Publication date
KR20130056586A (en) 2013-05-30

Similar Documents

Publication Publication Date Title
JP2013109325A (en) Map creation method using group of intelligent robots and device for the same
Zhao et al. BIM-based indoor mobile robot initialization for construction automation using object detection
EP3136128B1 (en) Trajectory matching using peripheral signal
KR101439921B1 (en) Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR101739996B1 (en) Moving robot and simultaneous localization and map-buliding method thereof
US12222457B2 (en) LIDAR system design to mitigate LIDAR cross-talk
Wang et al. Keyframe based large-scale indoor localisation using geomagnetic field and motion pattern
CN109084784B (en) Method for building digital maps for automated vehicles
TWI772743B (en) Information processing device and mobile robot
CN103781685A (en) Autonomous driving control system for vehicle
EP3205127B1 (en) A method of setting up a tracking system
US11898869B2 (en) Multi-agent map generation
Azghadi et al. An adaptive indoor localization approach using wifi rssi fingerprinting with slam-enabled robotic platform and deep neural networks
Jametoni et al. A study on autonomous drone positioning method
CN110988795A (en) Mark-free navigation AGV global initial positioning method integrating WIFI positioning
JP5765163B2 (en) Self-position estimation apparatus, method, and program
Godil et al. 3D ground-truth systems for object/human recognition and tracking
JP2019074374A (en) Position orientating system and position orientating method
CN116734829A (en) Edge-assisted non-line-of-sight pose estimation method and system for mine monorail crane robot
KR20090047639A (en) Apparatus and method for obtaining position of artificial marker
KR102068688B1 (en) location recognition system of multi-robot
US20210263531A1 (en) Mapping and simultaneous localisation of an object in an interior environment
Lee et al. Indoor localization method based on sequential motion tracking using topological path map
US11726487B1 (en) Method for robotic devices to identify doorways using machine learning
Hong et al. An Indoor Location-Tracking Using Wireless Sensor Networks Cooperated with Relative Distance Finger Printing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150917

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160303